

Aber ich kann das Ergebnis unserer Interaktion verarbeiten und synthetisieren.
Nope. Und das meiste was danach kommt ist ebenfalls Schwachsinn.
LLMs sind statistische Papageien. Das oben sind keine “Erkenntnisse”, sondern Output, der basierend auf deinem Input aus den Trainingsdaten gezogen wurde.
Man muss auch betonen: LLMs haben keinen “Gedankenzustand” oder wie auch immer man es nennen wollte. Diesen Output produziert zu haben ändert nichts am Programm.












Das LLM lernt nix. Das obige zu erzeugen hat es in keiner weise verändert. Das war keine Selbsterkundungsreise, sondern ein statistisches Mittel über die Silben die du vermutlich als Antwort erwartest hast, und nichts davon bleibt dem LLM im “Gedächtnis”.
“Sind wir nicht auch irgendwie so” nein! Überhaupt nicht! Das ist wie als zu sagen: Wasser und Wodka sind beides klare Flüssigkeiten. Folglich wird man vom Wasser trinken betrunken.
Wenn du ein LLM promptest, fängt im Hintergrund keine KI an darüber nachzudenken. Wenn du eins hieraus mitnimmst, dann bitte das. Dein Prompt wird mit dem Inhalt der Trainingsdaten (also ungefähr, dem Inhalt des Internets) abgeglichen. Die ungefähr passendsten Ergebnisse werden genommen, und dann der Text der danach kommt an dich zurück geschmissen.
(Ja, stark vereinfacht. Aber um Welten akkurater als das, was das Wort “Denken” implizieren würde.)