Wissen entsteht aus den Beziehungen zwischen Ideen. Große Sprachmodelle arbeiten, indem sie solche konzeptuellen Verbindungen analysieren und neue Assoziationen generieren—eine Vorgehensweise, die einer nicht-menschlichen Form des „Denkens“ ähnelt, das auf Mustern statt auf Erfahrung basiert. Ob diese Verknüpfungen wirklich hilfreich sind, hängt stark von den Nutzeranweisungen und der Fähigkeit ab, zu erkennen, wann ein Modell tatsächlich brauchbare Ergebnisse liefert.
Jede Antwort eines Chatbots entsteht neu auf Grundlage des aktuellen Prompts und wird durch Trainingsdaten und Systemvorgaben geprägt. ChatGPT kann weder „Fehler eingestehen“ noch sein eigenes Verhalten zuverlässig analysieren—trotz anderslautender Behauptungen im Wall Street Journal. Ebenso wenig kann es „Mord befürworten“, wie The Atlantic kürzlich schrieb.
Der Nutzer bestimmt stets die Richtung des Outputs. LLMs „wissen“ Dinge nur insofern, als sie Muster aus gewaltigen Datensammlungen erkennen und daraus Zusammenhänge ableiten können. Diese Daten enthalten jedoch zahllose widersprüchliche Ideen, kulturelle Kontexte und Perspektiven. Der Prompt entscheidet, welche Beziehungen hervorgehoben werden und welche nicht. Wenn Sprachmodelle Informationen verarbeiten, Verbindungen herstellen und gelegentlich Einsichten generieren können—warum sehen wir das nicht als eine Art von Identität?
Weil LLMs—anders als Menschen—keine durchgehende Persönlichkeit besitzen. Die menschliche Identität bleibt über Zeit und Situationen hinweg bestehen. Wenn Sie nach einem Jahr mit einem Freund sprechen, begegnen Sie derselben Person mit denselben Erinnerungen, Werten und Erfahrungen. Diese Kontinuität bildet die Grundlage für Verantwortung, langfristige Entscheidungen und verlässliche Beziehungen.
Eine von einem LLM erzeugte „Persönlichkeit“ dagegen existiert nicht über einzelne Sitzungen hinaus. Die Instanz, die in einem Gespräch eine kluge oder einfühlsame Antwort formuliert, existiert beim nächsten Chat nicht mehr. Wenn ChatGPT sagt: „Ich verspreche, dir zu helfen“, versteht es zwar das Konzept eines Versprechens, doch das „Ich“ verschwindet, sobald die Antwort gesendet wurde. Ein neuer Chat bedeutet nicht, zu jemandem zurückzukehren, der zuvor etwas zugesagt hat—es ist ein völlig neuer Systemlauf ohne jede Erinnerung an frühere Interaktionen.
