wie wenig machen wir uns klar, dass wir nicht an die welt, sondern die kommunikation grenzen. (Oswald Wiener)
Martin Warnke unternimmt in seinem in der schmalen Buchreihe »Fröhliche Wissenschaft« erschienenen Text eine Entdeckungsreise. Dabei berührt er die Geschichte der LLMs, selten beachtete linguistische Thesen, die Kabbala und die Übersetzungstheorie Walter Benjamins.

Einer seiner Einstiegspunkte ist die bei der Anwendung von KI-Chatbots derzeit noch häufig anzutreffende Erscheinung von »Halluzinationen«, syntaktisch korrekten, aber semantisch unsinnigen Aussagen. Ich selbst habe mir einmal ein Literaturverzeichnis mit den Schriften einer Autorin aus dem 19. Jahrhundert zusammenstellen lassen, in dem 40 Prozent der Titel frei erfunden oder dieser Person unberechtigerweise zugeschrieben waren. Obwohl im Effekt gleich, entstehen Halluzinationen völlig anders als menschliche Konfabulationen. Ich habe das Phänomen in mehreren Seminaren getestet: Eine halbe Stunde nach einer gemeinsam angesehenen TV-Nachrichtensendung wurde nur ein gutes Drittel der einzelnen Beiträge korrekt erinnert, häufig gab es Verwechslungen von Orten und Personen, und fast immer wurden auch hinzuerfundene Nachrichten aufgelistet. Das menschliche Gedächtnis spielt allen von uns aufgrund seiner Plastizität solche Streiche – es gibt keine festen und verlässlichen »Speicherplätze« für Erinnerungen. Bei der KI ist der Grund ein anderer, die Halluzinationen füllen probabilistische Lücken aus, weil es einen Mangel an Inputs oder an Überprüfungen durch Rückkopplungen gibt.
(mehr …)

