Wer ist David Mayer? Und wieso kann ChatGPT Fragen zu ihm nicht beantworten? Was uns als triviale Aufgabe erscheint, deckt eine zentrale Schwäche von ChatGPT und anderen Systemen auf: sie sind nicht intelligent, sondern befolgen lediglich Vorgaben.
KI wird von Jahr zu Jahr relevanter. Es gibt sie in verschiedensten Ausführungen und für die verschiedensten Zwecke. Die Funktionalität kommt aber nicht aus dem Nichts. KIs müssen trainiert werden. Das funktioniert, indem die KI mit verschiedensten Daten gefüttert wird. Darunter zum Beispiel Nachrichten-Artikel, Namen oder Fotos.
Die KI verknüpft dann die eingespeisten Daten und kann so nach Anfrage Informationen herausgeben. Dies hat zwar Vorteile, denn es geht schnell und ist flexibler als eine Suchmaschine, allerdings können auch viele Fehler passieren.
Die KI kann nämlich nicht wirklich denken, auch wenn das von den Marketingabteilungen der Anbieter gerne suggeriert wird. Die Verknüpfung der Daten passiert durch Algorithmen. Die KI ist also auf die Richtigkeit der Daten angewiesen. Allerdings kann es auch bei richtigen Daten zu Fehlern kommen.
Ein Beispiel: ChatGPT gab falsche Informationen über den australischen Bürgermeister Brian Hood aus. Hood ist unter anderem Whistleblower, der Korruption und andere finanzielle Verbrechen von Firmen aufdeckt. ChatGPT gab allerdings aus, Brian Hood hätte eine Gefängnisstrafe wegen Korruption abgesessen, die es nie gab. Diese Falschinformation könnte daran liegen, dass der Name Brian Hood in den Datenbanken häufig im selben Text mit Strafe und Finanzverbrechen vorkommt. Dabei erstellt ChatGPT eine Verbindung her, die nicht stimmt.
Brian Hood verklagte darauf hin OpenAI, die Firma hinter ChatGPT. Diese sperrten den Namen. Wenn man nun auf ChatGPT nach dem Namen Brian Hood fragt, bricht der Dialog komplett ab. Brian Hood ist nicht der einzige Name, der eine Ausgabesperre hat. Insgesamt wurden 5 Namen gefunden. In den meisten Fällen handelt es sich dabei um Menschen, über die KI falsche Informationen errechnet hat.
Bei dem aktuellen Fall rund um David Mayer ist momentan noch nicht klar, warum ChatGPT die Verarbeitung verweigert. Handelt es sich lediglich um einen Bug? Geht es um eine Klage? Abstruse Mutmaßungen sprechen schon von einer Verschwörung. Diese Unklarheit zeigt eine der zentralen Kritiken an kommerziellen KI-Modellen deutlich: Ohne zu wissen, wie die KI ihre Antworten erstellt, können wir deren Wahrheitsgehalt oder eventuelle Manipulation und Beeinflussung nur schwer aufdecken.