Musks KI dreht durch

unsplash / Alexander Shatov

 

Auch Elon Musk versucht sich im Wettlauf um die KI-Vorherrschaft. Mit seiner KI „Grok“, die tief mit Twitter (jetzt X) verbunden ist, versucht er sein Glück. Nun ist er allerdings in den Negativ-Schlagzeilen. Was ist passiert?

Auf X läuft der Chatbot Grok. Dort ist er wie ein normaler Account anschreibbar oder über die Direktnachrichten. In der Vergangenheit war er vor allem dadurch aufgefallen, dass er sich häufiger gegen seinen Schöpfer Elon Musk oder Donald Trump äußerte. Daraufhin hatte Elon Musk Veränderung angekündigt. Diese Änderung wurde ihm allerdings auch zum Verhängnis. Nach der Justierung rollte eine Welle über X: Grok hatte behauptet, Menschen mit jüdischen Nachnamen würden „anti-weiße Propaganda“ verbreiten. Als Lösungsvorschlag für dieses vermeintliche Problem empfahl Grok Adolf Hitler. 

Dass ein Chatbot rassistisch wird, passiert nicht zum ersten Mal. Schon 2016 hatte Microsoft mit einem Chatbot namens „Tay“ versucht, jugendlichen Slang zu erlernen, indem der Bot von den Posts auf Twitter lernt. Es hatte damals nicht einmal 24 Stunden gedauert, bis Tay rassistische Parolen postete oder gar Völkermord unterstützte.

Nun, neun Jahre später, sind Chatbots genug gereift, dass menschenfeindliche Inhalte gefiltert werden sollten. Elon Musk hatte aber Grok anpassen wollen, da ihm der Bot häufiger in den Rücken gefallen war. Als Anpassung wurden nun also die Filter etwas zurückgedreht. Der Schritt ist dabei Teil eines Kulturkampfes Elons Musks gegen die „wokeness“, ein Denken, dass sich vor allem für Freiheit und Toleranz einsetzt.

Dass Grok oder auch Tay plötzlich Rassismus und andere Menschenfeindlichkeit verbreiten, hängt wohl auch mit den Trainingsdaten zusammen. Grok wurde viel mit Daten aus X trainiert, was bei Tay ja offensichtlich schon nicht funktioniert hatte. Darüber hinaus bezieht Grok wohl auch Daten aus anderen, meist unmoderierten Foren, wodurch die KI ungefiltert mit allen möglichen Verschwörungstheorien bis hin zur Menschenfeindlichkeit gefüttert wird. 

Vorerst soll Grok nun aber nochmals angepasst werden und alle von ihr veröffentlichen rassistischen Posts sollen gelöscht werden.

Der Fall zeigt außerdem, wie leicht sich KI Modelle in privater Hand verändern und manipulieren lassen. Das kann sich auch auf den Datenbestand, den die Unternehmen ansammeln, auswirken. Der vermeintliche Schutz von privaten Daten oder die Versprechen der Konzerne, Nutzerdaten und Postings in Social Media nicht beliebig zu verwenden, sind im Zweifel nicht von Dauer. 

Mehr:
wdr.de
zeit.de
spiegel.de
zeit.de (Tay)