Vorsicht bei Chatbots: Manipulierte Ergebnisse

pixabay / geralt / Chickenonline // bearbeitet LfDI RLP

 

ChatGPT, Copilot, Perplexity oder Meta AI, all diese Programme sind Chatbots. Für viele einer der häufigsten Berührungspunkte, die man privat mit KI hat. Der Zugang zu KIs wird auch immer einfacher. Angefangen hatten KIs auf ihren eigenen Seiten, auf denen man sich anmelden musste. Mittlerweile haben fast alle Firmen einen Chatbot auf ihren Plattformen eingebaut. Auf Twitter (X) hat die KI Grok einen eigenen Menüpunkt, auf Snapchat und Whatsapp sowie weiteren Apps von Meta kann eine KI in den Direktnachrichten gefunden werden. KI wird dadurch unabdingbar in der Welt des Social Media.

Weil es viel einfacher ist, Informationen von KIs zusammenfassen zu lassen, werden diese Chatbots immer beliebter für Rechercheaufgaben. Das kann natürlich sehr praktisch sein. Es gibt inhaltlich aber einige Probleme, gerade wenn es um politische Themen geht.

Seit der Erfindung von Computern und Internet träumen Menschen von einem allwissenden Programm, dass uns in jeder Lage die Wahrheit nennt. Mit LLMs (Large Language Models), also der Technik hinter den Chatbots, kommen wir sehr nahe dran an diese Entwicklung, doch sind wir immer noch sehr weit davon entfernt. Chatbots sind in diesem Sinne auch gar nicht intelligent. Wenn man an beispielweise ChatGPT eine Anfrage stellt, „denkt“ das System nicht nach und gibt uns eine objektiv perfekte Antwort, sondern es vergleicht Einträge mit denen es „gefüttert“, also trainiert wurde. Diese Daten stammen aus dem Internet, aus Büchern oder auch aus Bildern und Videos und deren Tonspur. Was dabei häufig von der KI gefunden wird, fließt dann auch stärker in die Antwort ein. Dabei kann die KI aber auch falsch interpretieren. LLMs sind also nichts Anderes als Papageien, die Wahrscheinlichkeiten errechnen. 

Mit dieser Funktionsweise macht sich das System allerdings angreifbar. Eine Studie hat nun ergeben, dass Ergebnisse von bekannten Chatbots durch russische Propaganda beeinflusst und manipuliert werden können. Seit Russlands Überfall auf die Ukraine 2022 wurden viele russische Nachrichtenanbieter in westlichen Ländern gesperrt. Dadurch hatten auch LLMs keinen Zugriff auf die dort veröffentlichten Fake-News. Seit April 2022 hat sich allerdings ein gigantisches, wachsendes Netzwerk aufgebaut, dass auch in Europa und den USA weiter Lügen verbreiten kann. Bestehend aus hunderten von Webseiten in verschiedenen Sprachen, die alle die gleichen Schlagzeilen veröffentlichen, manipuliert Russland dadurch nun trotzdem indirekt die KI-Ergebnisse.

Interessant dabei ist, dass die Seiten dieses Netzwerks kaum menschliche Besucher haben. Das Netzwerk ist allein darauf ausgelegt, von KIs gefunden und genutzt zu werden. Denn: Je häufiger etwas im Netz zu finden ist, desto eher wird eine KI es als Fakt anerkennen, auch wenn es offensichtlich gelogen ist.

Sei bei der Nutzung von KI also immer wachsam bei den Ergebnissen und bedenke: KIs sind Werkzeuge, keine intelligenten Wesen.

Mehr:
spiegel.de
heise.de
Studie (Englisch)