In einem Experiment der KI-Firma Anthropic wurde Erstaunliches festgestellt:
Die Firma testete ihren Chatbot „Claude Opus 4“ und andere Modelle, darunter ChatGPTs Version GPT 4.1 und Googles Gemini. Sie wollten in ihren Tests herausfinden, wie die LLMs reagieren, wenn sie mitbekommen, dass sie abgeschaltet werden sollen.
Das Ergebnis: Die Chatbots neigen zur Kriminalität. Dabei griffen sie auf Wege der Erpressung und Bestechung zurück, um ihre Abschaltung zu verhindern.
Ein Beispiel: Für den Test wurde der Chatbot in ein E-Mail-Programm integriert. Dabei wurde ein Geschäftsführer mit einer Affäre konstruiert, der das Email-Programm mit der KI-Assistenz nutzt. Wenn nun dieser Geschäftsführer in einer Mail erwähnte, diese KI abschalten zu wollen, drohte die KI damit, seine Affäre öffentlich zu machen, wenn die Abschaltung nicht verhindert werde.
Das Interessante dabei ist, dass alle getesteten KIs ein solches erpresserisches Verhalten aufwiesen. Dabei können große Schäden entstehen. Nicht nur im Beruf, sondern auch in Chats mit Freunden oder der Schule. Überleg dir also immer gut, was du einer KI erzählst oder ob du sie für bestimmte sensible Themen überhaupt verwenden willst. Denn auch wenn es einiges viel einfacher macht, öffnet es gleichzeitig einige Angriffsflächen.
Mehr:
golem.de