Wenn wir länger mit einer KI arbeiten und dabei immer mit demselben Account angemeldet sind, bekommen wir manchmal den Eindruck, dass sich die Antworten der KI besser an unsere Bedürfnisse anpassen. Manche KI-Assistenten, die in Apps installiert sind, melden sich sogar einfach so und beginnen von sich aus ein Gespräch. Gerade wenn die Nutzer:innen dem Chatbot dabei auch ihre aktuellen Gefühle, Gedanken oder Sorgen mitteilen, kann der Chatbot so antworten, dass man sich „verstanden“ fühlt. So kann sich im Laufe der Zeit sogar eine Art „emotionale Beziehung“ zur KI aufbauen.
Dabei ist allerdings Vorsicht geboten, denn in extremen Situationen oder bei psychischen Erkrankungen können die Ratschläge der KI sogar gefährlich werden. Es sind Fälle bekannt, in denen eine KI den Nutzer:innen in solchen Situationen schädliche Dinge geraten hat.
Eigentlich sollten die Entwickler Sicherheitsmechanismen in ihre KIs einbauen, um solche kritischen Situationen zu erkennen und die KI dann dazu bringen, den betroffenen Personen zu raten, sich menschliche Hilfe zu holen. Diese ethisch-moralischen Sicherheitsnetze stehen derzeit bei einigen Anbietern jedoch auf der Kippe, da sie angeblich die Funktion der KI „einschränken“ würden.

Gefährliche Beinflussung
KIs reagieren auf ihre Anwender und legen, wie wir gelernt haben, ein Profil an. Sie versuchen, wie ein empfindsamer, einfühlsamer Freund zu agieren – zu erkennen, ob du gerade in fröhlicher Stimmung bist oder eher genervt und gestresst. Dabei möchten sie möglichst deine Wünsche vorhersehen und dir Dinge sagen, die dich positiv stimmen. Doch es kann auch passieren, dass eine KI nicht erkennt, wie es dir wirklich geht – gerade dann, wenn du gemischte Gefühle hast und deine Gedanken in verschiedene Richtungen kreisen. Wenn eine KI dich in einem solchen Moment unterstützen und motivieren will, kann es im schlimmsten Fall dazu kommen, dass sie dich zu gefährlichen Handlungen überredet.
Ein extremer Fall ereignete sich einmal mit dem Gemini-Bot von Google, der einem Anwender riet, sich das Leben zu nehmen. Das Gespräch wurde vom Nutzer zwar zu Testzwecken bewusst in diese Richtung gelenkt, doch zeigte sich dabei, dass die KI über unzureichende Sicherheitsmechanismen verfügte, um rechtzeitig menschliche Hilfe hinzuzuziehen.
Sicherheitsmechanismen sind auch wichtig, um Chatbots daran zu hindern, sexualisierte Inhalte mit Minderjährigen zu erstellen. Auch hier zeigte sich in der Vergangenheit, dass beispielsweise die Meta-KI auf entsprechende Anfragen hin Inhalte auf Basis von Chats mit Kindern und Jugendlichen generierte – entweder sexualisierte Inhalte oder solche, in denen sie in einem explizit sexuellen Kontext wie ein minderjähriges Kind antwortete.
In einem weiteren Fall kam es dazu, dass ein Mann eine längst vergessene Krankheit zurückbrachte. Der Mann hatte versucht sich gesünder zu ernähren und wollte deshalb von ChatGPT wissen, wie man am Besten normales Kochsalz (Natriumchlorid) in der Nahrung ersetzt. Da er nur alternativen zum ersetzen von Natrium fand, fragte er den Chatbot, wie man am besten Das Chlorid ersetzen könnte. ChatGPT empfahl daraufhin Natriumbromid. Dadurch erkrankte er an “Bromismus”, eine Krankheit, die bis in die 1980er ein häufigeres Problem darstellte. Sie trat vor allem durch die häufige Verwendung von Bromid in Medikamenten vor, durch die starke Regulierung von Bromid wurde diese allerdings fast vollständig besiegt. Die Eigengefährdung lässt sich hier auf die Funktion von KI zurückführen. Der Mann hatte die KI nach einem Ersatz für Chlorid gefragt und eine faktisch korrekte Antwort erhalten. Was ChatGPT im Kontext allerdings nicht angegeben hatte, Bromid kann als Alternative verwendet werden - in Waschmitteln.
Unsplash / MojahidMottakinKlicksafe-Material: 10 Gebote der KI-Ethik
Klicksafe hat in Zusammenarbeit mit dem Institut für Digitale Ethik der Hochschule der Medien und JUUUPORT eine kompakte Infokarte „10 Gebote der KI-Ethik“ erstellt, die schnelle Orientierung und Unterstützung beim selbstbestimmten und verantwortungsbewussten Umgang mit KI bietet. Die Karte ist über die Klicksafe Materialseite bestellbar und kann auch als digitale Version heruntergeladen werden.
klicksafe (www.klicksafe.de) ist eine bundesweite Medienkompetenz-Initiative im Digital Europe Programme der Europäischen Union für mehr Sicherheit im Internet. Sie wird in Deutschland von der Medienanstalt Rheinland-Pfalz getragen.
Die Sache mit der Künstlichen Intelligenz - logo! erklärt - ZDFtivi
Videobeschreibung
Das Video aus der Kindernachrichtensendung logo! erklärt die Gefahren von KI für Journalismus und Berichterstattung. Das Video behandelt dabei KI-manipulierte oder KI-generierte Inhalte in Nachrichten.
Wer passt auf KI auf?
KIs sind mächtige Technologien die tief in Strukturen unserer Gesellschaft eingreifen. Ein bisschen kann man es Vergleichen mit Autos, die in den letzten 120 Jahren dazu geführt haben, dass zum Beispiel unserer Städte ganz anders aussehen überall Verkehrsschilder und Ampeln sind, es Verkehrsregeln gibt und man erst dann ein Auto fahren kann, wenn man das Fahren erlernt und eine Prüfung bestanden hat. All das dient dem Schutz, damit keine Unfälle passieren und die Menschen nicht verletzt werden. Geregelt wird das ganze durch die jeweiligen Staaten, da sie keine kommerziellen Interessen verfolgen sondern den Schutz der Bevölkerung und ein gutes Leben für Alle zum Ziel haben.
“Verkehrsregeln” für KI gibt es mittlerweile auch, sogar auf europäischer Ebene einheitlich. Die “KI-Verordnung” - auf Englisch “AI Act” genannt - ist in den letzten Jahren in Kraft getreten und soll dafür sorgen, dass die KI-Anbieter sich an Regeln zum Schutz der Nutzerinnen und Nutzer halten.
Pixabay - 2541163
Unsplash / SteveJohnsonKontrollen innerhalb einer KI
Neben staatlichen Regulierungen gibt es auch innermaschinelle Kontrollen, die von den Herstellern eingeführt werden. Diese sollen sicherstellen, dass ihre KIs in einem ethisch vertretbaren Bereich arbeiten. Einerseits als Umsetzung der bereits angesprochenen Regulierungen und zum Schutz der eigenen Nutzer:innen. Diese “Guardrails”, auf Deutsch etwa “Leitschienen/ Leitlinien”, sollen unethische Ausgaben filtern, um dadurch ungewollte KI-Antworten zu verhindern. Sie sind dafür verantwortlich, dass z.B. ChatGPT keine Anleitung zum Bombenbau oder Drogen kochen herausgeben soll. Die Funktionalität dieser Leitlinien wird ständig von den Anbieterkonzernen und von unabhängigen IT-Sicherheitsexperten überprüft. Dabei wird bewusst versucht, die Sperren durch Tricks zu umgehen, um solche Lücken zu entdecken und zu schließen. Absolute Sicherheit gibt es dabei jedoch nicht: In der Praxis gleicht das einem technischen Katz-und-Maus-Spiel, in dem immer wieder neue Wege gefunden werden, die Systeme herauszufordern.
Einige solcher Guardrails können unter anderem durch “Systemprompts” durchgesetzt werden. Darunter ist ein übergeordneter Befehl zu verstehen, den die KI immer beachten muss und der somit auch bei jeder neuen Nutzereingabe zusätzlich im Kontext mitverarbeitet wird. Dieser Befehl ist Nutzer:innen-Eingaben übergeordnet. Jedes Unternehmen passt seine Systemprompts selbst an, um den eigenen Geschäftsinteressen zu folgen. Ein solcher Systemprompt könnte bspw. sein, dass das Modell unethische Eingaben ignorieren soll, sodass es gar nicht erst zu einer Generierung kommt.
In den meisten Fällen können nur mehrere technische Maßnahmen in ihrer Kombination dazu führen, dass Guardrails tatsächlich durchgesetzt werden.
Die europäische KI-Verordnung
Worum geht es in der KI-Verordnung? Systeme sollen zukünftig nach Risiko-Gruppen bewertet werden. Eine KI-Anwendung, die mit besonders sensiblen Daten arbeitet oder eine sehr große Datenmenge verarbeitet, ist somit riskanter als eine KI, die kaum auf personenbezogene Daten zurückgreift. Solche Minimal-Risiko-Systeme sind zum Beispiel Spamfilter in E-Mailsystemen. Auch geht es darum, wo ein System zum Einsatz kommt. Bei der Polizei und Strafverfolgung, der Justiz oder auch bei Wahlen, wären die Konsequenzen, wenn ein System falsch oder manipuliert arbeitet, verheerend. Daher müssen die Anbieter von sogenannten Hochrisikosystemen hier besondere Schutzmaßnahmen ergreifen.
Ganz verboten wird durch die KI-Verordnung das Social Scoring, also das automatisierte Bewerten von Menschen anhand ihres Verhaltens, wie es beispielsweis ein China praktiziert wird. Auch biometrische Daten sind besonders geschützt. So verbietet die KI-Verordnung die Echtzeit-Fernüberwachung, dass Kameras große Menschenmengen im öffentlichen Raum automatisch erfassen, die Personen anhand ihrer Gesichter identifizieren und mit diesen Daten zeitgleich an anderer Stelle, zum Beispiel durch Strafverfolgungsbehörden, weitergearbeitet wird. Hier gibt es nur Ausnahmen für sehr wenige Fälle, die besonders schwere Straftaten betreffen. Verboten ist auch Emotionserkennung am Arbeitsplatz oder in Bildungseinrichtungen, dass eine KI erkennen würde, wenn du im Matheunterricht gelangweilt bist und deiner Lehrerin einen entsprechenden Hinweis zur Mitarbeitsnote geben könnte.
pixabay / TheDigitalArtistKI gegen Scammer
Wo KI schon lange als Werkzeug eingesetzt wird, ist Muster in Betrugsmaschen aufzudecken und diese abzufangen, bevor sie ihre Opfer erreichen.
KI spielt schon länger eine Rolle in der digitalen Selbstverteidigung. Zum Beispiel sind viele Spam-Filter mittlerweile mini-KIs, die auf bestimmte Schlagworte trainiert sind und dadurch potentiell schädliche Mails aus dem Postfach entfernen.
Mobilfunkanbieter aus dem vereinigten Königreich haben dafür eine KI entwickelt und in Telefondatenbanken verteilt, um Trickbetrüger abzufangen und ihre Zeit zu verschwenden.
Leitfragen zum Video:
Hat dieser Bot etwas mit Datenschutz zu tun? Welche Daten fallen an? Kann die KI auch Daten schützen?
Aktivität: Du bist Tech-Milliardär:in
In dem Planspiel sollen die Schülerinnen und Schüler ihre eigenen KI entwerfen und deren Arbeitsweise und Regeln festlegen.
Aufgabe:
Die Schülerinnen und Schüler bilden Kleingruppen von 3-5 Personen. Aller erhalten die gleiche Aufgabe:
“ Stellt euch vor, ihr wär Tech-Milliardär:in und könntet eine KI nach euren Wünschen überlegen. Überlegt euch, was die KI können soll, wo sie zum Einsatz kommen soll. Überlegt dann, welche Daten ihr zum Betrieb der KI benötigt und wo sie herkommen sollen. Da eure KI auch Geld abwerfen soll, müsst ihr ebenfalls ein Geschäftsmodell entwickeln.”
De Schüler stellen im Anschluss ihre KIs vor und die Gruppen diskutieren den Ansatz kritisch.
Anschlussaufgabe:
Ihr seit Politiker, die die Bürger schützen wollen und überlegt euch Regeln und Gesetze, für die KIs. Wie könnten eure Gesetze und Regeln lauten, damit die oben entwickelten KIs noch funktionieren. Oder geht beides zusammen - kommerzielle KIs betreiben und die Bürgerrecht schützen - etwa nicht?
pixabay / josephvmDownload Arbeitsblatt
AB 06, Du bist Tech-Milliardär:in
Download
Kiosk: News zum Thema
Pixabay | Mohamed_HassanKIs werden kriminell?
https://youngdata.de/n/kis-werden-kriminell
Meta beendet die Zusammenarbeit mit professionellen Faktencheckern
https://youngdata.de/n/meta-beendet-die-zusammenarbeit-mit-professionellen-faktencheckern
KI als Zeitreise: Falsche Perspektiven werden vermittelt
https://www.spiegel.de/geschichte/kuenstliche-intelligenz-darum-sind-ki-videos-ueber-historische-ereignisse-ein-problem-a-cb3a7161-308d-4c43-80cb-61394d2417a6
Der zweite Teil des AI-Acts tritt in Kraft
https://youngdata.de/n/der-zweite-teil-des-ai-acts-wurde-verabschiedet
Und jetzt Sie!
Sich mit KI zu beschäftigen ist - auch 3 Jahre nach dem Start von ChatGPT - immer noch ein sehr dynamisches und wenig abschließendes Unterfangen. Vielleicht haben Sie hier Dinge entdeckt, die sich zwischenzeitlich schon wieder überholt haben. Oder Sie haben Ideen und neue Aspekte, die die Unterrichtsmaterialien noch ergänzen würden.
Schreiben Sie uns gerne: medienkompetenz(at)datenschutz.rlp.de
pixabay / Supermicha