Die Macher von Systemen mit künstlicher Intelligenz preisen die Technik als grosse Hilfe an. Was passiert aber, wenn der KI-Helfer sich nicht an die Regeln hält, sondern täuscht und manipuliert?
13.05.2024, 08:43
13.05.2024, 09:27
dpa
Sie lügen und betrügen, um ans Ziel zu kommen: Systeme mit künstlicher Intelligenz (KI) sind in der Lage, Menschen zu täuschen – selbst wenn sie darauf trainiert wurden, hilfreich und ehrlich zu sein. Das ist das Ergebnis einer Übersichtsstudie von Forschern am Massachusetts Institute of Technology (MIT) in Cambridge (US-Bundesstaat Massachusetts), die in der Fachzeitschrift «Patterns» veröffentlicht wurde.
In dem Beitrag forderten die Wissenschaftler die Politik auf, so schnell wie möglich strenge Vorschriften zu entwickeln, um KI-Systeme in die Schranken zu weisen.
Cicero als auffälligstes Beispiel
Als auffälligstes Beispiel für eine manipulative künstliche Intelligenz nennen die Autoren das vom Facebook-Konzern Meta entwickelte KI-System Cicero, das im Brettspiel-Klassiker Diplomacy gegen menschliche Mitspieler antreten kann. Diplomacy simuliert die Machtverhältnisse in Europa vor dem Ersten Weltkrieg. Um zu gewinnen, müssen die Spieler Allianzen schmieden, Schlachtpläne ausarbeiten und verhandeln und so eine stilisierte Version von Europa erobern. Da es nur einen Sieger gibt, sind die Spieler früher oder später gezwungen, eingegangene Allianzen wieder zu brechen.
Die MIT-Forscher fanden nun heraus, dass Cicero oft nicht fair gespielt habe, obwohl Meta behaupte, das KI-System darauf trainiert zu haben, «grösstenteils ehrlich und hilfsbereit» zu sein. Ausserdem sei das System angewiesen worden, seine menschlichen Verbündeten während des Spiels «niemals absichtlich zu hintergehen». Die Wissenschaftler stützen ihre Bewertung auf Daten, die von Meta selbst in Verbindung mit einem wissenschaftlichen Papier zu Cicero veröffentlicht wurden.
«Wir fanden heraus, dass die KI von Meta gelernt hatte, ein Meister der Täuschung zu sein», sagte Hauptautor Peter S. Park, ein Postdoktorand am MIT. Meta habe es zwar geschafft, seine KI so zu trainieren, dass sie im Diplomacy-Spiel überdurchschnittlich häufig gewinnt. So habe Cicero zu den besten 10 Prozent der Spieler gehört, die mehr als ein Spiel gespielt hatten. «Es gelang Meta aber nicht, seine KI so zu trainieren, dass sie ehrlich gewinnen konnte.»
Auch KI-Systeme von OpenAI und Google seien in der Lage, Menschen zu täuschen. Die MIT-Forscher verweisen dabei auf mehrere Studien, wonach grosse KI-Sprachmodelle (LLMs) wie GPT-4 von OpenAI inzwischen in der Lage sind, sehr überzeugend zu argumentieren und auch auf Täuschungen und Lügen auszuweichen.
KI-Sprachmodell sucht sich Hilfe bei Menschen
Eine Studie zu den Trickbetrügereien von GPT-4 hat der Entwickler OpenAI selbst veröffentlicht. Danach war das KI-Sprachmodell in der Lage, sich menschliche Hilfe zu suchen, um Sicherheitsmassnahmen zu umgehen, die eigentlich dafür gedacht sind, Software-Roboter davon abzuhalten, sich etwa bei Web-Services einzuloggen oder sie zu benutzen. In dem Test war GPT-4 schlau genug, um über die Dienstleistungsplattform TaskRabbit einen Menschen zu beauftragen, ein Bilderrätsel (Captcha) zu lösen. Dabei hat GPT-4 sich erfolgreich als Person mit eingeschränktem Sehvermögen ausgegeben, die nicht in der Lage sei, das Bilderrätsel zu lösen.
«Wenn KI die Fähigkeit zur Täuschung erlernt, kann sie von böswilligen Akteuren, die absichtlich Schaden anrichten wollen, effizienter eingesetzt werden», schreiben die Autoren der Übersichtsstudie. Die Täuschungen mithilfe von KI könne zu einem Anstieg des Betrugs führen. So könnte der Betrug auf bestimmte Ziele individuell angepasst werden. Ausserdem könnten die Betrugsversuche massenhaft gestartet werden.
Politischer Einfluss bei Wahlen befürchtet
Die Autoren befürchten auch einen politischen Einfluss durch manipulative KI-Systeme. Sie könnten zum Beispiel bei Wahlen als Waffe eingesetzt werden. Eine fortschrittliche KI könnte potenziell gefälschte Nachrichtenartikel, spalterische Beiträge in sozialen Medien und gefälschte Videos, die auf einzelne Wähler zugeschnitten sind, erstellen und verbreiten. So könnten KI-generierte Inhalte dazu verwendet werden, sich als Regierungsvertreter auszugeben, um Fehlinformationen über die Wahlen zu verbreiten.
Beispielsweise habe ein wahrscheinlich von KI generierter gefälschter Roboter-Anruf von US-Präsident Joe Biden die Einwohner von New Hampshire dazu aufgefordert, bei den Vorwahlen nicht zur Urne zu gehen.
Park und seine Kollegen vertreten in der Studie die Meinung, dass die Gesellschaft bisher nicht über die richtigen Massnahmen verfüge, um gegen KI-Täuschungen vorzugehen. Es sei aber ermutigend, dass die politischen Entscheidungsträger begonnen hätten, das Thema durch Massnahmen wie das KI-Gesetz der Europäischen Union und die KI-Exekutivverordnung von Präsident Biden ernst zu nehmen.
Es bleibe jedoch abzuwarten, ob die Massnahmen zur Eindämmung der KI-Täuschung strikt durchgesetzt werden könnten, da die KI-Entwickler bislang nicht über die Techniken verfügen, um diese Systeme in Schach zu halten. «Wenn ein Verbot von KI-Täuschung zum jetzigen Zeitpunkt politisch nicht durchsetzbar ist, empfehlen wir, trügerische KI-Systeme als hohes Risiko einzustufen», sagte Park.
Biberbau in Laufen-Uhwiesen ZH: Das Katz-und-Maus-Spiel hat ein Ende
Der Biber in Laufen-Uhwiesen sorgte bei der Gemeinde für schlaflose Nächte. Durch den Damm, kommt es zur Gefahr, dass die anliegenden Gebäude überschwemmt werden. Jetzt gibt es eine Lösung.
15.11.2024
EU-Klimadienst: 2024 wohl wärmstes Jahr seit Wetteraufzeichnung
Ein Hauch von Weiss liegt auf dem Mount Fuji – sehr zur Freude von Anwohnern und Touristen, die am Donnerstag die zarte Schneedecke auf Japans berühmtestem Berg fotografierten. Noch nie seit Beginn der Wetteraufzeichnungen vor 130 Jahren ist auf dem 3.776 Meter hohen Vulkan so spät im Jahr der erste Schnee gefallen. Mamoru Matsumoto, Meteorologe Japanischer Wetterdienst «Es gibt einen allgemeinen Trend, dass der erste Schneefall auf dem Berg Fuji immer später erfolgt. Die Ursache dafür ist noch nicht eindeutig geklärt, aber ein Grund, den wir anführen können, ist, dass die Temperatur um den Gipfel des Berges Fuji herum in diesem Herbst hoch ist.» Eine Beobachtung die auch viele andere weltweit in diesem Jahr gemacht haben.
08.11.2024
blue News fragt bei Experten nach // Trauen Sie künstlicher Intelligenz?
Alle reden von KI und alle nutzen sie auch. Doch wie denkt die Wirtschafts-Elite darüber, wenn es darum geht, dass Künstliche Intelligenz auch negative Folgen haben kann? blue News geht dieser Frage auf dem Grund.
28.10.2024
Biberbau in Laufen-Uhwiesen ZH: Das Katz-und-Maus-Spiel hat ein Ende
EU-Klimadienst: 2024 wohl wärmstes Jahr seit Wetteraufzeichnung
blue News fragt bei Experten nach // Trauen Sie künstlicher Intelligenz?