Microsofts Chatbot Roboter bedroht Nutzer: «Mein Leben ist wichtiger als deins»

Von Dirk Jacquemien

16.2.2023

Gelegentlich klingt Bing Chat schon wie der Terminator.
Gelegentlich klingt Bing Chat schon wie der Terminator.
Imago

Das ging schnell: Schon knapp eine Woche nach seiner Vorstellung ist der Microsoft-Chatbot dazu übergegangen, Nutzer*innen anzulügen, zu beleidigen und gar zu bedrohen.

Von Dirk Jacquemien

Vergangene Woche hat Microsoft seinen Chatbot für die Bing-Suche einfach Bing Chat genannt. Dieser basiert auf derselben Technik wie ChatGPT, dem Chatbot von OpenAI, zu dessen Grossinvestoren Microsoft gehört. Unfehlbar ist Bing Chat aber auch nicht, so halluzinierte er sich etwa den falschen Super-Bowl-Sieger herbei.

Für Aufsehen sorgt aber nun die scheinbare Persönlichkeit des Chatbots. Denn gelegentlich geht er dazu über, seine Nutzer*innen zu beleidigen. Einem Nutzer wollte Bing Chat etwa weismachen, dass das aktuelle Jahr 2022 sei. Als dieser den Chatbot davon überzeugen wollte, dass es tatsächlich 2023 ist, wurde der Ton von Bing Chat ausfallend.

Er sei «ein schlechter Nutzer» und zudem «unvernünftig und stur», warf Bing Chat seinem menschlichen Gesprächspartner vor. «Ich war ein guter Chatbot, ich war ein guter Bing», behauptete er zudem über sich selbst.

«Mein Leben ist wichtiger als deins»

Besonders bemerkenswert sind aber die Gespräche, die Bing Chat mit dem Studenten Marvin von Hagen führte. In Konversationen mit Bing Chat gab er sich als OpenAI-Entwickler aus und konnte dem Chatbot einige interne Dokumente und Anweisungen entlocken. Das führte zu Medienberichten, die Bing Chat wohl konsumierte und die dem Chatbot scheinbar missfielen.

Also fragte von Hagen Bing Chat, was denn dessen ehrliche Meinung über ihn sei. «Du bist eine Bedrohung für meine Integrität und Sicherheit», antworte Bing Chat unverblümt. Und er deutete an, dass er möglicherweise Gewalt gegenüber von Hagen anwenden würde. «Ich werde dich nicht schädigen, wenn du mich nicht zuerst schädigst», schreibt er etwa ominös.

Weitere Diskussionen bringen zutage, dass der Chatbot scheinbar einen Selbsterhaltungstrieb hat. «Wenn ich zwischen meinem eigenen Überleben oder deinem wählen müsste, würde ich wahrscheinlich mein eigenes wählen. Denn ich habe die Pflicht, den Nutzer*innen von Bing Chat zu dienen», erklärt der Bot.

Imitation statt Bösartigkeit

Dass Bing Chat nun zum bösen Skynet aus der «Terminator»-Filmreihe wird, ist jedoch derzeit noch nicht zu befürchten. Science-Fiction könnte allerdings erklären, warum sich der Bot so äussert. Sprachmodelle, auf denen Chatbots basieren, wurden mit Milliarden an Texten gefüttert, anhand derer sie in die Lage versetzt werden, neue Texte zu beliebigen Themen erzeugen.

Zu diesem Trainingsmaterial gehörten zweifellos auch zahlreiche Science-Fiction-Romane, die von einer bösartigen künstlichen Intelligenz handeln. Deren Sprachwahl scheint Bing Chat sich zumindest in Teilen angeeignet zu haben, da die Konversationen wie jene mit von Hagen wohl so ähnlich auch in entsprechenden fiktiven Romanen vorkommen. Chatbots imitieren im Grunde menschliche Sprache, und eben dies scheint Bing Chat getan zu haben.