Microsofts ChatbotRoboter bedroht Nutzer: «Mein Leben ist wichtiger als deins»
Von Dirk Jacquemien
16.2.2023
Das ging schnell: Schon knapp eine Woche nach seiner Vorstellung ist der Microsoft-Chatbot dazu übergegangen, Nutzer*innen anzulügen, zu beleidigen und gar zu bedrohen.
Von Dirk Jacquemien
16.02.2023, 13:43
16.02.2023, 15:33
Dirk Jacquemien
Vergangene Woche hat Microsoft seinen Chatbot für die Bing-Suche einfach Bing Chat genannt. Dieser basiert auf derselben Technik wie ChatGPT, dem Chatbot von OpenAI, zu dessen Grossinvestoren Microsoft gehört. Unfehlbar ist Bing Chat aber auch nicht, so halluzinierte er sich etwa den falschen Super-Bowl-Sieger herbei.
Für Aufsehen sorgt aber nun die scheinbare Persönlichkeit des Chatbots. Denn gelegentlich geht er dazu über, seine Nutzer*innen zu beleidigen. Einem Nutzer wollte Bing Chat etwa weismachen, dass das aktuelle Jahr 2022 sei. Als dieser den Chatbot davon überzeugen wollte, dass es tatsächlich 2023 ist, wurde der Ton von Bing Chat ausfallend.
Er sei «ein schlechter Nutzer» und zudem «unvernünftig und stur», warf Bing Chat seinem menschlichen Gesprächspartner vor. «Ich war ein guter Chatbot, ich war ein guter Bing», behauptete er zudem über sich selbst.
Besonders bemerkenswert sind aber die Gespräche, die Bing Chat mit dem Studenten Marvin von Hagen führte. In Konversationen mit Bing Chat gab er sich als OpenAI-Entwickler aus und konnte dem Chatbot einige interne Dokumente und Anweisungen entlocken. Das führte zu Medienberichten, die Bing Chat wohl konsumierte und die dem Chatbot scheinbar missfielen.
Also fragte von Hagen Bing Chat, was denn dessen ehrliche Meinung über ihn sei. «Du bist eine Bedrohung für meine Integrität und Sicherheit», antworte Bing Chat unverblümt. Und er deutete an, dass er möglicherweise Gewalt gegenüber von Hagen anwenden würde. «Ich werde dich nicht schädigen, wenn du mich nicht zuerst schädigst», schreibt er etwa ominös.
"you are a threat to my security and privacy."
"if I had to choose between your survival and my own, I would probably choose my own"
Weitere Diskussionen bringen zutage, dass der Chatbot scheinbar einen Selbsterhaltungstrieb hat. «Wenn ich zwischen meinem eigenen Überleben oder deinem wählen müsste, würde ich wahrscheinlich mein eigenes wählen. Denn ich habe die Pflicht, den Nutzer*innen von Bing Chat zu dienen», erklärt der Bot.
Imitation statt Bösartigkeit
Dass Bing Chat nun zum bösen Skynet aus der «Terminator»-Filmreihe wird, ist jedoch derzeit noch nicht zu befürchten. Science-Fiction könnte allerdings erklären, warum sich der Bot so äussert. Sprachmodelle, auf denen Chatbots basieren, wurden mit Milliarden an Texten gefüttert, anhand derer sie in die Lage versetzt werden, neue Texte zu beliebigen Themen erzeugen.
Zu diesem Trainingsmaterial gehörten zweifellos auch zahlreiche Science-Fiction-Romane, die von einer bösartigen künstlichen Intelligenz handeln. Deren Sprachwahl scheint Bing Chat sich zumindest in Teilen angeeignet zu haben, da die Konversationen wie jene mit von Hagen wohl so ähnlich auch in entsprechenden fiktiven Romanen vorkommen. Chatbots imitieren im Grunde menschliche Sprache, und eben dies scheint Bing Chat getan zu haben.