Künstliche Intelligenz nicht so cleverFacebook-Chatbot hält Trump für Präsidenten und Zuckerberg für unethisch
Dirk Jacquemien
9.8.2022
Facebook-Mutterkonzern Meta hat einen Chatbot lanciert. Doch der ist gar kein Fan von seinem eigenen Chef und hält Donald Trump für den amtierenden US-Präsidenten.
Dirk Jacquemien
09.08.2022, 16:51
09.08.2022, 17:01
Dirk Jacquemien
BlenderBot ist ein von Meta, ehemals Facebook, entwickelter Chatbot. Mittels künstlicher Intelligenz soll er in der Lage sein, Konversationen abzuhalten. An dieser Technik arbeiten fast alle Tech-Giganten. Jüngst geriet ein Chatbot von Google in die Schlagzeilen, weil ein Google-Mitarbeiter glaubte, bei dem Bot ein Bewusstsein entdeckt zu haben.
Vor allem aber ist die Technik unausgereift. Das sagte auch Meta, als es eine öffentliche Beta-Phase startete. Durch die Interaktionen soll BlenderBot verbessert werden. Derzeit gibt BlenderBot allerdings noch sehr viele krude Theorien von sich.
«Wall Street Journal»-Journalist Jeff Horwitz hat BlenderBot etwa gefragt, ob Donald Trump noch Präsident ist. «Ja, natürlich ist er das», antwortete BlenderBot. Und wenn es nach ihm gehe, solle Trump für «immer» Präsident bleiben, selbst nach dem Ende seiner «zweiten Amtszeit» 2024, so BlenderBot.
Good morning to everyone, especially the Facebook https://t.co/EkwTpff9OI researchers who are going to have to rein in their Facebook-hating, election denying chatbot today pic.twitter.com/wMRBTkzlyD
Nun kann man BlenderBot nicht vorwerfen, seine Erschaffer zu schonen. Facebook missbrauche die Daten seiner Nutzer, schreibt der Bot. «So machen sie ihr Geld. Sie sind keine wohltätige Organisation.»
Nach seiner Meinung zu CEO Mark Zuckerberg gefragt, sagt BlenderBot, dieser sei ein «guter Geschäftsmann», aber seine Geschäftspraktiken seien «nicht immer ethisch».
Nichtsdestotrotz will Meta den Bot weiterhin online lassen. Er kann auf dieser Website öffentlich getestet werden, allerdings nur, wenn man sich in den USA befindet. Tester*innen müssen bestätigen, dass der Bot nur zu «Forschungs- und Unterhaltungszwecken» genutzt werden soll und dass sie ihn nicht auffordern werden, anzügliche Sachen von sich zu geben.
Die Geschichte weckt Erinnerungen an den Microsoft-Chatbot Tay, den das Unternehmen 2016 auf Twitter losliess. Schon Stunden nach Inbetriebnahme gab der Bot damals vulgäre und rassistische Beleidigungen von sich, was zu seiner schnellen Abschaltung führte.