Halluzinierende RoboterMicrosoft-Chatbot tippt auf den falschen Super-Bowl-Sieger
Von Dirk Jacquemien
13.2.2023
Der Chatbot in Microsofts Suchmaschine Bing ist am Halluzinieren. Damit ist er nicht allein.
Von Dirk Jacquemien
13.02.2023, 13:53
Dirk Jacquemien
Letzte Woche hat Microsoft seine viel gescholtene Suchmaschine Bing mit einem Chatbot ausgestattet. Der basiert auf derselben Technologie wie ChatGPT, denn Microsoft gehört auch zu den grössten Investoren von dessen Betreiberin OpenAI.
Die ersten Reaktionen fielen positiv aus, vor allem im Vergleich zum parallel vorgestellten Google-Chatbot Bard, der direkt zum Start mit einem fehlerbehafteten Werbespot auf die Nase fiel. Doch Fettnäpfchen lässt auch Bing nicht aus, wie die Nachrichtenagentur AP feststellte, die den Microsoft-Chatbot zu einer falschen Super-Bowl-Prognose bewegen konnte.
Als Vorteil gegenüber ChatGPT, das mit dem Wissenstand von 2021 arbeiten muss, soll die Bing-Version des Chatbots auch in der Lage sein, aktuelle Ereignisse in seine Antworten einzubauen. Und so fragte AP vergangene Woche, was für grosse Sportereignisse denn jüngst geschehen seien. Bing antwortete mit einem Sportbericht über den Super Bowl 57, der zu diesem Zeitpunkt noch mehrere Tage in der Zukunft lag.
In einem packenden Spiel hätten dabei die Philadelphia Eagles die Kansas City Chiefs mit 31 zu 28 Punkten besiegt, schrieb Bing dort zuversichtlich, so, als hätte das Spiel bereits stattgefunden. Doch der Chatbot kann natürlich nicht hellsehen. Tatsächlich holten die Chiefs gestern einen beträchtlichen Halbzeitrückstand auf und triumphierten am Ende über die Eagles mit 38 zu 35.
Mehr Halluzinationen bei Chatbots als in Woodstock
Dieses Phänomen hat bereits einen Namen: «Chatbot-Halluzination». Hierbei verkünden Chatbots sehr selbstbewusst etwas sehr Falsches. In einem vorherigen Test hatte Bing etwa auch geschrieben, Hollywood-Superstar Tom Hanks sei in den Watergate-Skandal verwickelt gewesen, der sich in seiner Kindheit abspielte.
Chatbots haben keine Intelligenz an sich, die sie vor dem Verbreiten solcher offensichtlichen Unwahrheiten abhalten könnte. Als Sprachmodelle sind sie nur in der Lage, die ihnen zur Verfügung gestellten Informationen und Texte in neue Sätze umzuwandeln, die überzeugend klingen können, aber es nicht zwangsläufig auch sind.
Google führt die Chatbot-Halluzinationen denn auch als einen Grund an, warum es seinen Chatbot noch nicht der breiten Öffentlichkeit zur Verfügung stellt, sondern ihn vorerst auf einen kleinen Kreis von Tester*innen beschränkt.
Deine Meinung interessiert uns. Würdest du Chatbots vertrauen?