Lügender Roboter ChatGPT verleumdet Politiker und Professor

Von Dirk Jacquemien

6.4.2023

Muss sich ChatGPT wegen seiner Lügen bald vor Gericht verantworten?
Muss sich ChatGPT wegen seiner Lügen bald vor Gericht verantworten?
Imago

Chatbots reden viel Blödsinn. Dass ChatGPT nun allerdings einem Politiker und einem Professor fälschlicherweise Straftaten vorwirft, finden die Betroffenen alles andere als lustig.

Von Dirk Jacquemien

Keine Zeit? blue News fasst für dich zusammen

  • ChatGPT hat einem Gemeindepräsidenten und einen Professor Straftaten angedichtet.
  • Die erfundenen Vergehen hat der Chatbot mit ebenso erfundenen Nachrichtenartikeln untermauert.
  • Diese «Halluzination» ist ein bekanntes Problem bei Chatbots, für die es keine einfache Lösung gibt.

Dass Chatbots teils abenteuerliche Fehler machen, sollte inzwischen hinlänglich bekannt sein. Doch nun hat ChatGPT von Pionier OpenAI Straftaten erfunden und sie echten Menschen vorgeworfen. Betroffen sind ein australischer Gemeindepräsident sowie ein amerikanischer Rechtsprofessor.

Brian Hood ist der Gemeindepräsident der rund 120 Kilometer nördlich von Melbourne gelegenen Kleinstadt Hepburn Shire. In seiner früheren Karriere arbeitete er bei der australischen Zentralbank und meldete dabei Korruption von Kolleg*innen den Behörden.

ChatGPT jedoch drehte die Story komplett um und machte Hood zum Schuldigen in der Korruptionsaffäre, wie die Nachrichtenagentur Reuters berichtet. Sein Anwalt fordert nun von OpenAI eine Korrektur und droht eine Verleumdungsklage an.

Professor der sexuellen Belästigung beschuldigt

Noch bizarrer sind ChatGPTs Aussagen über den Rechtsprofessor Jonathan Turley. Turley tauchte während der beiden Amtsenthebungsverfahrungen gegen Donald Trump vielfach in den Medien als prominenter Unterstützer des Ex-Präsidenten auf.

ChatGPT spuckte auf eine Frage nach Rechtsprofessoren, denen sexuelle Belästigung vorgeworfen wurde, auch Turleys Namen aus. Turley sei 2018 von einer Studentin beschuldigt worden, sie auf einer Studienfahrt nach Alaska sexuell belästigt zu haben. Als «Beweis» führte ChatGPT unter anderem einen Artikel der «Washington Post» vom 21. März 2018 an.

Medienartikel frei erfunden

Doch einen solchen Artikel gab es nie, wie die «Washington Post» selbst berichtet. Auch von ChatGPT zitierte Artikel der «Los Angeles Times» und des «Miami Herald» über den vermeintlichen Vorfall existierten nicht. Und Turley hat auch nie eine Studienfahrt nach Alaska gemacht.

ChatGPT hat alles frei erfunden.

Hierbei handelte es sich wohl um einen extremen Fall von Chatbot-«Halluzination», bei dem der Chatbot nicht nur Ereignisse selbst erfindet sondern gleichzeitig auch noch Beweise, die diese Fiktion untermauern sollen.

Gibt es ein Gegenmittel gegen Chatbot-Fails?

Was ChatGPT konkret dazu veranlasste, Hood und Turley zu verleumden, ist schwer zu ergründen. Im Grunde sind Chatbots aber nur sprachliche Vorhersagemaschinen. Sie wurden mit Milliarden Texten trainiert und können dadurch vorhersagen, welches Wort auf welches Wort mit höchster Wahrscheinlichkeit folgen wird.

So sind sie auf Anfrage hin in der Lage, grammatikalisch fast immer und inhaltlich zumindest meistens korrekte Texte zu erzeugen. Hin und wieder führt das allerdings zu katastrophalen Ergebnissen und es ist nicht klar, ob die Entwickler von Chatbots dagegen ein probates Gegenmittel haben.