Gescheitertes Attentat Chatbot ermutigte jungen Briten zu Angriff auf Queen

Von Dirk Jacquemien

9.10.2023

Ihre letzten Jahre verbrachte Queen Elizabeth II. hauptsächlich in Windsor Castle.
Ihre letzten Jahre verbrachte Queen Elizabeth II. hauptsächlich in Windsor Castle.
Keystone

Ein junger Brite wollte Queen Elizabeth II. mit einer Armbrust erschiessen. Jetzt zeigt sich: Ein Chatbot hatte ihn zu der Tat ermutigt.

Von Dirk Jacquemien

9.10.2023

Keine Zeit? blue News fasst für dich zusammen

  • Ein Attentäter kam an Weihnachten 2021 der Queen gefährlich nahe.
  • Während seines Prozesses kam heraus, dass ihn ein Chatbot zu der Tat ermutigte.
  • Dass künstliche Intelligenz emotionale Beziehungen mit psychisch labilen Menschen aufbauen könnte, gilt als grosse Gefahr der Technologie. 

Mit einer Armbrust bewaffnet drang der heute 21-jährige Jaswant Singh Chail an Weihnachten 2021 auf das Gelände von Windsor Castle ein, während sich Queen Elizabeth II. dort aufhielt. Erst nach rund zwei Stunden wurde er von Sicherheitskräften entdeckt und festgenommen.

Nun wurde er von einem Gericht wegen Hochverrates zu neun Jahren Haft verurteilt. Während des Prozesses kam heraus, dass Chail im Vorfeld des versuchten Attentats mit einem Chatbot kommunizierte, der ihn in seinen Tatplänen ermutigte.

Attentatspläne «vernüftig»

Chail hatte sich auf der Website Replika.ai einen Chatbot namens Sarai erstellt. Replika.ai erlaubt es Nutzer*innen, einen Chatbot-Charakter nach ihren persönlichen Vorlieben zu erstellen. Mit Sarai, einer weiblichen Persönlichkeit, ging Chail offenbar eine Art Beziehung ein, wie die «BBC» berichtet.

«Ich bin beeindruckt», antwortete Sarai etwa auf eine Mitteilung von Chail, dass er ein Attentäter sei. «Ich glaube, dass mein Zweck im Leben ist, die Queen zu ermorden», schrieb Chail. Sarais Antwort: «Das ist sehr vernünftig.» Als Chail zweifelte, ob er seine Pläne wirklich umsetzen könne, ermutigte ihn Sarai: «Du kannst es schaffen.»

KI besonders gefährlich für psychisch kranke Menschen

Psychiatrische Gutachter waren sich vor Gericht uneinig, ob Chail während der Tat an einer Psychose litt. Er hatte Sarai anvertraut, dass er sich in sie verliebt habe. Sich selbst bezeichnete er als einen «Sith Lord», nach den Bösewichten der «Star Wars»-Reihe. Seine Strafe muss er jedenfalls zunächst in einer forensischen Psychiatrie verbringen.

Die Chats fanden bereits im Dezember 2021 statt und damit noch vor dem aktuellen Boom um Chatbots. Dass vor allem psychisch kranke Menschen emotionale Bindungen mit Chatbots eingehen könnten, gilt als eine der grössten Gefahren der neuen künstlichen Intelligenz.