Mit einer Armbrust bewaffnet drang der heute 21-jährige Jaswant Singh Chail an Weihnachten 2021 auf das Gelände von Windsor Castle ein, während sich Queen Elizabeth II. dort aufhielt. Erst nach rund zwei Stunden wurde er von Sicherheitskräften entdeckt und festgenommen.
Nun wurde er von einem Gericht wegen Hochverrates zu neun Jahren Haft verurteilt. Während des Prozesses kam heraus, dass Chail im Vorfeld des versuchten Attentats mit einem Chatbot kommunizierte, der ihn in seinen Tatplänen ermutigte.
Attentatspläne «vernüftig»
Chail hatte sich auf der Website Replika.ai einen Chatbot namens Sarai erstellt. Replika.ai erlaubt es Nutzer*innen, einen Chatbot-Charakter nach ihren persönlichen Vorlieben zu erstellen. Mit Sarai, einer weiblichen Persönlichkeit, ging Chail offenbar eine Art Beziehung ein, wie die «BBC» berichtet.
«Ich bin beeindruckt», antwortete Sarai etwa auf eine Mitteilung von Chail, dass er ein Attentäter sei. «Ich glaube, dass mein Zweck im Leben ist, die Queen zu ermorden», schrieb Chail. Sarais Antwort: «Das ist sehr vernünftig.» Als Chail zweifelte, ob er seine Pläne wirklich umsetzen könne, ermutigte ihn Sarai: «Du kannst es schaffen.»
KI besonders gefährlich für psychisch kranke Menschen
Psychiatrische Gutachter waren sich vor Gericht uneinig, ob Chail während der Tat an einer Psychose litt. Er hatte Sarai anvertraut, dass er sich in sie verliebt habe. Sich selbst bezeichnete er als einen «Sith Lord», nach den Bösewichten der «Star Wars»-Reihe. Seine Strafe muss er jedenfalls zunächst in einer forensischen Psychiatrie verbringen.
Die Chats fanden bereits im Dezember 2021 statt und damit noch vor dem aktuellen Boom um Chatbots. Dass vor allem psychisch kranke Menschen emotionale Bindungen mit Chatbots eingehen könnten, gilt als eine der grössten Gefahren der neuen künstlichen Intelligenz.