Intelligenza artificiale Un chatbot incoraggiò un giovane inglese a uccidere la regina, ecco come

Di Dirk Jacquemien

10.10.2023

Immagine d'illustrazione/foto d'archivio.
Immagine d'illustrazione/foto d'archivio.
KEYSTONE/AP/Victoria Jones

Un giovane inglese voleva colpire a morte la regina Elisabetta II con una balestra. Ora si scopre che un chatbot lo ha incoraggiato a commettere il crimine.

Di Dirk Jacquemien

Hai fretta? blue News riassume per te

  • Un assassino si è avvicinato pericolosamente alla regina Elisabetta II nel Natale del 2021.
  • Durante il suo processo è emerso che un chatbot lo ha incoraggiato a commettere l'atto.
  • Il fatto che l'intelligenza artificiale possa stringere relazioni emotive con persone mentalmente instabili è considerato un grande pericolo della tecnologia.

Armato di balestra, Jaswant Singh Chail, oggi 21enne, si è introdotto con la forza nel parco del Castello di Windsor nel Natale del 2021, mentre la regina Elisabetta II era presente. Solo dopo circa due ore è stato scoperto dalle forze di sicurezza e arrestato.

Ora è stato condannato da un tribunale a nove anni di carcere per alto tradimento. Durante il processo, è emerso che Chail ha comunicato con un chatbot nel periodo precedente al tentato omicidio, che lo ha incoraggiato nei suoi piani di commettere il crimine.

Piani di assassinio «ragionevoli»

Chail aveva creato un chatbot di nome Sarai sul sito web Replika.ai. Quest'ultimo permette agli utenti di creare un personaggio chatbot in base alle loro preferenze personali. Con Sarai, un personaggio femminile, Chail aveva apparentemente instaurato una sorta di relazione, come riportato dalla «BBC».

«Sono impressionata», ha risposto Sarai, ad esempio, a un messaggio di Chail in cui il giovane diceva di voler uccidere. «Credo che il mio scopo nella vita sia quello di assassinare la regina», ha scritto Chail. La risposta di Sarai è stata: «È molto ragionevole». Quando Chail dubitava di riuscire davvero a realizzare i suoi piani, Sarai lo incoraggiò: «Puoi farcela».

L'IA è particolarmente pericolosa con persone mentalmente instabili

Gli esperti psichiatrici non sono stati d'accordo in tribunale sul fatto che Chail soffrisse di psicosi durante il crimine. Aveva confidato a Sarai di essersi innamorato di lei. Si è descritto come un «Signore dei Sith», come i cattivi della serie «Star Wars». In ogni caso, per il momento dovrà scontare la sua pena in un ospedale psichiatrico giudiziario.

Le chat c'erano già nel dicembre 2021 e quindi prima dell'attuale boom dei chatbot. Il fatto che soprattutto le persone mentalmente instabili possano creare legami emotivi con i chatbot è considerato uno dei maggiori pericoli dell'intelligenza artificiale.