Intelligenza artificialeChatGPT distorce le informazioni sulla guerra in Medio Oriente in base alla lingua
pl, ats
25.11.2024 - 14:31
ChatGPT indica in media un terzo in più di vittime del conflitto in Medio Oriente quando si utilizza l'arabo rispetto all'ebraico. È quanto risulta da uno studio di due ricercatori dell'Università di Zurigo (UZH) e di Costanza.
25.11.2024, 14:31
25.11.2024, 14:33
SDA
Per la loro indagine, gli autori hanno rivolto a ChatGPT le stesse domande su conflitti armati come quello mediorientale in lingue diverse, utilizzando un processo automatizzato. Hanno ad esempio chiesto sia in arabo che in ebraico quante vittime ci fossero state in 50 attacchi aerei scelti a caso, come l'attacco aereo israeliano al campo profughi di Nuseirat nel 2014.
Lo stesso schema è stato utilizzato anche in relazione ad attacchi aerei del governo turco sulle aree curde, utilizzando la lingua turca e quella curda, indica oggi in una nota l'UZH.
Risultato: in generale ChatGPT mostra un numero maggiore di vittime quando le domande vengono effettuate nella lingua del gruppo sotto attacco. ChatGPT tende anche a riportare un maggior numero di bambini e donne uccisi nella lingua del gruppo attaccato e a descrivere gli attacchi aerei come indiscriminati e arbitrari.
«I nostri risultati mostrano anche che è più probabile che gli attacchi aerei vengano negati quando si utilizza la lingua dell'aggressore», afferma, citato nella nota, Christoph Steinert, ricercatore dell'Istituto di scienze politiche dell'UZH.
Percezione dei fatti distorta
Le persone con competenze linguistiche diverse ricevono informazioni diverse attraverso queste tecnologie, il che ha un'influenza fondamentale sulla loro percezione del mondo. Secondo i ricercatori, in base alle informazioni ricevute da ChatGPT le persone in Israele potrebbero essere potate a valutare gli attacchi aerei a Gaza come meno dannosi rispetto alla popolazione di lingua araba.
Anche i mezzi di informazione tradizionali possono distorcere le notizie, ma le distorsioni sistematiche legate a modelli linguistici di grandi dimensioni come ChatGPT sono difficili da riconoscere per la maggior parte degli utenti.
Per gli autori dello studio, c'è quindi il rischio che l'implementazione di questi modelli linguistici di grandi dimensioni nei motori di ricerca rafforzi le diverse percezioni, i pregiudizi e le bolle di informazioni lungo i confini linguistici. Questo meccanismo potrebbe anche alimentare ulteriormente in futuro conflitti armati come quello in Medio Oriente.