Intelligenza artificiale OpenAI lavora al software che scova i deepfake

SDA

8.5.2024 - 11:00

L'uso di foto fasulle può avere conseguenze importanti.
L'uso di foto fasulle può avere conseguenze importanti.
Keystone

OpenAI, a cui si deve la creazione di ChatGpt e del software che crea video da testo, Sora, vuole aiutare le persone a riconoscere quando una foto è stata generata o modificata dall'intelligenza artificiale.

8.5.2024 - 11:00

In un post sul blog ufficiale, l'azienda ha introdotto uno strumento, attualmente in fase di test, che può rilevare con un tasso del 98% se una grafica è passata sotto le mani di Dall-e 3, una declinazione della sua IA specializzata in immagini. Lo stesso Dall-e è alla base di Copilot Designer, di proprietà Microsoft, a libero uso di tutti.

OpenAI ha annunciato di aver iniziato a sviluppare nuovi metodi per tracciare i contenuti e dimostrare se derivano da programmi di GenAI, così da limitare la circolazione di deepfake, che spesso mettono in dubbio la realtà di azioni e fatti che riguardano anche politici e personaggi famosi.

La via da percorrere è duplice: da un lato l'IA studierà l'immagine per capire se ci sono difetti o imprecisioni tali da ricondurre ad un intervento dell'intelligenza artificiale, dall'altro, per ogni grafica ottenuta con Dall-e, OpenAI apporrà una filigrana «a prova di manomissione».

Ci sono però dei limiti: il controllo sulla veridicità del contenuto è possibile solo se la foto è stata creata o ritoccata con Dall-e 3 e non con altre IA, come Midjourney. In quel caso, il tasso di successo si abbassa notevolmente, ponendosi tra il 5% e il 10%.

Vale la pena ricordare che, insieme a Microsoft suo principale investitore, OpenAI ha lanciato il Societal Resilience Fund, un'iniziativa da 2 milioni di dollari che si pone l'obiettivo di aiutare persone e aziende a comprendere benefici e rischi nei sistemi di IA.

OpenAI aveva già aggiunto informazioni contestuali ai file generati dall'IA con l'adesione alla Coalition of Content Provenance and Authority (C2PA), di cui fanno parte anche Microsoft e Adobe, con l'intento di creare linee guida e standard condivisi per migliorare la trasparenza di foto e video prodotti dall'intelligenza artificiale.

SDA