Skip to content

deepfake OpenAI

Lo smaschera-deepfake di OpenAI non basterà contro la disinformazione. Report Nyt

OpenAI ha annunciato un rilevatore per individuare i contenuti realizzati con l'intelligenza artificiale che può aiutare ad arginare il problema dei deepfake, ma non lo risolverà. L'articolo del New York Times

 

Mentre gli esperti avvertono che immagini, audio e video generati dall’intelligenza artificiale potrebbero influenzare le elezioni autunnali, OpenAI sta rilasciando uno strumento progettato per rilevare i contenuti creati dal suo popolare generatore di immagini, DALL-E. Ma l’importante start-up di intelligenza artificiale riconosce che questo strumento è solo una piccola parte di ciò che sarà necessario per combattere i cosiddetti deepfake nei mesi e negli anni a venire – scrive il New York Times.

PUNTI DI FORZA E DI DEBOLEZZA DEL RILEVATORE DI DEEPFAKE

Martedì, OpenAI ha dichiarato che condividerà il suo nuovo rilevatore di deepfake con un piccolo gruppo di ricercatori sulla disinformazione, in modo che possano testare lo strumento in situazioni reali e contribuire a individuare i modi per migliorarlo.

“Questo serve a dare il via a nuove ricerche”, ha dichiarato Sandhini Agarwal, ricercatore di OpenAI che si occupa di sicurezza e politica. “È davvero necessario”.

OpenAI ha dichiarato che il suo nuovo rilevatore è riuscito a identificare correttamente il 98,8% delle immagini create da DALL-E 3, l’ultima versione del suo generatore di immagini. Ma l’azienda ha dichiarato che lo strumento non è stato progettato per rilevare le immagini prodotte da altri generatori popolari come Midjourney e Stability.

Poiché questo tipo di rilevatore di deepfake è basato sulle probabilità, non potrà mai essere perfetto. Quindi, come molte altre aziende, organizzazioni non profit e laboratori accademici, OpenAI sta lavorando per combattere il problema in altri modi.

BOLLINI DI AUTENTICITÀ

Come i giganti tecnologici Google e Meta, l’azienda si è unita al comitato direttivo della Coalition for Content Provenance and Authenticity, o C2PA, un’iniziativa volta a sviluppare credenziali per i contenuti digitali. Lo standard C2PA è una sorta di “etichetta alimentare” per immagini, video, clip audio e altri file che indica quando e come sono stati prodotti o alterati, anche con l’IA.

OpenAI ha anche detto che sta sviluppando dei modi per “filigranare” i suoni generati dall’IA in modo che possano essere facilmente identificati sul momento. L’azienda spera di rendere questi watermark difficili da rimuovere.

UNA MISSIONE (QUASI) IMPOSSIBILE

Sostenuta da aziende come OpenAI, Google e Meta, l’industria dell’IA sta affrontando una crescente pressione per rendere conto dei contenuti prodotti dai suoi prodotti. Gli esperti chiedono all’industria di impedire agli utenti di generare materiale fuorviante e dannoso e di offrire modi per rintracciarne l’origine e la distribuzione.

In un anno caratterizzato da importanti elezioni in tutto il mondo, le richieste di metodi per monitorare la provenienza dei contenuti dell’IA si fanno sempre più disperate. Negli ultimi mesi, audio e immagini hanno già influenzato la campagna politica e il voto in luoghi come la Slovacchia, Taiwan e l’India.

Il nuovo rilevatore di deepfake di OpenAI può aiutare ad arginare il problema, ma non lo risolverà. Come ha detto Agarwal: Nella lotta contro i deepfake, “non c’è una pallottola d’argento”.

(Estratto dalla rassegna stampa estera a cura di eprcomunicazione)

Torna su