Allarme deepfake in Usa, importante senatore imbrogliato da finto ex ministro ucraino
Scontro sull'algoritmo anti-disinformazione di Facebook

Un nuovo caso deepfake scuote la politica americana, a poche settimane dalle elezioni. Secondo il New York Times, il capo della Commissione per le relazioni estere del Senato Usa, il democratico Ben Cardin, è stato ingannato da un deepfake che si è finto l'ex ministro ucraino Kuleba: gli ha chiesto informazioni sia sulla prossima tornata elettorale, sia se fosse favorevole al lancio di missili a lungo raggio sul territorio russo.
Il senatore aveva precedentemente incontrato di persona Kuleba e di recente aveva ricevuto un'e-mail che sembrava provenire dall'ex ministro che gli chiedeva di incontrarsi in video su Zoom. Ma il tenore della conversazione ha insospettito Cardin che ha interrotto la chiamata e allertato il Dipartimento di Stato americano. La questione è ora oggetto di indagine da parte dell'Fbi, che non ha rilasciato commenti. Non è la prima volta che i politici sono bersagli di deepfake, video falsi generati dall'intelligenza artificiale. Sono uno dei mezzi usati dalla disinformazione, e questa volta la preoccupazione per i missili ucraini sembra indicare una possibile mossa russa.
SCONTRO SULL'ALGORITMO ANTI DISINFORMAZIONE DI FACEBOOK
Nel frattempo è tornato a far parlare di sé l’algoritmo anti disinformazione di Facebook che ha attirato le critiche degli scienziati. Sulle pagine della rivista Science un gruppo di ricercatori dell'Università del Massachusetts-Amherst ha puntato il dito contro un precedente studio, finanziato da Meta e pubblicato nel 2023 sempre su Science, in cui si sosteneva che il social network non aveva influenzato le opinioni politiche degli utenti in occasione delle elezioni statunitensi del 2020. I ricercatori dimostrano che lo studio (condotto da accademici insieme a 12 dipendenti di Meta) era stato realizzato nell'autunno del 2020 proprio durante un breve lasso di tempo in cui l'azienda di Mark Zuckerberg aveva introdotto temporaneamente un nuovo algoritmo, più rigoroso nel controllo del flusso di notizie rispetto a quello standard usato in precedenza e riattivato poco dopo.
Non evidenziando questo cambiamento di algoritmi, lo studio avrebbe contribuito a creare la percezione errata (e ampiamente diffusa dai media di tutto il mondo) che i newsfeed di Facebook e Instagram siano sempre fonti di notizie affidabili. Parte del problema, scrivono i ricercatori, è che simili esperimenti devono essere "preregistrati", il che significa che Meta avrebbe potuto sapere con largo anticipo cosa avrebbero cercato gli studiosi. Inoltre i social media non sono tenuti a rendere pubbliche le modifiche apportate ai loro algoritmi. "Questo può portare a situazioni in cui le aziende di social media potrebbero teoricamente modificare i loro algoritmi per migliorare la loro immagine pubblica se sanno di essere oggetto di studio", scrivono i ricercatori. Questa vicenda evidenzia che "il contesto è importante nei social media", come titola l'editoriale di H. Holden Thorp, con cui Science affronta la questione nata e cresciuta sulle sue pagine. "La ricerca sui social media è complicata e richiede ancora più attenzione", sottolinea Thorp. "Sebbene fare ricerca con aziende private sollevi molte questioni, il profondo impatto dei social media sull'umanità e il tesoro di dati che le aziende hanno accumulato sono motivi per andare avanti".