Elezioni Usa 2024: il ruolo dei deepfake sui social media
No, Taylor Swift non ha sostenuto l'ex presidente Donald Trump lo scorso weekend. Ryan Reynolds non è stato fotografato con una maglietta pro-Kamala Harris. E il Communist Party USA non ha mai appoggiato la campagna (ormai conclusa) del presidente Joe Biden.
Queste falsità hanno da tempo giocato un ruolo nella politica, ma con l'ascesa e la facile accessibilità degli strumenti di intelligenza artificiale, capaci di creare immagini o video falsi in pochi istanti, il problema si è aggravato. Questi contenuti, noti come deepfake, possono indurre gli utenti a credere che qualcuno stia dicendo o facendo qualcosa di completamente inventato.
L'ultimo esempio di tali pratiche di disinformazione riguarda un'immagine che raffigura Taylor Swift vestita come lo Zio Sam, suggerendo falsamente un suo sostegno a Trump. L'immagine, generata con l'intelligenza artificiale, riporta la scritta "Taylor vuole che tu voti per Donald Trump". Donald Trump ha in seguito amplificato la bugia condividendo un post sulla sua piattaforma Truth Social contenente immagini create con l'uso dell'intelligenza artificiale che suggerivano un'ondata di supporto da parte dei fan di Taylor Swift che si definivano "Swifties for Trump". In risposta all'implicito sostegno dell'icona pop, Trump ha scritto: "Accetto!". Swift, che in precedenza aveva attaccato Trump accusandolo di “alimentare il fuoco della supremazia bianca e del razzismo” durante la sua presidenza, ha appoggiato Joe Biden nel 2020 ma non ha ancora sostenuto un candidato presidenziale per la corsa del 2024.
Mentre si intensifica la corsa alla Casa Bianca tra Trump e la candidata democratica Kamala Harris , gli esperti di disinformazione lanciano l'allarme sui rischi dell'intelligenza artificiale generativa: "Sono preoccupato che man mano che ci avviciniamo alle elezioni, questa situazione esploderà", ha affermato Emilio Ferrara, professore di informatica alla USC Viterbi School of Engineering. "Diventerà molto peggio di quanto non sia ora".
Hany Farid, professore di disinformazione e analisi forense digitale a Berkeley, ha esaminato le immagini di Swift condivise da Trump, affermando che sembrano essere un mix di immagini vere e false, un modo "subdolo" per diffondere contenuti fuorvianti per ingannare gli elettori. "Le persone condividono immagini false per vari motivi. Potrebbero farlo solo per diventare virali sui social media o per "trollare" gli altri. Le immagini visive sono una parte potente della propaganda, che distorce le opinioni delle persone sulla politica, inclusa la legittimità delle elezioni presidenziali del 2024", ha affermato.
Il News Literacy Project ha lanciato una nuova piattaforma per monitorare la disinformazione, avvertendo che queste falsità rappresentano una "minaccia esistenziale per la democrazia". Il database, aggiornato regolarmente, tiene traccia di diverse categorie di disinformazione politica (teorie del complotto, bugie sulle opinioni politiche dei candidati e falsi endorsement), ma non misura quante volte questi post virali vengono condivisi. Circa il 10% dei post analizzati dal News Literacy Project conteneva falsi endorsement, secondo i dati forniti alla CNN. Quei post descrivevano presunti endorsement da parte di celebrità tra cui il quarterback della NFL Aaron Rodgers, l'attore Morgan Freeman, il musicista Bruce Springsteen e personaggi politici come l'ex First Lady Michelle Obama.
La proliferazione di falsi endorsement sui social media avviene in un momento in cui le piattaforme tecnologiche stanno smantellando le misure di sicurezza e le politiche di moderazione per ridurre la diffusione di informazioni errate e pericolose.
Questi cambiamenti sono particolarmente evidenti su X (ex Twitter) dopo l'acquisizione da parte di Elon Musk, che ha smantellato i team impegnati nella lotta alla disinformazione e riabilitato account di teorici della cospirazione ed estremisti.
Gli esperti affermano che il problema è stato esacerbato dal chatbot basato sull'intelligenza artificiale di X, Grok, che ha già attirato l'ira dei funzionari elettorali per aver diffuso false informazioni sull'idoneità di Harris alle elezioni del 2024. Recentemente X ha iniziato a consentire agli utenti di utilizzare Grok per creare immagini con l'intelligenza artificiale, aumentando la diffusione di contenuti falsi su Trump e Harris. Secondo Lucas Hansen, co-fondatore di CivAI, un'organizzazione no-profit che sensibilizza sulle crescenti capacità e sui pericoli dell'intelligenza artificiale, "In futuro, Grok sarà probabilmente una delle principali fonti di questo tipo di immagini perché genera immagini di alta qualità, è facilmente reperibile ed è stato intenzionalmente realizzato per avere un basso tasso di rifiuto", aggiungendo che è stato in grado di utilizzare Grok per creare immagini di "Swifties for Trump" che assomigliano molto a quelle condivise da Trump. X non ha risposto alle richieste di commento sulla creazione di immagini fuorvianti che coinvolgono candidati politici.
Anche Meta ha ridotto il personale dei suoi team di integrità elettorale, nonostante affermi di essere tra le aziende più impegnate nella protezione delle elezioni. Meta ha annunciato che richiederà agli inserzionisti politici di rivelare se hanno usato l'intelligenza artificiale per creare o modificare immagini.
Nonostante gli sforzi di alcune piattaforme e dei fact-checker nell'etichettare e smentire le immagini generate dall'intelligenza artificiale e le bugie andate virali, la valanga di materiale inventato può avere comunque un forte impatto. "Se vedi ripetutamente queste falsità che esagerano la popolarità di un candidato, queste possono comunque rimanere impresse, anche se sai che non sono legittime scorrendo il feed", ha detto alla CNN Peter Adams, vicepresidente senior per la ricerca del News Literacy Project.
Nel frattempo, le campagne elettorali si stanno preparando all'impatto dell'intelligenza artificiale sulle elezioni: la campagna della vicepresidente Harris ha formato un team interdipartimentale "per prepararsi ai potenziali effetti dell'IA in questa elezione, inclusa la minaccia di deepfake dannosi", ha affermato la portavoce Mia Ehrenberg in una dichiarazione. La campagna autorizza l'uso dell'IA solo per "strumenti di produttività" come l'analisi dei dati. La campagna di Trump non ha risposto alle richieste di commento.
Parte della sfida nel limitare i video falsi o manipolati è che la legge federale che guida le operazioni sui social media non affronta specificamente i deepfake. Il Communications Decency Act del 1996 non rende le aziende di social media responsabili dei contenuti ospitati sulle loro piattaforme, a meno che non assistano direttamente gli autori.
Ma nel corso degli anni, le aziende tecnologiche sono state criticate per ciò che è apparso sulle loro piattaforme e molte aziende di social media hanno stabilito delle linee guida per la moderazione dei contenuti per affrontare il problema, ad esempio proibendo l'incitamento all'odio. I legislatori stanno lavorando per risolvere questo problema proponendo progetti di legge che imporrebbero alle aziende di social media di rimuovere i deepfake non autorizzati.