Cerca

Esteri

Proteste in California e chatbot AI: come l'intelligenza artificiale sta alimentando la disinformazione

Grok e ChatGPT contribuiscono alla diffusione di fake news su un tema cruciale come le manifestazioni contro l’ICE

Proteste in California e chatbot AI: come l'intelligenza artificiale sta alimentando la disinformazione

Proteste e violenti scontri a Los Angeles contro il raid anti immigrazione, 8 giugno 2025

La recente ondata di proteste in California, in particolare quelle contro le incursioni dell’Immigration and Customs Enforcement (ICE) a Los Angeles, ha suscitato l’attenzione dei media e dei social network. Tuttavia, accanto alla mobilitazione popolare, sono emersi numerosi casi di disinformazione che si sono diffusi a macchia d'olio. In un contesto in cui la veridicità delle informazioni è sempre più sotto pressione, la crescente affidabilità dei chatbot AI, come Grok e ChatGPT, ha amplificato ulteriormente la confusione.

Durante le manifestazioni, che hanno visto la partecipazione di numerosi residenti californiani, i social media hanno iniziato a gonfiarsi di notizie false. Tra le più ricorrenti: accuse ai manifestanti di essere pagati da entità ignote per alimentare la protesta, una tesi infondata che si è propagata rapidamente grazie alla condivisione di video falsificati o vecchi contenuti manipolati. Ma ciò che ha reso ancora più problematico il fenomeno è stato l’utilizzo di chatbot AI da parte degli utenti per verificare l’autenticità delle informazioni. A fronte della crescente difficoltà di moderare i contenuti sui social, molti utenti si sono rivolti a Grok (il chatbot di X) o a ChatGPT (di OpenAI) per cercare di fare fact-checking su foto e video legati agli eventi. Tuttavia, questi strumenti non hanno sempre fornito risposte accurate, alimentando ancora di più la diffusione di informazioni errate.

Un episodio che ha evidenziato le problematiche legate all’affidabilità dei chatbot è stato l’uso di un’immagine condivisa dal San Francisco Chronicle, che ritraeva soldati della Guardia Nazionale dormire sul pavimento durante le operazioni a Los Angeles. L’immagine è stata condivisa dal governatore Gavin Newsom, che ha accusato Donald Trump di inviare truppe mal equipaggiate. In pochi minuti, tuttavia, numerosi utenti hanno iniziato a mettere in discussione l’origine della foto, sostenendo che fosse generata artificialmente o proveniente da un contesto completamente diverso.

Il chatbot Grok è stato uno degli strumenti più consultati per fare chiarezza sulla questione. Tuttavia, la sua risposta è stata tutt’altro che precisa: Grok ha affermato che l’immagine era probabilmente stata scattata in Afghanistan nel 2021, durante l'evacuazione militare, un’informazione che non è stata corroborata da alcuna prova concreta. Quando un altro utente ha fatto notare che le foto erano diffuse dal San Francisco Chronicle, Grok ha aggiunto che le immagini "probabilmente provenivano dal Campidoglio degli Stati Uniti". Tuttavia, non è stata fornita alcuna fonte ufficiale a sostegno di queste affermazioni. Anche ChatGPT ha contribuito a diffondere informazioni sbagliate. Il chatbot di OpenAI ha dichiarato che una delle foto era stata scattata all'aeroporto di Kabul durante il ritiro delle truppe nel 2021. Queste affermazioni, come evidenziato da fact-checker indipendenti, erano completamente errate, ma sono state rapidamente condivise anche su piattaforme alternative come Truth, il social media di Donald Trump.

In un altro caso emblematico, Mike Crispi, presidente della divisione America First Republicans, ha condiviso su X una foto che mostrava pile di mattoni disposti in strada, ipotizzando che si trattasse di un segnale che indicava una protesta “organizzata” e pianificata. La foto è stata poi condivisa dall'attore James Woods, che ha raccolto milioni di visualizzazioni. Quando è stato chiesto a Grok di verificare l'origine dell’immagine, ha risposto erroneamente che la foto fosse stata scattata a Paramount, California, durante le proteste del 7 giugno 2025. Tuttavia, la verità è che l’immagine era stata scattata in un sobborgo del New Jersey, come confermato dal sito di fact-checking LeadStories.

La situazione evidenzia il pericolo legato all’utilizzo dei chatbot AI per il fact-checking. Non solo gli strumenti come Grok e ChatGPT hanno fornito risposte sbagliate, ma hanno anche contribuito alla diffusione di teorie del complotto. Ad esempio, molti utenti, influenzati da informazioni errate, hanno sostenuto che le proteste in California fossero finanziate da entità segrete e pianificate a tavolino. Un filmato che mostrava alcune persone distribuire visiere protettive (utilizzate contro gli agenti chimici della polizia) è stato travisato da complottisti come prova di un “piano orchestrato” contro il governo. La disinformazione ha raggiunto livelli senza precedenti, complicata dall’uso di chatbot AI poco affidabili che non sono ancora in grado di distinguere tra fatti verificabili e informazioni manipolate. Questo ha portato a una spirale incontrollabile di notizie false che hanno continuato a circolare su tutte le piattaforme social, esacerbando le divisioni politiche e sociali.

Resta aggiornato, iscriviti alla nostra newsletter

Logo Federazione Italiana Liberi Editori L'associazione aderisce all'Istituto dell'Autodisciplina Pubblicitaria - IAP vincolando tutti i suoi Associati al rispetto del Codice di Autodisciplina della Comunicazione Commerciale e delle decisioni del Giurì e de Comitato di Controllo.