l'editoriale
Cerca
Il fatto
20 Aprile 2026 - 10:45
È sempre più diffusa la presenza online di contenuti audiovisivi generati o alterati tramite intelligenza artificiale, i cosiddetti deepfake, utilizzati soprattutto per finalità legate alla politica, alla disinformazione e alla criminalità digitale.
Secondo un’analisi contenuta nel primo Deepfake Intelligence Report realizzato dalla startup italiana IdentifAI, circa il 46% delle minacce globali basate su contenuti sintetici riguarda video falsificati. In questo scenario digitale, caratterizzato da una crescente post-verità, gli Stati Uniti risultano il Paese maggiormente esposto, anche per via dell’ampia diffusione delle tecnologie IA e del loro uso nel dibattito pubblico e politico.
Lo studio evidenzia come il 24,6% degli episodi abbia obiettivi di manipolazione politica, mentre il 20,1% sia collegato a tentativi di frode. Una quota più ridotta, pari all’11,3%, riguarda la pornografia non consensuale generata artificialmente. Seguono l’uso di volti di personaggi noti (9,3%) e contenuti di satira (3,2%), a dimostrazione di come questi strumenti vengano impiegati soprattutto per influenzare opinioni o ottenere vantaggi economici.
L’analisi prende in considerazione il periodo compreso tra il 2020 e i primi mesi del 2026, mostrando come i media sintetici siano stati progressivamente utilizzati anche come strumenti di influenza geopolitica. Tra gli obiettivi figurano leader politici e istituzioni di diversi Paesi, con particolare attenzione ad aree come Medio Oriente, Stati Uniti e altre potenze globali.
A livello geografico, gli Stati Uniti guidano la classifica degli incidenti con quasi il 47% dei casi globali. Seguono Regno Unito, India e Israele, mentre percentuali minori si registrano in Iran, Corea del Sud e Australia.
Dal punto di vista tecnico, il report sottolinea l’evoluzione dei sistemi di generazione dei deepfake: non più semplici strumenti di inganno visivo, ma tecnologie capaci di superare controlli automatici e sistemi di verifica avanzati. Le forme più diffuse restano i video manipolati, seguiti da contenuti misti, immagini alterate e clonazione vocale. Gli esperti prevedono un’ulteriore crescita della complessità nei prossimi mesi grazie alle tecniche multimodali.
Un ruolo centrale nella diffusione di questi contenuti è svolto dai social network. La piattaforma X risulta la principale fonte di propagazione, seguita da TikTok, YouTube e Facebook. Anche Instagram, Telegram e WhatsApp contribuiscono in misura minore alla circolazione dei contenuti manipolati, spesso amplificati da algoritmi che privilegiano l’engagement rispetto alla verifica delle fonti.
Secondo il CEO di IdentifAI, Marco Ramilli, i deepfake stanno diventando strumenti sempre più standardizzati per frode e disinformazione su larga scala. L’evoluzione verso sistemi automatizzati e in tempo reale riduce i tempi di intervento umano, rendendo necessaria l’adozione di tecnologie di rilevamento avanzato per proteggere l’integrità dell’informazione.
In questo contesto, la sfida principale diventa la capacità di istituzioni e piattaforme digitali di contrastare contenuti sempre più realistici e difficili da distinguere dalla realtà.
I più letti
L'associazione aderisce all'Istituto dell'Autodisciplina Pubblicitaria - IAP vincolando tutti i suoi Associati al rispetto del Codice di Autodisciplina della Comunicazione Commerciale e delle decisioni del Giurì e de Comitato di Controllo.
CronacaQui.it | Direttore responsabile: Andrea Monticone
Vicedirettore: Marco Bardesono Capo servizio cronaca: Claudio Neve
Editore: Editoriale Argo s.r.l. Via Principe Tommaso 30 – 10125 Torino | C.F.08313560016 | P.IVA.08313560016. Redazione Torino: via Principe Tommaso, 30 – 10125 Torino |Tel. 011.6669, Email redazione@torinocronaca.it. Fax. 0116669232 ISSN 2611-2272 Amministratore unico e responsabile trattamento dati e sicurezza: Walter Altea
Registrazione tribunale n° 1877 del 14.03.1950 Tribunale di Milano
La società percepisce i contributi di cui al decreto legislativo 15 maggio 2017, n. 70. Indicazione resa ai sensi della lettera f) del comma 2 dell’articolo 5 del medesimo decreto legislativo..