l'editoriale
Cerca
Sicurezza digitale
13 Giugno 2025 - 04:20
Immagine di repertorio
Può capitare di incontrare qualcuno online su un’app di dating o sui social, e magari scambiarsi messaggi, foto e videochiamate. Dopo un po’, questa persona ti chiede di coprire qualche spesa, come quella per il Wi-Fi o per un investimento in criptovalute. Ti sembra tutto molto reale, finché non scopri che quella persona non è mai esistita. Era un deepfake, un volto e una voce generati da un’intelligenza artificiale, usati per ingannarti e farti cadere in una truffa.
Questa situazione, che sembra uscita da un film di fantascienza, è purtroppo già accaduta a molte persone. Grazie ai recenti progressi nell’IA generativa, i truffatori possono ora creare facce e voci che sembrano autentiche. Gli esperti avvertono che l’uso dei deepfake per truffare è in costante aumento, alimentando una vasta gamma di raggiri online, dai romance scam alle frodi fiscali.
David Maimon, esperto di frodi e criminologia, osserva che negli ultimi anni l’uso dei deepfake è aumentato enormemente. Se inizialmente si registravano solo alcuni casi al mese, ora i deepfake sono centinaia, utilizzati in vari tipi di truffe. Un esempio: un lavoratore di Hong Kong ha perso 25 milioni di dollari dopo aver avuto una videochiamata con un CFO falsificato tramite deepfake. Altri truffatori hanno persino pubblicato video su YouTube, mostrando come creare deepfake, usando per esempio un giovane uomo generato dall’IA per raggirare una donna anziana in una truffa romantica.
L’aspetto preoccupante è che, mentre i deepfake tradizionali (come video di celebrità o politici manipolati) sono ormai comuni, la creazione di questi video è diventata molto più semplice e accessibile grazie a strumenti di IA che permettono di manipolare immagini o creare video da zero. Basta un'immagine e pochi secondi di audio per generare una voce convincente di chiunque, rendendo sempre più difficile per le persone distinguere il vero dal falso.
Anche se alcune aziende stanno sviluppando tecnologie per rilevare i deepfake, come l’analisi dei movimenti del volto o dei riflessi negli occhi, siamo ancora lontani dalla soluzione. Oggi, il miglior modo per evitare di cadere in truffe è affidarsi al buon senso e a un’osservazione attenta: fermarsi per qualche secondo in più e chiedersi se ciò che vediamo sembra davvero autentico.
La crescente consapevolezza sulle potenzialità dei deepfake potrebbe ridurre l’efficacia di questa tecnica, spingendo le persone a essere più scettiche e a riconoscerli più facilmente. Se da un lato la tecnologia diventa sempre più sofisticata, dall’altro gli utenti diventano sempre più capaci di difendersi.
I più letti
CronacaQui.it | Direttore responsabile: Andrea Monticone
Vicedirettore: Marco Bardesono Capo servizio cronaca: Claudio Neve
Editore: Editoriale Argo s.r.l. Via Principe Tommaso 30 – 10125 Torino | C.F.08313560016 | P.IVA.08313560016. Redazione Torino: via Principe Tommaso, 30 – 10125 Torino |Tel. 011.6669, Email redazione@cronacaqui.it. Fax. 0116669232 ISSN 2611-2272 Amministratore unico e responsabile trattamento dati e sicurezza: Beppe Fossati
Registrazione tribunale n° 1877 del 14.03.1950 Tribunale di Milano
La società percepisce i contributi di cui al decreto legislativo 15 maggio 2017, n. 70. Indicazione resa ai sensi della lettera f) del comma 2 dell’articolo 5 del medesimo decreto legislativo..