Cerca

I rischi della AI

Falsificare documenti in 5 minuti con ChatGPT, l’allarme di un imprenditore polacco: ‘I sistemi di verifica sono ormai obsoleti'

Come l’AI sta minacciando la protezione dell'identità e delle aziende

Falsificare documenti in 5 minuti con ChatGPT, l’allarme di un imprenditore polacco: ‘I sistemi di verifica sono ormai obsoleti'

In un'epoca in cui l'intelligenza artificiale è ormai alla portata di milioni di utenti, le sue applicazioni stanno spaziando dai campi più creativi a quelli più controversi. Uno dei rischi più recenti e inquietanti riguarda la possibilità di creare documenti di identità falsi tramite tecnologie di generazione AI avanzate, mettendo in allerta settori come quello bancario e del fintech.

Il caso è stato sollevato dall'imprenditore polacco Borys Musielak, che presenta come un campanello d'allarme per molte aziende. In un recente post su LinkedIn e X, Musielak ha dichiarato che grazie al modello GPT-4o è riuscito a riprodurre, in soli cinque minuti, una copia del proprio passaporto che potrebbe ingannare molti sistemi di verifica automatica dell'identità (KYC). "Le implicazioni sono evidenti: qualsiasi processo di verifica che si basi su immagini come prova è ufficialmente obsoleto", avverte Musielak.

Il passaporto falso creato da Borys Musielak

Sottolinea inoltre che l'intelligenza artificiale può facilmente falsificare fotografie, sia statiche che in video, rendendo necessaria una transizione verso identità digitali verificate, come i portafogli elettronici di identità (eID) promossi dall'Unione Europea. Sebbene un passaporto falso creato con queste tecniche possa superare i controlli KYC più semplici, non resisterebbe a verifiche più sofisticate, come quelle documentali o biometriche, per la mancanza di un chip incorporato.

Tuttavia, la rapidità e la facilità con cui tali documenti possono essere prodotti rappresentano una minaccia significativa per molte piattaforme. A complicare ulteriormente la situazione vi è la presenza di modelli di AI open source non soggetti a restrizioni, che, a differenza delle piattaforme ufficiali come OpenAI, non pongono blocchi per evitari usi impropri.

Mentre i giganti del settore stanno cercando di implementare limiti, la disponibilità di strumenti più liberi potrebbe condurre a un aumento degli abusi. In questo scenario, le contromisure tradizionali potrebbero presto rivelarsi insufficienti, sollecitando la necessità di un aggiornamento dei sistemi di sicurezza e verifica per proteggere l'integrità delle infrastrutture digitali globali.

Resta aggiornato, iscriviti alla nostra newsletter

Logo Federazione Italiana Liberi Editori L'associazione aderisce all'Istituto dell'Autodisciplina Pubblicitaria - IAP vincolando tutti i suoi Associati al rispetto del Codice di Autodisciplina della Comunicazione Commerciale e delle decisioni del Giurì e de Comitato di Controllo.