l'editoriale
Cerca
Intelligenza artificiale
08 Aprile 2025 - 10:00
Negli angoli meno sorvegliati del web stanno comparendo immagini di scontrini sorprendentemente realistici, realizzati con strumenti di intelligenza artificiale come ChatGPT. Non si tratta solo di testi ben formattati: alcuni riportano pieghe, macchie di vino o cibo, piccoli dettagli digitali che simulano l’usura e l’utilizzo reale. Un livello di verosimiglianza che, se da un lato dimostra la potenza dell’AI generativa, dall’altro solleva preoccupazioni molto concrete.
Sebbene questi strumenti nascano con finalità educative e creative, la linea tra uso legittimo e abuso è sottilissima. È facile immaginare come qualcuno possa sfruttare questi finti scontrini per truccare rimborsi spese, presentare documenti contraffatti o frodare in altri modi.
Il cambio di marcia, in questo senso, è avvenuto con l’ultimo aggiornamento di ChatGPT, che ora riesce a inserire testo chiaro e leggibile all’interno delle immagini. Una capacità che, fino a poco fa, rappresentava un ostacolo tecnico per le AI. Questo progresso ha spalancato le porte a possibilità prima impensabili, come la creazione di ricevute con numeri, nomi di locali e loghi graficamente convincenti. Non è raro vedere esempi di questi scontrini circolare sui social, alimentando un misto di stupore e preoccupazione.
Il realismo è tale che, fornendo dati precisi – come prezzi, valute e descrizioni dettagliate – l’AI riesce a replicare quasi perfettamente un documento autentico. Anche gli errori che talvolta si presentano nei calcoli possono essere facilmente corretti, se non già in fase di generazione, tramite un semplice intervento di editing grafico.
Di fronte al rischio crescente di usi impropri, OpenAI ha ribadito il proprio impegno nel monitorare le immagini prodotte attraverso ChatGPT. Secondo Taya Christianson, portavoce dell’azienda, ogni contenuto visivo generato include metadati C2PA, uno standard che identifica le immagini come create da intelligenza artificiale. L'azienda assicura di utilizzare strumenti di verifica e di intervenire nei casi in cui vengano violati i termini d’uso della piattaforma: "Siamo costantemente alla ricerca di modi per migliorare le nostre policy, trovando un equilibrio tra creatività e prevenzione degli abusi".
Tuttavia, questi metadati C2PA possono essere facilmente rimossi durante l’esportazione dell’immagine. Un’operazione che, di fatto, rende molto più difficile distinguere un’immagine autentica da una manipolata. TechCrunch, che ha approfondito la questione con OpenAI, ha ricevuto una risposta che sposta l’attenzione su un possibile impiego educativo dell’AI, come la promozione dell’alfabetizzazione finanziaria attraverso esempi generati artificialmente.
Una giustificazione che, per molti osservatori, suona più come una strategia per evitare critiche che come una reale presa di responsabilità. Intanto, la capacità dell’intelligenza artificiale di produrre falsi sempre più convincenti solleva interrogativi urgenti sulla necessità di nuovi strumenti e regole per fronteggiare questi rischi.
I più letti
CronacaQui.it | Direttore responsabile: Andrea Monticone
Vicedirettore: Marco Bardesono Capo servizio cronaca: Claudio Neve
Editore: Editoriale Argo s.r.l. Via Principe Tommaso 30 – 10125 Torino | C.F.08313560016 | P.IVA.08313560016. Redazione Torino: via Principe Tommaso, 30 – 10125 Torino |Tel. 011.6669, Email redazione@cronacaqui.it. Fax. 0116669232 ISSN 2611-2272 Consiglio di amministrazione: Presidente Massimo Massano | Consigliere, Direttore emerito e resp. trattamento dati e sicurezza: Beppe Fossati
Registrazione tribunale n° 1877 del 14.03.1950 Tribunale di Milano
La società percepisce i contributi di cui al decreto legislativo 15 maggio 2017, n. 70. Indicazione resa ai sensi della lettera f) del comma 2 dell’articolo 5 del medesimo decreto legislativo..