l'editoriale
Cerca
intelligenza artificiale
06 Maggio 2025 - 11:50
Immagine di repertorio
L’avanzata dell’intelligenza artificiale ha fatto pensare a molti che questi sistemi diventeranno sempre più precisi e affidabili. In realtà, anche i modelli più recenti continuano a inciampare nello stesso errore: rispondere con sicurezza, anche quando non sanno nulla.
Un caso emblematico è quello accaduto di recente su Cursor, una piattaforma per programmatori: un bot AI ha informato gli utenti che non sarebbe stato più possibile accedere al servizio da più dispositivi. Molti si sono infuriati e alcuni hanno cancellato l’account, ma tutto si è rivelato falso. L’amministratore delegato ha poi chiarito che nessuna nuova regola era stata introdotta: era stato il bot a “fantasticare”.
Questo tipo di errore ha un nome preciso: allucinazione. Succede quando l’IA produce risposte inventate ma credibili, usando un linguaggio coerente, un tono rassicurante e una struttura logica. È un fenomeno che riguarda tutti i modelli attuali, anche i più sofisticati. Alcuni test mostrano addirittura che i modelli “di nuova generazione” hanno più probabilità di generare errori rispetto a quelli più vecchi.
Sarà capitato anche a voi di fare una domanda a ChatGPT, e ricevere una risposta non soddisfacente e il classico "Scusami, ecco la versione corretta" dopo averglielo fatto notare. Il motivo? Questi sistemi non ragionano davvero: calcolano quale sia la risposta più probabile in base ai dati che hanno visto. Ma probabilità non significa verità. E quando un errore appare ben confezionato, è facile prenderlo per buono.
Se per un'email o una descrizione generica il danno può essere minimo, in contesti più delicati (come la sanità, il diritto, l’economia o la salute mentale) il rischio cresce. L’AI può sbagliare numeri, riferimenti, persino inventare intere normative. E non lo fa per “malizia”: semplicemente non sa distinguere il vero dal falso.
Le aziende stanno cercando di risolvere il problema con modelli sempre più evoluti e filtri più accurati. Ma al momento resta un fatto: abbiamo chiesto all’IA di fare qualcosa, essere affidabile, per cui non è ancora pronta. E prima di affidarci completamente ai suoi consigli, forse dovremmo ricordarci che la sua competenza è spesso solo un’illusione ben scritta.
I più letti
CronacaQui.it | Direttore responsabile: Andrea Monticone
Vicedirettore: Marco Bardesono Capo servizio cronaca: Claudio Neve
Editore: Editoriale Argo s.r.l. Via Principe Tommaso 30 – 10125 Torino | C.F.08313560016 | P.IVA.08313560016. Redazione Torino: via Principe Tommaso, 30 – 10125 Torino |Tel. 011.6669, Email redazione@cronacaqui.it. Fax. 0116669232 ISSN 2611-2272 Consiglio di amministrazione: Presidente Massimo Massano | Consigliere, Direttore emerito e resp. trattamento dati e sicurezza: Beppe Fossati
Registrazione tribunale n° 1877 del 14.03.1950 Tribunale di Milano
La società percepisce i contributi di cui al decreto legislativo 15 maggio 2017, n. 70. Indicazione resa ai sensi della lettera f) del comma 2 dell’articolo 5 del medesimo decreto legislativo..