Cerca

intelligenza artificiale

Quando l’IA inventa: il problema delle risposte sbagliate ma convincenti

L’intelligenza artificiale sembra sapere tutto. Ma spesso, semplicemente, se lo inventa

Quando l’IA inventa: il problema delle risposte sbagliate ma convincenti

Immagine di repertorio

L’avanzata dell’intelligenza artificiale ha fatto pensare a molti che questi sistemi diventeranno sempre più precisi e affidabili. In realtà, anche i modelli più recenti continuano a inciampare nello stesso errore: rispondere con sicurezza, anche quando non sanno nulla.

Un caso emblematico è quello accaduto di recente su Cursor, una piattaforma per programmatori: un bot AI ha informato gli utenti che non sarebbe stato più possibile accedere al servizio da più dispositivi. Molti si sono infuriati e alcuni hanno cancellato l’account, ma tutto si è rivelato falso. L’amministratore delegato ha poi chiarito che nessuna nuova regola era stata introdotta: era stato il bot a “fantasticare”.

Questo tipo di errore ha un nome preciso: allucinazione. Succede quando l’IA produce risposte inventate ma credibili, usando un linguaggio coerente, un tono rassicurante e una struttura logica. È un fenomeno che riguarda tutti i modelli attuali, anche i più sofisticati. Alcuni test mostrano addirittura che i modelli “di nuova generazione” hanno più probabilità di generare errori rispetto a quelli più vecchi.

Sarà capitato anche a voi di fare una domanda a ChatGPT, e ricevere una risposta non soddisfacente e il classico "Scusami, ecco la versione corretta" dopo averglielo fatto notare. Il motivo? Questi sistemi non ragionano davvero: calcolano quale sia la risposta più probabile in base ai dati che hanno visto. Ma probabilità non significa verità. E quando un errore appare ben confezionato, è facile prenderlo per buono.

Se per un'email o una descrizione generica il danno può essere minimo, in contesti più delicati (come la sanità, il diritto, l’economia o la salute mentale) il rischio cresce. L’AI può sbagliare numeri, riferimenti, persino inventare intere normative. E non lo fa per “malizia”: semplicemente non sa distinguere il vero dal falso.

Le aziende stanno cercando di risolvere il problema con modelli sempre più evoluti e filtri più accurati. Ma al momento resta un fatto: abbiamo chiesto all’IA di fare qualcosa, essere affidabile, per cui non è ancora pronta. E prima di affidarci completamente ai suoi consigli, forse dovremmo ricordarci che la sua competenza è spesso solo un’illusione ben scritta.

Resta aggiornato, iscriviti alla nostra newsletter

Logo Federazione Italiana Liberi Editori L'associazione aderisce all'Istituto dell'Autodisciplina Pubblicitaria - IAP vincolando tutti i suoi Associati al rispetto del Codice di Autodisciplina della Comunicazione Commerciale e delle decisioni del Giurì e de Comitato di Controllo.