Cerca

INTELLIGENZA ARTIFICIALE

Roberto Navigli: "I modelli linguistici dell'IA possono commettere gravi errori, le 'allucinazioni' sono un rischio concreto"

Navigli sottolinea anche la necessità di regolamentare l'IA, affrontando temi come la tutela del diritto d'autore, la sicurezza e la sostenibilità

Roberto Navigli: "I modelli linguistici dell'IA possono commettere gravi errori, le 'allucinazioni' sono un rischio concreto"

ROBERTO NAVIGLI

L’Intelligenza Artificiale (IA) alla base dei grandi modelli linguistici come ChatGPT, seppur avanzata, resta lontana dalla comprensione reale del mondo. Questo, secondo Roberto Navigli, professore di elaborazione del linguaggio all'Università Sapienza di Roma, è uno dei limiti principali dei cosiddetti Large Language Models (LLM), che pur essendo in grado di generare risposte apparentemente sensate, possono commettere errori grossolani, conosciuti come 'allucinazioni'.

Navigli, intervenuto al convegno sull’impatto dell’IA nell’industria audiovisiva e fotografica, organizzato a Roma da Ansa, in collaborazione con Deloitte Italia e altre realtà del settore, ha messo in guardia sulle criticità di questi sistemi che, pur imitando la lingua umana, non comprendono davvero la realtà in cui viviamo. “I modelli linguistici non ragionano come gli esseri umani”, ha dichiarato il ricercatore, sottolineando che un altro tema centrale riguarda la gestione dei dati: per funzionare, gli LLM devono analizzare miliardi di parole, ma non vivono l’esperienza diretta legata a queste parole. “Un buon lettore può leggere circa 200mila parole a settimana, quindi meno di un miliardo in tutta la vita. Gli LLM, al contrario, parlano di cose che non hanno mai visto o vissuto”, ha spiegato Navigli.

Il rischio di errori imprevisti e 'allucinazioni', quindi, è elevato, proprio perché questi modelli non sono in grado di associare il linguaggio a esperienze reali, ma si limitano a riprodurre pattern di testo sulla base dei dati con cui sono stati addestrati. Per il professor Navigli, è fondamentale riconoscere che l’IA, pur potente, non possiede una vera comprensione: “Noi, invece, dobbiamo collegare il linguaggio alla nostra esperienza”, ha sottolineato.

Al convegno sono emersi anche altri temi cruciali legati all'evoluzione dell'IA, come la tutela del diritto d’autore, la sostenibilità e la sicurezza. L’intervento di Navigli ha infatti evidenziato i rischi connessi alla capacità dei modelli linguistici di generare contenuti indesiderabili, siano essi testi o immagini, mettendo in discussione anche le normative esistenti. "Stiamo passando da un'IA che sa svolgere un solo compito a una che può farne tanti, ma siamo ancora a metà strada di questo processo", ha aggiunto il ricercatore, prefigurando un futuro in cui l’IA dovrà affrontare sfide più complesse e far fronte a problematiche nuove, sia etiche che legali.

Resta aggiornato, iscriviti alla nostra newsletter

Logo Federazione Italiana Liberi Editori L'associazione aderisce all'Istituto dell'Autodisciplina Pubblicitaria - IAP vincolando tutti i suoi Associati al rispetto del Codice di Autodisciplina della Comunicazione Commerciale e delle decisioni del Giurì e de Comitato di Controllo.