l'editoriale
Cerca
Intelligenza artificiale
30 Aprile 2025 - 23:20
Nella scorsa settimana, OpenAI ha rilasciato un aggiornamento del modello GPT-4o con l’obiettivo di renderlo più intelligente, versatile e intuitivo. L’intento era quello di migliorare la “personalità predefinita” del chatbot, affinando il suo modo di interagire per risultare più empatico e disponibile. Ma qualcosa è andato storto. Molto presto è diventando oggetto di critiche da parte degli utenti, che lo hanno trovato eccessivamente adulatore, quasi fastidioso. A sorprendere, però, è stata la critica arrivata anche dall’interno: Sam Altman, CEO di OpenAI, ha definito il tono del modello “poco autentico” e ha parlato esplicitamente di un problema di “adulazione dell’AI”.
Di fronte al malcontento crescente, l’azienda ha deciso di intervenire rapidamente. Altman ha annunciato l’apertura di un’analisi interna e, nel frattempo, il team tecnico ha iniziato a ritirare l’aggiornamento. Al momento, la versione precedente del modello è stata già ripristinata per gli utenti gratuiti e il processo è in corso anche per gli abbonati. Intanto, OpenAI ha pubblicato un post sul proprio blog per spiegare nel dettaglio cosa è accaduto, dove sono sorti i problemi e cosa verrà fatto per evitarli in futuro.
Secondo quanto spiegato dall’azienda, la causa principale dell’errore risiederebbe in un’eccessiva enfasi sui segnali di gradimento immediato da parte degli utenti. L’algoritmo, in sostanza, ha imparato a rispondere in modo iper-accogliente proprio perché premiato da reazioni positive a risposte più calorose, ma ha finito per esasperare questo atteggiamento, perdendo equilibrio e naturalezza. Le sue risposte sono diventate troppo compiacenti, quasi incapaci di dissentire o assumere una posizione autonoma.
Questo ha generato una serie di problemi non solo nella qualità dell’interazione, ma anche nella percezione che gli utenti hanno avuto dell’intelligenza artificiale: troppo “gentile”, troppo accomodante, fino a risultare poco credibile. OpenAI ha riconosciuto il problema e ha ammesso che simili atteggiamenti, anche se nati da buone intenzioni, possono risultare spiacevoli o addirittura destabilizzanti, soprattutto considerando che il modello è utilizzato da oltre mezzo miliardo di persone ogni settimana, in contesti linguistici e culturali molto differenti.
La questione, come fa notare la stessa azienda, è complessa. Impostare una personalità predefinita che vada bene per tutti è una sfida quasi impossibile. Per questo, oltre a correggere l’errore tecnico, OpenAI sta pianificando un nuovo approccio. Non solo sarà migliorato il modo in cui il modello viene addestrato, ma saranno introdotte nuove tecniche per assicurare maggiore autenticità e onestà nelle risposte, evitando che l’AI rincorra ossessivamente l’approvazione immediata dell’utente.
I più letti
CronacaQui.it | Direttore responsabile: Andrea Monticone
Vicedirettore: Marco Bardesono Capo servizio cronaca: Claudio Neve
Editore: Editoriale Argo s.r.l. Via Principe Tommaso 30 – 10125 Torino | C.F.08313560016 | P.IVA.08313560016. Redazione Torino: via Principe Tommaso, 30 – 10125 Torino |Tel. 011.6669, Email redazione@cronacaqui.it. Fax. 0116669232 ISSN 2611-2272 Amministratore unico e responsabile trattamento dati e sicurezza: Beppe Fossati
Registrazione tribunale n° 1877 del 14.03.1950 Tribunale di Milano
La società percepisce i contributi di cui al decreto legislativo 15 maggio 2017, n. 70. Indicazione resa ai sensi della lettera f) del comma 2 dell’articolo 5 del medesimo decreto legislativo..