Cerca

Intelligenza artificiale

ChatGPT, due anni di lavoro cancellati in pochi secondi

La storia di un professore tedesco mette in discussione l’affidabilità dell’IA per l’uso accademico

ChatGPT, due anni di lavoro cancellati in pochi secondi

L’intelligenza artificiale è diventata uno strumento quotidiano anche nel mondo accademico. Ma la sua integrazione nel lavoro scientifico non è priva di rischi. Lo dimostra la vicenda di Marcel Bucher, professore all’Università di Colonia, che ha perso due anni di materiali di ricerca dopo aver modificato le impostazioni sulla privacy di ChatGPT.

Il caso, raccontato sulla rivista Nature, solleva interrogativi importanti sull’affidabilità degli strumenti di IA in ambito professionale.

Per circa due anni Bucher ha utilizzato ChatGPT Plus come supporto costante: scrittura di e-mail, preparazione delle lezioni, revisione di articoli scientifici, domande di finanziamento e analisi degli esami. Un assistente capace di ridurre i tempi e alleggerire le attività più ripetitive, pur con la consapevolezza dei limiti del sistema e delle possibili risposte errate generate dall’IA.

Lo scorso agosto, il docente ha deciso di disattivare il consenso all’utilizzo dei propri dati da parte di OpenAI. L’effetto è stato immediato: tutte le chat e i progetti sono stati cancellati in modo permanente, senza avvisi né possibilità di recupero.

Convinto inizialmente si trattasse di un errore, Bucher ha tentato ogni strada, inclusa l’assistenza clienti. La risposta finale è stata chiara: i dati erano stati eliminati definitivamente.

Secondo l’informativa sulla privacy di OpenAI, quando un utente revoca il consenso alla condivisione dei dati, le conversazioni vengono cancellate in base al principio della “privacy by design”. Una misura pensata per tutelare gli utenti, ma che nel caso di Bucher ha comportato la perdita irreversibile di materiale professionale.

Per il professore, il problema è strutturale: l’assenza di avvisi chiari, backup automatici o periodi di recupero rende ChatGPT poco sicuro per un uso professionale intensivo. OpenAI ha confermato che, una volta eliminati, i dati non sono recuperabili e ha ribadito l’importanza dei backup personali.

Il caso Bucher diventa, così, un avvertimento per ricercatori e istituzioni: l’intelligenza artificiale può essere un valido alleato, ma non può sostituire una gestione attenta e autonoma dei propri dati.

Resta aggiornato, iscriviti alla nostra newsletter

Logo Federazione Italiana Liberi Editori L'associazione aderisce all'Istituto dell'Autodisciplina Pubblicitaria - IAP vincolando tutti i suoi Associati al rispetto del Codice di Autodisciplina della Comunicazione Commerciale e delle decisioni del Giurì e de Comitato di Controllo.