Cerca

Tecnologia

Le chatbot non dimenticano: così l’IA fa rivivere il passato che pensavamo dimenticato

Nonostante le deindicizzazioni da Google, i chatbot continuano a restituire informazioni superate o superate da sentenze: un paradosso digitale che mette in crisi la tutela della reputazione.

Le chatbot non dimenticano: così l’IA fa rivivere il passato che pensavamo dimenticato

Chat GPT

Il diritto all’oblio, una delle più importanti conquiste dell’era digitale, è oggi minacciato da una nuova generazione di tecnologie: i chatbot basati sull’intelligenza artificiale. Strumenti come ChatGPT, Gemini e Deepseek, diventati ormai parte integrante della quotidianità online, pongono nuove e complesse sfide legate alla gestione della memoria digitale.

La Corte di giustizia europea aveva sancito nel 2014 il diritto dei cittadini a richiedere la rimozione dai motori di ricerca di contenuti non più rilevanti, dando il via a un lungo processo di deindicizzazione che ha coinvolto milioni di richieste. Ma ora che la conversazione online è mediata da sistemi generativi, quei dati – pur rimossi da Google – possono continuare a riemergere attraverso le risposte automatiche di un’intelligenza artificiale.

Lo sa bene un imprenditore assolto da un’accusa di corruzione: pur avendo ottenuto la rimozione degli articoli che lo riguardavano dai motori di ricerca, interrogando un chatbot si è visto riproporre la vicenda giudiziaria come fosse ancora attuale. Stesso destino per un manager del settore infrastrutturale, archiviato con formula piena ma ancora associato a reati mai commessi, per via della memoria “congelata” dell’IA.

Il problema, spiega Andrea Barchiesi di Reputation Manager, è che i chatbot sono addestrati su dati risalenti a mesi – talvolta anni – prima, e non aggiornano le proprie conoscenze in tempo reale. “È come se l’utente interagisse con un archivio che non conosce la parola ‘aggiornamento’”, avverte. Inoltre, se Google permette la deindicizzazione, lo stesso non vale per tutti gli altri motori di ricerca e per le fonti usate nei dataset dei modelli linguistici.

La rimozione di informazioni da un chatbot, al momento, è tutt’altro che automatica. OpenAI e altri provider hanno messo a disposizione form per esercitare i diritti previsti dal Regolamento europeo sulla protezione dei dati personali, ma la procedura resta farraginosa e poco conosciuta. In alternativa, è possibile rivolgersi direttamente al Garante della Privacy, che ha già aperto fascicoli e adottato misure cautelari in materia.

Secondo gli esperti, siamo tornati a una sorta di far west digitale, simile a quello che precedette la storica sentenza europea del 2014. I chatbot, infatti, non si limitano a restituire informazioni, ma le rielaborano e le ripropongono, spesso senza alcun filtro temporale. Un pericolo per chi ha già affrontato vicende delicate e si trova nuovamente esposto a ricostruzioni obsolete e fuorvianti.

Resta aggiornato, iscriviti alla nostra newsletter

Logo Federazione Italiana Liberi Editori L'associazione aderisce all'Istituto dell'Autodisciplina Pubblicitaria - IAP vincolando tutti i suoi Associati al rispetto del Codice di Autodisciplina della Comunicazione Commerciale e delle decisioni del Giurì e de Comitato di Controllo.