Cerca

Salute

Sempre più italiani affidano i referti medici a ChatGPT: il Garante lancia l’allarme

Dalla TAC alla diagnosi automatica: cresce in Italia la tendenza a consultare l’intelligenza artificiale per esami clinici

Sempre più italiani affidano i referti medici a ChatGPT: il Garante lancia l’allarme

Il Garante per la Protezione dei Dati Personali ha recentemente lanciato un segnale d’allerta su una tendenza in crescita che coinvolge l’utilizzo delle piattaforme di intelligenza artificiale generativa, come ChatGPT, da parte dei pazienti. Il comunicato si apre con un monito chiaro: «Sempre più persone caricano esami clinici, radiografie e referti medici su strumenti di IA per ottenere pareri o diagnosi».

Una pratica in crescita, ma rischiosa

Sebbene non siano disponibili dati ufficiali o statistiche precise, è probabile che il Garante sia intervenuto in seguito a numerose segnalazioni, forse provenienti proprio da operatori sanitari. Il comportamento osservato consiste nel sottoporre a intelligenze artificiali documenti medici in cerca di interpretazioni che, in teoria, dovrebbero arrivare da professionisti qualificati.

Basta pochissimo per farlo: si carica una foto o un PDF del referto, e si chiede all’IA di “leggere” i dati e formulare un’ipotesi diagnostica. In diversi test effettuati, i sistemi di IA hanno elaborato i file senza problemi. Quando abbiamo domandato a ChatGPT se fosse possibile inviare un referto medico, la risposta è stata chiara: «Certo! Carica pure il documento che vuoi analizzare».

Perché il Garante invita alla prudenza

Due le principali criticità evidenziate dall’autorità. Innanzitutto, si parla di dati sanitari, che rientrano tra le informazioni personali più delicate. Come sottolineato nel comunicato: «Hanno un'importanza fondamentale per la vita e la dignità delle persone».

La seconda preoccupazione riguarda l’attendibilità delle risposte fornite dall’IA: algoritmi non supervisionati possono generare valutazioni errate su aspetti clinici cruciali. Il Garante sottolinea che è indispensabile una supervisione professionale in tutte le fasi del ciclo di vita di un sistema basato sull’intelligenza artificiale, dall’ideazione fino all’utilizzo.

IA e sanità: un connubio possibile, ma da gestire

L’idea di un coinvolgimento più strutturato dell’intelligenza artificiale nella sanità non è così lontana. Già in passato si è parlato di IA in ambito diagnostico – basti pensare al tema dell’automazione della radiologia, trattato in un nostro approfondimento di giugno intitolato “Perché il tuo prossimo radiologo potrebbe essere un’intelligenza artificiale”.

Nel contesto italiano, dove il sistema sanitario spesso fatica a rispondere tempestivamente alle richieste dei pazienti, strumenti tecnologici avanzati potrebbero rappresentare un valido supporto. Ma questa evoluzione non può prescindere da regole chiare, formazione adeguata e controllo umano. Il rischio di affidarsi ciecamente a un algoritmo per decisioni sanitarie vitali – come l’interruzione di una terapia, ad esempio – è tutt’altro che remoto.

Resta aggiornato, iscriviti alla nostra newsletter

Logo Federazione Italiana Liberi Editori L'associazione aderisce all'Istituto dell'Autodisciplina Pubblicitaria - IAP vincolando tutti i suoi Associati al rispetto del Codice di Autodisciplina della Comunicazione Commerciale e delle decisioni del Giurì e de Comitato di Controllo.