l'editoriale
Cerca
Salute
06 Agosto 2025 - 19:10
Il Garante per la Protezione dei Dati Personali ha recentemente lanciato un segnale d’allerta su una tendenza in crescita che coinvolge l’utilizzo delle piattaforme di intelligenza artificiale generativa, come ChatGPT, da parte dei pazienti. Il comunicato si apre con un monito chiaro: «Sempre più persone caricano esami clinici, radiografie e referti medici su strumenti di IA per ottenere pareri o diagnosi».
Una pratica in crescita, ma rischiosa
Sebbene non siano disponibili dati ufficiali o statistiche precise, è probabile che il Garante sia intervenuto in seguito a numerose segnalazioni, forse provenienti proprio da operatori sanitari. Il comportamento osservato consiste nel sottoporre a intelligenze artificiali documenti medici in cerca di interpretazioni che, in teoria, dovrebbero arrivare da professionisti qualificati.
Basta pochissimo per farlo: si carica una foto o un PDF del referto, e si chiede all’IA di “leggere” i dati e formulare un’ipotesi diagnostica. In diversi test effettuati, i sistemi di IA hanno elaborato i file senza problemi. Quando abbiamo domandato a ChatGPT se fosse possibile inviare un referto medico, la risposta è stata chiara: «Certo! Carica pure il documento che vuoi analizzare».
Perché il Garante invita alla prudenza
Due le principali criticità evidenziate dall’autorità. Innanzitutto, si parla di dati sanitari, che rientrano tra le informazioni personali più delicate. Come sottolineato nel comunicato: «Hanno un'importanza fondamentale per la vita e la dignità delle persone».
La seconda preoccupazione riguarda l’attendibilità delle risposte fornite dall’IA: algoritmi non supervisionati possono generare valutazioni errate su aspetti clinici cruciali. Il Garante sottolinea che è indispensabile una supervisione professionale in tutte le fasi del ciclo di vita di un sistema basato sull’intelligenza artificiale, dall’ideazione fino all’utilizzo.
IA e sanità: un connubio possibile, ma da gestire
L’idea di un coinvolgimento più strutturato dell’intelligenza artificiale nella sanità non è così lontana. Già in passato si è parlato di IA in ambito diagnostico – basti pensare al tema dell’automazione della radiologia, trattato in un nostro approfondimento di giugno intitolato “Perché il tuo prossimo radiologo potrebbe essere un’intelligenza artificiale”.
Nel contesto italiano, dove il sistema sanitario spesso fatica a rispondere tempestivamente alle richieste dei pazienti, strumenti tecnologici avanzati potrebbero rappresentare un valido supporto. Ma questa evoluzione non può prescindere da regole chiare, formazione adeguata e controllo umano. Il rischio di affidarsi ciecamente a un algoritmo per decisioni sanitarie vitali – come l’interruzione di una terapia, ad esempio – è tutt’altro che remoto.
CronacaQui.it | Direttore responsabile: Andrea Monticone
Vicedirettore: Marco Bardesono Capo servizio cronaca: Claudio Neve
Editore: Editoriale Argo s.r.l. Via Principe Tommaso 30 – 10125 Torino | C.F.08313560016 | P.IVA.08313560016. Redazione Torino: via Principe Tommaso, 30 – 10125 Torino |Tel. 011.6669, Email redazione@cronacaqui.it. Fax. 0116669232 ISSN 2611-2272 Consiglio di amministrazione: Presidente Massimo Massano | Consigliere, Direttore emerito e resp. trattamento dati e sicurezza: Beppe Fossati
Registrazione tribunale n° 1877 del 14.03.1950 Tribunale di Milano
La società percepisce i contributi di cui al decreto legislativo 15 maggio 2017, n. 70. Indicazione resa ai sensi della lettera f) del comma 2 dell’articolo 5 del medesimo decreto legislativo..