l'editoriale
Cerca
Intelligenza artificiale
15 Aprile 2025 - 11:00
L'intelligenza artificiale sta diventando un alleato sempre più presente nella sfera della salute mentale, ma il suo utilizzo nel supporto psicologico per i bambini solleva interrogativi, sia sul piano dell'efficacia che su quello etico.
Alcuni studiosi, in un articolo pubblicato nel Journal of Pediatrics, hanno sottolineato come l'intelligenza artificiale non sia ancora in grado di affrontare adeguatamente le esigenze psicologiche dei bambini, che si trovano in una fase evolutiva delicata. La mancanza di consapevolezza riguardo a queste differenze può comportare rischi importanti nel trattamento, o nella mancata individuazione di segnali di disagio psicologico.
Le applicazioni di salute mentale sviluppate con l'IA sono generalmente pensate per un pubblico adulto, e questo crea problematiche quando vengono adattate ai più giovani. La psicologia infantile implica una considerazione attenta non solo del bambino in sé, ma anche del suo contesto sociale e familiare. Purtroppo, i chatbot e gli algoritmi non sono in grado di integrare queste variabili, rischiando di offrire risposte inadeguate.
Bryanna Moore, docente di Bioetica presso l'Università di Rochester, ha osservato che i bambini sono vulnerabili e sviluppano un modo di pensare e di interagire con il mondo che non può essere assimilato a quello degli adulti. Affidarsi a una macchina per supportarli emotivamente potrebbe compromettere lo sviluppo di relazioni umane sane, essenziali per la loro crescita psicologica.
Un altro pericolo è legato all'attaccamento emotivo che i bambini potrebbero sviluppare nei confronti di un chatbot, trattandolo come se fosse umano. Studi hanno infatti dimostrato che i più piccoli tendono a proiettare caratteristiche umane sui robot, creando un legame che potrebbe interferire negativamente con le relazioni sociali reali.
Un altro aspetto problematico riguarda le disuguaglianze nell'accesso alle cure. Jonathan Herington, esperto di filosofia e bioetica, ha evidenziato che l'IA si basa esclusivamente sui dati con cui viene addestrata. Se questi dati non sono rappresentativi di tutta la popolazione, in particolare di quella più vulnerabile, l'IA rischia di non fornire un supporto adeguato a tutti i bambini, in particolare quelli provenienti da contesti svantaggiati.
Le disuguaglianze socioeconomiche, etniche e culturali influenzano profondamente le esperienze traumatiche e le difficoltà emotive che i bambini possono affrontare. L’assenza di regolamentazioni chiare riguardo l'uso dei chatbot terapeutici pone interrogativi cruciali sulla sicurezza degli utenti, sulla gestione dei dati e sull'equità dei servizi.
I più letti
CronacaQui.it | Direttore responsabile: Andrea Monticone
Vicedirettore: Marco Bardesono Capo servizio cronaca: Claudio Neve
Editore: Editoriale Argo s.r.l. Via Principe Tommaso 30 – 10125 Torino | C.F.08313560016 | P.IVA.08313560016. Redazione Torino: via Principe Tommaso, 30 – 10125 Torino |Tel. 011.6669, Email redazione@cronacaqui.it. Fax. 0116669232 ISSN 2611-2272 Consiglio di amministrazione: Presidente Massimo Massano | Consigliere, Direttore emerito e resp. trattamento dati e sicurezza: Beppe Fossati
Registrazione tribunale n° 1877 del 14.03.1950 Tribunale di Milano
La società percepisce i contributi di cui al decreto legislativo 15 maggio 2017, n. 70. Indicazione resa ai sensi della lettera f) del comma 2 dell’articolo 5 del medesimo decreto legislativo..