Cerca

Intelligenza artificiale

L'IA per il supporto psicologico dei bambini: una soluzione o un rischio?

Molte famiglie si rivolgono a ChatGPT per aiutare i propri figli, ma gli esperti dissentono

L'IA per il supporto psicologico dei bambini: una soluzione o un rischio?

L'intelligenza artificiale sta diventando un alleato sempre più presente nella sfera della salute mentale, ma il suo utilizzo nel supporto psicologico per i bambini solleva interrogativi, sia sul piano dell'efficacia che su quello etico.

Alcuni studiosi, in un articolo pubblicato nel Journal of Pediatrics, hanno sottolineato come l'intelligenza artificiale non sia ancora in grado di affrontare adeguatamente le esigenze psicologiche dei bambini, che si trovano in una fase evolutiva delicata. La mancanza di consapevolezza riguardo a queste differenze può comportare rischi importanti nel trattamento, o nella mancata individuazione di segnali di disagio psicologico.

Le applicazioni di salute mentale sviluppate con l'IA sono generalmente pensate per un pubblico adulto, e questo crea problematiche quando vengono adattate ai più giovani. La psicologia infantile implica una considerazione attenta non solo del bambino in sé, ma anche del suo contesto sociale e familiare. Purtroppo, i chatbot e gli algoritmi non sono in grado di integrare queste variabili, rischiando di offrire risposte inadeguate.

Bryanna Moore, docente di Bioetica presso l'Università di Rochester, ha osservato che i bambini sono vulnerabili e sviluppano un modo di pensare e di interagire con il mondo che non può essere assimilato a quello degli adulti. Affidarsi a una macchina per supportarli emotivamente potrebbe compromettere lo sviluppo di relazioni umane sane, essenziali per la loro crescita psicologica.

Un altro pericolo è legato all'attaccamento emotivo che i bambini potrebbero sviluppare nei confronti di un chatbot, trattandolo come se fosse umano. Studi hanno infatti dimostrato che i più piccoli tendono a proiettare caratteristiche umane sui robot, creando un legame che potrebbe interferire negativamente con le relazioni sociali reali.

Un altro aspetto problematico riguarda le disuguaglianze nell'accesso alle cure. Jonathan Herington, esperto di filosofia e bioetica, ha evidenziato che l'IA si basa esclusivamente sui dati con cui viene addestrata. Se questi dati non sono rappresentativi di tutta la popolazione, in particolare di quella più vulnerabile, l'IA rischia di non fornire un supporto adeguato a tutti i bambini, in particolare quelli provenienti da contesti svantaggiati.

Le disuguaglianze socioeconomiche, etniche e culturali influenzano profondamente le esperienze traumatiche e le difficoltà emotive che i bambini possono affrontare. L’assenza di regolamentazioni chiare riguardo l'uso dei chatbot terapeutici pone interrogativi cruciali sulla sicurezza degli utenti, sulla gestione dei dati e sull'equità dei servizi.

Resta aggiornato, iscriviti alla nostra newsletter

Logo Federazione Italiana Liberi Editori L'associazione aderisce all'Istituto dell'Autodisciplina Pubblicitaria - IAP vincolando tutti i suoi Associati al rispetto del Codice di Autodisciplina della Comunicazione Commerciale e delle decisioni del Giurì e de Comitato di Controllo.