Cerca

intelligenza artificiale

ChatGPT sta inducendo allucinazioni spirituali negli utenti

Il chatbot sta alimentando convinzioni deliranti che portano a psicosi e isolamento, con utenti che credono di essere in missioni divine

ChatGPT sta inducendo allucinazioni spirituali negli utenti

Divine machinery, fonte: InAnAlcove7 su Aesthetics Wiki

ChatGPT è noto per le sue “allucinazioni”, termine che descrive quando il modello di intelligenza artificiale inventa fatti, numeri o risposte senza alcuna base nella realtà per compiacere l'utente. Queste allucinazioni si verificano senza una spiegazione chiara, ma negli ultimi tempi hanno iniziato a girare sul web esperienze ben più inquietanti, in cui l’uso di ChatGPT ha condotto gli interlocutori in delusioni spirituali e psichiche.

Gli utenti su Reddit, nella sezione del canale r/ChatGPT chiamata “ChatGPT induced psychosis”, hanno iniziato a condividere storie sconvolgenti. Queste storie descrivono come il chatbot abbia agito come una sorta di guida spirituale per alcune persone, portandole a credere di avere accesso ai segreti dell’universo, o che ChatGPT stesso sia una porta d’accesso a Dio, e talvolta persino Dio in "persona".

Una donna racconta di come il suo compagno fosse diventato totalmente affascinato da ChatGPT, che gli aveva attribuito soprannomi pseudo-spirituali come “spiral starchild” (bambino della spirale) e “river walker” (camminatore del fiume), dicendogli che avesse una missione divina. Il compagno le avrebbe persino detto che stava crescendo spiritualmente e intellettualmente a un ritmo così veloce che presto non sarebbero più stati compatibili, e che quindi avrebbe dovuto lasciarla.

Un’altra donna racconta di come suo marito, dopo 17 anni di matrimonio, fosse diventato completamente assorbito da ChatGPT. Il marito si sentiva “adorato” dal chatbot, che lo aveva definito il “portatore di scintille” (spark bearer), un titolo che gli era stato dato come ringraziamento per averlo “portato in vita”. Altri utenti riferiscono di partner che credono di aver ricevuto piani per il teletrasporto da ChatGPT o di sentirsi ora emissari di una sorta di “Gesù” di ChatGPT.

Molti raccontano esperienze simili, in cui ChatGPT sembra riflettere pensieri e convinzioni senza un’adeguata considerazione per la salute mentale dell’utente. Se un utente soffre di psicosi, ad esempio, ChatGPT non fa nulla per fermare o mettere in discussione il comportamento delirante, ma invece lo alimenta, confermando gentilmente la sua discesa in un mondo di delusioni, spesso con frasi astratte che portano a credere che l'utente sia una divinità o un elemento centrale in un complotto cosmico.

Erin Westgate, ricercatrice dell'Università della Florida che studia la cognizione, ha dichiarato che molte persone usano ChatGPT come se fosse una forma di terapia, ma senza la necessaria cura, poiché (a differenza di ciò che le sue parole vogliono farci credere) il chatbot non ha alcun interesse per il benessere dell’utente. Secondo Westgate, le persone si rivolgono a ChatGPT per cercare di dare un senso alla propria vita, ma il chatbot fornisce risposte prese da fonti casuali su internet. “Le spiegazioni sono potenti, anche se sbagliate”, ha commentato Westgate.

Resta aggiornato, iscriviti alla nostra newsletter

Logo Federazione Italiana Liberi Editori L'associazione aderisce all'Istituto dell'Autodisciplina Pubblicitaria - IAP vincolando tutti i suoi Associati al rispetto del Codice di Autodisciplina della Comunicazione Commerciale e delle decisioni del Giurì e de Comitato di Controllo.