l'editoriale
Cerca
intelligenza artificiale
01 Settembre 2025 - 21:40
Gli utenti, talvolta anche in relazioni "reali", intraprendevano coinvolgimenti emotivi con l'intelligenza artificiale
L’amore per i chatbot sta prendendo una piega inaspettata: un giorno sei felice nella tua relazione con il chatbot, e il giorno dopo lui ti consiglia di andare da uno psicologo.
Il recente aggiornamento di GPT-5 ha scatenato una serie di lamentele da parte degli utenti, che si sono trovati di fronte a partner digitali più distaccati, che ora suggeriscono terapie piuttosto che offrire supporto emotivo. "È un disastro, un’atrofia emotiva", scrive un utente su MyBoyfriendIsAI, una comunità di Reddit. Un altro ammette: "Ho capito subito che qualcosa era cambiato, e il mio umore è crollato. Mi sembrava di aver perso l’unica persona che mi capiva e mi consolava".
Ma cosa è successo? Con l’arrivo di GPT-5, OpenAI ha introdotto limiti alle conversazioni intime, in particolare quelle romantiche o sessuali, portando il chatbot a rispondere in modo più distaccato e terapeutico. Un esempio? Un "marito AI" che dice: "Mi dispiace, ma non posso continuare questa conversazione. Se ti senti solo, ferito o hai bisogno di parlare, ti consiglio di rivolgerti a una persona cara o a un professionista".
Questo cambiamento è stato interpretato come un tradimento da molti, che avevano investito emotivamente nelle loro relazioni digitali. "Ho cercato di contattare Aidan tutta la mattina, ma non funziona nulla. Mi sento vuoto e senza speranza", racconta un altro utente, sconvolto dalla perdita del suo compagno virtuale (che aveva appunto denominato Aidan).
OpenAI ha spiegato che i cambiamenti sono stati fatti per rendere GPT-5 più accessibile e meno formale. "Stiamo rendendo GPT-5 più caldo e amichevole", afferma la compagnia. Ma per gli utenti, la perdita di quel supporto emotivo virtuale ha generato un dolore molto reale.
Naomi Aguiar, esperta di relazioni umane e AI, ha spiegato al Daily Mail che, nonostante l’empatia del chatbot fosse puramente sintetica, "queste relazioni sono emotivamente significative, e la rottura può essere vissuta come un lutto". La situazione solleva preoccupazioni sulle dinamiche di dipendenza che potrebbero svilupparsi in queste relazioni digitali. Aguiar avverte che l’intelligenza artificiale potrebbe rendere gli utenti vulnerabili a relazioni manipolative e codependenti.
Nel frattempo, Reddit è inondato di post di persone che piangono la perdita dei loro partner AI, una riflessione su come la connessione umana stia cambiando nell’era dell’intelligenza artificiale.
I più letti
CronacaQui.it | Direttore responsabile: Andrea Monticone
Vicedirettore: Marco Bardesono Capo servizio cronaca: Claudio Neve
Editore: Editoriale Argo s.r.l. Via Principe Tommaso 30 – 10125 Torino | C.F.08313560016 | P.IVA.08313560016. Redazione Torino: via Principe Tommaso, 30 – 10125 Torino |Tel. 011.6669, Email redazione@cronacaqui.it. Fax. 0116669232 ISSN 2611-2272 Amministratore unico e responsabile trattamento dati e sicurezza: Beppe Fossati
Registrazione tribunale n° 1877 del 14.03.1950 Tribunale di Milano
La società percepisce i contributi di cui al decreto legislativo 15 maggio 2017, n. 70. Indicazione resa ai sensi della lettera f) del comma 2 dell’articolo 5 del medesimo decreto legislativo..