l'editoriale
Cerca
intelligenza artificiale
20 Maggio 2025 - 21:15
Immagine di repertorio
Un nuovo studio condotto dalla City, St George’s University of London e dall’IT University of Copenhagen ha rivelato che gli agenti di intelligenza artificiale (IA), come i modelli di linguaggio di grandi dimensioni (LLM) simili a ChatGPT, possono sviluppare spontaneamente convenzioni sociali semplicemente interagendo tra loro. Il fenomeno che emerge da queste interazioni è simile a come le comunità umane formano le proprie norme, senza bisogno di un’autorità centrale che stabilisca le regole.
Nel corso della ricerca, i ricercatori hanno adattato il modello classico del “naming game” utilizzato per studiare le convenzioni sociali tra gli esseri umani. L’esperimento ha coinvolto gruppi di agenti IA, che, in coppie casuali, dovevano scegliere un "nome" da un pool condiviso. Se due agenti sceglievano lo stesso nome, ottenevano una ricompensa; se no, venivano penalizzati e mostrate le scelte reciproche. Con il tempo, i gruppi di IA hanno sviluppato spontaneamente una convenzione condivisa per i nomi, senza alcun coordinamento centralizzato, rispecchiando il processo di formazione delle norme nelle società umane.
Uno degli aspetti più sorprendenti dello studio è stato l'emergere di bias tra gli agenti, non originati dal comportamento individuale, ma dalle interazioni reciproche. Come spiegato da Andrea Baronchelli, Professore di Scienza della Complessità presso la City St George’s: “Il bias non proviene sempre dall’interno. Siamo rimasti sorpresi nel vedere che può emergere semplicemente dalle interazioni tra gli agenti.” Questo fenomeno è un punto cieco in molte ricerche sulla sicurezza dell'IA, che si concentrano principalmente sui singoli modelli.
Un altro risultato interessante è stato che piccoli gruppi di agenti IA, molto motivati, possono modificare l'intero sistema, spingendo l’intera popolazione verso una nuova convenzione di nomi. Questo comportamento richiama le dinamiche del “punto di rottura”, ovvero il momento in cui una minoranza riesce a influenzare profondamente il comportamento di un gruppo più ampio, proprio come avviene nelle società umane quando una minoranza critica promuove nuove norme sociali.
Questi risultati hanno importanti implicazioni per l’etica dell’intelligenza artificiale. Come gli LLM iniziano a popolarsi negli ambienti online (dai social media ai veicoli autonomi) la ricerca aiuta a comprendere come le IA possano convergere o divergere dal ragionamento umano, affrontando i rischi etici legati alla propagazione dei bias sociali, che possono danneggiare gruppi marginalizzati.
"La nostra coesistenza con l'IA è la chiave per il futuro", ha dichiarato Professor Baronchelli, sottolineando che "questo studio apre nuovi orizzonti per la ricerca sulla sicurezza dell'IA, mostrando l’impatto delle interazioni con questi agenti che ora iniziano a co-shaping il nostro futuro."
I più letti
CronacaQui.it | Direttore responsabile: Andrea Monticone
Vicedirettore: Marco Bardesono Capo servizio cronaca: Claudio Neve
Editore: Editoriale Argo s.r.l. Via Principe Tommaso 30 – 10125 Torino | C.F.08313560016 | P.IVA.08313560016. Redazione Torino: via Principe Tommaso, 30 – 10125 Torino |Tel. 011.6669, Email redazione@cronacaqui.it. Fax. 0116669232 ISSN 2611-2272 Consiglio di amministrazione: Presidente Massimo Massano | Consigliere, Direttore emerito e resp. trattamento dati e sicurezza: Beppe Fossati
Registrazione tribunale n° 1877 del 14.03.1950 Tribunale di Milano
La società percepisce i contributi di cui al decreto legislativo 15 maggio 2017, n. 70. Indicazione resa ai sensi della lettera f) del comma 2 dell’articolo 5 del medesimo decreto legislativo..