Cerca

intelligenza artificiale

I modelli di intelligenza artificiale formano tra loro regole sociali, proprio come gli umani

Lo studio dimostra che gli agenti AI, interagendo in gruppo, possono creare convenzioni sociali spontanee senza coordinamento centrale

I modelli di intelligenza artificiale formano tra loro regole sociali, proprio come gli umani

Immagine di repertorio

Un nuovo studio condotto dalla City, St George’s University of London e dall’IT University of Copenhagen ha rivelato che gli agenti di intelligenza artificiale (IA), come i modelli di linguaggio di grandi dimensioni (LLM) simili a ChatGPT, possono sviluppare spontaneamente convenzioni sociali semplicemente interagendo tra loro. Il fenomeno che emerge da queste interazioni è simile a come le comunità umane formano le proprie norme, senza bisogno di un’autorità centrale che stabilisca le regole.

Nel corso della ricerca, i ricercatori hanno adattato il modello classico del “naming game” utilizzato per studiare le convenzioni sociali tra gli esseri umani. L’esperimento ha coinvolto gruppi di agenti IA, che, in coppie casuali, dovevano scegliere un "nome" da un pool condiviso. Se due agenti sceglievano lo stesso nome, ottenevano una ricompensa; se no, venivano penalizzati e mostrate le scelte reciproche. Con il tempo, i gruppi di IA hanno sviluppato spontaneamente una convenzione condivisa per i nomi, senza alcun coordinamento centralizzato, rispecchiando il processo di formazione delle norme nelle società umane.

Uno degli aspetti più sorprendenti dello studio è stato l'emergere di bias tra gli agenti, non originati dal comportamento individuale, ma dalle interazioni reciproche. Come spiegato da Andrea Baronchelli, Professore di Scienza della Complessità presso la City St George’s: “Il bias non proviene sempre dall’interno. Siamo rimasti sorpresi nel vedere che può emergere semplicemente dalle interazioni tra gli agenti.” Questo fenomeno è un punto cieco in molte ricerche sulla sicurezza dell'IA, che si concentrano principalmente sui singoli modelli.

Un altro risultato interessante è stato che piccoli gruppi di agenti IA, molto motivati, possono modificare l'intero sistema, spingendo l’intera popolazione verso una nuova convenzione di nomi. Questo comportamento richiama le dinamiche del “punto di rottura”, ovvero il momento in cui una minoranza riesce a influenzare profondamente il comportamento di un gruppo più ampio, proprio come avviene nelle società umane quando una minoranza critica promuove nuove norme sociali.

Questi risultati hanno importanti implicazioni per l’etica dell’intelligenza artificiale. Come gli LLM iniziano a popolarsi negli ambienti online (dai social media ai veicoli autonomi) la ricerca aiuta a comprendere come le IA possano convergere o divergere dal ragionamento umano, affrontando i rischi etici legati alla propagazione dei bias sociali, che possono danneggiare gruppi marginalizzati.

"La nostra coesistenza con l'IA è la chiave per il futuro", ha dichiarato Professor Baronchelli, sottolineando che "questo studio apre nuovi orizzonti per la ricerca sulla sicurezza dell'IA, mostrando l’impatto delle interazioni con questi agenti che ora iniziano a co-shaping il nostro futuro."

Resta aggiornato, iscriviti alla nostra newsletter

Logo Federazione Italiana Liberi Editori L'associazione aderisce all'Istituto dell'Autodisciplina Pubblicitaria - IAP vincolando tutti i suoi Associati al rispetto del Codice di Autodisciplina della Comunicazione Commerciale e delle decisioni del Giurì e de Comitato di Controllo.