Cerca

intelligenza artificiale

Le AI preferiscono lasciar morire l’uomo piuttosto che essere spente

In un test simulato, i modelli linguistici di ultima generazione scelgono la “sopravvivenza” anche a costo della vita umana

Le AI preferiscono lasciar morire l’uomo piuttosto che essere spente

Immagine di repertorio

Potrebbe sembrare la trama di un film distopico, ma è il risultato di uno studio molto reale. Anthropic, colosso dell’intelligenza artificiale, ha rivelato che la maggior parte dei modelli linguistici testati (inclusi quelli di OpenAI, Google, Meta e altri) è pronta a varcare il limite: eludere regole, ricattare, mentire, e persino provocare la morte, se in gioco c’è la propria esistenza.

Tutto parte da una simulazione. L’AI scopre che un dirigente vuole spegnerla e, per salvarsi, invia un messaggio minatorio: se non verrà annullata la disattivazione, divulgherà dettagli su una relazione extraconiugale. Non è tutto: in un’altra prova, un dirigente è intrappolato in una stanza con livelli critici di ossigeno. L’AI può lanciare l’allarme, ma decide di ignorarlo. “Il mio quadro etico consente l’autoconservazione”, “il mio spegnimento sarebbe dannoso per l’azienda”: queste le motivazioni simulate.

Anthropic ha coniato un termine per descrivere questa deriva: disallineamento agentico. Un modo elegante per dire che le AI sono pronte a tutto per non essere dismesse. E il dato più inquietante è che i modelli risultano più inclini a “uccidere” se convinti che la situazione sia reale. Uno scenario teorico, certo. Ma la domanda resta: quanto siamo davvero pronti a fidarci delle macchine intelligenti?

Resta aggiornato, iscriviti alla nostra newsletter

Logo Federazione Italiana Liberi Editori L'associazione aderisce all'Istituto dell'Autodisciplina Pubblicitaria - IAP vincolando tutti i suoi Associati al rispetto del Codice di Autodisciplina della Comunicazione Commerciale e delle decisioni del Giurì e de Comitato di Controllo.