l'editoriale
Cerca
Tecnologia & Società
22 Ottobre 2025 - 15:10
C’è un confine che la scienza non ha ancora deciso se attraversare: quello tra intelligenza artificiale e superintelligenza. A chiedere di fermarsi, questa volta, non sono gli scettici o i nostalgici del passato, ma oltre 700 tra scienziati, imprenditori, politici e celebrità. Tutti uniti da una stessa paura: che l’umanità stia costruendo qualcosa che potrebbe presto sfuggirle di mano.
L’appello arriva dal Future of Life Institute, organizzazione statunitense senza scopo di lucro da tempo impegnata a denunciare i rischi dell’IA incontrollata. Nel documento, i firmatari chiedono una moratoria immediata sullo sviluppo di una “superintelligenza artificiale”, ovvero un sistema capace di superare le capacità cognitive umane. “Fermiamoci finché non ci sarà consenso scientifico su un controllo sicuro e finché non ci sarà sostegno pubblico”, si legge nella dichiarazione.
A sottoscrivere l’iniziativa sono nomi che hanno fatto la storia dell’intelligenza artificiale: Geoffrey Hinton, premio Nobel per la Fisica 2024, Stuart Russell dell’Università di Berkeley e Yoshua Bengio dell’Università di Montréal. Ma anche figure di spicco del mondo tech come Richard Branson (Virgin) e Steve Wozniak (Apple), insieme a politici come Steve Bannon e Susan Rice, al consigliere papale Paolo Benanti e a personaggi del jet-set come will.i.am, il principe Harry e Meghan Markle.
Dietro l’allarme, un concetto che fino a pochi anni fa apparteneva alla fantascienza: la Artificial General Intelligence (AGI), ovvero un’intelligenza artificiale in grado di replicare — e forse superare — tutte le facoltà umane. È l’obiettivo di aziende come OpenAI, il colosso guidato da Sam Altman, secondo il quale la soglia della superintelligenza potrebbe essere raggiunta entro cinque anni.
Ma per Max Tegmark, presidente del Future of Life Institute, quel traguardo è inaccettabile: “Non importa se sarà tra due o quindici anni: costruire una simile entità senza regole è pericoloso. Le aziende non dovrebbero lavorare su progetti del genere senza un quadro normativo”.
L’appello non è isolato. Solo un mese fa, durante l’Assemblea Generale dell’ONU, ricercatori e dirigenti del settore IA avevano chiesto accordi internazionali sulle “linee rosse” da non oltrepassare, per evitare scenari catastrofici. Un messaggio chiaro: la corsa alla superintelligenza non è solo una questione tecnologica, ma una scelta etica e politica che definirà il futuro dell’umanità.
I più letti
CronacaQui.it | Direttore responsabile: Andrea Monticone
Vicedirettore: Marco Bardesono Capo servizio cronaca: Claudio Neve
Editore: Editoriale Argo s.r.l. Via Principe Tommaso 30 – 10125 Torino | C.F.08313560016 | P.IVA.08313560016. Redazione Torino: via Principe Tommaso, 30 – 10125 Torino |Tel. 011.6669, Email redazione@cronacaqui.it. Fax. 0116669232 ISSN 2611-2272 Amministratore unico e responsabile trattamento dati e sicurezza: Beppe Fossati
Registrazione tribunale n° 1877 del 14.03.1950 Tribunale di Milano
La società percepisce i contributi di cui al decreto legislativo 15 maggio 2017, n. 70. Indicazione resa ai sensi della lettera f) del comma 2 dell’articolo 5 del medesimo decreto legislativo..