Cerca

L'allarme

IA e biosicurezza, l’allarme degli esperti: “Rischio epidemia artificiale in aumento”

Lo studio, pubblicato dal Time, ha coinvolto 46 ricercatori di biosicurezza e biologia e 22 “superforecaster”

IA e biosicurezza, l’allarme degli esperti: “Rischio epidemia artificiale in aumento”

Potrebbe sembrare un’ipotesi da fantascienza, ma la minaccia è concreta: l’intelligenza artificiale potrebbe moltiplicare il rischio di una nuova epidemia globale creata in laboratorio. È quanto emerge da un’indagine condotta dal Forecasting Research Institute, organismo specializzato nell’analisi scientifica dei futuri scenari globali.

L’allarme riguarda i Large Language Model (LLM) – come ChatGPT, Gemini o Grok, il modello sviluppato da xAI di Elon Musk – che negli ultimi mesi hanno destato sempre più preoccupazione tra ricercatori, biologi e sviluppatori. L’ipotesi non è che l’IA sviluppi da sola un virus, ma che possa fornire strumenti tecnici e conoscenze avanzate a individui o gruppi con intenzioni malevole, riducendo drasticamente la soglia d’accesso per chi volesse progettare un’arma biologica.

Lo studio, pubblicato dal Time, ha coinvolto 46 esperti di biosicurezza e biologia e 22 “superforecaster”, ossia specialisti in previsione scientifica. Il primo dato raccolto è già inquietante: allo stato attuale, il rischio che un’epidemia generata dall’uomo provochi oltre 100.000 morti è dello 0,3% ogni anno. Ma la percentuale sale drasticamente in uno scenario in cui l’IA raggiunga capacità paragonabili a un team di esperti in virologia: il rischio annuale salirebbe all’1,5%, un aumento di cinque volte.

E ciò che più inquieta è che questo scenario non è più ipotetico. Secondo una successiva ricerca dello stesso istituto, in collaborazione con SecureBio, alcune IA avanzate avrebbero già superato i livelli di competenza previsti solo per il 2030, rendendo accessibili a un numero crescente di persone conoscenze che finora erano appannaggio esclusivo degli esperti.

“L’esperienza necessaria per progettare intenzionalmente una nuova epidemia – ha dichiarato Seth Donoughe, coautore dello studio – potrebbe diventare accessibile a molte, molte più persone”.

Lo sviluppo incontrollato dell’IA, dunque, non è solo una sfida tecnologica ed etica, ma rappresenta sempre più un rischio concreto per la biosicurezza globale. Un rischio che, secondo gli esperti, non può più essere ignorato.

Resta aggiornato, iscriviti alla nostra newsletter

Logo Federazione Italiana Liberi Editori L'associazione aderisce all'Istituto dell'Autodisciplina Pubblicitaria - IAP vincolando tutti i suoi Associati al rispetto del Codice di Autodisciplina della Comunicazione Commerciale e delle decisioni del Giurì e de Comitato di Controllo.