Cerca

Intelligenza artificiale

Intelligenza artificiale: ecco come è regolamentata

Regolamento UE sull'intelligenza artificiale: approccio basato sul rischio, divieti per sistemi inaccettabili, obblighi per quelli ad alto rischio, trasparenza per i rischi limitati e regole per l'IA generativa con tappe fino al 2027

Intelligenza artificiale: ecco come è regolamentata

Il Regolamento UE sull'Intelligenza Artificiale (AI Act), adottato ufficialmente nel giugno 2024, rappresenta la prima legislazione organica al mondo in questo campo. L'obiettivo è bilanciare la promozione dell'innovazione con la protezione dei diritti fondamentali, della sicurezza e dell'etica.

Il cuore della normativa è l'approccio basato sul rischio: non si regola la tecnologia in sé, ma l'uso specifico che se ne fa.

La legge suddivide i sistemi di IA in quattro categorie principali, con obblighi crescenti.

I sistemi a rischio inaccettabile sono considerati una minaccia per le persone e sono proibiti nell'UE dal 2 febbraio 2025. Includono sistemi che usano tecniche subliminali per distorcere il comportamento, quelli che classificano le persone in base a comportamento sociale o caratteristiche personali, sistemi che valutano il rischio che una persona commetta un reato basandosi solo sulla profilazione e l'identificazione biometrica in tempo reale vietata negli spazi pubblici per le forze dell'ordine salvo casi estremi (terrorismo, ricerca di vittime di rapimento).

La categoria successiva comprende i sistemi che possono incidere significativamente sulla vita e sui diritti dei cittadini: infrastrutture critiche (acqua, energia), istruzione e formazione professionale, gestione dei lavoratori e accesso all'occupazione, servizi pubblici e privati essenziali (banche, welfare), giustizia e controllo delle frontiere. Sono permessi ma soggetti a obblighi severi tra i quali valutazioni di conformità, tracciabilità, supervisione umana.

Seguono i sistemi considerati a rischio limitato come chatbot o generatori di immagini (deepfake). L'obbligo principale è la trasparenza: l'utente deve sapere che sta interagendo con un'IA e i contenuti generati devono essere contrassegnati.

Per i rischi minimi abbiamo la maggior parte dei sistemi attuali (filtri spam, videogiochi). Non hanno obblighi aggiuntivi oltre alla legislazione vigente.

Per quanto riguarda l'IA generativa, sebbene non sia sempre considerata ad "alto rischio", deve rispettare regole specifiche: il copyright e il rispetto delle leggi UE sul diritto d'autore, la pubblicazione di un riepilogo dei dati usati per l'addestramento e la sicurezza, ossia la prevenzione della generazione di contenuti illegali.

La legge entra in vigore gradualmente per permettere ad aziende e istituzioni di adeguarsi: ad agosto 2024 il Regolamento è entrato in vigore formalmente, il 2 febbraio 2025 sono entrati in vigore i divieti che concernono il rischio inaccettabile, ad agosto 2025 si sono iniziate ad applicare le regole sui modelli AI a uso generale, ad agosto 2026 è prevista la piena applicazione di gran parte del Regolamento, inclusi i sistemi ad alto rischio, e infine, ad agosto 2027, avverrà l'applicazione per i sistemi ad alto rischio integrati in prodotti come dispositivi medici o auto.

Resta aggiornato, iscriviti alla nostra newsletter

Logo Federazione Italiana Liberi Editori L'associazione aderisce all'Istituto dell'Autodisciplina Pubblicitaria - IAP vincolando tutti i suoi Associati al rispetto del Codice di Autodisciplina della Comunicazione Commerciale e delle decisioni del Giurì e de Comitato di Controllo.