Con l’evoluzione dei sistemi di intelligenza artificiale connessi al Web, cresce anche la superficie di attacco. È in questo scenario che nasce la nuova Lockdown Mode di ChatGPT, una modalità di protezione avanzata progettata per ridurre drasticamente i rischi quando l’AI interagisce con Internet e applicazioni esterne.
Non si tratta di una funzione pensata per tutti, ma di uno strumento opzionale destinato a utenti e organizzazioni con esigenze di sicurezza elevate. L’obiettivo è chiaro: contrastare in modo efficace la prompt injection, una tecnica sempre più diffusa con cui un attore malevolo tenta di manipolare il comportamento del modello inducendolo a eseguire istruzioni non autorizzate o a rivelare informazioni sensibili.
Powered by
Finché un sistema AI dialoga esclusivamente con l’utente, il controllo del rischio è relativamente gestibile. Il quadro cambia radicalmente quando il modello può navigare online, interrogare servizi esterni o interagire con app collegate. In questi contesti, un contenuto apparentemente innocuo, come una pagina web o un input mascherato, può contenere istruzioni malevole progettate per aggirare i controlli. È il meccanismo tipico della prompt injection, che può portare alla esfiltrazione dei dati, ossia alla fuoriuscita non autorizzata di informazioni verso soggetti esterni. La Lockdown Mode nasce proprio per arginare questo tipo di minacce, adottando un approccio più rigido e prevedibile nella gestione delle interazioni con l’esterno.
Quando attivata, la modalità applica un modello di controllo deterministico, basato su regole stringenti. Alcune funzionalità vengono limitate o disabilitate se non è possibile garantire un livello adeguato di protezione. Uno degli esempi più significativi riguarda la navigazione web: in modalità Lockdown, l’accesso a Internet viene confinato a contenuti già presenti in cache, evitando richieste in tempo reale verso siti esterni. Se non è possibile assicurare un controllo completo dei flussi di dati, la funzione viene completamente disattivata. In pratica, si riduce drasticamente la possibilità che informazioni interne possano essere intercettate o trasmesse verso l’esterno attraverso meccanismi indiretti.
Questa impostazione si integra con le misure già previste nei piani aziendali di OpenAI, come:
sandboxing, che isola l’esecuzione in ambienti controllati
controlli contro l’esfiltrazione tramite URL
sistemi di monitoraggio e audit delle attività
La Lockdown Mode è inizialmente disponibile per gli utenti di ChatGPT Enterprise, ChatGPT Edu, ChatGPT for Healthcare e ChatGPT for Teachers. Gli amministratori possono configurare ruoli specifici e applicare restrizioni aggiuntive rispetto alle policy standard, decidendo in modo granulare quali applicazioni connesse e quali azioni siano consentite quando la modalità è attiva. Si tratta di uno strumento particolarmente rilevante per:
L’azienda ha, inoltre, spiegato che l’intenzione è estendere la Lockdown Mode anche agli utenti consumer nei prossimi mesi, ampliando così la platea di chi potrà adottare questa protezione rafforzata.
Accanto alla nuova modalità di protezione, debutta un sistema di etichettatura più trasparente. Alcune funzionalità che comportano un accesso alla rete o a risorse esterne saranno contrassegnate con l’indicazione “rischio elevato”. L’obiettivo è rendere immediatamente visibile quando una funzione amplia la superficie di attacco, permettendo agli utenti di valutare con maggiore consapevolezza l’impatto delle proprie scelte operative. Le etichette compariranno in modo coerente su ChatGPT e sugli strumenti correlati come ChatGPT Atlas e Codex, accompagnate da spiegazioni chiare sui potenziali rischi.
Secondo quanto comunicato dall’azienda, queste segnalazioni non sono necessariamente permanenti: potrebbero essere rimosse o aggiornate nel tempo, in base all’evoluzione delle misure di sicurezza.
La combinazione tra Lockdown Mode ed etichettatura "rischio elevato" segna un’evoluzione importante nell’approccio alla sicurezza delle piattaforme di intelligenza artificiale. In un momento in cui l’AI è sempre più integrata nei flussi di lavoro aziendali e nelle infrastrutture digitali, la capacità di offrire controlli granulari e trasparenza operativa diventa un elemento strategico. Non è solo una questione tecnica, ma di governance dell’AI: fornire strumenti che permettano a utenti e organizzazioni di decidere consapevolmente quanto aprire (o chiudere) le porte verso l’esterno.