OpenAI ha annunciato il lancio di GPT-5.4-Cyber, una variante specializzata del suo modello di punta GPT-5.4 progettato specificamente per il settore della sicurezza informatica. A differenza dei modelli di intelligenza artificiale standard programmati per rifiutare richieste che implicano hacking o scoperta di vulnerabilità, questa nuova versione è “cyber-permissiva”, il che significa che è intenzionalmente progettata per interagire con richieste che normalmente innescherebbero rifiuti di sicurezza.
Rompere il “confine del rifiuto”
Nei modelli LLM (Large Language Model) standard, sono in atto rigidi guardrail di sicurezza per impedire all’intelligenza artificiale di assistere in attività dannose, come la scrittura di malware o l’identificazione di difetti di sicurezza nel software. Sebbene queste tutele proteggano il pubblico in generale, spesso fungono da barriera per i professionisti legittimi della sicurezza informatica che hanno bisogno dell’intelligenza artificiale per aiutarli a individuare e correggere le vulnerabilità.
Il nuovo approccio di OpenAI mira a risolvere questo attrito. Abbassando il “limite di rifiuto”, GPT-5.4-Cyber consente a ricercatori e difensori di utilizzare le capacità di intelligenza artificiale di frontiera per:
– Identificazione delle vulnerabilità del software prima che possano essere sfruttate.
– Sviluppo di flussi di lavoro difensivi avanzati per proteggere l’infrastruttura digitale.
– Potenziare la ricerca e l’istruzione sulla cibersicurezza.
Accesso controllato tramite il programma TAC
Poiché un modello in grado di identificare le vulnerabilità potrebbe essere utilizzato anche da malintenzionati per lanciare attacchi, OpenAI non rilascerà GPT-5.4-Cyber al grande pubblico. Invece, l’accesso è strettamente regolamentato attraverso il programma Trusted Access for Cyber (TAC).
L’implementazione segue una struttura di sicurezza a più livelli:
1. Organizzazioni controllate: l’accesso iniziale è limitato ai membri di alto livello del programma TAC, inclusi fornitori di sicurezza e ricercatori affermati.
2. Verifica dell’identità: i membri del programma TAC sono già stati sottoposti a rigorosi controlli dell’identità, compresi i controlli dell’identità governativa.
3. Autenticazione aggiuntiva: Gli utenti del programma che non appartengono ai livelli più alti devono sottoporsi a un’ulteriore autenticazione per dimostrare di essere “legittimi difensori informatici” prima di ottenere l’accesso.
Una tendenza emergente nella sicurezza dell’intelligenza artificiale
Il rilascio di GPT-5.4-Cyber evidenzia una crescente corsa agli armamenti nel settore dell’intelligenza artificiale. OpenAI non è sola in questa direzione; il suo concorrente, Anthropic, ha recentemente introdotto il Progetto Glasswing. Questa iniziativa fornisce ad organizzazioni selezionate l’accesso al modello Claude Mythos Preview, che secondo Anthropic ha già identificato migliaia di vulnerabilità di elevata gravità.
Questa tendenza segnala un cambiamento nel modo in cui gli sviluppatori di intelligenza artificiale vedono la “sicurezza”. Mentre la prima ondata di sviluppo dell’IA si è concentrata sulla prevenzione di qualsiasi uso improprio, la seconda ondata si concentra sulla specializzazione. Gli sviluppatori si stanno rendendo conto che per rendere l’intelligenza artificiale veramente utile per settori professionali come la sicurezza informatica, devono creare “eccezioni controllate” alle loro regole di sicurezza, consentendo agli strumenti di essere “pericolosi” solo se utilizzati da difensori legittimi e verificati.
“Dato il tasso di progresso dell’intelligenza artificiale, non passerà molto tempo prima che tali capacità proliferino, potenzialmente al di là degli attori impegnati a implementarle in modo sicuro.” — Antropico
Conclusione
GPT-5.4-Cyber di OpenAI rappresenta una mossa strategica per dotare i professionisti della sicurezza informatica di strumenti specializzati e ad alta potenza, utilizzando al tempo stesso una rigorosa verifica dell’identità per mitigare il rischio di uso improprio. Ciò segna un nuovo capitolo nello sviluppo dell’intelligenza artificiale in cui l’attenzione si sposta dalle restrizioni universali alle capacità altamente controllate e specifiche del settore.




















