OpenAI ha adottato un modello di accesso limitato per il suo nuovo strumento di sicurezza informatica, GPT-5.5 Cyber, rispecchiando efficacemente la strategia recentemente criticata dal concorrente Anthropic. Questa mossa sottolinea la crescente tensione tra la rapida implementazione dell’intelligenza artificiale e l’urgente necessità di controlli di sicurezza in settori ad alto rischio come la sicurezza informatica.
Il cambiamento nella strategia
Giovedì, il CEO di OpenAI Sam Altman ha annunciato tramite X (ex Twitter) che GPT-5.5 Cyber inizierà a essere distribuito “ai difensori informatici critici” entro pochi giorni. A differenza delle versioni precedenti, questo lancio richiede agli utenti di inviare una domanda che dettaglia le loro credenziali professionali e i casi d’uso previsti.
Questo cambiamento avviene poco dopo che Altman ha criticato pubblicamente Anthropic per aver limitato l’accesso al proprio modello incentrato sulla sicurezza, Mythos. All’epoca, Altman definì l’approccio di Anthropic un ”marketing basato sulla paura”, suggerendo che le restrizioni non erano necessarie e guidate da una campagna pubblicitaria piuttosto che da un rischio reale. I critici hanno fatto eco a questo sentimento, sostenendo che la retorica di Anthropic riguardo ai pericoli dell’accesso illimitato era esagerata.
Perché le restrizioni sono importanti
La decisione di adottare GPT-5.5 Cyber evidenzia una sfida fondamentale nel settore dell’intelligenza artificiale: bilanciare utilità e sicurezza.
Gli strumenti di sicurezza informatica sono un’arma a doppio taglio. Da un lato sono essenziali per:
* Test di penetrazione: Simulazione di attacchi per trovare punti deboli.
* Identificazione delle vulnerabilità: rilevamento dei difetti nel software prima che lo facciano gli autori malintenzionati.
* Reverse engineering del malware: Comprendere e neutralizzare le minacce.
D’altra parte, queste stesse capacità possono essere utilizzate come armi. Senza una rigorosa supervisione, potenti modelli di intelligenza artificiale potrebbero aiutare i malintenzionati a lanciare attacchi informatici sofisticati, aggirando le misure di sicurezza tradizionali con velocità e portata senza precedenti.
Approfondimento chiave: L’ironia dell’attuale posizione di OpenAI risiede nella sua tempistica. Limitando l’accesso a Cyber, OpenAI ha adottato quelle stesse tattiche di “gatekeeping” che in precedenza considerava trovate di marketing. Ciò suggerisce che anche i leader del settore riconoscono i rischi tangibili derivanti dal rilascio di strumenti di intelligenza artificiale a duplice uso senza garanzie.
Contesto e implicazioni
La controversia che circonda i Mythos di Anthropic complica ulteriormente la narrazione. Nonostante i severi controlli di accesso di Anthropic, i rapporti indicano che un gruppo non autorizzato è comunque riuscito ad accedere al modello. Ciò solleva interrogativi critici sull’efficacia del gatekeeping digitale in un’era in cui i modelli di intelligenza artificiale sono sempre più mercificati e divulgati.
Per OpenAI, il lancio di GPT-





















