Společnost OpenAI oznámila uvedení GPT-5.4-Cyber, přizpůsobené verze svého vlajkového modelu GPT-5.4 navrženého speciálně pro sektor kybernetické bezpečnosti. Na rozdíl od standardních modelů umělé inteligence, které jsou naprogramovány tak, aby odmítaly požadavky související s hackováním nebo hledáním zranitelných míst, je tato nová verze „kybernetická“. To znamená, že je záměrně navržen pro interakci s výzvami, které by za normálních okolností z bezpečnostních důvodů selhaly.
Překonání „hranice selhání“
Standardní modely velkých jazyků (LLM) mají přísné ochranné bariéry, které zabraňují použití umělé inteligence ke škodlivým účelům, jako je psaní malwaru nebo hledání děr v softwaru. I když tato opatření chrání širokou veřejnost, často se stávají překážkou pro legitimní profesionály v oblasti kybernetické bezpečnosti, kteří spoléhají na AI při hledání a opravě zranitelností.
Nový přístup OpenAI má tento rozpor vyřešit. Snížením „mezi selhání“ umožňuje GPT-5.4-Cyber výzkumníkům a bezpečnostním profesionálům využít pokročilé schopnosti umělé inteligence k:
– Identifikace zranitelností softwaru předtím, než je mohou útočníci využít.
– Vývoj pokročilých bezpečnostních scénářů pro zajištění bezpečnosti digitální infrastruktury.
– Rozvoj výzkumu a školení v oblasti kybernetické bezpečnosti.
Řízený přístup přes program TAC
Vzhledem k tomu, že model schopný najít zranitelná místa mohou útočníci využít i k útokům, OpenAI neotevírá GPT-5.4-Cyber široké veřejnosti. Místo toho je přístup přísně regulován prostřednictvím programu Trusted Access for Cyber (TAC).
Implementace se řídí víceúrovňovou strukturou zabezpečení:
1. Ověřené organizace: Počáteční přístup je omezen na vedoucí členy programu TAC, včetně uznávaných poskytovatelů zabezpečení a výzkumných pracovníků.
2. Ověření identity: Účastníci programu TAC již prošli přísným ověřením identity, včetně ověření vládním průkazem totožnosti.
3. Další ověření: Uživatelé v rámci programu, kteří nejsou na nejvyšších úrovních, musí před udělením přístupu podstoupit další ověření, aby prokázali, že jsou „právními zastánci v kyberprostoru“.
Nový trend v zabezpečení AI
Vydání GPT-5.4-Cyber zdůrazňuje rostoucí závody ve zbrojení v odvětví umělé inteligence. OpenAI není v tomto směru sama; jeho konkurent, Anthropic, nedávno představil Project Glasswing. Iniciativa umožňuje vybraným organizacím přístup k modelu Claude Mythos Preview, o kterém Anthropic tvrdí, že již identifikoval tisíce kritických zranitelností.
Tento trend signalizuje posun v tom, jak vývojáři AI chápou „bezpečnost“. Pokud byla první vlna vývoje AI zaměřena na zabránění jakémukoli zneužití, tak druhá vlna je zaměřena na specializaci. Vývojáři si uvědomují, že aby umělá inteligence byla skutečně užitečná pro profesionální sektory, jako je kybernetická bezpečnost, musí vytvořit „řízené výjimky“ ze svých bezpečnostních pravidel – což umožní, aby nástroje byly „nebezpečné“ pouze v rukou důvěryhodných a legitimních obránců.
“Vzhledem k tempu pokroku v AI nebude trvat dlouho, než se tyto schopnosti rozšíří, možná i mimo ty, kteří je chtějí bezpečně používat.” — Antropický
Závěr
GPT-5.4-Cyber od OpenAI představuje strategický krok k vyzbrojení profesionálů v oblasti kybernetické bezpečnosti výkonnými, specializovanými nástroji a zároveň využívá silné ověřování identity, aby se minimalizovalo riziko zneužití. To představuje novou kapitolu ve vývoji umělé inteligence, kde se zaměření přesouvá od univerzálních omezení k vysoce řízeným schopnostem přizpůsobeným konkrétním odvětvím.




















