OpenAI napodobuje omezení kybernetické bezpečnosti Anthropic i přes počáteční kritiku

10

OpenAI zavedla model omezeného přístupu pro svůj nový nástroj kybernetické bezpečnosti, GPT-5.5 Cyber, v podstatě kopíruje strategii, kterou nedávno kritizoval konkurenční Anthropic. Tento krok zdůrazňuje rostoucí napětí mezi rychlým přijetím AI a naléhavou potřebou bezpečnostních kontrol ve vysoce rizikových oblastech, jako je kybernetická bezpečnost.

Změna strategie

Ve čtvrtek generální ředitel OpenAI Sam Altman oznámil na X (dříve Twitter), že zavádění GPT-5.5 Cyber pro „kritické profesionály v oblasti kybernetické obrany“ začne v nadcházejících dnech. Na rozdíl od předchozích rozsáhlých verzí toto spuštění vyžaduje, aby uživatelé předložili žádost s uvedením jejich odborné kvalifikace a zamýšlených případů použití.

Tento obrat nastává krátce poté, co Altman veřejně kritizoval Anthropic za omezování přístupu k jejich vlastnímu bezpečnostnímu modelu Mythos. Altman v té době nazval přístup Anthropic “marketing založený na strachu” a tvrdil, že omezení byla neopodstatněná a vedená spíše humbukem než skutečnými riziky. Kritici tento názor zopakovali a tvrdili, že rétorika Anthropic o nebezpečích neomezeného přístupu byla přehnaná.

Proč omezuje hmotu

Rozhodnutí omezit přístup ke GPT-5.5 Cyber demonstruje zásadní problém v odvětví umělé inteligence: vyvážení užitečnosti a bezpečnosti.

Nástroje kybernetické bezpečnosti jsou dvousečný meč. Na jedné straně jsou nezbytné pro:
* Testování penetrace: simulace útoků k identifikaci zranitelností.
* Identifikace zranitelnosti: detekce závad v softwaru dříve, než tak učiní útočníci.
* Reverzní inženýrství malwaru: pochopení a neutralizace hrozeb.

Na druhou stranu, stejné příležitosti mohou být použity ke škodě. Bez přísného dohledu mohou výkonné modely umělé inteligence útočníkům pomoci zahájit sofistikované kybernetické útoky tím, že obejdou tradiční bezpečnostní opatření bezprecedentní rychlostí a rozsahem.

Klíčové shrnutí: Ironie současné pozice OpenAI spočívá v načasování jeho přijetí. Omezením přístupu k Cyber ​​OpenAI přijala právě taktiku „omezování přístupu“, kterou dříve odmítala jako marketingové triky. To naznačuje, že i lídři v oboru si uvědomují skutečná rizika uvolnění nástrojů umělé inteligence dvojího použití bez řádných záruk.

Kontext a důsledky

Kontroverze kolem Anthropic’s Mythos situaci dále komplikuje. Navzdory přísné kontrole přístupu společnosti Anthropic zprávy naznačují, že neoprávněná skupina byla stále schopna získat přístup k modelu. To vyvolává důležité otázky o účinnosti digitálního omezení v době, kdy jsou modely umělé inteligence stále více komoditizované a unikají online.

Pro nasazení OpenAI GPT-

Předchozí článekOpenAI posiluje zabezpečení účtu: partnerství s Yubico
Další článekWordle #1776: Odpověď, tipy a strategie pro 30. dubna