OpenAI копирует ограничения Anthropic в сфере кибербезопасности, несмотря на раннюю критику

4

OpenAI ввело модель ограниченного доступа для своего нового инструмента кибербезопасности — GPT-5.5 Cyber, фактически скопировав стратегию, которую недавно критиковал у конкурента, Anthropic. Этот шаг подчеркивает растущее напряжение между стремительным внедрением ИИ и острой необходимостью контроля безопасности в высокорисковых областях, таких как кибербезопасность.

Смена стратегии

В четверг генеральный директор OpenAI Сэм Альтман объявил в X (ранее Twitter), что развертывание GPT-5.5 Cyber среди «критически важных специалистов по киберзащите» начнется в ближайшие дни. В отличие от предыдущих широких релизов, этот запуск требует от пользователей подачи заявки с указанием их профессиональных квалификаций и предполагаемых сценариев использования.

Этот поворот произошел вскоре после того, как Альтман публично раскритиковал Anthropic за ограничение доступа к их собственной модели, ориентированной на безопасность, — Mythos. В то время Альтман назвал подход Anthropic «маркетингом, основанным на страхе», утверждая, что ограничения были необоснованными и продиктованы хайпом, а не реальными рисками. Критики поддержали эту точку зрения, заявляя, что риторика Anthropic об опасностях неограниченного доступа была преувеличена.

Почему ограничения имеют значение

Решение ограничить доступ к GPT-5.5 Cyber демонстрирует фундаментальную проблему в индустрии ИИ: баланс между полезностью и безопасностью.

Инструменты кибербезопасности — это палка о двух концах. С одной стороны, они необходимы для:
* Тестирования на проникновение: имитации атак для выявления уязвимостей.
* Идентификации уязвимостей: обнаружения дефектов в программном обеспечении до того, как это сделают злоумышленники.
* Реверс-инжиниринга вредоносного ПО: понимания и нейтрализации угроз.

С другой стороны, эти же возможности могут быть использованы во вред. Без строгого надзора мощные модели ИИ могут помочь злоумышленникам в проведении сложных кибератак, обходя традиционные меры безопасности с беспрецедентной скоростью и масштабом.

Ключевой вывод: Ирония текущей позиции OpenAI заключается во времени ее принятия. Ограничив доступ к Cyber, OpenAI приняло те самые тактики «ограничения доступа», которые ранее отвергало как маркетинговые уловки. Это предполагает, что даже лидеры отрасли признают реальные риски выпуска инструментов двойного назначения ИИ без надлежащих мер защиты.

Контекст и последствия

Контroversия вокруг Mythos от Anthropic еще больше усложняет ситуацию. Несмотря на строгие меры контроля доступа Anthropic, сообщения указывают, что неавторизованная группа все же смогла получить доступ к модели. Это ставит важные вопросы об эффективности цифрового ограничения доступа в эпоху, когда модели ИИ все чаще становятся товаром и утекают в сеть.

Для OpenAI развертывание GPT-

Предыдущая статьяOpenAI усиливает защиту аккаунтов: партнерство с Yubico
Следующая статьяWordle #1776: Ответ, подсказки и стратегия на 30 апреля