OpenAI объявила о запуске GPT-5.4-Cyber — специализированной версии своей флагманской модели GPT-5.4, разработанной специально для сектора кибербезопасности. В отличие от стандартных моделей ИИ, запрограммированных отклонять запросы, связанные с хакингом или поиском уязвимостей, эта новая версия является «кибер-допустимой» (cyber-permissive). Это означает, что она намеренно спроектирована так, чтобы взаимодействовать с промптами, которые в обычных условиях вызвали бы отказ по соображениям безопасности.
Преодоление «границы отказов»
В стандартных больших языковых моделях (LLM) установлены строгие защитные барьеры, чтобы предотвратить использование ИИ в злонамеренных целях, таких как написание вредоносного ПО или поиск брешей в программном обеспечении. Хотя эти меры защищают широкую общественность, они часто становятся препятствием для легальных специалистов по кибербезопасности, которым ИИ необходим для поиска и устранения уязвимостей.
Новый подход OpenAI призван устранить это противоречие. Снижая «границу отказов», GPT-5.4-Cyber позволяет исследователям и специалистам по защите использовать передовые возможности ИИ для:
— Выявления уязвимостей в ПО до того, как ими смогут воспользоваться злоумышленники.
— Разработки продвинутых сценариев защиты для обеспечения безопасности цифровой инфраструктуры.
— Развития исследований и обучения в сфере кибербезопасности.
Контролируемый доступ через программу TAC
Поскольку модель, способная находить уязвимости, может быть использована и злоумышленниками для проведения атак, OpenAI не открывает GPT-5.4-Cyber для широкой публики. Вместо этого доступ строго регулируется через программу Trusted Access for Cyber (TAC).
Внедрение проходит по многоуровневой структуре безопасности:
1. Проверенные организации: Первоначальный доступ ограничен участниками высшего уровня программы TAC, включая признанных поставщиков услуг безопасности и исследователей.
2. Верификация личности: Участники программы TAC уже прошли строгую проверку личности, включая проверку государственных удостоверений.
3. Дополнительная аутентификация: Пользователи внутри программы, не входящие в высшие уровни, должны пройти дополнительную аутентификацию, чтобы доказать, что они являются «законными защитниками в киберпространстве», прежде чем им будет предоставлен доступ.
Новый тренд в безопасности ИИ
Выпуск GPT-5.4-Cyber подчеркивает нарастающую «гонку вооружений» в индустрии ИИ. OpenAI не одинока в этом направлении; её конкурент, компания Anthropic, недавно представила Project Glasswing. Эта инициатива предоставляет избранным организациям доступ к модели Claude Mythos Preview, которая, по утверждению Anthropic, уже выявила тысячи критических уязвимостей.
Этот тренд сигнализирует о сдвиге в понимании «безопасности» разработчиками ИИ. Если первая волна развития ИИ была сосредоточена на предотвращении любого нецелевого использования, то вторая волна направлена на специализацию. Разработчики осознают: чтобы сделать ИИ по-настоящему полезным для профессиональных секторов, таких как кибербезопасность, они должны создавать «контролируемые исключения» из своих правил безопасности — позволяя инструментам быть «опасными» только в руках проверенных и законных защитников.
«Учитывая темпы прогресса ИИ, пройдет совсем немного времени, прежде чем подобные возможности распространятся повсеместно, возможно, даже за пределами круга лиц, стремящихся использовать их безопасно». — Anthropic
Заключение
GPT-5.4-Cyber от OpenAI представляет собой стратегический шаг по вооружению специалистов по кибербезопасности мощными специализированными инструментами при одновременном использовании строгой верификации личности для минимизации рисков злоупотребления. Это знаменует новую главу в развитии ИИ, где фокус смещается с универсальных ограничений на высококонтролируемые возможности, адаптированные под конкретные отрасли.




















