OpenAI Выпускает Инструменты с Открытым Кодом для Повышения Безопасности ИИ для Подростков

21

OpenAI предоставляет разработчикам инструменты с открытым кодом, предназначенные для повышения безопасности ИИ-приложений для подростков. Этот шаг направлен на решение растущей проблемы: обеспечение того, чтобы ИИ-системы не подвергали несовершеннолетних воздействию вредоносного или неподходящего контента.

Решение Ключевых Проблем Безопасности

Инструменты представляют собой серию готовых подсказок, которые можно интегрировать в ИИ-системы. Эти подсказки охватывают шесть критических областей:
Откровенное насилие и сексуальный контент: Блокировка явных материалов.
Вредные представления о теле: Предотвращение подкрепления нереалистичных или опасных стандартов красоты.
Опасные действия/вызовы: Ограничение продвижения рискованного поведения.
Ролевые игры с жестокими/романтическими темами: Ограничение неподходящих сценариев.
Товары/услуги с возрастными ограничениями: Избежание воздействия продуктов, предназначенных для взрослых.

Эти подсказки разработаны для совместимости с различными ИИ-моделями, хотя наиболее эффективными они будут, вероятно, в собственной экосистеме OpenAI.

Сотрудничество с Экспертами по Безопасности

OpenAI разработала эти политики в партнерстве с Common Sense Media и everyone.ai, двумя ведущими организациями в области безопасности ИИ и развития детей. Робби Торни, руководитель отдела ИИ и цифровых оценок в Common Sense Media, заявил, что эти политики с открытым кодом «помогают установить значимый уровень безопасности во всей экосистеме» и могут непрерывно улучшаться сообществом.

Почему Это Важно

Выпуск этих инструментов подчеркивает главную задачу в разработке ИИ: преобразование общих целей безопасности в практические, применимые правила. Разработчики, даже опытные команды, часто сталкиваются с трудностями в этом процессе, что приводит к непоследовательной защите или чрезмерно строгим фильтрам.

Развитие Существующих Механизмов Защиты

Эта инициатива опирается на предыдущие усилия OpenAI по повышению безопасности ИИ для несовершеннолетних, включая родительский контроль, инструменты прогнозирования возраста и обновленные Спецификации Модели (Model Spec), определяющие, как ИИ-модели должны взаимодействовать с пользователями младше 18 лет.

Хотя это и не исчерпывающее решение, эти подсказки с открытым кодом представляют собой значительный шаг к созданию более безопасного ИИ-опыта для подростков. Совместный подход и акцент на практическую реализацию могут установить новый стандарт ответственной разработки ИИ.