A OpenAI agora está fornecendo aos desenvolvedores ferramentas de código aberto projetadas para melhorar a segurança de aplicativos de IA para usuários adolescentes. A medida aborda uma preocupação crescente: garantir que os sistemas de IA não exponham menores a conteúdos prejudiciais ou inadequados.
Abordando as principais preocupações de segurança
As ferramentas consistem em uma série de avisos pré-escritos que podem ser integrados aos sistemas de IA. Essas instruções abordam seis áreas críticas:
– Violência gráfica e conteúdo sexual: Bloqueio de materiais explícitos.
– Ideais corporais prejudiciais: Prevenir o reforço de padrões de beleza irrealistas ou perigosos.
– Atividades/desafios perigosos: Restringir a promoção de comportamentos de risco.
– Roleplay com temas violentos/românticos: Limitar cenários inapropriados.
– Bens/serviços com restrição de idade: Evitar a exposição a produtos destinados a adultos.
Esses prompts são projetados para serem compatíveis com vários modelos de IA, embora sejam provavelmente mais eficazes no próprio ecossistema da OpenAI.
Colaboração com especialistas em segurança
A OpenAI desenvolveu essas políticas em parceria com Common Sense Media e Everyone.ai, duas organizações líderes em segurança de IA e desenvolvimento infantil. Robbie Torney, chefe de avaliações digitais e de IA da Common Sense Media, afirmou que essas políticas de código aberto “ajudam a estabelecer um nível de segurança significativo em todo o ecossistema” e podem ser continuamente melhoradas pela comunidade em geral.
Por que isso é importante
O lançamento destas ferramentas destaca um grande desafio no desenvolvimento da IA: traduzir objetivos de segurança de alto nível em regras práticas e aplicáveis. Os desenvolvedores, mesmo equipes experientes, muitas vezes enfrentam dificuldades com esse processo, levando a uma proteção inconsistente ou a filtros excessivamente restritivos.
Baseando-se nas salvaguardas existentes
Esta iniciativa baseia-se nos esforços anteriores da OpenAI para melhorar a segurança da IA para menores, incluindo controles parentais, ferramentas de previsão de idade e especificações de modelo atualizadas (Model Spec) que determinam como os modelos de IA devem interagir com usuários menores de idade.
Embora não sejam uma solução abrangente, essas solicitações de código aberto representam um passo significativo na criação de experiências de IA mais seguras para adolescentes. A abordagem colaborativa e o foco na implementação prática poderiam estabelecer um novo padrão para o desenvolvimento responsável da IA.
