OpenAI ahora proporciona a los desarrolladores herramientas de código abierto diseñadas para mejorar la seguridad de las aplicaciones de IA para usuarios adolescentes. La medida aborda una preocupación creciente: garantizar que los sistemas de inteligencia artificial no expongan a los menores a contenido dañino o inapropiado.
Abordar preocupaciones clave de seguridad
Las herramientas constan de una serie de indicaciones escritas previamente que se pueden integrar en los sistemas de inteligencia artificial. Estas indicaciones abordan seis áreas críticas:
– Violencia gráfica y contenido sexual: Bloqueo de materiales explícitos.
– Ideales corporales nocivos: Prevenir el refuerzo de estándares de belleza poco realistas o peligrosos.
– Actividades/retos peligrosos: Frenar la promoción de conductas de riesgo.
– Juegos de rol con temas violentos/románticos: Limitar escenarios inapropiados.
– Bienes/servicios con restricción de edad: Evitar la exposición a productos destinados a adultos.
Estas indicaciones están diseñadas para ser compatibles con varios modelos de IA, aunque probablemente sean más efectivas dentro del propio ecosistema de OpenAI.
Colaboración con expertos en seguridad
OpenAI desarrolló estas políticas en asociación con Common Sense Media y Everyone.ai, dos organizaciones líderes en seguridad de IA y desarrollo infantil. Robbie Torney, jefe de IA y evaluaciones digitales de Common Sense Media, afirmó que estas políticas de código abierto “ayudan a establecer un piso de seguridad significativo en todo el ecosistema” y la comunidad en general puede mejorarlas continuamente.
Por qué esto es importante
El lanzamiento de estas herramientas destaca un desafío importante en el desarrollo de la IA: traducir objetivos de seguridad de alto nivel en reglas prácticas y ejecutables. Los desarrolladores, incluso los equipos experimentados, a menudo tienen dificultades con este proceso, lo que genera protección inconsistente o filtros demasiado restrictivos.
Aprovechar las salvaguardias existentes
Esta iniciativa se basa en los esfuerzos anteriores de OpenAI para mejorar la seguridad de la IA para menores, incluidos controles parentales, herramientas de predicción de edad y especificaciones de modelo actualizadas (Model Spec) que dictan cómo los modelos de IA deben interactuar con usuarios menores de edad.
Si bien no son una solución integral, estas indicaciones de código abierto representan un paso importante hacia la creación de experiencias de IA más seguras para los adolescentes. El enfoque colaborativo y el enfoque en la implementación práctica podrían establecer un nuevo estándar para el desarrollo responsable de la IA.





















