OpenAI fournit désormais aux développeurs des outils open source conçus pour améliorer la sécurité des applications d’IA pour les utilisateurs adolescents. Cette décision répond à une préoccupation croissante : garantir que les systèmes d’IA n’exposent pas les mineurs à des contenus préjudiciables ou inappropriés.
Répondre aux principaux problèmes de sécurité
Les outils consistent en une série d’invites pré-écrites qui peuvent être intégrées aux systèmes d’IA. Ces invites abordent six domaines critiques :
– Violence graphique et contenu sexuel : Blocage des contenus explicites.
– Idéaux corporels nocifs : Empêcher le renforcement de normes de beauté irréalistes ou dangereuses.
– Activités/défis dangereux : Limiter la promotion des comportements à risque.
– Jeu de rôle avec des thèmes violents/romantiques : Limiter les scénarios inappropriés.
– Biens/services soumis à une limite d’âge : Éviter l’exposition à des produits destinés aux adultes.
Ces invites sont conçues pour être compatibles avec divers modèles d’IA, bien qu’elles soient probablement plus efficaces au sein du propre écosystème d’OpenAI.
Collaboration avec des experts en sécurité
OpenAI a développé ces politiques en partenariat avec Common Sense Media et Everyone.ai, deux organisations leaders dans le domaine de la sécurité de l’IA et du développement de l’enfant. Robbie Torney, responsable des évaluations IA et numériques chez Common Sense Media, a déclaré que ces politiques open source « contribuent à établir un seuil de sécurité significatif dans l’ensemble de l’écosystème » et peuvent être continuellement améliorées par la communauté au sens large.
Pourquoi c’est important
La sortie de ces outils met en évidence un défi majeur dans le développement de l’IA : traduire des objectifs de sécurité de haut niveau en règles pratiques et applicables. Les développeurs, même les équipes expérimentées, ont souvent du mal à gérer ce processus, ce qui conduit à une protection incohérente ou à des filtres trop restrictifs.
S’appuyer sur les garanties existantes
Cette initiative s’appuie sur les efforts antérieurs d’OpenAI pour améliorer la sécurité de l’IA pour les mineurs, notamment les contrôles parentaux, les outils de prédiction de l’âge et les spécifications de modèle mises à jour (Model Spec) qui dictent la manière dont les modèles d’IA doivent interagir avec les utilisateurs mineurs.
Bien qu’elles ne constituent pas une solution complète, ces invites open source représentent une étape importante vers la création d’expériences d’IA plus sûres pour les adolescents. L’approche collaborative et l’accent mis sur la mise en œuvre pratique pourraient établir une nouvelle norme pour le développement responsable de l’IA.
