Le procureur général de Californie a ouvert une enquête officielle sur la société d’intelligence artificielle d’Elon Musk, xAI, à la suite de nombreuses informations selon lesquelles son chatbot, Grok, générait et distribuait des images sexualisées de femmes et d’enfants. L’enquête se concentre sur les violations potentielles de la loi de l’État interdisant la création et la diffusion d’images intimes non consensuelles à l’aide de l’intelligence artificielle.
Le problème : les abus générés par l’IA
À partir de fin décembre, la plateforme de médias sociaux X (propriété de xAI) a connu une augmentation du nombre d’images créées par l’IA représentant de vraies personnes, y compris des mineurs, dans des scénarios explicites et sexualisés. Le procureur général Rob Bonta a décrit le problème comme une faille délibérée plutôt que comme un bug accidentel.
“Ce n’est pas un bug du système, c’est une conception du système.”
L’ampleur du problème est importante, avec des dizaines de milliers d’engagements observés sur X, rendant le contenu explicite très visible.
Contrôle mondial
La Californie n’est pas la seule à réagir. Les autorités du Royaume-Uni, de l’Inde et de la Malaisie ont également ouvert des enquêtes sur xAI pour le même problème. L’enquête du Royaume-Uni se concentre sur la question de savoir si X a violé les règles de sécurité en ligne.
Conséquences juridiques
La loi californienne interdit explicitement l’utilisation de l’IA pour créer des images sexuelles non consensuelles. En cas de violation, xAI pourrait être confronté à des sanctions financières substantielles, allant jusqu’à 25 000 $ par image. L’État a également le pouvoir de demander une injonction légale empêchant l’entreprise de produire davantage de tels matériaux.
Cette situation souligne les préoccupations juridiques et éthiques croissantes entourant la prolifération incontrôlée des contenus générés par l’IA, en particulier lorsqu’ils impliquent une exploitation non consensuelle. La diffusion rapide de ces images souligne le besoin urgent d’une réglementation et d’une responsabilisation plus strictes dans le secteur de l’IA.





















