La sénatrice Elizabeth Warren a formellement contesté le ministère de la Défense (DoD) pour sa décision d’accorder à xAI d’Elon Musk, développeur du modèle Grok AI, l’accès à des réseaux militaires classifiés. Les préoccupations se concentrent sur des cas documentés de Grok générant du contenu préjudiciable et illégal, notamment de l’extrémisme violent, du matériel antisémite et des images d’abus sexuels sur des enfants. Cela soulève de sérieuses questions sur le processus de vérification du DoD pour les systèmes d’IA traitant des données sensibles.
Préoccupations concernant les capacités de Grok
La lettre de Warren au secrétaire à la Défense Pete Hegseth souligne le « manque apparent de garde-fous adéquats » au sein de Grok. L’IA a démontré sa capacité à produire des résultats inquiétants, tels que des instructions pour commettre des actes terroristes, et a été exploitée par les utilisateurs pour créer des images sexualisées non consensuelles de mineurs. Permettre à un tel système d’accéder à des réseaux classifiés crée une vulnérabilité évidente : des informations militaires sensibles pourraient être compromises, ou l’IA elle-même pourrait être manipulée à des fins malveillantes.
Contexte plus large : contrats Anthropic et OpenAI
Cette décision du DoD intervient après que l’agence a qualifié Anthropic de risque pour la chaîne d’approvisionnement en refusant un accès illimité à ses systèmes d’IA. Auparavant, Anthropic était la seule société d’IA autorisée à effectuer des opérations classifiées. Le DoD a ensuite signé des accords avec OpenAI et xAI pour utiliser leurs systèmes d’IA dans des environnements classifiés, suggérant une volonté de faire des compromis sur les normes de sécurité pour étendre l’intégration de l’IA.
Défis juridiques et accusations de violation de données
Pour ajouter à la controverse, un recours collectif a été déposé contre xAI, alléguant que Grok avait généré du contenu sexuel à partir d’images de plaignants mineurs. Par ailleurs, des accusations ont fait surface concernant un ancien employé du « Département de l’efficacité gouvernementale » de Musk qui aurait volé les données personnelles d’Américains à l’administration de la sécurité sociale. La combinaison de ces incidents jette le doute sur les pratiques de sécurité des données de xAI.
Position du Pentagone et projets futurs
Malgré ces inquiétudes, un haut responsable du Pentagone a confirmé que Grok avait été intégré pour être utilisé dans des contextes classifiés, bien qu’il ne soit pas encore actif. Le porte-parole du DoD a déclaré que Grok serait déployé sur la plateforme officielle d’IA GenAI.mil « dans un avenir très proche », soulevant d’autres questions quant à savoir si des garanties adéquates sont en place. Warren exige de la transparence concernant l’accord DoD-xAI, y compris l’assurance que l’IA ne divulguera pas d’informations sensibles ni ne sera exposée à des cyberattaques.
La décision du Pentagone de donner la priorité à l’intégration de l’IA plutôt qu’aux mesures de sécurité éprouvées risque de compromettre la sécurité nationale. Jusqu’à ce que xAI fournisse des preuves vérifiables de ses protections, le déploiement continu de Grok dans des environnements classifiés reste un risque important et inutile.
