Le Sénat des États-Unis a officiellement autorisé l’utilisation de chatbots d’intelligence artificielle (IA), en particulier Gemini de Google, ChatGPT d’OpenAI et Microsoft Copilot, pour le travail officiel des assistants du Congrès. Cette décision reflète l’adoption croissante d’outils d’IA dans divers secteurs, y compris le gouvernement, et soulève des questions sur la sécurité des données et l’efficacité opérationnelle au sein du pouvoir législatif.
Extension de l’intégration de l’IA au Congrès
Une récente note du directeur de l’information du Sénat, qui supervise à la fois les systèmes informatiques et la sécurité, confirme que les assistants peuvent désormais utiliser ces chatbots pour des tâches telles que la rédaction de documents, la synthèse d’informations complexes, la préparation de briefings et la conduite de recherches. Microsoft Copilot, déjà intégré aux plateformes du Sénat, se distingue pour sa capacité à rationaliser les processus de travail de routine.
La note note explicitement que les données partagées avec Copilot restent dans l’environnement sécurisé Microsoft 365 Government, soumises aux mêmes garanties que les autres données sensibles du Sénat. Cette assurance vise à répondre aux problèmes de sécurité, mais l’étendue de l’utilisation des chatbots – actuelle et potentielle – reste floue, car les bureaux du Sénat conservent une autonomie considérable dans l’établissement de règles pour leur personnel.
Considérations de sécurité et informations classifiées
L’intégration de l’IA dans les flux de travail du Sénat soulève également des questions sur le traitement des informations sensibles ou classifiées. Bien que la politique déconseille de saisir des données personnelles identifiables ou liées à la sécurité dans ces outils, les implications pratiques pour les assistants disposant d’habilitations de sécurité qui travaillent avec des documents classifiés ne sont toujours pas définies.
Les demandes de commentaires des membres républicains et démocrates de la commission sénatoriale du renseignement sont restées largement sans réponse, les responsables invoquant des raisons de sécurité. Le manque de clarté publique sur les protocoles d’utilisation de l’IA laisse place à des vulnérabilités et des incohérences potentielles entre les différents bureaux et comités.
Précédents internes et restrictions d’utilisation
La décision du Sénat fait suite à une politique similaire adoptée par la Chambre des représentants en septembre 2024, autorisant l’utilisation de Copilot, Gemini, ChatGPT et Anthropic’s Claude sous des conditions spécifiques. Les règles internes autorisent généralement l’utilisation de l’IA pour des tâches internes non sensibles, nécessitant l’approbation de la direction pour des applications plus avancées telles que la rédaction de la correspondance avec les constituants ou la préparation de points de discussion. La création de deepfakes et l’utilisation abusive des données personnelles des constituants sont explicitement interdites.
La politique du Sénat fait écho à ces restrictions, conseillant aux utilisateurs d’éviter de saisir des informations personnelles sensibles ou liées à la sécurité dans les outils d’IA. Malgré ces lignes directrices, l’absence de mécanismes d’application centralisés laisse la responsabilité ultime de l’utilisation sécurisée de l’IA aux bureaux et assistants individuels.
La décision du Sénat souligne à la fois le potentiel croissant de l’IA pour améliorer l’efficacité législative et les risques inhérents associés à l’intégration de tels outils dans des opérations gouvernementales sensibles. Une surveillance attentive et des politiques claires et applicables seront essentielles pour garantir une mise en œuvre responsable.





















