La plateforme de médias sociaux X (anciennement Twitter) d’Elon Musk prend des mesures contre les créateurs qui distribuent du contenu généré par l’IA illustrant des zones de guerre sans divulgation appropriée. Cette décision intervient dans un contexte de tensions accrues au Moyen-Orient suite aux récentes frappes aériennes entre les États-Unis, Israël et l’Iran, où des vidéos et des images non vérifiées ont inondé la plateforme.
Nouvelles pénalités pour les créateurs payants
Nikita Bier, responsable produit de X, a annoncé mardi que tout créateur participant au programme de partage des revenus de la plateforme qui partage du contenu de guerre généré par l’IA sans l’étiqueter comme tel s’exposera à des sanctions. Les premières infractions entraîneront une suspension du programme de trois mois, tandis que les violations répétées pourraient conduire à une suppression définitive. Le programme de revenus permet aux créateurs populaires de gagner des revenus directement grâce à leurs publications.
L’objectif est clair : décourager la propagation de la désinformation lors de moments géopolitiques critiques. X utilisera les notes de la communauté (corrections signalées par les utilisateurs) et les outils de détection de l’IA pour appliquer cette politique.
Pourquoi c’est important
La capacité de créer de fausses images de guerre convaincantes à l’aide de l’IA se développe rapidement. Une récente enquête du CNET a révélé que moins de la moitié des adultes américains (44 %) peuvent identifier de manière fiable les images et vidéos générées par l’IA. Cela est particulièrement dangereux en période de conflit, où la désinformation peut exacerber les tensions, influencer l’opinion publique ou même déclencher des conséquences concrètes.
« En temps de guerre, il est essentiel que les gens aient accès à des informations authentiques », a déclaré Bier sur X. « Avec les technologies d’IA d’aujourd’hui, il est trivial de créer du contenu susceptible d’induire les gens en erreur. »
Une solution limitée ?
Les critiques soulignent que la nouvelle politique cible uniquement les créateurs qui gagnent de l’argent grâce à la plate-forme, laissant intacts ceux qui partagent du contenu non vérifié en dehors du programme de revenus. Cela soulève des questions sur l’efficacité de la répression : luttera-t-elle véritablement contre la désinformation, ou punira-t-elle simplement ceux qui sont financièrement incités par l’engagement ?
X n’a pas précisé si des mesures supplémentaires seraient prises contre les utilisateurs non payants qui partagent un contenu similaire. La société n’a pas immédiatement répondu à une demande de commentaire.
Cette décision témoigne d’une prise de conscience croissante des dangers posés par la désinformation basée sur l’IA, mais sa portée limitée soulève des doutes quant à sa capacité à réellement résoudre le problème. Le problème exige des solutions plus larges, au-delà de la simple pénalisation des créateurs payants.
