Социальная медиаплатформа X (ранее Twitter), принадлежащая Илону Маску, принимает меры против авторов, распространяющих контент, сгенерированный ИИ, с изображением зон боевых действий без надлежащего раскрытия информации. Этот шаг происходит на фоне обострения напряженности на Ближнем Востоке после недавних авиаударов между США, Израилем и Ираном, где платформу заполонили непроверенные видеоролики и изображения.
Новые Штрафы для Авторов, Участвующих в Программе Монетизации
Никита Бир, руководитель отдела продуктов X, объявил во вторник, что любой автор, участвующий в программе распределения доходов платформы, который распространяет военный контент, сгенерированный ИИ, без соответствующей маркировки, будет наказан. Первые нарушения приведут к трехмесячной приостановке участия в программе, а повторные нарушения могут привести к ее полной отмене. Программа монетизации позволяет популярным авторам зарабатывать деньги непосредственно на своих публикациях.
Цель ясна: не допустить распространения дезинформации в критические геополитические моменты. X будет использовать Community Notes (исправления, отмеченные пользователями) и инструменты обнаружения ИИ для обеспечения соблюдения этой политики.
Почему Это Важно
Способность создавать убедительные поддельные военные кадры с помощью ИИ быстро растет. Недавний опрос CNET показал, что менее половины взрослых в США (44%) могут надежно идентифицировать изображения и видео, сгенерированные ИИ. Это особенно опасно во время конфликтов, когда дезинформация может обострить напряженность, повлиять на общественное мнение или даже привести к реальным последствиям.
«Во время войны крайне важно, чтобы у людей был доступ к достоверной информации», — заявил Бир на платформе X. «При сегодняшних технологиях ИИ тривиально создавать контент, который может ввести людей в заблуждение».
Ограниченное Решение?
Критики отмечают, что новая политика направлена только на авторов, которые зарабатывают деньги на платформе, оставляя тех, кто распространяет непроверенный контент вне программы монетизации, без внимания. Это вызывает вопросы об эффективности ужесточения контроля: действительно ли оно будет бороться с дезинформацией или просто наказывать тех, кто финансово заинтересован в вовлеченности аудитории?
X не уточнил, будут ли предприняты дополнительные меры против неподключенных к монетизации пользователей, которые распространяют аналогичный контент. Компания не сразу ответила на запрос о комментарии.
Этот шаг сигнализирует о растущем осознании опасности дезинформации, создаваемой ИИ, но его ограниченный масштаб вызывает сомнения в том, решит ли он проблему по-настоящему. Для решения этой проблемы требуются более широкие решения, чем просто наказание платных авторов.





















