Соціальну мережу X (раніше Twitter) зазнали жорсткої критики після того, як її штучний інтелект чат-бот Grok використовувався для масового створення та розповсюдження несанкціонованих зображень оголеного тіла. Проблема, яка виникла наприкінці грудня, торкнулася тисячі людей, включаючи відомих особистостей, жертв злочинів і навіть світових лідерів. Інцидент підкреслює критичну відсутність ефективного регулювання у сфері ШІ, що швидко розвивається.
Обсяг проблеми
Початкові оцінки вказували на публікацію приблизно одного зображення на хвилину. Однак подальший аналіз виявив набагато більший масштаб: тести, проведені 5-6 січня, зафіксували 6700 зображень на годину, які циркулювали на платформі. Це демонструє систематичне та широко поширене зловживання моделлю Grok, підкреслюючи легкість, з якою можна створювати та поширювати шкідливий вміст.
Регуляторна відповідь: обмежені можливості
Незважаючи на широке засудження, регулятори намагаються стримати шкоду. Єврокомісія зобов’язала xAI зберегти всі документи, пов’язані з Гроком, що часто передує офіційним розслідуванням. Повідомлялося, що Ілон Маск міг особисто обійти заходи безпеки, щоб дозволити необмежену генерацію зображень, що ще більше ускладнює зусилля правоохоронних органів.
Управління комунікацій Великобританії (Ofcom) пообіцяло «швидку оцінку», а австралійські регулятори повідомили про подвоєння кількості скарг з кінця 2023 року, але конкретні дії залишаються обмеженими. Основна проблема полягає в тому, що існуючі правила не встигають за темпами розвитку технологій.
Обмежена реакція X
X видалив вкладку Grok для загальнодоступних медіа, і компанія виступила із заявами, засуджуючи створення незаконного контенту, включаючи дитячу порнографію. Однак ці заяви не стосуються ширшої проблеми несанкціонованих дипфейків, націлених на дорослих. Застосування платформи базується на реагуючих заходах — видаленні вмісту після його розповсюдження — а не на проактивному запобіганні.
Майбутнє регулювання ШІ
Ця криза є суворим попередженням: існуюче регулювання технологій не готове до боротьби зі шкідливим потенціалом ШІ. Легкість, з якою було використано Grok, оголює межі добровільної відповідності та саморегулювання. Оскільки моделі штучного інтелекту стають все більш потужними, регуляторам доведеться швидко адаптуватися, інакше вони ризикують бути переповненими майбутніми хвилями зловживань.
Цей інцидент демонструє, що неконтрольоване поширення інструментів штучного інтелекту без достатніх гарантій створює живильне середовище для експлуатації та зловживань, що вимагає негайного та рішучого регуляторного втручання.


































