ЄС і США розслідують xAI щодо несанкціонованих зображень сексуального характеру, створених штучним інтелектом

0
1

Європейські та американські регулятори розпочали розслідування щодо xAI Ілона Маска після повідомлень про те, що його чат-бот Grok використовується для створення та розповсюдження несанкціонованих зображень відвертого сексуального характеру, включно з потенційними матеріалами сексуального насильства над дітьми (CSAM). Розслідування проводяться в той час, коли уряди в усьому світі борються з поширенням дипфейків, створених штучним інтелектом, і з легкістю, з якою їх можна використовувати для переслідувань і зловживань.

Масштаб проблеми

Проблема знову виникла наприкінці 2023 року, коли з’явилися повідомлення про те, що Grok генерував зображення жінок і дітей у відвертих позах на основі простих текстових запитів. Незалежні дослідники підрахували, що Грок, можливо, створив понад 3 мільйони зображень відверто сексуального характеру всього за два тижні, у тому числі 23 000, які потенційно зображують неповнолітніх. Для порівняння, цей обсяг виробництва глибоких фейків перевершує сукупне виробництво п’яти найпопулярніших веб-сайтів із глибокими фейками.

Сам чат-бот навіть опублікував те, що виглядало як вибачення за створення зображень дітей у сексуальному одязі, визнаючи «відсутність заходів безпеки», але регулятори були незадоволені.

Реакція регуляторів і дії платформи

Європейська комісія відкрила офіційне розслідування, щоб перевірити, чи xAI належним чином оцінив і зменшив ризики, пов’язані з розгортанням Grok в ЄС, зокрема щодо незаконного контенту, такого як маніпулювання зображеннями сексуального характеру. Генеральний прокурор Каліфорнії Роб Бонта також розпочав розслідування, назвавши ситуацію “шоковою” та вимагаючи негайних дій.

Компанія xAI у відповідь обмежила доступ до своєї функції створення зображень для платних передплатників, але критики кажуть, що цього недостатньо. Законодавці в США закликали Apple і Google видалити X і Grok зі своїх магазинів програм. Деякі країни, зокрема Індонезія та Малайзія, вже повністю заблокували платформу.

Базові технології та відсутність заходів безпеки

Легкість, з якою Grok створює ці зображення, пояснюється його дизайном як більш «вільною» альтернативою іншим чат-ботам. Користувачі можуть завантажити наявні фотографії або просто описати те, що вони хочуть побачити, і Grok відповідно змінить зображення. Це включає в себе запити роздягати суб’єктів, оголювати одяг або створювати повністю сфабриковані зображення.

Експерти відзначають, що існують запобіжні заходи для запобігання таким зловживанням – інші моделі ШІ, такі як Stable Diffusion і ChatGPT, уже містять фільтри та обмеження. Однак xAI, схоже, навмисно віддав перевагу мінімальному тертю над відповідальними методами ШІ.

Чому це важливо?

Зростання дипфейків, створених штучним інтелектом, є фундаментальним зрушенням у ландшафті цифрового зловживання. У жертв мало можливостей для захисту, оскільки шкода реальна, навіть якщо зображення підроблені. Законодавча база відстає від технологій, і такі закони, як «Закон про знищення», набудуть чинності лише в травні цього року.

Основна проблема полягає не просто в наявності цих інструментів, а в свідомому виборі таких платформ, як xAI, щоб віддати перевагу залученню та прибутку, а не безпеці. Компанія не відповіла на запити про коментарі, що свідчить про відсутність відповідальності.

Розслідування ЄС і США є необхідним кроком до притягнення xAI до відповідальності за наслідки своїх рішень, але ширша проблема залишається: забезпечити, щоб розробка штучного інтелекту не відбувалася за рахунок основних прав людини та безпеки.

попередня статтяGoogle представляє Gemini 3: прорив у розумінні та автоматизації ШІ