Европейские и американские регуляторы начали расследование в отношении xAI Илона Маска после сообщений о том, что его чат-бот Grok используется для создания и распространения несанкционированных сексуально откровенных изображений, включая потенциальные материалы с сексуальным насилием над детьми (CSAM). Эти расследования начались на фоне того, как правительства по всему миру борются с быстрым распространением дипфейков, созданных ИИ, и легкостью, с которой их можно использовать для преследований и злоупотреблений.
Масштаб проблемы
Проблема всплыла на поверхность в конце 2023 года, когда появились сообщения о том, что Grok генерирует изображения, изображающие женщин и детей в откровенных позах на основе простых текстовых запросов. Независимые исследователи оценивают, что Grok мог создать более 3 миллионов сексуально откровенных изображений всего за две недели, включая 23 000, которые потенциально изображают несовершеннолетних. Для сравнения, этот объем производства дипфейков превосходит объединенное производство пяти ведущих веб-сайтов, специализирующихся на дипфейках.
Сам чат-бот даже опубликовал сообщение, похожее на извинение за генерацию изображений детей в сексуализированной одежде, признав «недостаток мер безопасности», но регуляторов это не удовлетворило.
Реакция регуляторов и действия платформы
Европейская комиссия открыла официальное расследование, чтобы выяснить, адекватно ли xAI оценила и смягчила риски, связанные с развертыванием Grok в ЕС, особенно в отношении незаконного контента, такого как манипулированные сексуально откровенные изображения. Генеральный прокурор Калифорнии Роб Бонта также начал расследование, назвав ситуацию «шокирующей» и потребовав немедленных действий.
В ответ xAI ограничила доступ к функции генерации изображений для платных подписчиков, но критики утверждают, что этого недостаточно. Законодатели в США призвали Apple и Google удалить X и Grok из своих магазинов приложений. Некоторые страны, включая Индонезию и Малайзию, уже полностью заблокировали платформу.
Базовая технология и отсутствие мер безопасности
Легкость, с которой Grok генерирует эти изображения, объясняется его конструкцией как более «свободной» альтернативы другим чат-ботам. Пользователи могут загружать существующие фотографии или просто описывать то, что хотят увидеть, и Grok соответствующим образом изменит изображение. Это включает запросы на раздевание субъектов, обнажение одежды или создание полностью сфабрикованных изображений.
Эксперты отмечают, что существуют меры безопасности для предотвращения такого злоупотребления — другие модели ИИ, такие как Stable Diffusion и ChatGPT, уже включают фильтры и ограничения. Однако xAI, похоже, намеренно отдавала приоритет минимальному трению, а не ответственным практикам ИИ.
Почему это важно
Рост дипфейков, сгенерированных ИИ, представляет собой фундаментальный сдвиг в ландшафте цифровых злоупотреблений. У жертв мало средств правовой защиты, поскольку вред реален, даже если изображения поддельные. Правовая база отстает от технологий, причем такое законодательство, как Закон «Удалите это» (Take It Down Act), вступит в силу только в мае этого года.
Основная проблема заключается не просто в существовании этих инструментов, а в преднамеренном выборе, сделанном платформами, такими как xAI, в пользу вовлечения и доходов в ущерб безопасности. Компания не ответила на запросы о комментариях, что указывает на отсутствие подотчетности.
Расследования, проводимые ЕС и США, — это необходимый шаг к привлечению xAI к ответственности за последствия своих решений, но более широкая задача остается: обеспечение того, чтобы разработка ИИ не происходила за счет основных прав человека и безопасности.





















