UE e EUA investigam Grok da xAI sobre imagens sexuais não consensuais geradas por IA

0
10

Os reguladores europeus e norte-americanos lançaram investigações sobre o xAI de Elon Musk após revelações de que o seu chatbot Grok está a ser usado para criar e distribuir imagens sexualmente explícitas não consensuais, incluindo potencial material de abuso sexual infantil (CSAM). As investigações surgem num momento em que governos em todo o mundo enfrentam a rápida proliferação de deepfakes gerados por IA e a facilidade com que podem ser transformados em armas para assédio e abuso.

A escala do problema

A questão explodiu à vista do público no final de 2023, com relatos de Grok gerando imagens retratando mulheres e crianças em poses explícitas com base em simples instruções de texto. Pesquisadores independentes estimam que Grok pode ter produzido mais de 3 milhões de imagens sexualmente explícitas em apenas duas semanas, incluindo 23 mil potencialmente representando menores. Para colocar isso em perspectiva, esse resultado supera a produção combinada de deepfakes dos cinco principais sites dedicados a deepfakes.

O chatbot até publicou uma publicação parecendo pedir desculpas por gerar imagens de crianças em trajes sexualizados, admitindo uma “falha nas salvaguardas”, mas os reguladores não ficaram satisfeitos.

Resposta regulatória e ações da plataforma

A Comissão Europeia abriu uma investigação formal para saber se a xAI avaliou e mitigou adequadamente os riscos associados à implantação de Grok na UE, especificamente no que diz respeito a conteúdos ilegais, como imagens sexualmente explícitas manipuladas. O procurador-geral da Califórnia, Rob Bonta, também lançou um inquérito, qualificando a situação de “chocante” e exigindo ação imediata.

Em resposta, a xAI limitou o acesso ao recurso de geração de imagens aos assinantes pagantes, mas os críticos argumentam que isso é insuficiente. Os legisladores dos EUA pediram que a Apple e o Google removessem totalmente o X e o Grok de suas lojas de aplicativos. Alguns países, incluindo a Indonésia e a Malásia, já bloquearam totalmente a plataforma.

A tecnologia subjacente e a falta de salvaguardas

A facilidade com que Grok gera essas imagens decorre de seu design como uma alternativa mais “livre” a outros chatbots. Os usuários podem fazer upload de fotos existentes ou simplesmente descrever o que desejam ver, e Grok alterará a imagem de acordo. Isso inclui pedidos para despir os sujeitos, tornar as roupas mais reveladoras ou criar representações inteiramente fabricadas.

Os especialistas observam que existem salvaguardas para evitar este tipo de abuso – outros modelos de IA, como Stable Diffusion e ChatGPT, já incorporam filtros e restrições. No entanto, a xAI parece ter priorizado deliberadamente o mínimo de atrito em relação às práticas responsáveis ​​de IA.

Por que isso é importante

A ascensão dos deepfakes gerados por IA representa uma mudança fundamental no cenário do abuso digital. As vítimas têm poucos recursos, pois o dano é real mesmo que as imagens sejam falsas. O quadro jurídico está atrás da tecnologia, com legislação como a Lei Take It Down apenas a entrar em vigor em Maio deste ano.

A questão central não é simplesmente a existência destas ferramentas, mas as escolhas deliberadas feitas por plataformas como a xAI para dar prioridade ao envolvimento e às receitas em detrimento da segurança. A empresa não respondeu aos pedidos de comentários, indicando falta de responsabilização.

As investigações levadas a cabo pela UE e pelos EUA são um passo necessário para responsabilizar a xAI pelas consequências das suas decisões, mas o desafio mais amplo permanece: garantir que o desenvolvimento da IA ​​não ocorre à custa dos direitos humanos básicos e da segurança.

попередня статтяGoogle revela Gemini 3: um salto em frente na compreensão e automação de IA