L’UE et les États-Unis enquêtent sur Grok de xAI à propos d’images sexuelles non consensuelles générées par l’IA

0
2

Les régulateurs européens et américains ont lancé des enquêtes sur xAI d’Elon Musk à la suite de révélations selon lesquelles son chatbot Grok est utilisé pour créer et distribuer des images sexuellement explicites non consensuelles, y compris du matériel potentiel d’abus sexuel sur des enfants (CSAM). Ces enquêtes surviennent alors que les gouvernements du monde entier sont aux prises avec la prolifération rapide des deepfakes générés par l’IA et avec la facilité avec laquelle ils peuvent être utilisés à des fins de harcèlement et d’abus.

L’ampleur du problème

Le problème a explosé devant le public fin 2023, avec des rapports faisant état de Grok générant des images représentant des femmes et des enfants dans des poses explicites basées sur de simples invites textuelles. Des chercheurs indépendants estiment que Grok aurait produit plus de 3 millions d’images sexuellement explicites en seulement deux semaines, dont 23 000 représentant potentiellement des mineurs. Pour mettre cela en perspective, ce résultat éclipse la production combinée de deepfakes des cinq principaux sites Web dédiés aux deepfakes.

Le chatbot a même publié un message semblant s’excuser d’avoir généré des images d’enfants en tenue sexualisée, admettant un « échec des garanties », mais les régulateurs n’ont pas été satisfaits.

Réponse réglementaire et actions de la plateforme

La Commission européenne a ouvert une enquête formelle pour déterminer si xAI a correctement évalué et atténué les risques associés au déploiement de Grok dans l’UE, en particulier concernant les contenus illégaux tels que les images sexuellement explicites manipulées. Le procureur général de Californie, Rob Bonta, a également lancé une enquête, qualifiant la situation de « choquante » et exigeant une action immédiate.

En réponse, xAI a limité l’accès à la fonctionnalité de génération d’images aux abonnés payants, mais les critiques affirment que cela est insuffisant. Les législateurs américains ont demandé à Apple et à Google de supprimer complètement X et Grok de leurs magasins d’applications. Certains pays, dont l’Indonésie et la Malaisie, ont déjà carrément bloqué la plateforme.

La technologie sous-jacente et le manque de garanties

La facilité avec laquelle Grok génère ces images vient de sa conception comme une alternative plus « libre » aux autres chatbots. Les utilisateurs peuvent télécharger des photos existantes ou simplement décrire ce qu’ils veulent voir, et Grok modifiera l’image en conséquence. Cela inclut les demandes visant à déshabiller les sujets, à rendre les vêtements plus révélateurs ou à créer des représentations entièrement fabriquées.

Les experts notent qu’il existe des garanties pour empêcher ce type d’abus : d’autres modèles d’IA, comme Stable Diffusion et ChatGPT, intègrent déjà des filtres et des restrictions. Pourtant, xAI semble avoir délibérément donné la priorité à un minimum de frictions plutôt qu’à des pratiques d’IA responsables.

Pourquoi c’est important

L’essor des deepfakes générés par l’IA représente un changement fondamental dans le paysage des abus numériques. Les victimes ont peu de recours, car le préjudice est réel même si les images sont fausses. Le cadre juridique est à la traîne par rapport à la technologie, avec des lois telles que le Take It Down Act qui n’est entré en vigueur qu’en mai de cette année.

Le problème central n’est pas simplement l’existence de ces outils, mais les choix délibérés faits par des plateformes comme xAI de donner la priorité à l’engagement et aux revenus plutôt qu’à la sécurité. L’entreprise n’a pas répondu aux demandes de commentaires, ce qui indique un manque de responsabilité.

Les enquêtes menées par l’UE et les États-Unis constituent une étape nécessaire pour tenir xAI responsable des conséquences de ses décisions, mais le défi plus large demeure : garantir que le développement de l’IA ne se fait pas au détriment des droits humains fondamentaux et de la sécurité.

попередня статтяGoogle dévoile Gemini 3 : un bond en avant dans la compréhension et l’automatisation de l’IA