YouTube lance un nouvel outil de détection AI Deepfake pour les célébrités

0
17

YouTube étend son arsenal contre les médias synthétiques en déployant un outil de détection de deepfake spécialisé, conçu spécifiquement pour les individus de haut niveau. Selon The Hollywood Reporter, la plateforme appartenant à Google donne accès à des célébrités, notamment des acteurs, des musiciens et des athlètes, pour les aider à identifier et à combattre les vidéos non autorisées générées par l’IA qui utilisent leur image.

Comment fonctionne le système de détection

Le nouvel outil fonctionne selon une logique similaire à Content ID, le système automatisé de YouTube utilisé de longue date pour identifier la musique et les vidéos protégées par le droit d’auteur. Le processus suit un flux de travail spécifique :

  1. Inscription : Une célébrité ou son représentant télécharge son image sur l’outil de détection.
  2. Analyse automatisée : Le système analyse la plate-forme à la recherche de contenu généré par l’IA qui correspond à la ressemblance enregistrée.
  3. Marquage : Les infractions potentielles sont signalées pour examen.
  4. Action : Une fois signalées, les personnes concernées peuvent demander la suppression du contenu, même si elles ne possèdent pas elles-mêmes de compte YouTube.

Le défi du « remplacement de contenu » contre la satire

Un obstacle important à la modération du contenu de l’IA consiste à faire la distinction entre l’usurpation d’identité malveillante et l’expression créative protégée. La direction de YouTube a souligné que l’outil ne constitue pas une « interdiction générale » de tout contenu IA.

Mary Ellen Coe, directrice commerciale de YouTube, a clarifié la distinction entre contenu acceptable et interdit :

“Il existe un certain nombre de cas, comme la parodie et la satire, où nos directives communautaires permettraient que cela reste sur la plateforme. Si quelqu’un fait une réplique exacte… cela serait inclus dans un retrait.”

Le problème central ici est le « remplacement littéral du contenu ». Si une vidéo IA crée une réplique numérique d’une célébrité pour remplacer son travail réel, menaçant ainsi ses moyens de subsistance ou sa valeur commerciale, YouTube est plus susceptible d’intervenir. Toutefois, si la vidéo est clairement transformatrice (comme une parodie), elle peut rester en ligne conformément aux directives communautaires en vigueur.

Une tendance croissante en matière de droits numériques

Ce déploiement marque une expansion significative d’un programme qui a déjà été testé auprès de créateurs YouTube de premier plan et, plus récemment, de politiciens. Cette décision intervient alors que l’industrie du divertissement entre dans une bataille juridique et technologique croissante avec les développeurs d’IA.

De grands studios et acteurs se sont déjà intéressés à des modèles d’IA générative de haut niveau, tels que Sora d’OpenAI et SeeDance 2.0 de ByteDance. À mesure que les outils d’IA deviennent plus sophistiqués, la capacité de créer de « fausses » séquences hyperréalistes a dépassé les protections traditionnelles du droit d’auteur, créant un vide que des plateformes comme YouTube tentent désormais de combler grâce à la détection automatisée.

Regard vers l’avenir : suppression ou monétisation ?

Même si la priorité actuelle est de créer un « niveau fondamental de responsabilité » pour protéger les ressemblances, l’avenir du contenu de célébrités généré par l’IA reste indécis. Coe a fait allusion à la possibilité que les titulaires de droits choisissent éventuellement de monétiser les médias générés par l’IA plutôt que de simplement les supprimer, transformant ainsi les deepfakes en une nouvelle source de revenus. Cependant, pour l’instant, l’accent reste strictement mis sur la protection et les retraits.


Conclusion : En automatisant la détection des ressemblances non autorisées, YouTube tente de combler le fossé entre les progrès rapides de l’IA et les droits légaux des personnalités publiques, même si la frontière ténue entre satire et contrefaçon reste un défi complexe.