YouTube lanza una nueva herramienta de detección de deepfake con IA para celebridades

0
16

YouTube está ampliando su arsenal contra los medios sintéticos al implementar una herramienta de detección de deepfake especializada diseñada específicamente para personas de alto perfil. Según The Hollywood Reporter, la plataforma propiedad de Google está otorgando acceso a celebridades, incluidos actores, músicos y atletas, para ayudarlos a identificar y combatir videos no autorizados generados por IA que utilizan su imagen.

Cómo funciona el sistema de detección

La nueva herramienta funciona con una lógica similar a Content ID, el antiguo sistema automatizado de YouTube utilizado para identificar música y vídeos protegidos por derechos de autor. El proceso sigue un flujo de trabajo específico:

  1. Registro: Una celebridad o su representante sube su imagen a la herramienta de detección.
  2. Escaneo automatizado: El sistema escanea la plataforma en busca de contenido generado por IA que coincida con la imagen registrada.
  3. Marcar: Las posibles infracciones se marcan para su revisión.
  4. Acción: Una vez marcados, los individuos afectados pueden solicitar la eliminación del contenido, incluso si no poseen una cuenta de YouTube.

El desafío del “reemplazo de contenido” frente a la sátira

Un obstáculo importante a la hora de moderar el contenido de IA es distinguir entre suplantación de identidad maliciosa y expresión creativa protegida. El liderazgo de YouTube ha enfatizado que la herramienta no es una “prohibición total” de todo el contenido de IA.

Mary Ellen Coe, directora comercial de YouTube, aclaró la distinción entre contenido aceptable y prohibido:

“Hay una serie de casos, como parodias y sátiras, en los que nuestras pautas comunitarias permitirían que eso permanezca en la plataforma. Si alguien está haciendo una réplica exacta… eso se incluiría en una eliminación”.

El problema central aquí es el “reemplazo literal de contenido”. Si un video de IA crea una réplica digital de una celebridad para reemplazar su trabajo real, amenazando así su sustento o su valor comercial, es más probable que YouTube intervenga. Sin embargo, si el video es claramente transformador (como una parodia), puede permanecer en línea según las pautas comunitarias existentes.

Una tendencia creciente en los derechos digitales

Este lanzamiento marca una expansión significativa de un programa que se probó anteriormente con creadores de primer nivel de YouTube y, más recientemente, con políticos. La medida se produce cuando la industria del entretenimiento entra en una batalla legal y tecnológica cada vez mayor con los desarrolladores de inteligencia artificial.

Los principales estudios y actores ya han apuntado a modelos de IA generativa de alto perfil, como Sora de OpenAI y SeeDance 2.0 de ByteDance. A medida que las herramientas de inteligencia artificial se vuelven más sofisticadas, la capacidad de crear imágenes “falsas” hiperrealistas ha superado las protecciones tradicionales de derechos de autor, creando un vacío que plataformas como YouTube ahora intentan llenar con detección automática.

De cara al futuro: ¿eliminación o monetización?

Si bien la prioridad actual es crear una “capa fundamental de responsabilidad” para proteger las imágenes, el futuro del contenido de celebridades generado por IA sigue indeciso. Coe insinuó una posibilidad en la que los titulares de derechos podrían eventualmente optar por monetizar los medios generados por IA en lugar de simplemente eliminarlos, convirtiendo esencialmente los deepfakes en una nueva fuente de ingresos. Sin embargo, por ahora, la atención se centra estrictamente en la protección y los derribos.


Conclusión: Al automatizar la detección de imágenes no autorizadas, YouTube intenta cerrar la brecha entre el rápido avance de la IA y los derechos legales de las figuras públicas, aunque la delgada línea entre la sátira y la infracción sigue siendo un desafío complejo.