El auge de la inteligencia artificial está remodelando rápidamente las redes sociales, pero una nueva encuesta de CNET revela que a la mayoría de los estadounidenses les cuesta distinguir entre contenido auténtico y falsificaciones generadas por IA. A pesar de la conciencia generalizada sobre la presencia de la IA en línea, solo el 44% de los adultos estadounidenses que usan las redes sociales confían en su capacidad para identificar imágenes y videos creados por IA. Esta brecha entre la percepción y la realidad pone de relieve un desafío creciente para las personas que navegan en un panorama digital cada vez más sintético.
La ubicuidad del contenido generado por IA
Casi todos los adultos estadounidenses (94%) que utilizan las redes sociales creen que encuentran contenido creado o alterado por IA. Esto incluye imágenes hiperrealistas, vídeos extraños y textos que imitan la escritura humana con una precisión inquietante. Herramientas como Sora de OpenAI y Nano Banana de Google están haciendo que sea más fácil que nunca producir deepfakes convincentes, erosionando la confianza en la información visual y textual.
El problema no es simplemente que exista la IA; es que la mayoría de las personas no pueden detectarlo de manera confiable. Una cuarta parte (25%) de los adultos estadounidenses admiten que carecen de confianza para diferenciar entre medios reales y falsos, y las generaciones mayores (Boomers, 40%; Generación X, 28%) expresan los niveles más bajos de certeza.
Cómo reaccionan los usuarios a los medios generados por IA
La encuesta también exploró cómo responde la gente a la proliferación de contenido generado por IA:
- Intentos de verificación: El 72 % de los adultos estadounidenses toman medidas para verificar el contenido cuando son sospechosos, con la Generación Z (84 %) a la cabeza. El método más común es la inspección visual de artefactos (60%), aunque los modelos de IA más nuevos se están volviendo más sofisticados para evitar errores obvios.
- Preocupaciones sobre el etiquetado: La mitad de los encuestados (51%) cree que es crucial etiquetar mejor el contenido generado por IA, particularmente entre los Millennials y la Generación Z (56% y 55% respectivamente).
- Pide restricciones: El 21% de los adultos estadounidenses abogan por una prohibición total del contenido generado por IA, siendo la Generación Z la que más expresa su voz con un 25%. Otro 36% apoya una regulación estricta.
- Valor percibido: Solo el 11 % considera que el contenido de IA es útil, informativo o entretenido, mientras que el 28 % lo considera de poco o ningún valor.
Los límites de las soluciones actuales
Si bien algunas plataformas están introduciendo herramientas para filtrar contenido generado por IA (Pinterest es un ejemplo), la encuesta sugiere un problema sistémico más amplio. El creciente realismo de la IA hace que los controles visuales simples sean menos efectivos. Los métodos alternativos, como comprobar las etiquetas (30%) o buscar contenido en otros lugares (25%), son cada vez más importantes, pero incluso estos tienen limitaciones.
Un preocupante 25% de los adultos estadounidenses no toma ninguna medida para verificar el contenido, particularmente entre los Boomers (36%) y la Generación X (29%). Esta inacción es peligrosa dado el potencial de que la IA se utilice como arma para cometer fraude, manipulación o desinformación.
¿Qué se puede hacer?
Combatir la desinformación generada por la IA requiere un enfoque multifacético:
- Herramientas de detección mejoradas: Se necesitan tecnologías de detección de IA más sofisticadas, pero deben mantenerse a la vanguardia de las capacidades en rápida evolución de la IA generativa.
- Estándares de etiquetado mejorados: El etiquetado claro y consistente del contenido generado por IA es esencial, aunque su aplicación sigue siendo un desafío.
- Educación en alfabetización mediática: Es fundamental concienciar al público sobre los riesgos de los deepfakes y la manipulación de la IA.
- Responsabilidad de la plataforma: Las plataformas de redes sociales deben asumir una mayor responsabilidad para identificar y mitigar la difusión de contenido sintético.
La realidad es que el contenido generado por IA no va a desaparecer. Hasta que se implementen contramedidas efectivas, las personas deben permanecer alerta, escépticas y proactivas al verificar la información que encuentran en línea. La encuesta subraya que la confianza en lo que vemos y leemos se está erosionando, y restaurarla requerirá un esfuerzo colectivo de las empresas de tecnología, los formuladores de políticas y el público por igual.





















