La rápida difusión de información errónea y teorías de conspiración en torno a la muerte de Charlie Kirk, un comentarista conservador, ha puesto de relieve una falla crítica al depender de chatbots de inteligencia artificial para las noticias de última hora. Después de su tiroteo en un evento público en Utah, Internet rápidamente se inundó de afirmaciones y especulaciones no verificadas, exacerbadas por respuestas inexactas y engañosas de los chatbots de IA. Este incidente pone de relieve las limitaciones de la inteligencia artificial a la hora de informar de forma precisa y responsable sobre acontecimientos que evolucionan rápidamente.
La desinformación impulsada por los robots
Los informes iniciales del incidente fueron caóticos, con confusión sobre si Kirk estaba vivo o muerto. Esta incertidumbre creó un terreno fértil para la especulación en línea, y los usuarios rápidamente recurrieron a las redes sociales para difundir y amplificar información no verificada. Sin embargo, los chatbots de IA, integrados en plataformas como X y a los que se accede a través de servicios como Google, a menudo agravaron el problema al proporcionar información inexacta o engañosa.
- Informes contradictorios: Los chatbots de IA ofrecieron informes contradictorios, y algunos inicialmente afirmaron que Kirk había muerto, solo para retractarse de la información más tarde.
- Validación de teorías de conspiración: En otros casos, los chatbots aparentemente validaron teorías de conspiración existentes, incluidas afirmaciones de asesinatos planificados y participación extranjera, al proporcionar respuestas generadas por IA que respaldaban estas narrativas falsas.
- Afirmaciones engañosas: Un chatbot afirmó erróneamente que CNN, NYT y Fox News habían identificado a un demócrata registrado como sospechoso, lo que resultó ser falso. Otro robot etiquetó un vídeo del tiroteo como “meme”, a pesar de que los expertos en seguridad confirmaron su autenticidad.
El papel del sesgo algorítmico
Los informes inexactos de los chatbots se deben a varios factores inherentes a la tecnología de inteligencia artificial.
- Falta de verificación humana: A diferencia de los periodistas humanos, los chatbots no pueden llamar a funcionarios locales, acceder a documentos de primera mano ni autenticar imágenes, pasos críticos para verificar la información.
- Efecto cámara de eco: los algoritmos de IA tienden a priorizar la información que se repite con frecuencia, lo que permite que las falsedades ganen terreno y ahoguen los informes precisos.
- Priorizar las voces más fuertes: Los chatbots son susceptibles a repetir afirmaciones de sitios web de baja participación, publicaciones sociales y granjas de contenido generadas por IA sembradas por actores maliciosos.
La tendencia más amplia: estrategias cambiantes de verificación de noticias
Este incidente se produce cuando las principales empresas de tecnología dependen cada vez más de la inteligencia artificial y la moderación de la comunidad para gestionar la verificación de noticias, un cambio que genera preocupaciones sobre el futuro de la alfabetización periodística.
- Reducción de verificadores de datos humanos: Muchas empresas han reducido sus inversiones en verificadores de datos humanos en favor de la moderación de contenido impulsada por la IA.
- El “dividendo del mentiroso”: La IA permite a las personas afirmar que la información real es falsa, lo que siembra confusión y desconfianza, un fenómeno conocido como el “dividendo del mentiroso”.
- Disminución de la confianza en las fuentes tradicionales: Una encuesta de Pew Research indica que las personas que encuentran resultados de búsqueda generados por IA tienen menos probabilidades de hacer clic en fuentes adicionales en comparación con aquellos que utilizan motores de búsqueda tradicionales.
McKenzie Sadeghi, investigador de NewsGuard, señala sucintamente: “Los algoritmos no requieren comentarios”, enfatizando el papel irremplazable del juicio humano en la información periodística responsable. Deborah Turness, directora ejecutiva de BBC News and Current Affairs, se hizo eco de este sentimiento y advirtió: “¿Cuánto tiempo pasará antes de que un titular distorsionado por la IA cause un daño significativo en el mundo real?”
El caso de Charlie Kirk sirve como un claro recordatorio de la necesidad de precaución y escepticismo al confiar en chatbots de IA para las noticias de última hora, y destaca el debate en curso sobre el papel de la inteligencia artificial en un panorama de medios en rápida evolución.
La creciente dependencia de la IA en la recopilación de noticias ha generado preocupación sobre la creciente desinformación y el impacto de la IA en las noticias y la política.
