La propagation rapide de la désinformation et des théories du complot entourant la mort de Charlie Kirk, un commentateur conservateur, a mis en évidence un défaut critique dans le recours aux chatbots IA pour les dernières nouvelles. Après sa fusillade lors d’un événement public dans l’Utah, Internet a rapidement été inondé d’affirmations et de spéculations non vérifiées, exacerbées par les réponses inexactes et trompeuses des chatbots IA. Cet incident souligne les limites de l’intelligence artificielle lorsqu’il s’agit de rendre compte avec précision et responsabilité d’événements en évolution rapide.
La désinformation alimentée par les robots
Les premiers rapports sur l’incident étaient chaotiques, avec une confusion quant à savoir si Kirk était vivant ou mort. Cette incertitude a créé un terrain fertile pour la spéculation en ligne, et les utilisateurs se sont rapidement tournés vers les réseaux sociaux pour diffuser et amplifier des informations non vérifiées. Cependant, les chatbots IA, intégrés à des plateformes comme X et accessibles via des services comme Google, ont souvent aggravé le problème en fournissant des informations inexactes ou trompeuses.
- Rapports contradictoires : Les chatbots IA ont proposé des rapports contradictoires, certains affirmant initialement que Kirk était décédé, pour ensuite retirer l’information plus tard.
- Validation des théories du complot : Dans d’autres cas, les chatbots ont apparemment validé les théories du complot existantes, y compris les allégations d’assassinats planifiés et d’implication étrangère, en fournissant des réponses générées par l’IA qui soutenaient ces faux récits.
- Allégations trompeuses : Un chatbot a affirmé à tort que CNN, NYT et Fox News avaient identifié un démocrate enregistré comme suspect, ce qui s’est avéré faux. Un autre robot a qualifié une vidéo de la fusillade de « mème », bien que les experts en sécurité aient confirmé son authenticité.
Le rôle du biais algorithmique
Les rapports inexacts des chatbots proviennent de plusieurs facteurs inhérents à la technologie de l’IA.
- Manque de vérification humaine : Contrairement aux journalistes humains, les chatbots ne peuvent pas appeler les autorités locales, accéder à des documents de première main ou authentifier des visuels – des étapes critiques dans la vérification des informations.
- Effet de chambre d’écho : les algorithmes d’IA ont tendance à donner la priorité aux informations fréquemment répétées, permettant aux mensonges de gagner du terrain et d’étouffer les rapports précis.
- Donner la priorité aux voix les plus fortes : Les chatbots sont susceptibles de répéter des réclamations provenant de sites Web à faible engagement, de publications sur les réseaux sociaux et de fermes de contenu générées par l’IA et semées par des acteurs malveillants.
La tendance plus large : l’évolution des stratégies de vérification des informations
Cet incident survient alors que les grandes entreprises technologiques s’appuient de plus en plus sur l’IA et la modération communautaire pour gérer la vérification des informations, un changement qui suscite des inquiétudes quant à l’avenir de la maîtrise de l’information.
- Réduction des vérifications des faits humains : De nombreuses entreprises ont réduit leurs investissements dans les vérifications des faits humains au profit d’une modération de contenu basée sur l’IA.
- Le « dividende du menteur » : l’IA permet aux individus de prétendre que des informations réelles sont fausses, semant ainsi la confusion et la méfiance, un phénomène connu sous le nom de « dividende du menteur ».
- Confiance diminuée dans les sources traditionnelles : Une enquête de Pew Research indique que les personnes rencontrant des résultats de recherche générés par l’IA sont moins susceptibles de cliquer sur des sources supplémentaires par rapport à celles qui utilisent des moteurs de recherche traditionnels.
McKenzie Sadeghi, chercheur à NewsGuard, note succinctement : « Les algorithmes n’appellent pas de commentaires », soulignant le rôle irremplaçable du jugement humain dans un reportage responsable. Deborah Turness, PDG de BBC News and Current Affairs, a fait écho à ce sentiment en avertissant : “Combien de temps faudra-t-il avant qu’un titre déformé par l’IA ne cause des dommages réels importants ?”
L’affaire Charlie Kirk nous rappelle brutalement la nécessité de faire preuve de prudence et de scepticisme lorsqu’on s’appuie sur les chatbots IA pour diffuser les dernières nouvelles, et met en lumière le débat en cours sur le rôle de l’intelligence artificielle dans un paysage médiatique en évolution rapide.
Le recours croissant à l’IA dans la collecte d’informations a soulevé des inquiétudes quant à la désinformation croissante et à l’impact de l’IA sur l’actualité et la politique.




















































