Le contenu généré par l’IA inonde les réseaux sociaux : la plupart des utilisateurs ne peuvent pas dire ce qui est réel

0
19

L’essor de l’intelligence artificielle remodèle rapidement les médias sociaux, mais une nouvelle enquête de CNET révèle que la plupart des Américains ont du mal à faire la distinction entre le contenu authentique et les contrefaçons générées par l’IA. Malgré une large prise de conscience de la présence de l’IA en ligne, seuls 44 % des adultes américains qui utilisent les médias sociaux ont confiance dans leur capacité à identifier les images et les vidéos créées par l’IA. Cet écart entre la perception et la réalité met en évidence un défi croissant pour les individus naviguant dans un paysage numérique de plus en plus synthétique.

L’omniprésence du contenu généré par l’IA

Presque tous les adultes américains (94 %) qui utilisent les réseaux sociaux pensent qu’ils sont confrontés à du contenu créé ou modifié par l’IA. Cela inclut des images hyperréalistes, des vidéos bizarres et des textes qui imitent l’écriture humaine avec une précision troublante. Des outils tels que Sora d’OpenAI et Nano Banana de Google facilitent plus que jamais la production de deepfakes convaincants, érodant la confiance dans les informations visuelles et textuelles.

Le problème n’est pas simplement que l’IA existe ; c’est que la plupart des gens ne peuvent pas le détecter de manière fiable. Un quart (25 %) des adultes américains admettent qu’ils n’ont pas la confiance nécessaire pour faire la différence entre les vrais et les faux médias, les générations plus âgées (Boomers, 40 % ; Gen X, 28 %) exprimant les niveaux de certitude les plus bas.

Comment les utilisateurs réagissent aux médias générés par l’IA

L’enquête a également exploré la manière dont les gens réagissent à la prolifération du contenu généré par l’IA :

  • Tentatives de vérification : 72 % des adultes américains prennent des mesures pour vérifier le contenu lorsqu’il est suspect, la génération Z (84 %) étant en tête. La méthode la plus courante consiste à inspecter visuellement les artefacts (60 %), bien que les nouveaux modèles d’IA soient de plus en plus sophistiqués pour éviter les erreurs évidentes.
  • Préoccupations en matière d’étiquetage : La moitié des personnes interrogées (51 %) estiment qu’un meilleur étiquetage du contenu généré par l’IA est crucial, en particulier parmi les Millennials et la génération Z (56 % et 55 % respectivement).
  • Appels à la restriction : 21 % des adultes américains plaident en faveur d’une interdiction complète du contenu généré par l’IA, la génération Z étant la plus bruyante avec 25 %. 36 % supplémentaires soutiennent une réglementation stricte.
  • Valeur perçue : seulement 11 % trouvent le contenu de l’IA utile, informatif ou divertissant, tandis que 28 % le considèrent comme ayant peu ou pas de valeur.

Les limites des solutions actuelles

Alors que certaines plateformes introduisent des outils pour filtrer le contenu généré par l’IA (Pinterest en est un exemple), l’enquête suggère un problème systémique plus large. Le réalisme croissant de l’IA rend les simples contrôles visuels moins efficaces. Les méthodes alternatives, telles que la vérification des étiquettes (30 %) ou la recherche de contenu ailleurs (25 %), deviennent de plus en plus importantes, mais même celles-ci ont leurs limites.

Environ 25 % des adultes américains ne prennent aucune mesure pour vérifier le contenu, en particulier parmi les baby-boomers (36 %) et la génération X (29 %). Cette inaction est dangereuse étant donné le potentiel d’utilisation de l’IA à des fins de fraude, de manipulation ou de désinformation.

Que peut-on faire ?

La lutte contre la désinformation générée par l’IA nécessite une approche à plusieurs facettes :

  • Outils de détection améliorés : Des technologies de détection d’IA plus sophistiquées sont nécessaires, mais elles doivent garder une longueur d’avance sur les capacités en évolution rapide de l’IA générative.
  • Normes d’étiquetage améliorées : Un étiquetage clair et cohérent du contenu généré par l’IA est essentiel, même si son application reste un défi.
  • Éducation aux médias : Il est essentiel de sensibiliser le public aux risques de deepfakes et de manipulation de l’IA.
  • Responsabilité de la plateforme : Les plateformes de médias sociaux doivent assumer une plus grande responsabilité dans l’identification et l’atténuation de la propagation du contenu synthétique.

La réalité est que le contenu généré par l’IA ne va pas disparaître. Jusqu’à ce que des contre-mesures efficaces soient mises en œuvre, les individus doivent rester vigilants, sceptiques et proactifs dans la vérification des informations qu’ils rencontrent en ligne. L’enquête souligne que la confiance dans ce que nous voyons et lisons s’érode et que sa restauration nécessitera un effort collectif de la part des entreprises technologiques, des décideurs politiques et du public.