AI-gegenereerde inhoud overspoelt sociale media: de meeste gebruikers weten niet wat echt is

0
22

De opkomst van kunstmatige intelligentie verandert sociale media snel, maar uit een nieuw CNET-onderzoek blijkt dat de meeste Amerikanen moeite hebben om onderscheid te maken tussen authentieke inhoud en door AI gegenereerde vervalsingen. Ondanks het wijdverbreide bewustzijn van de aanwezigheid van AI online, heeft slechts 44% van de Amerikaanse volwassenen die sociale media gebruiken vertrouwen in hun vermogen om door AI gemaakte afbeeldingen en video’s te identificeren. Deze kloof tussen perceptie en realiteit benadrukt een groeiende uitdaging voor individuen die door een steeds synthetischer digitaal landschap navigeren.

De alomtegenwoordigheid van door AI gegenereerde inhoud

Bijna alle Amerikaanse volwassenen (94%) die sociale media gebruiken, denken dat ze inhoud tegenkomen die door AI is gemaakt of gewijzigd. Dit omvat hyperrealistische afbeeldingen, bizarre video’s en tekst die menselijk schrijven met verontrustende nauwkeurigheid nabootst. Tools als Sora van OpenAI en Nano Banana van Google maken het gemakkelijker dan ooit om overtuigende deepfakes te produceren, waardoor het vertrouwen in visuele en tekstuele informatie wordt uitgehold.

Het probleem is niet simpelweg dat AI bestaat; het is dat de meeste mensen het niet op betrouwbare wijze kunnen detecteren. Een kwart (25%) van de Amerikaanse volwassenen geeft toe dat ze het vertrouwen missen om onderscheid te maken tussen echte en nepmedia, waarbij oudere generaties (Boomers, 40%; Gen X, 28%) het laagste niveau van zekerheid uiten.

Hoe gebruikers reageren op door AI gegenereerde media

In het onderzoek werd ook onderzocht hoe mensen reageren op de verspreiding van door AI gegenereerde inhoud:

  • Verificatiepogingen: 72% van de Amerikaanse volwassenen onderneemt actie om inhoud te verifiëren wanneer deze verdacht is, waarbij Generatie Z (84%) voorop loopt. De meest gebruikelijke methode is het visueel inspecteren op artefacten (60%), hoewel nieuwere AI-modellen steeds geavanceerder worden in het vermijden van duidelijke fouten.
  • Bezorgdheid over etikettering: De helft van de respondenten (51%) is van mening dat een betere etikettering van door AI gegenereerde inhoud cruciaal is, vooral onder millennials en generatie Z (respectievelijk 56% en 55%).
  • Oproep tot beperking: 21% van de Amerikaanse volwassenen pleit voor een volledig verbod op door AI gegenereerde inhoud, waarbij Gen Z met 25% het meest uitgesproken is. Nog eens 36% is voorstander van strikte regelgeving.
  • Waargenomen waarde: Slechts 11% vindt AI-inhoud nuttig, informatief of vermakelijk, terwijl 28% vindt dat deze weinig tot geen waarde heeft.

De grenzen van de huidige oplossingen

Hoewel sommige platforms tools introduceren om door AI gegenereerde inhoud te filteren (Pinterest is een voorbeeld), suggereert het onderzoek een breder systemisch probleem. Het toenemende realisme van AI maakt eenvoudige visuele controles minder effectief. Alternatieve methoden, zoals het controleren op labels (30%) of het elders zoeken naar inhoud (25%), worden steeds belangrijker, maar zelfs deze hebben beperkingen.

Ongeveer 25% van de Amerikaanse volwassenen onderneemt helemaal geen actie om de inhoud te verifiëren, vooral onder Boomers (36%) en Gen X-ers (29%). Deze passiviteit is gevaarlijk gezien het potentieel dat AI kan worden ingezet voor fraude, manipulatie of desinformatie.

Wat kan er gedaan worden?

Het bestrijden van door AI gegenereerde desinformatie vereist een veelzijdige aanpak:

  • Verbeterde detectiehulpmiddelen: Er zijn meer geavanceerde AI-detectietechnologieën nodig, maar deze moeten de snel evoluerende mogelijkheden van generatieve AI voor blijven.
  • Verbeterde etiketteringsnormen: Duidelijke en consistente etikettering van door AI gegenereerde inhoud is essentieel, hoewel handhaving een uitdaging blijft.
  • Voorlichting over mediageletterdheid: Het vergroten van het publieke bewustzijn over de risico’s van deepfakes en AI-manipulatie is van cruciaal belang.
  • Platformverantwoordelijkheid: Sociale-mediaplatforms moeten een grotere verantwoordelijkheid nemen voor het identificeren en beperken van de verspreiding van synthetische inhoud.

De realiteit is dat door AI gegenereerde inhoud niet zal verdwijnen. Totdat effectieve tegenmaatregelen zijn geïmplementeerd, moeten individuen waakzaam, sceptisch en proactief blijven bij het verifiëren van de informatie die ze online tegenkomen. Het onderzoek onderstreept dat het vertrouwen in wat we zien en lezen aan het eroderen is, en dat het herstellen ervan een collectieve inspanning zal vergen van technologiebedrijven, beleidsmakers en het publiek.