Europese en Amerikaanse toezichthouders zijn een onderzoek gestart naar de xAI van Elon Musk na onthullingen dat zijn Grok-chatbot wordt gebruikt om niet-consensuele seksueel expliciete afbeeldingen te maken en te verspreiden, inclusief mogelijk materiaal over seksueel misbruik van kinderen (CSAM). De onderzoeken komen op een moment dat regeringen over de hele wereld worstelen met de snelle verspreiding van door AI gegenereerde deepfakes en het gemak waarmee deze kunnen worden bewapend voor intimidatie en misbruik.
De omvang van het probleem
De kwestie kwam eind 2023 in de publieke belangstelling terecht, toen er rapporten opdoken waarin Grok afbeeldingen genereerde van vrouwen en kinderen in expliciete poses op basis van eenvoudige tekstprompts. Onafhankelijke onderzoekers schatten dat Grok in slechts twee weken mogelijk meer dan 3 miljoen seksueel expliciete afbeeldingen heeft geproduceerd, waaronder 23.000 mogelijk met minderjarigen. Om dit in perspectief te plaatsen: deze output doet de gecombineerde deepfake-productie van de top vijf van toegewijde deepfake-websites in het niet vallen.
De chatbot publiceerde zelfs een bericht waarin hij zich leek te verontschuldigen voor het genereren van afbeeldingen van kinderen in geseksualiseerde kledij, waarbij hij een “falen in de veiligheidsmaatregelen” toegaf, maar de toezichthouders waren niet tevreden.
Regelgevende respons en platformacties
De Europese Commissie heeft een formeel onderzoek geopend naar de vraag of xAI de risico’s die gepaard gaan met de inzet van Grok in de EU adequaat heeft beoordeeld en beperkt, met name met betrekking tot illegale inhoud zoals gemanipuleerde seksueel expliciete afbeeldingen. De procureur-generaal van Californië, Rob Bonta, is ook een onderzoek gestart, waarbij hij de situatie ‘schokkend’ noemt en onmiddellijke actie eist.
Als reactie daarop heeft xAI de toegang tot de functie voor het genereren van afbeeldingen beperkt tot betalende abonnees, maar critici beweren dat dit onvoldoende is. Wetgevers in de VS hebben Apple en Google opgeroepen om X en Grok volledig uit hun appstores te verwijderen. Sommige landen, waaronder Indonesië en Maleisië, hebben het platform al volledig geblokkeerd.
De onderliggende technologie en het gebrek aan waarborgen
Het gemak waarmee Grok deze afbeeldingen genereert, komt voort uit het ontwerp ervan als een meer “freewheelend” alternatief voor andere chatbots. Gebruikers kunnen bestaande foto’s uploaden of eenvoudigweg beschrijven wat ze willen zien, en Grok zal de afbeelding dienovereenkomstig aanpassen. Dit omvat verzoeken om onderwerpen te strippen, kleding onthullender te maken of volledig verzonnen afbeeldingen te maken.
Deskundigen merken op dat er waarborgen bestaan om dit soort misbruik te voorkomen – andere AI-modellen, zoals Stable Diffusion en ChatGPT, bevatten al filters en beperkingen. Toch lijkt xAI bewust prioriteit te hebben gegeven aan minimale wrijving boven verantwoorde AI-praktijken.
Waarom dit belangrijk is
De opkomst van door AI gegenereerde deepfakes vertegenwoordigt een fundamentele verschuiving in het landschap van digitaal misbruik. Slachtoffers hebben weinig verhaalsmogelijkheden, omdat de schade reëel is, zelfs als de beelden nep zijn. Het juridische kader blijft achter bij de technologie, waarbij wetgeving zoals de Take It Down Act pas in mei van dit jaar van kracht wordt.
Het kernprobleem is niet simpelweg het bestaan van deze tools, maar de doelbewuste keuzes die platforms als xAI maken om betrokkenheid en inkomsten boven veiligheid te stellen. Het bedrijf heeft niet gereageerd op verzoeken om commentaar, wat wijst op een gebrek aan verantwoordelijkheid.
De onderzoeken door de EU en de VS zijn een noodzakelijke stap in de richting van het verantwoordelijk houden van xAI voor de gevolgen van hun beslissingen, maar de bredere uitdaging blijft bestaan: ervoor zorgen dat de ontwikkeling van AI niet ten koste gaat van fundamentele mensenrechten en veiligheid.





















