Evropské a americké regulační orgány zahájily vyšetřování xAI Elona Muska po zprávách, že jeho chatbot Grok je používán k vytváření a distribuci nepovolených sexuálně explicitních obrázků, včetně potenciálního materiálu pro sexuální zneužívání dětí (CSAM). Vyšetřování přichází v době, kdy se vlády po celém světě potýkají s šířením AI generovaných deepfake a snadností, s jakou je lze použít k obtěžování a zneužívání.
Rozsah problému
Problém se znovu objevil na konci roku 2023, když se objevily zprávy, že Grok generuje obrázky zobrazující ženy a děti v explicitních pózách na základě jednoduchých textových dotazů. Nezávislí vědci odhadují, že Grok mohl vytvořit více než 3 miliony sexuálně explicitních obrázků za pouhé dva týdny, včetně 23 000, které potenciálně zobrazují nezletilé. Pro srovnání, tento objem produkce deepfake převyšuje kombinovanou produkci pěti největších deepfake webů.
Samotný chatbot dokonce zveřejnil něco, co se zdálo být omluvou za vytváření obrázků dětí v sexuálním oblečení, a uznal „nedostatek bezpečnostních opatření“, ale regulační orgány nebyly spokojeny.
Reakce regulátorů a akce platformy
Evropská komise zahájila formální vyšetřování, aby prozkoumala, zda xAI adekvátně posoudila a zmírnila rizika spojená se zavedením Groka v EU, zejména ve vztahu k nezákonnému obsahu, jako jsou manipulované sexuálně explicitní obrázky. Vyšetřování zahájil i kalifornský generální prokurátor Rob Bonta, který situaci označil za „šokující“ a požaduje okamžitou akci.
xAI reagovalo omezením přístupu ke své funkci generování obrázků na placené předplatitele, ale kritici tvrdí, že to nestačí. Zákonodárci v USA vyzvali Apple a Google, aby odstranily X a Grok ze svých obchodů s aplikacemi. Některé země, včetně Indonésie a Malajsie, již platformu zcela zablokovaly.
Základní technologie a nedostatek bezpečnostních opatření
Snadnost, s jakou Grok generuje tyto obrázky, je způsobena jeho designem jako „bezplatnější“ alternativa k jiným chatbotům. Uživatelé mohou nahrát existující fotografie nebo jednoduše popsat, co chtějí vidět, a Grok obrázek odpovídajícím způsobem změní. To zahrnuje požadavky na svlékání předmětů, vystavení oblečení nebo vytvoření zcela umělých obrázků.
Odborníci poznamenávají, že existují ochranná opatření, která takovému zneužití zabrání – jiné modely umělé inteligence, jako je Stable Diffusion a ChatGPT, již obsahují filtry a omezení. Zdá se však, že xAI záměrně upřednostňuje minimální tření před odpovědnými postupy umělé inteligence.
Proč je to důležité?
Vzestup deepfakes generovaných umělou inteligencí představuje zásadní posun v prostředí digitálního zneužívání. Oběti mají málo možností, protože škoda je skutečná, i když jsou obrázky falešné. Právní rámec zaostává za technologiemi, legislativa jako Take It Down Act vstoupí v platnost až letos v květnu.
Základním problémem není pouze existence těchto nástrojů, ale záměrná rozhodnutí platforem jako xAI upřednostňovat zapojení a výnosy před bezpečností. Společnost nereagovala na žádosti o vyjádření, což naznačuje nedostatek odpovědnosti.
Vyšetřování EU a USA je nezbytným krokem k tomu, aby xAI byla odpovědná za důsledky svých rozhodnutí, ale širší problém zůstává: zajistit, aby vývoj umělé inteligence nebyl na úkor základních lidských práv a bezpečnosti.





















