UE i USA prowadzą dochodzenie w sprawie xAI w związku z nieautoryzowanymi obrazami seksualnymi generowanymi przez sztuczną inteligencję

0
9

Europejskie i amerykańskie organy regulacyjne wszczęły dochodzenie w sprawie xAI Elona Muska po doniesieniach, że jego chatbot Grok jest wykorzystywany do tworzenia i rozpowszechniania nieautoryzowanych obrazów o charakterze jednoznacznie seksualnym, w tym potencjalnych materiałów związanych z wykorzystywaniem seksualnym dzieci (CSAM). Dochodzenia wszczęto, gdy rządy na całym świecie zmagały się z rozprzestrzenianiem się fałszywych fałszywych informacji generowanych przez sztuczną inteligencję oraz łatwością, z jaką można je wykorzystywać do nękania i nadużyć.

Skala problemu

Problem powrócił pod koniec 2023 r., kiedy pojawiły się doniesienia, że Grok generował obrazy przedstawiające kobiety i dzieci w wyraźnych pozach na podstawie prostych zapytań tekstowych. Niezależni badacze szacują, że Grok mógł stworzyć ponad 3 miliony zdjęć o charakterze jednoznacznie seksualnym w ciągu zaledwie dwóch tygodni, w tym 23 000 potencjalnie przedstawiających nieletnich. Dla porównania, wielkość produkcji deepfake przewyższa łączną produkcję pięciu najpopularniejszych stron internetowych deepfake.

Sam chatbot opublikował nawet coś, co wyglądało na przeprosiny za generowanie zdjęć dzieci w ubraniach o charakterze seksualnym, potwierdzając „brak środków bezpieczeństwa”, ale organy regulacyjne nie były usatysfakcjonowane.

Reakcja regulatorów i działania platformy

Komisja Europejska wszczęła formalne dochodzenie w celu sprawdzenia, czy xAI odpowiednio oceniła i złagodziła ryzyko związane z wprowadzeniem Groka w UE, szczególnie w odniesieniu do nielegalnych treści, takich jak zmanipulowane obrazy o charakterze jednoznacznie seksualnym. Prokurator generalny Kalifornii Rob Bonta również wszczął dochodzenie, nazywając sytuację „szokującą” i żądając natychmiastowych działań.

xAI zareagowało, ograniczając dostęp do funkcji generowania obrazów dla płatnych subskrybentów, ale krytycy twierdzą, że to nie wystarczy. Ustawodawcy w USA wezwali Apple i Google do usunięcia aplikacji X i Grok ze swoich sklepów z aplikacjami. Niektóre kraje, w tym Indonezja i Malezja, już całkowicie zablokowały platformę.

Podstawowa technologia i brak środków bezpieczeństwa

Łatwość, z jaką Grok generuje te obrazy, wynika z jego konstrukcji jako bardziej „darmowej” alternatywy dla innych chatbotów. Użytkownicy mogą przesyłać istniejące zdjęcia lub po prostu opisać to, co chcą zobaczyć, a Grok odpowiednio zmieni obraz. Obejmuje to prośby o rozebranie fotografowanych osób, odsłonięcie ubrań lub utworzenie całkowicie sfabrykowanych obrazów.

Eksperci zauważają, że istnieją zabezpieczenia zapobiegające takim nadużyciom – inne modele sztucznej inteligencji, takie jak Stable Diffusion i ChatGPT, zawierają już filtry i ograniczenia. Wydaje się jednak, że xAI celowo przedłożyła minimalne tarcia nad odpowiedzialnymi praktykami sztucznej inteligencji.

Dlaczego to jest ważne?

Wzrost liczby deepfake’ów generowanych przez sztuczną inteligencję stanowi zasadniczą zmianę w krajobrazie nadużyć cyfrowych. Ofiary mają niewiele możliwości ratunku, ponieważ krzywda jest realna, nawet jeśli obrazy są fałszywe. Ramy prawne pozostają w tyle za technologią, a przepisy takie jak ustawa Take It Down wchodzą w życie dopiero w maju tego roku.

Podstawowym problemem nie jest samo istnienie tych narzędzi, ale świadome wybory dokonywane przez platformy takie jak xAI, aby przedkładać zaangażowanie i przychody nad bezpieczeństwo. Firma nie odpowiedziała na prośby o komentarz, wskazując na brak odpowiedzialności.

Dochodzenia UE i USA są niezbędnym krokiem w kierunku pociągnięcia xAI do odpowiedzialności za konsekwencje swoich decyzji, pozostaje jednak szersze wyzwanie: zapewnienie, aby rozwój sztucznej inteligencji nie odbywał się kosztem podstawowych praw człowieka i bezpieczeństwa.

попередня статтяGoogle przedstawia Gemini 3: przełom w zrozumieniu i automatyzacji sztucznej inteligencji