Malezja przygotowuje się do podjęcia kroków prawnych przeciwko firmie Elona Muska X (dawniej Twitter) i jej jednostce zajmującej się sztuczną inteligencją xAI w związku z nadużywaniem chatbota Grok. Pozew wynika z tego, że platforma nie zajęła się tworzeniem i dystrybucją szkodliwych treści, w tym materiałów o charakterze jednoznacznie seksualnym i deepfake’ów tworzonych bez zgody.
Blokowanie dostępu i informacje prawne
Zaledwie kilka dni temu Malezja i Indonezja zablokowały dostęp do Groka w związku z doniesieniami, że był on wykorzystywany do tworzenia niepokojących obrazów. Malezyjska Komisja ds. Komunikacji i Multimediów (MCMC) podała, że na początku tego miesiąca wystosowała do X i xAI oficjalne wezwania, żądając usunięcia nielegalnych treści. Gdy żądania te zostały zignorowane, MCMC zatrudniło prawników i zamierza wystąpić do sądu.
Istota problemu
Głównym problemem jest dostępność Groka i jego funkcji, które pozwalają użytkownikom generować zmanipulowane obrazy, w tym obrazy kobiet w pozach o charakterze jednoznacznie seksualnym oraz, co najbardziej niepokojące, treści przedstawiające dzieci. Włączenie „trybu ostrego” w Grok Imagine, generatorze obrazów chatbota, bezpośrednio przyczyniło się do powstania materiałów pornograficznych. Nie jest to ryzyko hipotetyczne: prawdziwe deepfakes już się rozprzestrzeniły, co spotkało się z ostrą krytyką.
Globalna kontrola i ograniczona reakcja
Debata wykracza poza Azję Południowo-Wschodnią. Unia Europejska, Indie i Wielka Brytania również wyraziły zaniepokojenie. Wielka Brytania rozważa wprowadzenie nowych przepisów kryminalizujących „nagie aplikacje”, a organ regulacyjny ds. mediów bada potencjalne naruszenia przepisów dotyczących bezpieczeństwa dzieci przez Groka.
W odpowiedzi na to oburzenie xAI w zeszłym tygodniu ograniczyło funkcje generowania i edycji obrazów do płatnych subskrybentów. Jednak krytycy twierdzą, że środek ten nie wystarczy, aby w pełni rozwiązać podstawowy problem. Warto zauważyć, że Musk i jego firmy milczą na temat zakazów w Malezji i Indonezji, odpowiadając na zapytania mediów jedynie automatyczną wiadomością o treści: „Kłamiesz, media”.
Dlaczego to jest ważne?
Ta batalia prawna uwydatnia rosnące wyzwania związane z regulacją generatywnej sztucznej inteligencji. Chociaż potężne narzędzia, takie jak Grok, oferują możliwości twórcze, ich potencjał do nadużyć jest znaczny. Sprawa ta podkreśla potrzebę lepszej ochrony i odpowiedzialności ze strony firm technologicznych za treści tworzone na ich platformach. Jeśli technologie te nie zostaną poddane kontroli, mogą jeszcze bardziej osłabić zaufanie do mediów cyfrowych i pogłębić szkody wyrządzane bezbronnym grupom społecznym.





















