Powszechne dezinformacje i teorie spiskowe dotyczące śmierci Charliego Kirka, konserwatywnego komentatora, uwydatniły krytyczną wadę polegania na chatbotach AI w przekazywaniu najświeższych wiadomości. Po tym, jak został zaatakowany podczas wydarzenia publicznego w Utah, internet szybko zapełnił się niezweryfikowanymi twierdzeniami i spekulacjami, napędzanymi niedokładnymi i wprowadzającymi w błąd odpowiedziami chatbotów AI. Incydent uwypuklił ograniczenia sztucznej inteligencji, jeśli chodzi o dokładne i odpowiedzialne raportowanie szybko zmieniających się wydarzeń.
Dezinformacja napędzana przez boty
Początkowe doniesienia o zdarzeniu były chaotyczne i nie było pewności, czy Charlie Kirk żyje, czy nie. Ta niepewność stworzyła podatny grunt dla spekulacji w Internecie, a użytkownicy szybko zaczęli rozpowszechniać i wzmacniać niepotwierdzone informacje w mediach społecznościowych. Jednak chatboty AI zintegrowane z platformami takimi jak X i dostępne za pośrednictwem usług takich jak Google często pogłębiały problem, dostarczając niedokładnych lub wprowadzających w błąd informacji.
- Sprzeczne wiadomości: chatboty AI dostarczały sprzeczne wiadomości, a niektóre początkowo twierdziły, że Kirk zmarł, a następnie wycofują tę informację.
- Potwierdzenie teorii spiskowych: W innych przypadkach chatboty zdawały się potwierdzać istniejące teorie spiskowe, w tym twierdzenia o zorganizowanych zabójstwach i udziale obcych sił, dostarczając odpowiedzi generowane przez sztuczną inteligencję, które wspierały te fałszywe narracje.
- Wprowadzające w błąd twierdzenia: Jeden z chatbotów błędnie twierdził, że CNN, NYT i Fox News zidentyfikowały zarejestrowanego Demokratę jako podejrzanego, co okazało się nieprawdą. Inny bot określił wideo zdarzenia jako „mem”, mimo że eksperci ds. bezpieczeństwa potwierdzili jego autentyczność.
Rola błędu algorytmicznego
Niedokładne wiadomości od chatbotów wynikają z szeregu czynników nieodłącznie związanych z technologią sztucznej inteligencji.
- Brak weryfikacji przez człowieka: w przeciwieństwie do dziennikarzy, chatboty nie mogą dzwonić do lokalnych urzędników, uzyskiwać dostępu do głównych źródeł ani weryfikować autentyczności materiałów wizualnych – są to kluczowe etapy weryfikacji informacji.
- Efekt komory echa: algorytmy sztucznej inteligencji zazwyczaj nadają priorytet informacjom, które często się powtarzają, co pozwala zyskać popularność fałszywym twierdzeniom i zagłuszać dokładne raporty.
- Priorytet „najgłośniejszych głosów”: Chatboty są podatne na powtarzające się wypowiedzi z witryn internetowych o niskim zaangażowaniu, postów w mediach społecznościowych i farm treści generowanych przez sztuczną inteligencję prowadzonych przez złośliwych aktorów.
Szerszy trend: zmiana strategii sprawdzania wiadomości
Do zdarzenia doszło w czasie, gdy duże firmy technologiczne w coraz większym stopniu polegają na sztucznej inteligencji i moderowaniu treści społecznościowych w zarządzaniu przeglądem wiadomości, co budzi obawy o przyszłość umiejętności korzystania z wiadomości.
- Zmniejszenie liczby osób weryfikujących fakty: Wiele firm ograniczyło inwestycje w sprawdzanie faktów przez ludzi na rzecz moderacji treści AI.
- Dywidenda kłamcy: sztuczna inteligencja pozwala ludziom twierdzić, że prawdziwe informacje są fałszywe, co powoduje zamieszanie i nieufność, zjawisko znane jako „dywidenda kłamcy”.
- Spadek zaufania do tradycyjnych źródeł: Badanie Pew Research pokazuje, że osoby mające kontakt z wynikami wyszukiwania generowanymi przez sztuczną inteligencję rzadziej przechodzą do dodatkowych źródeł niż osoby korzystające z tradycyjnych wyszukiwarek.
Mackenzie Sadeghi, badaczka w NewsGuard, zwięźle zauważa: „Algorytmy nie wymagają komentarza”, podkreślając niezastąpioną rolę ludzkiego osądu w odpowiedzialnym dziennikarstwie. Deborah Turness, dyrektor generalna BBC News and Current Affairs, powtórzyła tę opinię, ostrzegając: „Jak dużo czasu upłynie, zanim nagłówek zniekształcony przez sztuczną inteligencję spowoduje znaczne szkody w prawdziwym świecie?”
Przypadek Charliego Kirka wyraźnie przypomina o konieczności zachowania ostrożności i sceptycyzmu, gdy polega się na chatbotach AI w celu przekazywania najświeższych wiadomości, i podkreśla toczącą się debatę na temat roli sztucznej inteligencji w szybko zmieniającym się krajobrazie medialnym.
Rosnące poleganie na sztucznej inteligencji przy gromadzeniu wiadomości wzbudziło obawy związane z rosnącą dezinformacją i wpływem sztucznej inteligencji na wiadomości i politykę.




















































