Sztucznie generowane treści zalewają sieci społecznościowe: większość użytkowników nie potrafi odróżnić treści prawdziwych od fałszywych

0
10

Rozwój sztucznej inteligencji szybko zmienia oblicze mediów społecznościowych, ale nowa ankieta CNET pokazuje, że większości Amerykanów trudno jest odróżnić autentyczne treści od podróbek generowanych przez sztuczną inteligencję. Pomimo powszechnej świadomości obecności sztucznej inteligencji w Internecie, tylko 44% dorosłych Amerykanów korzystających z mediów społecznościowych ma pewność, że potrafi rozpoznać obrazy i filmy wygenerowane przez sztuczną inteligencję. Ta rozbieżność między percepcją a rzeczywistością uwypukla rosnące wyzwanie dla osób poruszających się w coraz bardziej syntetycznym krajobrazie cyfrowym.

Wszechobecność treści generowanych przez sztuczną inteligencję

Prawie wszyscy dorośli Amerykanie (94%) korzystający z mediów społecznościowych uważają, że mają kontakt z treściami tworzonymi lub modyfikowanymi przez sztuczną inteligencję. Obejmuje to hiperrealistyczne obrazy, dziwne filmy i teksty naśladujące ludzkie pismo z przerażającą dokładnością. Narzędzia takie jak Sora firmy OpenAI i Nano Banana firmy Google ułatwiają tworzenie przekonujących deepfake’ów, podważając zaufanie do informacji wizualnych i tekstowych.

Problem nie polega tylko na tym, że sztuczna inteligencja istnieje; problem polega na tym, że większość ludzi nie jest w stanie tego wiarygodnie wykryć. Jedna czwarta (25%) dorosłych Amerykanów przyznaje, że nie jest pewna, czy potrafi odróżnić prawdziwe media od fałszywych, przy czym starsze pokolenia (baby boomers, 40%; pokolenie X, 28%) wyrażają najmniejszą pewność.

Reakcja użytkownika na treści generowane przez sztuczną inteligencję

W ankiecie zbadano także, jak ludzie reagują na rozprzestrzenianie się treści generowanych przez sztuczną inteligencję:

  • Próby weryfikacji: 72% dorosłych Amerykanów podejmuje działania, aby sprawdzić treści, gdy wydają się podejrzane, przy czym prym wiedzie pokolenie Z (84%). Najpopularniejszą metodą jest inspekcja wizualna pod kątem artefaktów (60%), chociaż nowe modele sztucznej inteligencji są coraz skuteczniejsze w unikaniu oczywistych błędów.
  • Obawy dotyczące etykietowania: połowa respondentów (51%) uważa, że ​​lepsze etykietowanie treści generowanych przez sztuczną inteligencję ma kluczowe znaczenie, zwłaszcza wśród pokolenia milenialsów i pokolenia Z (odpowiednio 56% i 55%).
  • Wzywa do wprowadzenia ograniczeń: 21% dorosłych Amerykanów popiera całkowity zakaz treści generowanych przez sztuczną inteligencję, przy czym najgłośniejsze jest pokolenie Z (25%). Kolejne 36% popiera rygorystyczne regulacje.
  • Postrzegana wartość: Tylko 11% uważa treści generowane przez sztuczną inteligencję za przydatne, informacyjne lub rozrywkowe, podczas gdy 28% uważa, że ​​nie mają one żadnej wartości.

Ograniczenia istniejących rozwiązań

Chociaż niektóre platformy wprowadzają narzędzia do filtrowania treści generowanych przez sztuczną inteligencję (jednym z przykładów jest Pinterest), badanie pokazuje, że istnieje szerszy problem systemowy. Rosnący realizm sztucznej inteligencji sprawia, że ​​proste kontrole wizualne stają się mniej skuteczne. Alternatywne metody, takie jak sprawdzanie etykiet (30%) lub wyszukiwanie treści w innym miejscu (25%) stają się coraz ważniejsze, ale nawet one mają swoje ograniczenia.

Niepokojące jest to, że 25% dorosłych Amerykanów nie podejmuje żadnych działań w celu sprawdzenia treści, zwłaszcza wśród pokolenia wyżu demograficznego (36%) i pokolenia X (29%). Ta bierność jest niebezpieczna, biorąc pod uwagę możliwość wykorzystania sztucznej inteligencji do oszustw, manipulacji lub dezinformacji.

Co można zrobić?

Zwalczanie dezinformacji generowanej przez sztuczną inteligencję wymaga wielotorowego podejścia:

  • Ulepszone narzędzia wykrywania: potrzebne są bardziej zaawansowane technologie wykrywania sztucznej inteligencji, ale muszą one wyprzedzać szybko rozwijające się możliwości generatywnej sztucznej inteligencji.
    Ulepszone standardy etykietowania: jasne i spójne oznaczanie treści generowanych przez sztuczną inteligencję jest niezbędne, chociaż egzekwowanie przepisów pozostaje wyzwaniem.
  • Szkolenie w zakresie umiejętności korzystania z mediów: Podnoszenie świadomości społecznej na temat zagrożeń związanych z deepfakes i manipulacją sztuczną inteligencją ma kluczowe znaczenie.
  • Obowiązki platformy: Sieci społecznościowe muszą ponosić większą odpowiedzialność za identyfikowanie i ograniczanie rozprzestrzeniania się treści syntetycznych.

Rzeczywistość jest taka, że ​​treści generowane przez sztuczną inteligencję już tu zostaną. Do czasu wdrożenia skutecznych środków zaradczych ludzie muszą zachować czujność, sceptycyzm i proaktywność podczas weryfikowania informacji, które napotykają w Internecie. Badanie pokazuje, że zaufanie do tego, co widzimy i czytamy, maleje, a przywrócenie tego zaufania będzie wymagało wspólnego wysiłku ze strony firm technologicznych, decydentów i całego społeczeństwa.

Previous articleJVC Kenwood wypuszcza drewniane słuchawki z samonaprawiającą się powłoką 🎧