AI-Чат-боты с трудом сообщают точно во время срочных новостей: случай Чарли Кирка

0
62

Широкое распространение дезинформации и теорий заговора, окружающих смерть Чарли Кирка, консервативного комментатора, подчеркнуло критический недостаток, связанный с опорой на AI-чат-ботов для освещения срочных новостей. После того, как на публичном мероприятии в штате Юта на него напали, интернет быстро наполнился неподтвержденными заявлениями и спекуляциями, которые усугубились неточными и вводящими в заблуждение ответами от AI-чат-ботов. Этот инцидент подчеркивает ограничения искусственного интеллекта, когда дело касается точного и ответственного освещения быстро меняющихся событий.

Дезинформация, подпитываемая ботами

Первоначальные сообщения об инциденте были хаотичными, с неясностью относительно того, жив Чарли Кирк или мертв. Эта неопределенность создала благоприятную почву для онлайн-спекуляций, и пользователи быстро обратились к социальным сетям, чтобы распространять и усиливать неподтвержденную информацию. Однако AI-чат-боты, интегрированные в платформы, такие как X, и доступные через сервисы, такие как Google, часто усугубляли проблему, предоставляя неточную или вводящую в заблуждение информацию.

  • Противоречивые сообщения: AI-чат-боты предоставляли противоречивые сообщения, некоторые первоначально утверждали, что Кирк умер, а затем отозвали эту информацию.
  • Подтверждение теорий заговора: В других случаях чат-боты, казалось, подтверждали существующие теории заговора, включая утверждения об организованных покушениях и участии иностранных сил, предоставляя ответы, сгенерированные искусственным интеллектом, которые поддерживали эти ложные повествования.
  • Вводящие в заблуждение заявления: Один чат-бот ошибочно заявил, что CNN, NYT и Fox News идентифицировали зарегистрированного демократа в качестве подозреваемого, что оказалось неправдой. Другой бот охарактеризовал видеозапись инцидента как «мем», несмотря на то, что эксперты по безопасности подтвердили его подлинность.

Роль алгоритмической предвзятости

Неточные сообщения от чат-ботов обусловлены рядом факторов, присущих технологии искусственного интеллекта.

  • Отсутствие проверки человеком: В отличие от журналистов-людей, чат-боты не могут позвонить местным чиновникам, получить доступ к первоисточникам или подтвердить подлинность визуальных материалов — критически важные шаги в проверке информации.
  • Эффект «эхо-камеры»: Алгоритмы искусственного интеллекта, как правило, отдают приоритет информации, которая часто повторяется, позволяя ложным утверждениям набрать обороты и заглушая точные отчеты.
  • Приоритет «самым громким голосам»: Чат-боты восприимчивы к повторению утверждений с веб-сайтов с низкой вовлеченностью, социальных постов и контентных ферм, сгенерированных искусственным интеллектом, организованных злоумышленниками.

Более широкая тенденция: смена стратегий проверки новостей

Этот инцидент происходит в период, когда крупные технологические компании все больше полагаются на искусственный интеллект и модерирование контента сообществом для управления проверкой новостей, что вызывает опасения относительно будущего грамотности в области новостей.

  • Сокращение числа фактчекеров: Многие компании сократили инвестиции в проверку фактов людьми в пользу AI-модерирования контента.
  • «Дивиденд лжеца»: ИИ позволяет людям заявлять, что реальная информация ложна, сея смущение и недоверие, явление, известное как «дивиденд лжеца».
  • Снижение доверия к традиционным источникам: Опрос Pew Research показывает, что люди, сталкивающиеся с результатами поиска, сгенерированными искусственным интеллектом, с меньшей вероятностью будут переходить по дополнительным источникам, чем те, кто использует традиционные поисковые системы.

Маккензи Садеги, исследователь из NewsGuard, лаконично отмечает: «Алгоритмы не просят комментарий», подчеркивая незаменимую роль человеческого суждения в ответственной журналистике. Дебора Тернесс, генеральный директор BBC News и Current Affairs, разделила это мнение, предупредив: «Как долго продлится, прежде чем заголовок, искаженный искусственным интеллектом, нанесет значительный ущерб в реальном мире?»

Случай Чарли Кирка служит ярким напоминанием о необходимости осторожности и скептицизма при опоре на AI-чат-ботов для освещения срочных новостей и подчеркивает продолжающиеся дебаты о роли искусственного интеллекта в быстро развивающемся медиа-ландшафте.

Увеличение зависимости от искусственного интеллекта при сборе новостей вызвало обеспокоенность в связи с растущей дезинформацией и влиянием ИИ на новости и политику.