Широкое распространение дезинформации и теорий заговора, окружающих смерть Чарли Кирка, консервативного комментатора, подчеркнуло критический недостаток, связанный с опорой на AI-чат-ботов для освещения срочных новостей. После того, как на публичном мероприятии в штате Юта на него напали, интернет быстро наполнился неподтвержденными заявлениями и спекуляциями, которые усугубились неточными и вводящими в заблуждение ответами от AI-чат-ботов. Этот инцидент подчеркивает ограничения искусственного интеллекта, когда дело касается точного и ответственного освещения быстро меняющихся событий.
Дезинформация, подпитываемая ботами
Первоначальные сообщения об инциденте были хаотичными, с неясностью относительно того, жив Чарли Кирк или мертв. Эта неопределенность создала благоприятную почву для онлайн-спекуляций, и пользователи быстро обратились к социальным сетям, чтобы распространять и усиливать неподтвержденную информацию. Однако AI-чат-боты, интегрированные в платформы, такие как X, и доступные через сервисы, такие как Google, часто усугубляли проблему, предоставляя неточную или вводящую в заблуждение информацию.
- Противоречивые сообщения: AI-чат-боты предоставляли противоречивые сообщения, некоторые первоначально утверждали, что Кирк умер, а затем отозвали эту информацию.
- Подтверждение теорий заговора: В других случаях чат-боты, казалось, подтверждали существующие теории заговора, включая утверждения об организованных покушениях и участии иностранных сил, предоставляя ответы, сгенерированные искусственным интеллектом, которые поддерживали эти ложные повествования.
- Вводящие в заблуждение заявления: Один чат-бот ошибочно заявил, что CNN, NYT и Fox News идентифицировали зарегистрированного демократа в качестве подозреваемого, что оказалось неправдой. Другой бот охарактеризовал видеозапись инцидента как «мем», несмотря на то, что эксперты по безопасности подтвердили его подлинность.
Роль алгоритмической предвзятости
Неточные сообщения от чат-ботов обусловлены рядом факторов, присущих технологии искусственного интеллекта.
- Отсутствие проверки человеком: В отличие от журналистов-людей, чат-боты не могут позвонить местным чиновникам, получить доступ к первоисточникам или подтвердить подлинность визуальных материалов — критически важные шаги в проверке информации.
- Эффект «эхо-камеры»: Алгоритмы искусственного интеллекта, как правило, отдают приоритет информации, которая часто повторяется, позволяя ложным утверждениям набрать обороты и заглушая точные отчеты.
- Приоритет «самым громким голосам»: Чат-боты восприимчивы к повторению утверждений с веб-сайтов с низкой вовлеченностью, социальных постов и контентных ферм, сгенерированных искусственным интеллектом, организованных злоумышленниками.
Более широкая тенденция: смена стратегий проверки новостей
Этот инцидент происходит в период, когда крупные технологические компании все больше полагаются на искусственный интеллект и модерирование контента сообществом для управления проверкой новостей, что вызывает опасения относительно будущего грамотности в области новостей.
- Сокращение числа фактчекеров: Многие компании сократили инвестиции в проверку фактов людьми в пользу AI-модерирования контента.
- «Дивиденд лжеца»: ИИ позволяет людям заявлять, что реальная информация ложна, сея смущение и недоверие, явление, известное как «дивиденд лжеца».
- Снижение доверия к традиционным источникам: Опрос Pew Research показывает, что люди, сталкивающиеся с результатами поиска, сгенерированными искусственным интеллектом, с меньшей вероятностью будут переходить по дополнительным источникам, чем те, кто использует традиционные поисковые системы.
Маккензи Садеги, исследователь из NewsGuard, лаконично отмечает: «Алгоритмы не просят комментарий», подчеркивая незаменимую роль человеческого суждения в ответственной журналистике. Дебора Тернесс, генеральный директор BBC News и Current Affairs, разделила это мнение, предупредив: «Как долго продлится, прежде чем заголовок, искаженный искусственным интеллектом, нанесет значительный ущерб в реальном мире?»
Случай Чарли Кирка служит ярким напоминанием о необходимости осторожности и скептицизма при опоре на AI-чат-ботов для освещения срочных новостей и подчеркивает продолжающиеся дебаты о роли искусственного интеллекта в быстро развивающемся медиа-ландшафте.
Увеличение зависимости от искусственного интеллекта при сборе новостей вызвало обеспокоенность в связи с растущей дезинформацией и влиянием ИИ на новости и политику.
