Rozšířené dezinformace a konspirační teorie kolem smrti Charlieho Kirka, konzervativního komentátora, poukázaly na kritickou chybu v spoléhání se na AI chatboty při pokrytí nejnovějších zpráv. Poté, co byl napaden na veřejné akci v Utahu, se internet rychle zaplnil neověřenými tvrzeními a spekulacemi, podpořenými nepřesnými a zavádějícími odpověďmi chatbotů AI. Incident zdůrazňuje omezení umělé inteligence, pokud jde o přesné a odpovědné hlášení rychle se měnících událostí.
Dezinformace poháněné roboty
Počáteční zprávy o incidentu byly chaotické, s nejistotou, zda je Charlie Kirk naživu nebo mrtvý. Tato nejistota vytvořila úrodnou půdu pro online spekulace a uživatelé rychle začali využívat sociální média, aby šířili a zesilovali nepotvrzené informace. Chatboti s umělou inteligencí integrovaní do platforem, jako je X a přístupní prostřednictvím služeb, jako je Google, však tento problém často zhoršovali poskytováním nepřesných nebo zavádějících informací.
- Konfliktní zprávy: AI chatboti poskytovali protichůdné zprávy, přičemž někteří zpočátku tvrdili, že Kirk zemřel, a pak tuto informaci stáhli.
- Potvrzení konspiračních teorií: V jiných případech se zdálo, že chatboti potvrzují existující konspirační teorie, včetně tvrzení o organizovaných vraždách a zapojení cizích sil, poskytováním odpovědí generovaných umělou inteligencí, které podporovaly tyto falešné příběhy.
- Zavádějící tvrzení: Jeden chatbot nesprávně tvrdil, že CNN, NYT a Fox News identifikovaly registrovaného demokrata jako podezřelého, což se ukázalo jako nepravdivé. Jiný robot popsal video incidentu jako „meme“, přestože bezpečnostní experti potvrdili jeho pravost.
Role algoritmického zkreslení
Nepřesné zprávy od chatbotů jsou způsobeny řadou faktorů, které jsou vlastní technologii umělé inteligence.
- Nedostatek ověření člověkem: Na rozdíl od lidských novinářů nemohou chatboti volat místním úředníkům, přistupovat k primárním zdrojům nebo ověřovat autenticitu obrazových materiálů – kritické kroky při ověřování informací.
- Efekt ozvěny: Algoritmy umělé inteligence mají tendenci upřednostňovat informace, které se často opakují, což umožňuje získat pozornost nepravdivým tvrzením a přehlušit přesné hlášení.
- Priorita „nejhlasitějších hlasů“: Chatboti jsou náchylní k opakujícím se prohlášením z webů s nízkou interakcí, sociálních příspěvků a obsahových farem vytvořených umělou inteligencí, které provozují zákeřní herci.
Širší trend: změna strategií kontroly zpráv
Incident přichází v době, kdy velké technologické společnosti stále více spoléhají na umělou inteligenci a moderování komunitního obsahu při správě revizí zpráv, což vyvolává obavy o budoucnost zpravodajské gramotnosti.
- Snížení počtu ověřovatelů faktů: Mnoho společností snížilo investice do ověřování lidských faktů ve prospěch moderování obsahu AI.
- Liar’s Dividend: Umělá inteligence umožňuje lidem tvrdit, že skutečné informace jsou nepravdivé, šíří zmatek a nedůvěru, což je fenomén známý jako „lhářova dividenda“.
- Snížená důvěra v tradiční zdroje: Průzkum Pew Research ukazuje, že lidé vystavení výsledkům vyhledávání generovaným umělou inteligencí se s menší pravděpodobností prokliknou na další zdroje než ti, kteří používají tradiční vyhledávače.
Mackenzie Sadeghi, výzkumník z NewsGuard, stručně poznamenává: „Algoritmy nevyžadují komentář“, čímž zdůrazňuje nepostradatelnou roli lidského úsudku v odpovědné žurnalistice. Deborah Turnesová, generální ředitelka BBC News and Current Affairs, zopakovala tento názor a varovala: „Jak dlouho bude trvat, než titulek zkreslený umělou inteligencí způsobí v reálném světě značné škody?“
Případ Charlieho Kirka slouží jako ostrá připomínka nutnosti opatrnosti a skepse, když se spoléháte na AI chatboty, aby informovali o nejnovějších zprávách, a zdůrazňuje pokračující debatu o roli umělé inteligence v rychle se vyvíjejícím mediálním prostředí.
Rostoucí závislost na umělé inteligenci při shromažďování zpráv vyvolala obavy z rostoucích dezinformací a vlivu umělé inteligence na zprávy a politiku.




















































