La rapida diffusione della disinformazione e delle teorie del complotto che circondano la morte di Charlie Kirk, un commentatore conservatore, ha evidenziato un grave difetto nell’affidarsi ai chatbot basati sull’intelligenza artificiale per le ultime notizie. Dopo la sparatoria avvenuta in un evento pubblico nello Utah, Internet è stata rapidamente inondata da affermazioni e speculazioni non verificate, esacerbate dalle risposte inaccurate e fuorvianti dei chatbot basati sull’intelligenza artificiale. Questo incidente sottolinea i limiti dell’intelligenza artificiale quando si tratta di riferire in modo accurato e responsabile su eventi in rapida evoluzione.
La disinformazione alimentata dai bot
I primi resoconti dell’incidente erano caotici, con confusione riguardo al fatto se Kirk fosse vivo o morto. Questa incertezza ha creato un terreno fertile per la speculazione online e gli utenti si sono rapidamente rivolti ai social media per diffondere e amplificare informazioni non verificate. Tuttavia, i chatbot basati sull’intelligenza artificiale, integrati in piattaforme come X e accessibili tramite servizi come Google, spesso aggravavano il problema fornendo informazioni imprecise o fuorvianti.
- Rapporti contrastanti: I chatbot IA offrivano rapporti contrastanti, con alcuni che inizialmente sostenevano che Kirk fosse morto, per poi ritrattare l’informazione in seguito.
- Convalida delle teorie del complotto: In altri casi, i chatbot hanno apparentemente convalidato le teorie del complotto esistenti, comprese le affermazioni di omicidi pianificati e coinvolgimento straniero, fornendo risposte generate dall’intelligenza artificiale che supportavano queste false narrazioni.
- Affermazioni fuorvianti: Un chatbot ha affermato erroneamente che CNN, NYT e Fox News avevano identificato un democratico registrato come sospetto, il che si è rivelato falso. Un altro bot ha etichettato il video della sparatoria come un “meme”, nonostante gli esperti di sicurezza ne abbiano confermato l’autenticità.
Il ruolo dei bias algoritmici
Le segnalazioni imprecise dei chatbot derivano da diversi fattori inerenti alla tecnologia AI.
- Mancanza di verifica umana: A differenza dei giornalisti umani, i chatbot non possono chiamare funzionari locali, accedere a documenti di prima mano o autenticare immagini: passaggi fondamentali nella verifica delle informazioni.
- Effetto Camera dell’Eco: gli algoritmi di intelligenza artificiale tendono a dare priorità alle informazioni che vengono ripetute frequentemente, consentendo alle falsità di guadagnare terreno e di soffocare resoconti accurati.
- Dare priorità alle voci più forti: i chatbot sono suscettibili di ripetere affermazioni provenienti da siti Web a basso coinvolgimento, post sui social e farm di contenuti generati dall’intelligenza artificiale e diffusi da soggetti malintenzionati.
La tendenza più ampia: cambiare le strategie di verifica delle notizie
Questo incidente avviene in un momento in cui le principali aziende tecnologiche fanno sempre più affidamento sull’intelligenza artificiale e sulla moderazione della comunità per gestire la verifica delle notizie, un cambiamento che solleva preoccupazioni sul futuro dell’alfabetizzazione informativa.
- Riduzione dei fact-checkers umani: molte aziende hanno ridotto gli investimenti nei fact-checkers umani a favore della moderazione dei contenuti basata sull’intelligenza artificiale.
- Il “dividendo del bugiardo”: L’intelligenza artificiale consente alle persone di sostenere che le informazioni reali sono false, seminando confusione e sfiducia, un fenomeno noto come “dividendo del bugiardo”.
- Diminuzione della fiducia nelle fonti tradizionali: un sondaggio di Pew Research indica che gli individui che incontrano risultati di ricerca generati dall’intelligenza artificiale hanno meno probabilità di fare clic su fonti aggiuntive rispetto a coloro che utilizzano i motori di ricerca tradizionali.
McKenzie Sadeghi, ricercatore presso NewsGuard, osserva succintamente: “Gli algoritmi non richiedono commenti”, sottolineando il ruolo insostituibile del giudizio umano nella cronaca responsabile. Deborah Turness, CEO di BBC News and Current Affairs, ha fatto eco a questo sentimento, avvertendo: “Quanto tempo passerà prima che un titolo distorto dall’intelligenza artificiale causi danni significativi nel mondo reale?”
Il caso Charlie Kirk serve a ricordare duramente la necessità di cautela e scetticismo quando si fa affidamento sui chatbot basati sull’intelligenza artificiale per le ultime notizie e mette in luce il dibattito in corso sul ruolo dell’intelligenza artificiale in un panorama mediatico in rapida evoluzione.
La crescente dipendenza dall’intelligenza artificiale nella raccolta di notizie ha sollevato preoccupazioni sulla crescente disinformazione e sull’impatto dell’intelligenza artificiale su notizie e politica
