L’ascesa dell’intelligenza artificiale sta rapidamente rimodellando i social media, ma un nuovo sondaggio CNET rivela che la maggior parte degli americani fatica a distinguere tra contenuti autentici e falsi generati dall’intelligenza artificiale. Nonostante la diffusa consapevolezza della presenza dell’intelligenza artificiale online, solo il 44% degli adulti statunitensi che utilizzano i social media è fiducioso nella propria capacità di identificare immagini e video creati dall’intelligenza artificiale. Questo divario tra percezione e realtà evidenzia una sfida crescente per gli individui che navigano in un panorama digitale sempre più sintetico.
L’ubiquità dei contenuti generati dall’intelligenza artificiale
Quasi tutti gli adulti statunitensi (94%) che utilizzano i social media credono di incontrare contenuti creati o alterati dall’intelligenza artificiale. Ciò include immagini iperrealistiche, video bizzarri e testi che imitano la scrittura umana con una precisione inquietante. Strumenti come Sora di OpenAI e Nano Banana di Google stanno rendendo più semplice che mai la produzione di deepfake convincenti, erodendo la fiducia nelle informazioni visive e testuali.
Il problema non è semplicemente che l’intelligenza artificiale esiste; è che la maggior parte delle persone non riesce a rilevarlo in modo affidabile. Un quarto (25%) degli adulti statunitensi ammette di non avere la sicurezza necessaria per distinguere tra media reali e falsi, con le generazioni più anziane (Boomers, 40%; Gen X, 28%) che esprimono i livelli di certezza più bassi.
Come gli utenti reagiscono ai media generati dall’intelligenza artificiale
L’indagine ha anche esplorato il modo in cui le persone rispondono alla proliferazione di contenuti generati dall’intelligenza artificiale:
- Tentativi di verifica: il 72% degli adulti statunitensi interviene per verificare i contenuti quando sospetti, con la Gen Z (84%) in testa. Il metodo più comune è l’ispezione visiva degli artefatti (60%), anche se i nuovi modelli di intelligenza artificiale stanno diventando più sofisticati nell’evitare errori evidenti.
- Preoccupazioni sull’etichettatura: la metà degli intervistati (51%) ritiene che una migliore etichettatura dei contenuti generati dall’intelligenza artificiale sia fondamentale, in particolare tra i Millennial e la Generazione Z (rispettivamente 56% e 55%).
- Chiede restrizioni: il 21% degli adulti statunitensi sostiene un divieto totale dei contenuti generati dall’intelligenza artificiale, con la Gen Z che è la più esplicita con il 25%. Un ulteriore 36% sostiene una regolamentazione rigorosa.
- Valore percepito: solo l’11% ritiene che i contenuti dell’intelligenza artificiale siano utili, informativi o divertenti, mentre il 28% li ritiene di scarso o nessun valore.
I limiti delle soluzioni attuali
Sebbene alcune piattaforme stiano introducendo strumenti per filtrare i contenuti generati dall’intelligenza artificiale (Pinterest ne è un esempio), il sondaggio suggerisce un problema sistemico più ampio. Il crescente realismo dell’intelligenza artificiale rende i semplici controlli visivi meno efficaci. Metodi alternativi, come il controllo delle etichette (30%) o la ricerca di contenuti altrove (25%), stanno diventando sempre più importanti, ma anche questi presentano dei limiti.
Circa il 25% degli adulti statunitensi non intraprende alcuna azione per verificare i contenuti, in particolare tra i Boomer (36%) e la Generazione X (29%). Questa inazione è pericolosa dato il potenziale che l’intelligenza artificiale può essere utilizzata come arma per frode, manipolazione o disinformazione.
Cosa si può fare?
La lotta alla disinformazione generata dall’intelligenza artificiale richiede un approccio articolato:
- Strumenti di rilevamento migliorati: sono necessarie tecnologie di rilevamento dell’intelligenza artificiale più sofisticate, ma devono stare al passo con le capacità in rapida evoluzione dell’intelligenza artificiale generativa.
- Standard di etichettatura migliorati: un’etichettatura chiara e coerente dei contenuti generati dall’intelligenza artificiale è essenziale, anche se l’applicazione rimane una sfida.
- Educazione all’alfabetizzazione mediatica: è fondamentale sensibilizzare l’opinione pubblica sui rischi dei deepfake e sulla manipolazione dell’intelligenza artificiale.
- Responsabilità della piattaforma: le piattaforme di social media devono assumersi una maggiore responsabilità nell’identificare e mitigare la diffusione di contenuti sintetici.
La realtà è che i contenuti generati dall’intelligenza artificiale non scompariranno. Fino a quando non verranno implementate contromisure efficaci, gli individui devono rimanere vigili, scettici e proattivi nel verificare le informazioni che incontrano online. Il sondaggio sottolinea che la fiducia in ciò che vediamo e leggiamo si sta erodendo e ripristinarla richiederà uno sforzo collettivo da parte delle aziende tecnologiche, dei politici e del pubblico.





















