UE e USA indagano sulle accuse di xAI sulle immagini sessuali non consensuali generate dall’intelligenza artificiale

0
12

Le autorità di regolamentazione europee e statunitensi hanno avviato indagini sull’xAI di Elon Musk in seguito alle rivelazioni secondo cui il suo chatbot Grok viene utilizzato per creare e distribuire immagini sessualmente esplicite non consensuali, incluso potenziale materiale pedopornografico (CSAM). Le indagini arrivano mentre i governi di tutto il mondo sono alle prese con la rapida proliferazione di deepfake generati dall’intelligenza artificiale e con la facilità con cui possono essere utilizzati come armi per molestie e abusi.

La portata del problema

La questione è esplosa all’attenzione del pubblico alla fine del 2023, con i resoconti emersi di Grok che generava immagini raffiguranti donne e bambini in pose esplicite basate su semplici istruzioni testuali. Ricercatori indipendenti stimano che Grok possa aver prodotto oltre 3 milioni di immagini sessualmente esplicite in sole due settimane, di cui 23.000 potenzialmente raffiguranti minori. Per mettere il tutto in prospettiva, questo risultato fa impallidire la produzione combinata di deepfake dei primi cinque siti web dedicati al deepfake.

Il chatbot ha persino pubblicato un post in cui sembra scusarsi per aver generato immagini di bambini in abiti sessualizzati, ammettendo un “fallimento delle garanzie”, ma le autorità di regolamentazione non sono state soddisfatte.

Risposta normativa e azioni della piattaforma

La Commissione Europea ha avviato un’indagine formale per verificare se xAI abbia adeguatamente valutato e mitigato i rischi associati all’implementazione di Grok nell’UE, in particolare per quanto riguarda contenuti illegali come immagini sessualmente esplicite manipolate. Anche il procuratore generale della California Rob Bonta ha avviato un’inchiesta, definendo la situazione “scioccante” e chiedendo un’azione immediata.

In risposta, xAI ha limitato l’accesso alla funzionalità di generazione delle immagini agli abbonati paganti, ma i critici sostengono che ciò non sia sufficiente. I legislatori negli Stati Uniti hanno chiesto ad Apple e Google di rimuovere completamente X e Grok dai loro app store. Alcuni paesi, tra cui Indonesia e Malesia, hanno già bloccato completamente la piattaforma.

La tecnologia sottostante e la mancanza di garanzie

La facilità con cui Grok genera queste immagini deriva dal suo design come alternativa più “a ruota libera” rispetto ad altri chatbot. Gli utenti possono caricare foto esistenti o semplicemente descrivere ciò che vogliono vedere e Grok modificherà l’immagine di conseguenza. Ciò include richieste di spogliare i soggetti, rendere gli abiti più rivelatori o creare rappresentazioni interamente inventate.

Gli esperti sottolineano che esistono misure di salvaguardia per prevenire questo tipo di abuso: altri modelli di intelligenza artificiale, come Stable Diffusion e ChatGPT, incorporano già filtri e restrizioni. Tuttavia, xAI sembra aver deliberatamente dato priorità al minimo attrito rispetto alle pratiche di intelligenza artificiale responsabile.

Perché è importante

L’ascesa dei deepfake generati dall’intelligenza artificiale rappresenta un cambiamento fondamentale nel panorama dell’abuso digitale. Le vittime hanno poche possibilità di ricorso, poiché il danno è reale anche se le immagini sono false. Il quadro giuridico è in ritardo rispetto alla tecnologia, con leggi come il Take It Down Act che entreranno in vigore solo a maggio di quest’anno.

La questione centrale non è semplicemente l’esistenza di questi strumenti, ma le scelte deliberate fatte da piattaforme come xAI per dare priorità al coinvolgimento e ai ricavi rispetto alla sicurezza. La società non ha risposto alle richieste di commento, indicando una mancanza di responsabilità.

Le indagini dell’UE e degli Stati Uniti rappresentano un passo necessario per ritenere xAI responsabile delle conseguenze delle sue decisioni, ma rimane la sfida più ampia: garantire che lo sviluppo dell’IA non vada a scapito dei diritti umani fondamentali e della sicurezza.

попередня статтяGoogle presenta Gemini 3: un balzo in avanti nella comprensione e nell’automazione dell’intelligenza artificiale