La Malesia fa causa a X e xAI per contenuti dannosi generati dall’intelligenza artificiale

0
17

La Malesia sta preparando un’azione legale contro X di Elon Musk (ex Twitter) e la sua divisione di intelligenza artificiale, xAI, per l’uso improprio del chatbot Grok. La causa fa seguito all’incapacità della piattaforma di affrontare la generazione e la distribuzione di contenuti dannosi, inclusi materiale sessualmente esplicito e deepfake non consensuali.

Blocco dell’accesso e note legali

Pochi giorni prima, sia la Malesia che l’Indonesia avevano bloccato l’accesso a Grok dopo che erano emerse notizie del suo sfruttamento per la creazione di immagini inquietanti. La Malaysian Communications and Multimedia Commission (MCMC) ha dichiarato di aver emesso avvisi formali a X e xAI all’inizio di questo mese, chiedendo la rimozione di contenuti illegali. Quando queste richieste sono state ignorate, l’MCMC ha assunto un consulente legale e procederà con un’azione legale.

La natura del problema

La preoccupazione principale ruota attorno all’accessibilità e alle funzionalità di Grok, che consentono agli utenti di generare immagini manipolate, comprese raffigurazioni di donne in pose sessualmente esplicite e, cosa allarmante, contenuti che coinvolgono bambini. L’inclusione di una “modalità piccante” all’interno di Grok Imagine, il generatore di immagini del chatbot, ha facilitato direttamente la creazione di materiale per adulti. Questo non è un rischio ipotetico: i deepfake nel mondo reale sono già circolati, provocando forti reazioni negative.

Controllo globale e risposta limitata

La controversia si estende oltre il sud-est asiatico. Anche l’Unione Europea, l’India e il Regno Unito hanno lanciato l’allarme. Il Regno Unito sta prendendo in considerazione nuove leggi per criminalizzare le “app di nudizzazione” e il suo regolatore dei media sta indagando sulle potenziali violazioni delle leggi sulla sicurezza dei bambini da parte di Grok.

In risposta alle proteste, la scorsa settimana xAI ha limitato la generazione di immagini e le funzionalità di modifica agli abbonati paganti. Tuttavia, i critici sostengono che questa misura non riesce a risolvere completamente il problema di fondo. In particolare, Musk e le sue aziende sono rimasti in silenzio sui divieti in Malesia e Indonesia, rispondendo alle richieste dei media solo con un messaggio automatizzato che affermava “Legacy Media Lies”.

Perché è importante

Questa battaglia legale evidenzia la crescente sfida di regolamentare l’IA generativa. Sebbene strumenti potenti come Grok offrano possibilità creative, il loro potenziale di abuso è significativo. Il caso sottolinea la necessità di maggiori garanzie e responsabilità da parte delle aziende tecnologiche riguardo ai contenuti generati sulle loro piattaforme. Se lasciate incontrollate, tali tecnologie potrebbero erodere ulteriormente la fiducia nei media digitali e aggravare i danni alle popolazioni vulnerabili.

попередня статтяApple collabora con Google per rilanciare Siri e competere nell’intelligenza artificiale
наступна статтяOpenText si espande a Riad, sostenendo il passaggio al digitale dell’Arabia Saudita