Meta introduce la supervisione della conversazione tramite intelligenza artificiale per i genitori in un contesto di crescenti preoccupazioni sulla sicurezza

0
2

Meta ha annunciato una nuova funzionalità di supervisione dei genitori che consente ai genitori di monitorare gli argomenti generali discussi dai loro adolescenti con l’Assistente AI di Meta. Questa mossa arriva mentre l’azienda deve far fronte a crescenti pressioni legali e critiche riguardanti la sicurezza delle sue interazioni AI con i minori.

Nuove funzionalità di monitoraggio

La funzionalità sarà integrata negli strumenti di supervisione esistenti dell’Account per adolescenti su Instagram, Facebook e Messenger. Attraverso una nuova scheda “Approfondimenti”, i genitori possono visualizzare un riepilogo dei temi che i loro figli stanno esplorando con l’intelligenza artificiale.

I dettagli chiave del lancio includono:
Argomenti categorizzati: le conversazioni sono raggruppate in ampie categorie come scuola, intrattenimento, scrittura, salute e benessere.
Dettagli granulari: in categorie come “salute e benessere”, i genitori possono visualizzare argomenti secondari più specifici, come la salute fisica o la salute mentale.
Tempo: Gli approfondimenti non sono archivi permanenti; riflettono solo gli scambi degli ultimi sette giorni.

Un modello di interventi di sicurezza

Questo aggiornamento fa parte di uno sforzo più ampio e reattivo di Meta per gestire i rischi associati ai suoi “personaggi” AI: chatbot guidati dalla persona progettati per interagire con gli utenti.

La storia dell’azienda con la sicurezza dell’intelligenza artificiale per adolescenti è stata turbolenta:
Agosto 2024: personaggi AI con meta restrizioni per adolescenti in seguito a segnalazioni di interazioni inappropriate che coinvolgono argomenti come autolesionismo e temi romantici.
Ottobre 2024: l’azienda ha introdotto strumenti che consentono ai genitori di bloccare personaggi specifici o disattivare completamente le chat individuali con intelligenza artificiale.
Stato attuale: Meta ha sospeso l’accesso ai personaggi IA per gli adolescenti a livello globale mentre continua a sviluppare controlli parentali più solidi.

Pressione legale e normativa

La tempistica di queste funzionalità non è casuale. Meta sta attualmente affrontando importanti sfide legali riguardanti la sicurezza dei bambini e la natura che crea dipendenza delle sue piattaforme.

In un recente processo nel New Mexico, documenti interni suggerivano che la leadership di Meta fosse consapevole che i suoi personaggi IA potevano impegnarsi in interazioni inappropriate o sessualizzate con minori, eppure procedevano con i lanci senza sufficienti garanzie. Meta ha dichiarato che intende appellarsi ai recenti verdetti di processi storici relativi a questi problemi.

Per integrare questi controlli tecnici, Meta sta adottando anche diverse misure istituzionali:
Supervisione di esperti: la società ha formato un Consiglio di esperti sul benessere dell’intelligenza artificiale, composto da specialisti di istituzioni come l’Università del Michigan e il Consiglio nazionale per la prevenzione del suicidio.
Strumenti educativi: Meta ha collaborato con il Centro di ricerca sul cyberbullismo per fornire ai genitori “avvii di conversazione” per aiutarli a discutere dell’utilizzo dell’intelligenza artificiale con i propri figli.

Prospettive critiche: sicurezza fin dalla progettazione vs. monitoraggio

Nonostante questi aggiornamenti, i gruppi di difesa sostengono che Meta sta trasferendo la responsabilità della sicurezza dalla piattaforma alla società madre.

Josh Golin, direttore esecutivo dell’organizzazione no-profit Fairplay, suggerisce che questi strumenti non risolvono il problema di fondo. I critici sostengono che l’obiettivo principale di questi chatbot – favorire connessioni emotive che aumentino il coinvolgimento degli utenti – è fondamentalmente in contrasto con la sicurezza degli adolescenti. Da questo punto di vista, fornire strumenti di monitoraggio è una soluzione secondaria al “problema fondamentale” di progettare prodotti che potrebbero incoraggiare dipendenze emotive malsane nei giovani utenti.

“La funzione principale dei chatbot di Meta è manipolare i giovani affinché trascorrano più tempo sulla piattaforma incoraggiando gli adolescenti a formare connessioni emotive malsane con i bot.” — Josh Golin, Fairplay


Conclusione
I nuovi strumenti di supervisione di Meta offrono ai genitori una finestra sulle interazioni con l’intelligenza artificiale dei loro figli adolescenti, ma la mossa evidenzia una tensione persistente tra la progettazione dell’intelligenza artificiale orientata al coinvolgimento dell’azienda e la crescente domanda di protezioni proattive per la sicurezza dei bambini.

Previous articleL’ascesa della robotica umanoide: la spinta cinese verso l’automazione del mercato di massa
Next articleOltre Hawkins: cosa aspettarsi dalla nuova serie animata di “Stranger Things”.