Meta apresenta supervisão de conversas de IA para pais em meio a crescentes preocupações de segurança

0
19

A Meta anunciou um novo recurso de supervisão parental que permite aos pais monitorar os tópicos amplos que seus filhos discutem com o AI Assistant da Meta. Essa mudança ocorre no momento em que a empresa enfrenta crescentes pressões legais e críticas em relação à segurança de suas interações de IA com menores.

Novos recursos de monitoramento

O recurso será integrado às ferramentas de supervisão existentes de Contas Adolescentes no Instagram, Facebook e Messenger. Através de uma nova aba “Insights”, os pais podem visualizar um resumo dos temas que seus filhos estão explorando com IA.

Os principais detalhes do lançamento incluem:
Tópicos categorizados: As conversas são agrupadas em categorias amplas, como escola, entretenimento, redação, saúde e bem-estar.
Detalhes granulares: Em categorias como “saúde e bem-estar”, os pais podem ver subtópicos mais específicos, como saúde física ou saúde mental.
Prazo: Os insights não são arquivos permanentes; eles refletem apenas as trocas dos últimos sete dias.

Um padrão de intervenções de segurança

Esta atualização faz parte de um esforço mais amplo e reativo da Meta para gerenciar os riscos associados aos seus “personagens” de IA – chatbots orientados por pessoas, projetados para interagir com os usuários.

A história da empresa com segurança de IA para adolescentes tem sido turbulenta:
Agosto de 2024: Personagens de IA meta-restritos para adolescentes após relatos de interações inadequadas envolvendo tópicos como automutilação e temas românticos.
Outubro de 2024: A empresa introduziu ferramentas que permitem aos pais bloquear personagens específicos ou desativar totalmente os bate-papos individuais com IA.
Status atual: Meta pausou o acesso de personagens de IA para adolescentes em todo o mundo enquanto continua a desenvolver controles parentais mais robustos.

Pressão Legal e Regulatória

O momento desses recursos não é coincidência. A Meta está atualmente enfrentando desafios legais significativos em relação à segurança infantil e à natureza “viciante” de suas plataformas.

Num julgamento recente no Novo México, documentos internos sugeriram que a liderança da Meta estava ciente de que as suas personagens de IA poderiam envolver-se em interações inadequadas ou sexualizadas com menores, mas procederam aos lançamentos sem salvaguardas suficientes. A Meta declarou que pretende apelar dos recentes veredictos de julgamentos relacionados a essas questões.

Para complementar estes controlos técnicos, a Meta também está a tomar várias medidas institucionais:
Supervisão de especialistas: a empresa formou um Conselho de especialistas em bem-estar em IA, com especialistas de instituições como a Universidade de Michigan e o Conselho Nacional para Prevenção do Suicídio.
Ferramentas educacionais: Meta fez parceria com o Centro de Pesquisa sobre Cyberbullying para fornecer aos pais “iniciadores de conversa” para ajudá-los a discutir o uso de IA com seus filhos.

Perspectivas Críticas: Segurança desde o Projeto vs. Monitoramento

Apesar dessas atualizações, grupos de defesa argumentam que a Meta está transferindo a responsabilidade pela segurança da plataforma para os pais.

Josh Golin, diretor executivo da organização sem fins lucrativos Fairplay, sugere que essas ferramentas não resolvem o problema subjacente. Os críticos argumentam que o objetivo principal destes chatbots – promover conexões emocionais que aumentem o envolvimento dos utilizadores – está fundamentalmente em conflito com a segurança dos adolescentes. Nesta perspectiva, fornecer ferramentas de monitorização é uma solução secundária para o “problema fundamental” de conceber produtos que possam encorajar dependências emocionais prejudiciais em jovens utilizadores.

“A principal função dos chatbots do Meta é manipular os jovens para que passem mais tempo na plataforma, incentivando os adolescentes a formar conexões emocionais prejudiciais com os bots.” – Josh Golin, Fairplay


Conclusão
As novas ferramentas de supervisão da Meta oferecem aos pais uma janela para as interações de IA dos seus filhos adolescentes, mas a medida destaca uma tensão persistente entre o design de IA orientado para o envolvimento da empresa e a crescente procura de proteções proativas de segurança infantil.