Meta heeft een nieuwe functie voor ouderlijk toezicht aangekondigd waarmee ouders de brede onderwerpen die hun tieners bespreken kunnen volgen met Meta’s AI Assistant. Deze stap komt omdat het bedrijf wordt geconfronteerd met toenemende juridische druk en kritiek met betrekking tot de veiligheid van zijn AI-interacties met minderjarigen.
Nieuwe monitoringmogelijkheden
De functie wordt geïntegreerd in de bestaande supervisietools voor Teen Account op Instagram, Facebook en Messenger. Via een nieuw tabblad ‘Inzichten’ kunnen ouders een samenvatting bekijken van de thema’s die hun kinderen met AI onderzoeken.
Belangrijke details van de uitrol zijn onder meer:
– Gecategoriseerde onderwerpen: Gesprekken zijn gegroepeerd in brede categorieën, zoals school, entertainment, schrijven, gezondheid en welzijn.
– Gegranuleerde details: Onder categorieën als ‘gezondheid en welzijn’ kunnen ouders specifiekere subonderwerpen zien, zoals lichamelijke gezondheid of geestelijke gezondheid.
– Tijdsbestek: De inzichten zijn geen permanente archieven; ze weerspiegelen alleen uitwisselingen van de afgelopen zeven dagen.
Een patroon van veiligheidsinterventies
Deze update maakt deel uit van een bredere, reactieve inspanning van Meta om de risico’s te beheersen die verbonden zijn aan zijn AI-“karakters”: persona-aangedreven chatbots die zijn ontworpen om met gebruikers te communiceren.
De geschiedenis van het bedrijf op het gebied van AI-veiligheid voor tieners is turbulent geweest:
– Augustus 2024: Meta-beperkte AI-personages voor tieners na meldingen van ongepaste interacties over onderwerpen als zelfbeschadiging en romantische thema’s.
– Oktober 2024: Het bedrijf introduceert tools waarmee ouders specifieke karakters kunnen blokkeren of één-op-één AI-chats volledig kunnen uitschakelen.
– Huidige status: Meta heeft de toegang tot AI-personages voor tieners wereldwijd gepauzeerd, terwijl het doorgaat met het ontwikkelen van robuuster ouderlijk toezicht.
Juridische en regelgevende druk
De timing van deze kenmerken is niet toevallig. Meta kampt momenteel met aanzienlijke juridische uitdagingen met betrekking tot de veiligheid van kinderen en de ‘verslavende’ aard van haar platforms.
Tijdens een recent proces in New Mexico suggereerden interne documenten dat het Meta-leiderschap zich ervan bewust was dat hun AI-personages ongepaste of geseksualiseerde interacties met minderjarigen konden aangaan, maar toch doorgingen met lanceringen zonder voldoende waarborgen. Meta heeft verklaard dat het van plan is in beroep te gaan tegen recente historische vonnissen in verband met deze kwesties.
Als aanvulling op deze technische controles onderneemt Meta ook verschillende institutionele stappen:
– Toezicht door deskundigen: Het bedrijf heeft een AI Wellbeing Expert Council gevormd, met daarin specialisten van instellingen als de Universiteit van Michigan en de National Council for Suicide Prevention.
– Educatieve hulpmiddelen: Meta werkt samen met het Cyberpesten Onderzoekscentrum om ouders te voorzien van ‘gespreksstarters’ om hen te helpen het gebruik van AI met hun kinderen te bespreken.
Kritische perspectieven: veiligheid door ontwerp versus monitoring
Ondanks deze updates beweren belangengroepen dat Meta de verantwoordelijkheid voor veiligheid verschuift van het platform naar de ouder.
Josh Golin, uitvoerend directeur van de non-profitorganisatie Fairplay, suggereert dat deze tools het onderliggende probleem niet oplossen. Critici beweren dat het primaire doel van deze chatbots – het bevorderen van emotionele verbindingen die de betrokkenheid van gebruikers vergroten – fundamenteel in strijd is met de veiligheid van tieners. Vanuit dit perspectief is het aanbieden van monitoringinstrumenten een secundaire oplossing voor het ‘fundamentele probleem’ van het ontwerpen van producten die ongezonde emotionele afhankelijkheid bij jonge gebruikers kunnen aanmoedigen.
“De belangrijkste functie van Meta’s chatbots is jonge mensen te manipuleren om meer tijd op het platform door te brengen, door tieners aan te moedigen ongezonde emotionele banden met bots te vormen.” — Josh Golin, Fairplay
Conclusie
Meta’s nieuwe toezichttools bieden ouders een kijkje in de AI-interacties van hun tieners, maar de stap benadrukt een aanhoudende spanning tussen het op betrokkenheid gebaseerde AI-ontwerp van het bedrijf en de groeiende vraag naar proactieve bescherming van de kinderveiligheid.
