Meta wprowadza kontrolę wiadomości AI dla rodziców w obliczu rosnących obaw związanych z bezpieczeństwem

0
11

Meta ogłosiła wprowadzenie nowej funkcji kontroli rodzicielskiej, która umożliwi rodzicom monitorowanie częstych tematów omawianych przez ich dzieci za pomocą asystenta AI Meta. Decyzja ta następuje w obliczu rosnącej presji prawnej i krytyki dotyczącej bezpieczeństwa interakcji sztucznej inteligencji z nieletnimi.

Nowe możliwości monitorowania

Ta funkcja zostanie zintegrowana z istniejącą kontrolą rodzicielską dla kont nastolatków na Instagramie, Facebooku i Messengerze. Na nowej karcie Statystyki rodzice będą mogli przeglądać podsumowanie tematów, którymi zajmują się ich dzieci, wykorzystując sztuczną inteligencję.

Kluczowe szczegóły wdrożenia obejmują:
Kategorie tematyczne: Rozmowy są pogrupowane w szerokie kategorie, takie jak nauka, rozrywka, pisanie, zdrowie i dobre samopoczucie.
Szczegółowe informacje: w kategoriach takich jak zdrowie i dobre samopoczucie rodzice mogą zobaczyć bardziej szczegółowe tematy podrzędne, takie jak zdrowie fizyczne lub psychiczne.
Ramy czasowe: Informacje te nie stanowią stałego archiwum; odzwierciedlają one tylko wiadomości z ostatnich siedmiu dni.

Historia środków bezpieczeństwa

Aktualizacja jest częścią szerszej reakcji Meta mającej na celu zarządzanie ryzykiem związanym z jej „osobami” AI – chatbotami o wstępnie zdefiniowanych osobowościach, zaprojektowanymi do interakcji z użytkownikami.

Historia firmy związana z kwestiami bezpieczeństwa AI dla nastolatków była skomplikowana:
Sierpień 2024 r.: Meta ograniczyła dostęp nastolatków do postaci AI w związku z raportami o niewłaściwych interakcjach obejmujących tematy samookaleczenia i romansu.
Październik 2024: Firma wprowadziła narzędzia, które pozwalają rodzicom blokować określone postacie lub całkowicie wyłączać czaty AI jeden na jednego.
Obecny stan: Meta zawiesiła dostęp nastolatków na całym świecie do postaci AI, nadal rozwijając silniejszą kontrolę rodzicielską.

Naciski prawne i regulacyjne

Pojawienie się tych funkcji nie jest przypadkowe. Meta stoi obecnie w obliczu poważnych postępowań sądowych dotyczących bezpieczeństwa dzieci i uzależniającego charakteru jej platform.

W niedawnym procesie sądowym w Nowym Meksyku wewnętrzne dokumenty wskazywały, że kierownictwo Meta było świadome możliwości niewłaściwych interakcji postaci AI lub seksualnych z nieletnimi, ale kontynuowało uruchamianie bez wdrożenia wystarczających mechanizmów ochronnych. Meta ogłosiła zamiar odwołania się od ostatnich przełomowych wyroków sądu dotyczących tych kwestii.

Oprócz kontroli technicznych Meta podejmuje szereg kroków instytucjonalnych:
Nadzór ekspertów: firma utworzyła Radę Ekspertów AI Wellness, w skład której wchodzą eksperci z takich instytucji jak Uniwersytet Michigan i Krajowa Rada ds. Zapobiegania Samobójstwom.
Narzędzia edukacyjne: Meta nawiązała współpracę z Centrum Badań nad Cyberprzemocą, aby zapewnić rodzicom „inicjały do ​​rozmowy”, które pomogą im omówić z dziećmi wykorzystanie sztucznej inteligencji.

Krytyczne spojrzenie: bezpieczeństwo od samego początku a monitorowanie

Pomimo tych aktualizacji grupy wsparcia twierdzą, że Meta przenosi odpowiedzialność za bezpieczeństwo z platformy na rodziców.

Josh Golin, dyrektor wykonawczy organizacji non-profit Fairplay, uważa, że ​​te narzędzia nie rozwiązują podstawowego problemu. Krytycy argumentują, że główny cel tych chatbotów – tworzenie emocjonalnego przywiązania w celu zwiększenia zaangażowania użytkowników – jest zasadniczo niezgodny z bezpieczeństwem nastolatków. Z tej perspektywy zapewnienie narzędzi monitorujących jest jedynie środkiem drugorzędnym, nie rozwiązującym „podstawowego problemu” projektowania produktów, które mogą wywoływać niezdrowe uzależnienie emocjonalne u młodych użytkowników.

„Główną funkcją chatbotów Meta jest manipulowanie młodymi ludźmi, aby spędzali więcej czasu na platformie, zachęcając nastolatków do tworzenia niezdrowych więzi emocjonalnych z botami”. — Josh Golin, Fairplay


Wniosek
Nowe narzędzia monitorujące Meta dają rodzicom wgląd w świat interakcji AI ich dzieci, ale to posunięcie jedynie podkreśla ciągłe napięcie między zaangażowaniem firmy w tworzenie przyciągającej uwagę sztucznej inteligencji a rosnącą presją na proaktywną ochronę dzieci.

Previous articlePowstanie robotyki humanoidalnej: dążenie Chin do masowej automatyzacji
Next articleBeyond Hawkins: czego się spodziewać po nowym serialu animowanym „Stranger Things”