Meta оголосила про впровадження нової функції батьківського контролю, яка дозволить батькам відстежувати загальні теми, які їх діти обговорюють з ІІ-асистентом Meta. Цей крок зроблено в той час, коли компанія стикається з зростаючим юридичним тиском та критикою щодо безпеки взаємодії ІІ з неповнолітніми.
Нові можливості моніторингу
Функція буде інтегрована в існуючі інструменти батьківського контролю для підліткових облікових записів в Instagram, Facebook і Messenger. Через нову вкладку «Інформація» батьки зможуть переглядати зведену інформацію про теми, які їх діти досліджують за допомогою ІІ.
Основні деталі застосування включають:
– Категорії тем: Діалоги групуються за широкими категоріями, такими як навчання, розваги, написання текстів, здоров’я та благополуччя.
– Деталізація: У таких категоріях, як «здоров’я та благополуччя», батьки можуть побачити більш специфічні підтеми, наприклад, фізичне чи ментальне здоров’я.
– Тимчасові рамки: Ці відомості не є постійним архівом; вони відображають лише повідомлення за останні сім днів.
Історія заходів щодо забезпечення безпеки
Це оновлення є частиною більш масштабних та відповідних заходів Meta з управління ризиками, пов’язаними з її ІІ-«персонажами» – чат-ботами із заданими характерами, призначеними для взаємодії з користувачами.
Історія взаємодії компанії з питаннями безпеки ІІ для підлітків була непростою:
– Серпень 2024: Meta обмежила доступ до ІІ-персонажів для підлітків після повідомлень про неналежні взаємодії, що зачіпають теми самоушкодження та романтики.
– Жовтень 2024: Компанія представила інструменти, що дозволяють батькам блокувати конкретних персонажів або повністю відключати чати з ІІ тет-а-тет.
– Поточний статус: Meta призупинила доступ до ІІ-персонажів для підлітків по всьому світу, поки продовжує розробку більш надійних засобів батьківського контролю.
Юридичний та регуляторний тиск
Поява цих функцій невипадкова. В даний час Meta веде серйозні судові розгляди щодо безпеки дітей та «адиктивного» (що викликає залежність) характеру її платформ.
У ході недавнього судового процесу в Нью-Мексико внутрішні документи вказали на те, що керівництво Meta знало про можливість неналежної або сексуалізованої взаємодії ІІ-персонажів з неповнолітніми, проте продовжило запуск без впровадження достатніх захисних механізмів. Meta заявила про свій намір оскаржити нещодавні знакові вердикти судів щодо цих питань.
На додаток до технічних засобів контролю Meta робить ряд інституційних кроків:
– Експертний нагляд: Компанія сформувала Раду експертів з благополуччя у сфері ІІ, до якої увійшли фахівці з таких установ, як Мічиганський університет та Національна рада з профілактики самогубств.
– Освітні інструменти: Meta уклала партнерство з Центром досліджень кібербулінгу, щоб надати батькам «підказки для початку розмови», які допоможуть їм обговорити використання ІІ з дітьми.
Критичний погляд: Безпека на етапі проектування проти моніторингу
Незважаючи на ці поновлення, правозахисні групи стверджують, що Meta перекладає відповідальність за безпеку з платформи на батьків.
Джош Голін, виконавчий директор некомерційної організації Fairplay, вважає, що ці інструменти не вирішують основну проблему. Критики стверджують, що головна мета цих чат-ботів – створення емоційної прихильності для збільшення залучення користувачів – фундаментально суперечить безпеці підлітків. З цієї точки зору надання інструментів моніторингу — це лише вторинний захід, який не вирішує «фундаментальну проблему» проектування продуктів, які можуть провокувати нездорову емоційну залежність у молодих користувачів.
“Основна функція чат-ботів Meta полягає в тому, щоб маніпулювати молодими людьми, змушуючи їх проводити більше часу на платформі, заохочуючи підлітків формувати нездоровий емоційний зв’язок з ботами”. – Джош Голін, Fairplay
Висновок
Нові інструменти контролю Meta відкривають батькам вікно у світ ІІ-взаємодій їхніх дітей, але цей крок лише підкреслює суперечність, що зберігається, між прагненням компанії створювати ІІ, що утримує увагу, і зростаючою вимогою забезпечити проактивний захист дітей.




















































