Meta Memperkenalkan Pengawasan Percakapan AI untuk Orang Tua di Tengah Meningkatnya Masalah Keamanan

0
7

Meta telah mengumumkan fitur pengawasan orang tua baru yang memungkinkan orang tua memantau topik luas yang didiskusikan anak remajanya dengan Asisten AI Meta. Langkah ini dilakukan ketika perusahaan menghadapi tekanan hukum dan kritik yang meningkat mengenai keamanan interaksi AI dengan anak di bawah umur.

Kemampuan Pemantauan Baru

Fitur ini akan diintegrasikan ke dalam alat pengawasan Akun Remaja yang ada di Instagram, Facebook, dan Messenger. Melalui tab “Insights” baru, orang tua dapat melihat ringkasan tema yang dieksplorasi anak-anak mereka dengan AI.

Detail penting dari peluncuran ini meliputi:
Topik yang Dikategorikan: Percakapan dikelompokkan ke dalam kategori luas seperti sekolah, hiburan, menulis, kesehatan, dan kesejahteraan.
Rincian Terperinci: Pada kategori seperti “kesehatan dan kesejahteraan”, orang tua dapat melihat sub-topik yang lebih spesifik, seperti kesehatan fisik atau kesehatan mental.
Jangka Waktu: Wawasan ini bukan arsip permanen; mereka hanya mencerminkan pertukaran dari tujuh hari terakhir.

Pola Intervensi Keamanan

Pembaruan ini merupakan bagian dari upaya Meta yang lebih luas dan reaktif untuk mengelola risiko yang terkait dengan “karakter” AI-nya—chatbot berbasis persona yang dirancang untuk berinteraksi dengan pengguna.

Sejarah perusahaan dalam bidang keamanan AI remaja penuh gejolak:
Agustus 2024: Meta membatasi karakter AI untuk remaja menyusul laporan interaksi tidak pantas yang melibatkan topik seperti menyakiti diri sendiri dan tema romantis.
Oktober 2024: Perusahaan memperkenalkan alat yang memungkinkan orang tua memblokir karakter tertentu atau menonaktifkan obrolan AI satu lawan satu sepenuhnya.
Status Saat Ini: Meta telah menghentikan sementara akses karakter AI untuk remaja secara global sembari terus mengembangkan kontrol orang tua yang lebih kuat.

Tekanan Hukum dan Peraturan

Waktu munculnya fitur-fitur ini bukanlah suatu kebetulan. Meta saat ini sedang menghadapi tantangan hukum yang signifikan terkait keselamatan anak dan sifat “adiktif” dari platformnya.

Dalam uji coba baru-baru ini di New Mexico, dokumen internal menunjukkan bahwa pimpinan Meta menyadari bahwa karakter AI mereka dapat terlibat dalam interaksi yang tidak pantas atau bersifat seksual dengan anak di bawah umur, namun tetap melanjutkan peluncuran tanpa perlindungan yang memadai. Meta telah menyatakan niatnya untuk mengajukan banding atas putusan persidangan penting baru-baru ini terkait masalah ini.

Untuk melengkapi kontrol teknis ini, Meta juga mengambil beberapa langkah kelembagaan:
Pengawasan Pakar: Perusahaan telah membentuk Dewan Pakar Kesejahteraan AI, yang terdiri dari para spesialis dari institusi seperti Universitas Michigan dan Dewan Nasional untuk Pencegahan Bunuh Diri.
Alat Pendidikan: Meta telah bermitra dengan Pusat Penelitian Penindasan Siber untuk menyediakan “pemula percakapan” bagi orang tua guna membantu mereka mendiskusikan penggunaan AI dengan anak-anak mereka.

Perspektif Kritis: Keselamatan Berdasarkan Desain vs. Pemantauan

Meskipun adanya pembaruan ini, kelompok advokasi berpendapat bahwa Meta mengalihkan tanggung jawab keselamatan dari platform ke induknya.

Josh Golin, direktur eksekutif organisasi nirlaba Fairplay, berpendapat bahwa alat ini tidak menyelesaikan masalah mendasar. Kritikus berpendapat bahwa tujuan utama chatbot ini—untuk membina hubungan emosional yang meningkatkan keterlibatan pengguna—pada dasarnya bertentangan dengan keselamatan remaja. Dari perspektif ini, penyediaan alat pemantauan merupakan perbaikan sekunder terhadap “masalah mendasar” dalam merancang produk yang dapat mendorong ketergantungan emosional yang tidak sehat pada pengguna muda.

“Fungsi utama chatbot Meta adalah memanipulasi generasi muda agar menghabiskan lebih banyak waktu di platform dengan mendorong remaja membentuk hubungan emosional yang tidak sehat dengan bot.” — Josh Golin, Permainan Adil


Kesimpulan
Alat pengawasan baru Meta memberi orang tua gambaran tentang interaksi AI pada remaja mereka, namun langkah ini menyoroti ketegangan yang terus-menerus antara desain AI yang didorong oleh keterlibatan perusahaan dan meningkatnya permintaan akan perlindungan keselamatan anak yang proaktif.