Meta Perketat Keamanan Remaja di Instagram dengan Pembatasan Fitur Live dan Kontrol Orang Tua yang Diperluas
Meta Tingkatkan Perlindungan Remaja di Platformnya: Pembatasan Live Instagram dan Kontrol Orang Tua yang Lebih Ketat
Meta, perusahaan induk Instagram, Facebook, dan Messenger, kembali menunjukkan komitmennya dalam melindungi pengguna remaja di platformnya. Langkah terbaru ini diwujudkan dengan memblokir fitur live atau siaran langsung di Instagram bagi pengguna di bawah usia 16 tahun, kecuali dengan izin eksplisit dari orang tua.
Pembatasan Fitur Live dan Sensor Ketelanjangan:
Keputusan ini diambil sebagai bagian dari upaya berkelanjutan untuk menciptakan lingkungan online yang lebih aman bagi remaja. Selain pembatasan live, Meta juga menerapkan fitur yang secara otomatis memburamkan gambar yang terindikasi mengandung ketelanjangan dalam pesan langsung (Direct Messages/DM). Fitur ini akan diaktifkan secara default, namun remaja tetap memerlukan izin orang tua untuk menonaktifkannya.
Perluasan Sistem Teen Accounts:
Perubahan ini sejalan dengan perluasan sistem Teen Accounts Instagram ke platform Facebook dan Messenger. Sistem ini, yang pertama kali diperkenalkan tahun lalu, secara otomatis menempatkan akun pengguna di bawah usia 18 tahun dalam pengaturan yang lebih ketat.
Melalui Teen Accounts, orang tua memiliki akses ke berbagai fitur kontrol, termasuk:
- Pembatasan Waktu: Menetapkan batas waktu harian untuk penggunaan aplikasi.
- Blokir Akses: Memblokir remaja dari mengakses Instagram pada jam-jam tertentu.
- Pemantauan Interaksi: Melihat akun-akun yang berinteraksi dengan anak mereka melalui pesan.
Saat ini, fitur Teen Accounts di Facebook dan Messenger baru diluncurkan di Amerika Serikat, Inggris, Australia, dan Kanada. Pengguna berusia di bawah 16 tahun akan memerlukan persetujuan orang tua untuk mengubah pengaturan, sementara pengguna berusia 16 dan 17 tahun dapat mengelola pengaturan mereka sendiri.
Statistik Penggunaan dan Tanggapan Lembaga Perlindungan Anak:
Meta melaporkan bahwa Teen Accounts Instagram telah digunakan oleh 54 juta pengguna di bawah usia 18 tahun di seluruh dunia. Lebih dari 90% pengguna berusia 13 hingga 15 tahun memilih untuk mempertahankan batasan default yang diberlakukan.
NSPCC, sebuah lembaga amal perlindungan anak terkemuka, menyambut baik perluasan langkah-langkah keamanan ini ke Facebook dan Messenger. Namun, mereka menekankan bahwa Meta perlu melakukan lebih banyak upaya proaktif untuk mencegah penyebaran materi berbahaya di platform mereka.
Matthew Sowemimo, kepala asosiasi kebijakan untuk keselamatan anak secara online di NSPCC, menyatakan bahwa perubahan ini harus disertai dengan tindakan proaktif untuk mencegah konten berbahaya berkembang biak di Instagram, Facebook, dan Messenger.
Konteks Undang-Undang Keamanan Online Inggris:
Pengumuman ini bertepatan dengan implementasi Undang-Undang Keamanan Online di Inggris. Undang-undang ini mewajibkan platform online untuk mengambil langkah-langkah pencegahan dan penghapusan konten ilegal, termasuk pelecehan seksual terhadap anak, penipuan, dan materi terorisme.
Undang-undang tersebut juga mencakup ketentuan untuk melindungi anak-anak dari konten berbahaya, seperti materi yang berhubungan dengan bunuh diri dan melukai diri sendiri.
Tantangan dan Prospek:
Meskipun langkah-langkah ini disambut baik, masih terdapat kekhawatiran mengenai efektivitasnya dalam mengatasi masalah konten berbahaya dan dampak negatif media sosial terhadap kesehatan mental remaja. Upaya berkelanjutan dan kolaborasi antara perusahaan teknologi, orang tua, pendidik, dan lembaga perlindungan anak sangat penting untuk menciptakan lingkungan online yang lebih aman dan suportif bagi generasi muda.
Meta sendiri mengakui bahwa tantangan masih ada dan berkomitmen untuk terus mengembangkan dan meningkatkan fitur keamanan serta kontrol orang tua di platformnya.