Jakarta –
Perusahaan induk Instagram, Meta, dilaporkan secara aktif mengizinkan konten kekerasan di platformnya, seperti gambar yang merugikan diri sendiri dan gambar eksplisit. Temuan ini berasal dari penelitian di Denmark yang menemukan bahwa Meta tidak menghapus gambar-gambar ini dan moderasi kontennya tidak memadai.
Pada Selasa (3/12/2024), detikINET mengutip The Guardian, memberitakan bahwa peneliti Denmark telah membuat jaringan pribadi untuk mengidentifikasi konten yang merugikan diri sendiri di Instagram dan memverifikasi penghapusannya dari platform.
Mereka membuat profil palsu seorang anak laki-laki berusia 13 tahun dan membagikan 85 gambar perilaku melukai diri sendiri yang meningkat seiring berjalannya waktu. Kontennya mencakup darah, penyihir, dan bahkan seruan untuk menyakiti diri sendiri.
Penelitian ini secara khusus bertujuan untuk menguji klaim Meta bahwa mereka telah meningkatkan kemampuannya dalam menghapus konten berbahaya menggunakan kecerdasan buatan (AI). Meta sebelumnya mengklaim bahwa sekitar 99% konten berbahaya dihapus sebelum dilaporkan.
Namun Digitalt Ansvar, sebuah organisasi yang mempromosikan pengembangan digital yang bertanggung jawab, menemukan bahwa tidak ada satu gambar pun yang dihapus selama uji coba selama sebulan.
Ironisnya, ketika Digitalt Ansvar mengembangkan alat AI sederhana untuk analisis konten; Secara otomatis mengidentifikasi 38% gambar yang merugikan diri sendiri dan 88% gambar ekstrem. Temuan ini menunjukkan bahwa Instagram memang memiliki teknologi untuk mengatasi masalah ini, namun belum diterapkan secara maksimal.
Digitalt Ansvar menilai regulasi konten di Instagram terlalu memadai dan tidak berdampak negatif terhadap kesehatan fisik dan mental pengguna, termasuk regulasi Uni Eropa tentang Meta Digital Services Act. .
Sebagai tanggapan, juru bicara Meta mengatakan konten yang merugikan diri sendiri melanggar kebijakan perusahaan dan akan dihapus jika ditemukan. Laporan resmi mengungkapkan bahwa Meta menghapus lebih dari 12 juta konten bunuh diri dan tindakan menyakiti diri sendiri dari Instagram pada paruh pertama tahun 2024, 99% di antaranya dihapus secara aktif.
Meta telah memperkenalkan Akun Remaja Instagram, sebuah fitur yang secara ketat memoderasi konten sensitif untuk remaja. Mereka juga ditambahkan untuk mengurangi risiko melihat atau ditawari konten berbahaya.
Namun, terlepas dari klaim tersebut, menurut sebuah penelitian di Denmark, algoritma Instagram membantu memperluas jaringan konten yang merugikan diri sendiri. Anak-anak di bawah usia 13 tahun yang tergabung dalam kelompok self-harm dikatakan bersentuhan langsung dengan anggota kelompok lain. Ada spekulasi bahwa algoritma platform berperan dalam penyebaran konten berbahaya.
Tanya Hesby, CEO Digital Ansvar, yang mengaku terkejut dengan temuan tersebut. “Kami berpikir bahwa ketika tingkat keparahan gambar yang dibagikan meningkat, platform akan segera mengenalinya dan menghapusnya. Namun kenyataannya, tidak demikian,” katanya.
“Kami terkejut karena kami mengira mereka memiliki sistem yang lebih canggih untuk mengatasi masalah ini, namun ternyata tidak berjalan sesuai harapan.”
Meskipun Meta mengklaim memiliki alat untuk mendeteksi konten berbahaya, Meta tampaknya tidak serius dalam mengatasi masalah yang dapat berdampak besar pada keamanan pengguna, sehingga temuan tersebut semakin meresahkan.
Saksikan video “Video: Komisi Eropa denda Meta Rp 13 T” (jsn/afr)