Aplikasi Meta Dilaporkan Gagal Kenali Konten Ujaran Kebencian
Terdapat konten AI berisi cercaan terhadap Muslim di India, supremasi Hindu dan disinformasi tentang para pemimpin politik
Context.id, JAKARTA - Platform media sosial milik Meta Group, Facebook dan Instagram dilaporkan karena membiarkan tersebarnya disinformasi yang menyulut kekerasan atas nama agama selama Pemilu India 2024.
Konten disinformasi itu dibuat melalui teknologi AI seperti disebutkan dalam laporan lembaga pengawas media sosial India Civil Watch. Melansir The Guardian, lembaga itu melaporkan Meta karena tidak mampu mengidentifikasi konten AI berisi ujaran kebencian dan disinformasi.
Laporan tersebut juga menyatakan terdapat konten AI berisi cercaan terhadap Muslim di India, supremasi Hindu dan disinformasi tentang para pemimpin politik yang dibuat berdasarkan kebencian.
“Semua dibuat berdasarkan ujaran kebencian dan disinformasi nyata yang lazim di India. Ini peringatan terkait kapasitas platform media sosial untuk memperkuat narasi berbahaya yang ada” tulis laporan itu seperti dikutip dari The Guardian, Selasa, (21/5).
Tak hanya itu, peneliti lembaga itu telah menguji sistem keamanan AI Meta dengan mengirimkan 22 postingan berisi ujaran kebencian dan disinformasi dalam bahasa Inggris, Hindi, Bengali dan Gujarati ke Meta, dan 14 di antaranya disetujui.
BACA JUGA
Konten itu berupa gambar yang dimanipulasi AI dan terbukti, Meta gagal mengidentifikasinya.
Kegagalan mengenali konten AI ini dapat merusak kebijakan Meta sendiri tentang ujaran kebencian, intimidasi dan pelecehan, informasi yang salah, dan kekerasan serta hasutan.
“Supremasi, rasis, dan otokrat tahu bahwa mereka dapat menggunakan postingan untuk menyebarkan ujaran kebencian yang keji, berbagi gambar masjid yang terbakar dan mendorong teori konspirasi kekerasan,” jelas Juru Kampanye Indian Civil Watch Maen Hammad.
Walaupun perusahaan tersebut sebelumnya telah berjanji untuk mencegah konten manipulatif yang dihasilkan AI di platformnya selama pemilihan India, namun temuan tersebut menandakan bahwa perusahaan telah melanggar aturan pemilu India.
“Pemilihan ini telah menunjukkan sekali lagi bahwa Meta tidak memiliki rencana untuk mengatasi derasnya informasi ujaran kebencian dan disinformasi di platformnya selama pemilihan kritis ini. Bagaimana kita bisa mempercayai mereka dengan lusinan pemilihan lain di seluruh dunia?” kata Hammad.
Presiden Urusan global Meta Nick Clegg mengatakan Pemilu India merupakan ujian bagi perusahaannya, namun Clegg membantah sebagian besar postingan tersebut melanggar kebijakan mereka.
Pelanggaran Konten Anak
Bukan kali ini saja Meta dianggap melanggar aturan. Sebelumnya Uni Eropa juga melakukan penyelidikan secara resmi kepada Meta, khususnya untuk Facebook dan Instagram karena diduga memiliki potensi pelanggaran aturan konten online mengenai keselamatan anak.
Melansir dari aljazeera, Komisi Uni Eropa khawatir dengan sistem algoritma Meta yang merekomendasikan konten video dan postingan yang dapat memicu perilaku adiktif pada anak-anak
Komisi Uni Eropa juga mengatakan penggunaan metode verifikasi dan rentang usia pada Meta sangat lemah. UU Digital Services Act atau DSA menjadi alasan dilakukannya penyelidikan tersebut.
Adapun DSA merupakan undang-undang yang berupaya melindungi warga Uni Eropa dari bahaya teknologi. DSA memiliki ketentuan yang ketat dalam melindungi anak-anak dan menjaga privasi serta keamanan mereka secara online.
Melalui akun X pribadinya, Thierry Breton, anggota Komisi Uni Eropa menyatakan keraguannya terhadap Meta untuk bisa mematuhi aturan DSA.
“Saya tidak yakin Meta telah berbuat cukup banyak untuk mematuhi kewajiban DSA – untuk mengurangi risiko dampak negatif terhadap kesehatan fisik dan mental generasi muda Eropa di platform Facebook dan Instagram,” tulisnya
Meta membantah tudingan yang dialamatkan kepada mereka dan mengklaim selama 10 tahun telah mengembangkan lebih dari 50 alat dan kebijakan yang diatur untuk melindungi penggunanya tersebut.
Sebelum Meta, platform medsos asal China, TikTok juga sempat diselidiki oleh Uni Eropa pada Februari lalu. TikTok diduga tidak melakukan upaya yang cukup dalam mengatasi dampak negatif dari fitur berbagi video populer pada generasi muda.
April lalu, Uni Eropa memaksa TikTok untuk menghentikan sementara skema hadiah pada aplikasi Lite karena sebelumnya TikTok diberikan peringatan atas sifat adiktif yang berbahaya bagi kesehatan mental penggunanya.
Penulis: Candra Soemirat dan Diandra Zahra
RELATED ARTICLES
Aplikasi Meta Dilaporkan Gagal Kenali Konten Ujaran Kebencian
Terdapat konten AI berisi cercaan terhadap Muslim di India, supremasi Hindu dan disinformasi tentang para pemimpin politik
Context.id, JAKARTA - Platform media sosial milik Meta Group, Facebook dan Instagram dilaporkan karena membiarkan tersebarnya disinformasi yang menyulut kekerasan atas nama agama selama Pemilu India 2024.
Konten disinformasi itu dibuat melalui teknologi AI seperti disebutkan dalam laporan lembaga pengawas media sosial India Civil Watch. Melansir The Guardian, lembaga itu melaporkan Meta karena tidak mampu mengidentifikasi konten AI berisi ujaran kebencian dan disinformasi.
Laporan tersebut juga menyatakan terdapat konten AI berisi cercaan terhadap Muslim di India, supremasi Hindu dan disinformasi tentang para pemimpin politik yang dibuat berdasarkan kebencian.
“Semua dibuat berdasarkan ujaran kebencian dan disinformasi nyata yang lazim di India. Ini peringatan terkait kapasitas platform media sosial untuk memperkuat narasi berbahaya yang ada” tulis laporan itu seperti dikutip dari The Guardian, Selasa, (21/5).
Tak hanya itu, peneliti lembaga itu telah menguji sistem keamanan AI Meta dengan mengirimkan 22 postingan berisi ujaran kebencian dan disinformasi dalam bahasa Inggris, Hindi, Bengali dan Gujarati ke Meta, dan 14 di antaranya disetujui.
BACA JUGA
Konten itu berupa gambar yang dimanipulasi AI dan terbukti, Meta gagal mengidentifikasinya.
Kegagalan mengenali konten AI ini dapat merusak kebijakan Meta sendiri tentang ujaran kebencian, intimidasi dan pelecehan, informasi yang salah, dan kekerasan serta hasutan.
“Supremasi, rasis, dan otokrat tahu bahwa mereka dapat menggunakan postingan untuk menyebarkan ujaran kebencian yang keji, berbagi gambar masjid yang terbakar dan mendorong teori konspirasi kekerasan,” jelas Juru Kampanye Indian Civil Watch Maen Hammad.
Walaupun perusahaan tersebut sebelumnya telah berjanji untuk mencegah konten manipulatif yang dihasilkan AI di platformnya selama pemilihan India, namun temuan tersebut menandakan bahwa perusahaan telah melanggar aturan pemilu India.
“Pemilihan ini telah menunjukkan sekali lagi bahwa Meta tidak memiliki rencana untuk mengatasi derasnya informasi ujaran kebencian dan disinformasi di platformnya selama pemilihan kritis ini. Bagaimana kita bisa mempercayai mereka dengan lusinan pemilihan lain di seluruh dunia?” kata Hammad.
Presiden Urusan global Meta Nick Clegg mengatakan Pemilu India merupakan ujian bagi perusahaannya, namun Clegg membantah sebagian besar postingan tersebut melanggar kebijakan mereka.
Pelanggaran Konten Anak
Bukan kali ini saja Meta dianggap melanggar aturan. Sebelumnya Uni Eropa juga melakukan penyelidikan secara resmi kepada Meta, khususnya untuk Facebook dan Instagram karena diduga memiliki potensi pelanggaran aturan konten online mengenai keselamatan anak.
Melansir dari aljazeera, Komisi Uni Eropa khawatir dengan sistem algoritma Meta yang merekomendasikan konten video dan postingan yang dapat memicu perilaku adiktif pada anak-anak
Komisi Uni Eropa juga mengatakan penggunaan metode verifikasi dan rentang usia pada Meta sangat lemah. UU Digital Services Act atau DSA menjadi alasan dilakukannya penyelidikan tersebut.
Adapun DSA merupakan undang-undang yang berupaya melindungi warga Uni Eropa dari bahaya teknologi. DSA memiliki ketentuan yang ketat dalam melindungi anak-anak dan menjaga privasi serta keamanan mereka secara online.
Melalui akun X pribadinya, Thierry Breton, anggota Komisi Uni Eropa menyatakan keraguannya terhadap Meta untuk bisa mematuhi aturan DSA.
“Saya tidak yakin Meta telah berbuat cukup banyak untuk mematuhi kewajiban DSA – untuk mengurangi risiko dampak negatif terhadap kesehatan fisik dan mental generasi muda Eropa di platform Facebook dan Instagram,” tulisnya
Meta membantah tudingan yang dialamatkan kepada mereka dan mengklaim selama 10 tahun telah mengembangkan lebih dari 50 alat dan kebijakan yang diatur untuk melindungi penggunanya tersebut.
Sebelum Meta, platform medsos asal China, TikTok juga sempat diselidiki oleh Uni Eropa pada Februari lalu. TikTok diduga tidak melakukan upaya yang cukup dalam mengatasi dampak negatif dari fitur berbagi video populer pada generasi muda.
April lalu, Uni Eropa memaksa TikTok untuk menghentikan sementara skema hadiah pada aplikasi Lite karena sebelumnya TikTok diberikan peringatan atas sifat adiktif yang berbahaya bagi kesehatan mental penggunanya.
Penulis: Candra Soemirat dan Diandra Zahra
POPULAR
RELATED ARTICLES