Jangan pikirkan penduduk Coulsdon, Inggris, yang mengatakan bahwa mereka benar-benar ditindas oleh sensor algoritmik tanpa alasan selain ejaan nama kota mereka yang tampaknya tidak berbahaya.
Menurut blog berita lokal Inside Croydon, pemilik bisnis dan asosiasi lingkungan di kota tersebut telah menghapus konten dari halaman Facebook mereka karena algoritme moderasi konten platform tersebut menggunakan “LSD” di Coulsdon sebagai referensi ke obat psikedelik.
Blog tersebut, mengutip sumber lokal yang menolak disebutkan namanya, mengatakan bahwa halaman teater lokal, toko perangkat keras, kelompok sejarah, dan asosiasi warga semuanya terkena dampak sensor dan Facebook belum memperbaiki masalah tersebut meskipun ada banyak keluhan.
“Selama ada 'Coulsdon' di judulnya, Anda mendapatkan referensi obat yang tidak ada jalan lain,” kata salah satu sumber anonim kepada Inside Croydon.
Dalam pernyataan singkatnya, Dave Arnold, juru bicara perusahaan induk Facebook, Meta, mengatakan “ini adalah kesalahan yang kini telah diperbaiki.”
Ini bukan pertama kalinya filter Facebook memblokir postingan yang tidak berbahaya—atau mungkin informasi yang menyelamatkan jiwa.
Pada tahun 2021, Facebook meminta maaf kepada beberapa pengguna Inggris karena menyensor dan melarang orang yang memposting tentang Plymouth Hoe, sebuah landmark di kota pesisir Plymouth.
The Washington Post melaporkan awal tahun ini bahwa ketika kebakaran hutan berkobar di seluruh Pantai Barat, algoritme perusahaan menyensor postingan tentang kebakaran di kelompok manajemen darurat dan keselamatan kebakaran setempat. Dalam lusinan contoh yang didokumentasikan oleh surat kabar tersebut, Facebook menandai postingan tersebut sebagai spam yang “menyesatkan”.
Administrator grup Facebook sebelumnya juga memperhatikan pola postingan di komunitas mereka yang berisi kata “laki-laki” yang ditandai sebagai ujaran kebencian, menurut Vice. Fenomena ini menyebabkan terciptanya facebookjailed.com, di mana pengguna mendokumentasikan keputusan moderasi yang aneh, seperti gambar ayam yang diberi label ketelanjangan atau aktivitas seksual.
Data Facebook sendiri menunjukkan bahwa ketergantungannya yang besar pada algoritme untuk mengawasi konten di platform menyebabkan jutaan kesalahan setiap bulannya.
Menurut data moderasi terbarunya, Facebook mengambil 1,7 juta tindakan penegakan hukum terhadap konten terkait narkoba antara bulan April dan Juni tahun ini. Sekitar 98 persen konten tersebut terdeteksi oleh perusahaan, dibandingkan dengan hanya 2 persen yang dilaporkan oleh pengguna. Masyarakat mengajukan banding atas sanksi tersebut dalam 182.000 kasus dan Facebook akhirnya memulihkan lebih dari 40.000 konten—11.700 tanpa perlu mengajukan banding dan 28.500 setelah mengajukan banding.
Algoritme yang menargetkan jenis konten terlarang lainnya, seperti spam, menghasilkan lebih banyak kesalahan. Platform ini memulihkan hampir 35 juta postingan yang secara keliru diberi label sebagai spam selama periode tiga bulan terakhir, lebih dari 10 persen konten yang diduga berisi spam telah dihapus sebelumnya.