06/07/2017
Ketika Facebook Berhadapan dengan Masalah
Semakin populer Facebook sebagai jejaring sosial, semakin banyak problem yang ada di dalamnya.
06/07/2017
Ketika Facebook Berhadapan dengan Masalah
Semakin populer Facebook sebagai jejaring sosial, semakin banyak problem yang ada di dalamnya.

Seseorang bunuh diri dan menyiarkan prosesnya di Facebook. Terdengar ironis, tapi ini sungguh-sungguh terjadi tidak hanya di Indonesia tetapi juga di banyak negara dan menjadi tren. Apa sebabnya hingga siaran langsung bunuh diri tersebut bisa tersebar? Facebook mempersilakan siaran langsung yang mengerikan ini dengan alasan tidak mau menyensor atau “menghukum” orang-orang yang sedang tertekan (people in distress).

Tidak hanya bunuh diri, problem lain juga muncul dengan maraknya grup berisi predator anak di Facebook. Salah satu aturan dalam grup-grup tersebut adalah larangan mengunggah adegan pencabulan terhadap anak. Berdasarkan laporan yang dilakukan oleh The Guardian atas pedoman moderasi Facebook, gambar dan/atau video penganiayaan fisik non-seksual dan intimidasi pada anak-anak tidak perlu dihapus atau diberikan “tindakan tertentu”. Gambar dan/atau tayangan itu harus dihapus selama mengandung unsur sadistik dan unsur pemuasan tertentu.

Dengan berbagai problem tersebut, kita layak mengajukan pertanyaan apakah Facebook tidak memiliki moderator yang mestinya mampu mendeteksi postingan-postingan yang tidak pantas. Ini yang menarik dipelajari. Facebook sebenarnya memiliki moderator. Namun untuk setiap tampilan yang akan diunggah, moderator hanya memiliki waktu sekitar sepuluh detik untuk menentukan apakah materi tersebut layak unggah atau tidak. Di lain pihak, moderator Facebook menemukan setidaknya 1300 konten kekerasan dan ancaman terverifikasi dari teroris. Dalam sebulan moderator hanya sanggup menghapus sekitar 300 ancaman terverifikasi. Di samping itu, mereka juga diharuskan untuk mengingat nama dan wajah lebih dari 600 teroris.

Jika ada konten-konten kekerasan atau ancaman yang dianggap mengkhawatirkan maka konten tersebut akan dilimpahkan pada manajer. Jika ada konten yang lebih mengkhawatirkan lagi maka akan dibawa pada pelayanan pencegahan teroris. Meski pihak Facebook belum bisa menghapus seluruh konten kekerasan atau ancaman, namun kerja moderator  membantu pencegahan munculnya kelompok-kelompok terorisme yang baru. Dari penelitian The Guardian diketahui bahwa perusahaan Mark Zuckeberg ini memiliki data yang secara jelas menunjukkan bahwa Tentara Pembebasan Suriah yang didukung oleh negara-negara barat adalah kelompok teroris.

Setelah laporan The Guardian dirilis, Facebook bertindak cepat dengan mempekerjakan lebih banyak lagi moderator. Kantor Facebook di Amerika Serikat, contohnya, mempekerjakan para imigran untuk menghadapi konten-konten yang berasal dari wilayah asal mereka. Di satu sisi, apa yang dilakukan Facebook merupakan kesempatan baru bagi para pendatang. Namun di sisi lain, para moderator ini tidak mendapatkan persiapan yang cukup untuk berhadapan dengan materi-materi yang dilarang yang tidak hanya melingkupi terorisme.

Laporan The Guardian menunjukkan bahwa para moderator harus berhadapan dengan konten-konten kekerasan yang bisa mengganggu kesehatan mental mereka. Misalnya saja pemenggalan kepala manusia, pemerkosaan terhadap bayi yang baru lahir, kekerasan seksual pada anak-anak dan perempuan. Tak ayal, banyak moderator yang mengalami mimpi buruk, insomnia, dan kehilangan nafsu makan. Untuk merespon ini Facebook  menyediakan psikolog dan psikiatris untuk mendampingi para moderator. Psikolog dan psikiatris ini juga bertugas selama 24 jam penuh, sehingga kapanpun dibutuhkan mereka bisa segera dihubungi.

Namun, bukan berarti masalah para moderator selesai di situ. Mereka yang berstatus imigran atau pendatang justru merasa enggan untuk mengutarakan permasalahan mereka pada pihak kantor. Mereka takut jika mereka berkeluh kesah gaji mereka tidak akan dibayarkan atau lebih buruk lagi, mereka dipecat. Seorang psikolog yang mendampingi moderator memberikan kritiknya. Menurutnya masa persiapan yang diberikan pada moderator masih kurang.

Di samping itu, upah para moderator juga terbilang rendah yaitu US$15 per jam. Tidak sebanding dengan tekanan yang dihadapi mereka dalam menghadapi konten-konten yang bisa menimbulkan trauma. Ada juga problem mengenai standar kelayakan kesejahteraan pekerja Facebook masih ditentukan secara tertutup. Seiring populernya Facebook sebagai media sosial di berbagai negara, butuh upaya lebih sistematis dan transparan untuk memperbaiki kondisi di dalam sekaligus usaha untuk menghapus konten-konten kekerasan yang setiap hari membombardir penggunanya. (REMOTIVI/Maria Brigita Blessty)

Bacaan Terkait
Populer
Insiden Media di Tolikara
Kompas dan Front Pembela Islam
Pekerja Media Seluruh Indonesia, Bersatulah!
Koran Pertama Berbahasa Jawa
Setelah Kegagalan Bertubi-tubi, Apa Yang Mesti Dilakukan KPI?