Gara-gara Konten Mengerikan, Ratusan Moderator Facebook di Kenya Alami Gangguan Mental
Orang-orang berkumpul di luar kantor Samasource Kenya, outsourcing yang melakukan moderasi konten untuk Meta. Para moderator menemukan konten yang sangat vulgar setiap hari, termasuk video pembunuhan, menyakiti diri sendiri, bunuh diri kekerasan seksual,
Foto: IstimewaNAIROBI - Lebih dari 140 moderator konten Facebook di Kenya baru-baru ini didapati mengalami gangguan stres pascatrauma parah yang disebabkan oleh paparan konten media sosial termasuk pembunuhan, bunuh diri, pelecehan seksual anak, dan terorisme.
Dari The Guardian, kepala layanan kesehatan mental di rumah sakit Nasional Kenyatta di Nairobi, Ian Kanyanya, mengatakan, para moderator bekerja delapan hingga 10 jam sehari di sebuah fasilitas di Kenya untuk sebuah perusahaan yang dikontrak perusahaan media sosial ini telah didiagnosis menderita PTSD (Post Traumatic Stress Disorder), gangguan kecemasan umum (GAD) dan gangguan depresi mayor (MDD).
Diagnosis massal tersebut dilakukan sebagai bagian dari gugatan hukum yang diajukan terhadap perusahaan induk Facebook, Meta, dan Samasource Kenya, sebuah perusahaan outsourcing yang melakukan moderasi konten untuk Meta dengan menggunakan pekerja dari seluruh Afrika .
"Gambar-gambar dan video yang memuat nekrofilia, bestiality, dan menyakiti diri sendiri menyebabkan beberapa moderator pingsan, muntah, menjerit, dan lari dari meja mereka," bunyi tuduhan dalam gugatan tersebut.
Kasus ini menyoroti kerugian yang dialami manusia akibat maraknya penggunaan media sosial dalam beberapa tahun terakhir yang telah membutuhkan semakin banyak moderasi, sering kali di beberapa bagian termiskin di dunia, untuk melindungi pengguna dari materi terburuk yang diunggah sebagian orang.
Setidaknya 40 moderator dalam kasus tersebut menyalahgunakan alkohol, obat-obatan termasuk ganja, kokain dan amfetamin, dan obat-obatan seperti pil tidur. Beberapa melaporkan keretakan rumah tangga dan hilangnya hasrat untuk berhubungan seksual, dan kehilangan hubungan dengan keluarga mereka.
Beberapa yang bertugas menghapus video yang diunggah oleh kelompok teroris dan pemberontak takut mereka diawasi dan menjadi sasaran, dan jika mereka kembali ke rumah, mereka akan diburu dan dibunuh.
Facebook dan perusahaan media sosial serta kecerdasan buatan besar lainnya mengandalkan sejumlah moderator konten untuk menghapus unggahan yang melanggar standar komunitas mereka dan melatih sistem AI untuk melakukan hal yang sama.
"Para moderator dari Kenya dan negara-negara Afrika lainnya ditugaskan dari tahun 2019 hingga 2023 untuk memeriksa postingan yang berasal dari Afrika dan dalam bahasa mereka sendiri tetapi dibayar delapan kali lebih sedikit daripada rekan-rekan mereka di AS," menurut dokumen klaim.
Laporan medis yang diajukan ke pengadilan ketenagakerjaan dan hubungan perburuhan di Nairobi dan dilihat oleh The Guardian menggambarkan gambaran mengerikan tentang kehidupan kerja di dalam fasilitas yang dikontrak Meta, tempat para pekerja diberi aliran gambar terus-menerus untuk diperiksa di ruang seperti gudang yang dingin, di bawah lampu terang dan dengan aktivitas kerja mereka dipantau hingga menit ke-9.
Hampir 190 moderator mengajukan klaim bercabang yang mencakup tuduhan penimbulan cedera mental yang disengaja, praktik ketenagakerjaan yang tidak adil, perdagangan manusia, perbudakan modern, dan pemutusan hubungan kerja yang melanggar hukum. Ke-144 orang yang diperiksa oleh Kanyanya ditemukan memiliki PTSD, GAD, dan MDD dengan gejala PTSD yang parah atau sangat parah pada 81 persen kasus, sebagian besar setidaknya satu tahun setelah mereka berhenti.
Meta dan Samasource menolak mengomentari klaim tersebut karena adanya litigasi.
Martha Dark, pendiri dan wakil direktur eksekutif Foxglove, sebuah organisasi nirlaba berbasis di Inggris yang mendukung kasus pengadilan tersebut, mengatakan: “Buktinya tidak dapat disangkal: memoderasi Facebook adalah pekerjaan berbahaya yang menimbulkan PTSD seumur hidup pada hampir semua orang yang memoderasinya."
“Di Kenya, ratusan mantan moderator yang dites PTSD mengalami trauma 100 persen … Di industri lain, jika kami menemukan 100 persen pekerja keselamatan didiagnosis menderita penyakit yang disebabkan oleh pekerjaan mereka, orang yang bertanggung jawab akan dipaksa mengundurkan diri dan menghadapi konsekuensi hukum atas pelanggaran hak asasi manusia secara massal. Itulah sebabnya Foxglove mendukung para pekerja pemberani ini untuk mencari keadilan di pengadilan.”
Berdasarkan dokumen gugatan di Nairobi, Kanyanya menyimpulkan bahwa penyebab utama gangguan kesehatan mental di antara 144 orang tersebut adalah pekerjaan mereka sebagai moderator konten Facebook karena mereka "menemukan konten yang sangat vulgar setiap hari, termasuk video pembunuhan yang mengerikan, tindakan menyakiti diri sendiri, bunuh diri, percobaan bunuh diri, kekerasan seksual, konten seksual yang vulgar, kekerasan fisik dan seksual terhadap anak, tindakan kekerasan yang mengerikan, dan masih banyak lagi".
Empat moderator menderita trypophobia, yaitu rasa tidak suka atau takut terhadap pola lubang atau benjolan kecil yang berulang-ulang yang dapat menyebabkan kecemasan hebat. Bagi sebagian orang, kondisi tersebut berkembang setelah melihat lubang pada tubuh yang membusuk saat mengerjakan konten Facebook.
Moderasi dan tugas terkait pemberian tag pada konten sering kali merupakan bagian tersembunyi dari ledakan teknologi. Pengaturan serupa, tetapi tidak terlalu traumatis, dibuat bagi pekerja outsourcing untuk memberi tag pada banyak gambar hal-hal biasa seperti perabotan jalan, ruang tamu, dan pemandangan jalan sehingga sistem AI yang dirancang di California tahu apa yang mereka lihat.
Meta mengatakan bahwa mereka menganggap serius dukungan dari para pengulas konten. Kontrak dengan moderator konten pihak ketiga di Facebook dan Instagram merinci ekspektasi tentang konseling, pelatihan, dan dukungan di tempat selama 24 jam, serta akses ke layanan kesehatan swasta. Meta mengatakan bahwa gaji berada di atas standar industri di pasar tempat mereka beroperasi dan mereka menggunakan teknik seperti mengaburkan, mematikan suara, dan merender dalam monokrom untuk membatasi paparan materi grafis bagi orang-orang yang mengulas konten di kedua platform tersebut.
Redaktur: Selocahyo Basoeki Utomo S
Penulis: Selocahyo Basoeki Utomo S
Tag Terkait:
Berita Trending
- 1 Satu Dekade Transformasi, BPJS Ketenagakerjaan Torehkan Capaian Positif
- 2 Pengamat: Rendahnya Pengetahuan Masyarakat Dieksploitasi "Pemain" Judol
- 3 Usut Tuntas, Kejari Maluku Tenggara Sita 37 Dokumen Dugaan Korupsi Dana Hibah
- 4 KPI Minta Siaran Lagu ‘Indonesia Raya’ di Televisi dan Radio Digalakkan
- 5 Ini Sejumlah Kebijakan untuk Pengaturan Mobilitas Natal dan Tahun Baru
Berita Terkini
- Mengagetkan Pernyataan Ini, Trump: Kanada Akan Berhemat Bila Mau Jadi Negara Bagian ke-51 AS
- Yasonna Laoly Diperiksa KPK Terkait Harun Masiku dan Fatwa Menkumham
- Ini yang Dilakukan Brimob Polda Sumut untuk Cegah Judi Daring
- Ini Beberapa Terobosan untuk Meningkatkan Nilai Tambah Produk Hasil Hutan
- Pemulangan Mary Kane Jadi Simbol Kerja Sama Diplomatik RI-Filipina