visitaaponce.com

Ini Dua Cara Tiktok Memoderasi Konten

Ini Dua Cara Tiktok Memoderasi Konten
Logo Tiktok terlihat di sebuah layar ponsel.(AFP/SEBASTIEN BOZON)

HEAD of Communications TikTok Indonesia Anggini Setiawan membagikan dua cara platform digital itu melakukan moderasi konten sehingga dapat menciptakan ruang yang aman dan nyaman bagi para penggunanya.

Moderasi pertama ialah dengan memanfaatkan kecerdasan buatan berupa teknologi machine learning sedangkan cara kedua ialah dengan mengandalkan manusia yang secara langsung meninjau moderasi konten agar sesuai dengan Panduan Komunitas di masing-masing negara.

Anggini menceritakan, saat pengguna mengunggah sebuah konten, konten tidak langsung terunggah namun terlebih dahulu akan melewati beberapa proses moderasi terlebih dahulu, dimulai dari analisis konten secara otomatis.

Baca juga: TikTok Sediakan Akses ke Informasi Kredibel dan Otoritatif Seputar Pemilu

"Jika sudah melewati tahapan ini dan tidak terindikasi adanya pelanggaran, konten tersebut bisa langsung tayang. Sedangkan jika terkena flagging nanti akan diteruskan ke moderasi manusia untuk ditinjau ulang," kata Anggi di Jakarta, Jumat (1/12).

Lebih lanjut, Outreach and Partnerships, Trust and Safety, TikTok Indonesia Anbar Jayadi menjelaskan ada tujuh tema besar yang menjadi Panduan Komunitas TikTok sebagai kode etik umum yang harus dipatuhi pengguna.

Tujuh tema itu terdiri atas keamanan dan kesejahteraan remaja, integritas dan keaslian, keamanan dan keberadaban, aktivitas komersial dan barang yang diatur, kesehatan mental dari perilaku, privasi dan keamanan, serta tema sensitif dan dewasa.

Baca juga: Cerita DJ Cantik Hesti Hidayati Peringkat 5 Besar Turnamen Live Streaming TikTok

Apabila ada konten yang melanggar ketujuh tema besar tersebut, besar kemungkinan konten terkait tidak dapat ditayangkan bahkan apabila berulang akun yang mengunggah konten dapat diputus aksesnya oleh TikTok.

"Yang melanggar, kontennya kami hapus. Yang melanggar berulang kali, akunnya kami takedown. Dalam konteks tertentu, kami juga dapat melaporkan kepada pihak otoritas, misalnya kasus-kasus serius seperti percobaan bunuh diri, penyiksaan anak, dan lainnya," kata Anbar.

Cara kerja moderasi konten ini tidak hanya berlaku di Indonesia tapi TikTok secara global.

Khusus untuk moderasi konten Berbahasa Indonesia yang dilakukan secara manual, TikTok tidak main-main menyiapkan jumlah personelnya.

Dari jumlah moderator manusia yang berjumlah sekitar 40.000 moderator, 8% di antaranya difokuskan untuk melakukan peninjauan secara langsung untuk konten-konten Berbahasa Indonesia.

Banyaknya peninjau manual untuk konten-konten dengan Bahasa Indonesia menunjukkan TikTok berkomitmen menjaga keamanan platformnya untuk pengguna di Indonesia.

"Pekerjaan moderator manusia itu cukup rumit, karena tidak cuma meninjau konten yang dinilai flag oleh mesin tapi juga mereka me-review konten yang dilaporkan pengguna dan me-review konten-konten yang saat ini tengah hangat dibahas atau current affairs. Mereka juga dibantu oleh mitra pemeriksa fakta di TikTok," pungkas Anggini. (Ant/Z-1)

Cek berita dan artikel yg lain di Google News dan dan ikuti WhatsApp channel mediaindonesia.com

Terkini Lainnya

Tautan Sahabat