Head of Communications TikTok Indonesia Anggini Setiawan membagikan dua cara dari platform digitalnya melakukan moderasi konten sehingga dapat menciptakan ruang yang aman dan nyaman bagi para penggunanya.
Moderasi cara pertama ialah dengan memanfaatkan kecerdasan buatan berupa teknologi machine learning sedangkan cara kedua ialah dengan mengandalkan manusia yang secara langsung meninjau moderasi konten agar sesuai dengan Panduan Komunitas di masing-masing negara.
Anggini menceritakan pada saat pengguna mengunggah sebuah konten, konten tidak langsung terunggah namun terlebih dahulu akan melewati beberapa proses moderasi terlebih dahulu, dimulai dari analisis konten secara otomatis.
"Jika sudah melewati tahapan ini dan tidak terindikasi adanya pelanggaran maka konten tersebut bisa langsung tayang. Sedangkan jika terkena flagging nanti akan diteruskan ke moderasi manusia untuk ditinjau ulang," kata Anggi dalam acara "Mengulik Lebih Jauh Cara Kerja Algoritma TikTok di tengah Isu Hangat" di Jakarta, Jumat.
Lebih lanjut, Outreach and Partnerships, Trust and Safety, TikTok Indonesia Anbar Jayadi menjelaskan ada tujuh tema besar yang menjadi Panduan Komunitas TikTok sebagai kode etik umum yang harus dipatuhi pengguna.
Tujuh tema itu terdiri atas keamanan dan kesejahteraan remaja, integritas dan keaslian, keamanan dan keberadaban, aktivitas komersial dan barang yang diatur, kesehatan mental dari perilaku, privasi dan keamanan, serta tema sensitif dan dewasa.
Apabila ada konten yang melanggar ketujuh tema besar tersebut, maka besar kemungkinan konten terkait tidak dapat ditayangkan bahkan apabila berulang akun yang mengunggah konten dapat diputus aksesnya oleh TikTok.
"Yang melanggar, kontennya kami hapus. Yang melanggar berulang kali, akunnya kami takedown. Dalam konteks tertentu, kami juga dapat melaporkan kepada pihak otoritas, misalnya kasus-kasus serius seperti percobaan bunuh diri, penyiksaan anak, dan lainnya," kata Anbar.
Cara kerja moderasi konten ini tidak hanya berlaku di Indonesia tapi TikTok secara global.
Khusus untuk moderasi konten Berbahasa Indonesia yang dilakukan secara manual, TikTok tidak main-main menyiapkan jumlah personelnya.
Dari jumlah moderator manusia yang berjumlah sekitar 40.000 moderator, delapan persen di antaranya difokuskan untuk melakukan peninjauan secara langsung untuk konten-konten Berbahasa Indonesia.
Banyaknya peninjau manual untuk konten-konten dengan Bahasa Indonesia menunjukkan bahwa TikTok berkomitmen untuk menjaga keamanan platformnya untuk pengguna di Indonesia.
"Pekerjaan moderator manusia itu cukup rumit, karena tidak cuma meninjau konten yang dinilai flag oleh mesin tapi juga mereka me-review konten yang dilaporkan pengguna dan me-review konten-konten yang saat ini tengah hangat dibahas atau current affairs. Mereka juga dibantu oleh mitra pemeriksa fakta di TikTok," kata Anggini.
COPYRIGHT © ANTARA News Kalimantan Barat 2023
Moderasi cara pertama ialah dengan memanfaatkan kecerdasan buatan berupa teknologi machine learning sedangkan cara kedua ialah dengan mengandalkan manusia yang secara langsung meninjau moderasi konten agar sesuai dengan Panduan Komunitas di masing-masing negara.
Anggini menceritakan pada saat pengguna mengunggah sebuah konten, konten tidak langsung terunggah namun terlebih dahulu akan melewati beberapa proses moderasi terlebih dahulu, dimulai dari analisis konten secara otomatis.
"Jika sudah melewati tahapan ini dan tidak terindikasi adanya pelanggaran maka konten tersebut bisa langsung tayang. Sedangkan jika terkena flagging nanti akan diteruskan ke moderasi manusia untuk ditinjau ulang," kata Anggi dalam acara "Mengulik Lebih Jauh Cara Kerja Algoritma TikTok di tengah Isu Hangat" di Jakarta, Jumat.
Lebih lanjut, Outreach and Partnerships, Trust and Safety, TikTok Indonesia Anbar Jayadi menjelaskan ada tujuh tema besar yang menjadi Panduan Komunitas TikTok sebagai kode etik umum yang harus dipatuhi pengguna.
Tujuh tema itu terdiri atas keamanan dan kesejahteraan remaja, integritas dan keaslian, keamanan dan keberadaban, aktivitas komersial dan barang yang diatur, kesehatan mental dari perilaku, privasi dan keamanan, serta tema sensitif dan dewasa.
Apabila ada konten yang melanggar ketujuh tema besar tersebut, maka besar kemungkinan konten terkait tidak dapat ditayangkan bahkan apabila berulang akun yang mengunggah konten dapat diputus aksesnya oleh TikTok.
"Yang melanggar, kontennya kami hapus. Yang melanggar berulang kali, akunnya kami takedown. Dalam konteks tertentu, kami juga dapat melaporkan kepada pihak otoritas, misalnya kasus-kasus serius seperti percobaan bunuh diri, penyiksaan anak, dan lainnya," kata Anbar.
Cara kerja moderasi konten ini tidak hanya berlaku di Indonesia tapi TikTok secara global.
Khusus untuk moderasi konten Berbahasa Indonesia yang dilakukan secara manual, TikTok tidak main-main menyiapkan jumlah personelnya.
Dari jumlah moderator manusia yang berjumlah sekitar 40.000 moderator, delapan persen di antaranya difokuskan untuk melakukan peninjauan secara langsung untuk konten-konten Berbahasa Indonesia.
Banyaknya peninjau manual untuk konten-konten dengan Bahasa Indonesia menunjukkan bahwa TikTok berkomitmen untuk menjaga keamanan platformnya untuk pengguna di Indonesia.
"Pekerjaan moderator manusia itu cukup rumit, karena tidak cuma meninjau konten yang dinilai flag oleh mesin tapi juga mereka me-review konten yang dilaporkan pengguna dan me-review konten-konten yang saat ini tengah hangat dibahas atau current affairs. Mereka juga dibantu oleh mitra pemeriksa fakta di TikTok," kata Anggini.
COPYRIGHT © ANTARA News Kalimantan Barat 2023