En bref
- Komdigi memanggil TikTok dan Meta setelah maraknya konten disinformasi, fitnah, dan kebencian yang memicu kegaduhan sosial.
- Kasus deepfake dan misinformasi seputar aksi 25 Agustus 2025 memperlihatkan bagaimana algoritma konten dapat mempercepat penyebaran narasi manipulatif.
- Koalisi Damai (16 organisasi) menilai langkah pemanggilan cenderung reaktif, dan mendorong kerangka regulasi yang transparan, akuntabel, serta partisipatif.
- Kekhawatiran utama: perluasan sensor media sosial dan pengawasan digital tanpa indikator jelas serta minimnya mekanisme banding.
- Tarik-menarik kepentingan: menekan konten berbahaya tanpa mengorbankan kebebasan berekspresi dan kritik publik yang sah.
Di Indonesia, perdebatan tentang moderasi konten kini bergerak dari ranah teknis menjadi kontroversi yang terasa sangat sosial: menyangkut rasa aman, kualitas demokrasi, serta hak warga untuk berbicara tanpa takut dibungkam. Pada Agustus 2025, pemerintah melalui Kementerian Komunikasi dan Digital (Komdigi) menyampaikan rencana memanggil perwakilan TikTok dan Meta untuk membahas gelombang konten manipulatif—mulai dari potongan video menyesatkan hingga deepfake yang meniru figur publik. Di sisi lain, koalisi masyarakat sipil menilai pola “pemanggilan mendadak” rawan menjadi tambal sulam, apalagi ketika aturan yang dipakai belum menghadirkan indikator yang spesifik, mekanisme banding yang tegas, dan tata kelola yang terbuka.
Di lapangan, warga merasakan dampaknya secara nyata. Seorang guru honorer di pinggiran Jakarta, misalnya, bisa tiba-tiba menjadi sasaran amarah warganet setelah beredar potongan video “pernyataan” yang ternyata palsu. Pedagang kecil bisa kehilangan pelanggan akibat rumor yang disebar akun anonim. Bahkan aspirasi politik yang sah dapat ternodai ketika narasi provokatif disuntikkan ke arus percakapan. Pada titik ini, pertanyaan besarnya bukan sekadar “konten apa yang harus dihapus,” melainkan “siapa yang berwenang menentukan, dengan standar apa, dan bagaimana publik bisa menggugat keputusan itu?”
Kontroversi sosial moderasi konten TikTok dan Meta di Indonesia: dari deepfake hingga kerusuhan narasi
Gelombang konten sintetis berbasis AI memperlihatkan wajah baru disinformasi. Salah satu contoh yang ramai dibicarakan adalah video deepfake yang meniru Menteri Keuangan seolah-olah menyatakan bahwa guru merupakan “beban negara”. Bagi pengguna yang menonton sekilas, video seperti ini tampak meyakinkan: gerak bibir serasi, suara menyerupai, dan potongan visual seolah berasal dari konferensi pers. Ketika konten semacam ini masuk ke sistem rekomendasi, ia tidak hanya menyebar; ia berlipat ganda, dipotong ulang, ditambahi teks, lalu diedarkan sebagai “bukti.” Di sinilah algoritma konten berperan: ia mendorong materi yang memicu emosi, karena emosi meningkatkan interaksi.
Di tengah atmosfer panas, Komdigi menyampaikan bahwa negara hadir untuk melindungi warga dari dampak buruk ruang digital. Pejabat Komdigi, termasuk Wakil Menteri, mengaitkan konten disinformasi, fitnah, dan kebencian dengan ancaman terhadap sendi demokrasi: aspirasi bisa dibelokkan, reputasi publik dirusak, dan konflik horizontal diperbesar. Pemanggilan perwakilan platform—TikTok Asia Pasifik maupun perwakilan lokal, serta Meta Indonesia—diposisikan sebagai upaya meminta penjelasan kebijakan dan mendorong penguatan moderasi.
Namun, dalam kontroversi ini, penilaian publik terpecah. Ada kelompok yang menganggap langkah pemanggilan adalah alarm yang diperlukan: platform harus bertanggung jawab karena “panggungnya” berada di tangan mereka. Ada pula yang mengkhawatirkan efek domino berupa sensor media sosial, terutama bila tekanan negara membuat platform memilih aman dengan menghapus konten secara massal. Kekhawatiran ini terasa relevan di momen ketika isu demonstrasi, kritik kebijakan, dan percakapan politik sedang intens, karena batas antara “menyebarkan kebencian” dan “kritik keras” sering kali kabur di mata mesin maupun moderator manusia yang bekerja cepat.
Untuk memahami ketegangan ini, berguna melihat cara masyarakat Indonesia membentuk opini lewat media. Perubahan kebiasaan konsumsi informasi—dari portal berita ke video pendek, dari membaca utuh ke menonton potongan—membuat klarifikasi sering kalah cepat. Perspektif tentang pergeseran tersebut bisa ditautkan dengan pembacaan lebih luas mengenai pola konsumsi media di Indonesia, yang menjelaskan mengapa konteks kerap hilang dan ruang untuk manipulasi menjadi semakin besar. Insight kuncinya: teknologi mempercepat distribusi, tetapi literasi dan verifikasi tidak selalu ikut meningkat.
Di tingkat individu, dampak sosialnya tidak selalu spektakuler seperti kerusuhan; sering kali justru berupa luka kecil yang menumpuk. Bayangkan “Rani,” mahasiswi yang aktif mengabarkan kegiatan komunitas. Ia mengunggah video edukasi tentang hoaks, lalu kolom komentarnya dibanjiri tuduhan berpihak. Di saat yang sama, akun lain mengedit ulang videonya dengan narasi berlawanan. Apakah ini masuk kategori “konten meresahkan”? Atau justru bagian dari debat publik? Di sinilah moderasi menjadi rumit, karena ia berhadapan dengan realitas sosial yang penuh nuansa. Insight akhirnya: ketika teknologi mengubah skala penyebaran, konflik sosial ikut berubah dari adu argumen menjadi perang potongan video.

Pemanggilan Komdigi terhadap TikTok dan Meta: perlindungan publik atau langkah reaktif?
Rencana pemanggilan platform oleh Komdigi dipahami sebagai respons cepat terhadap rangkaian peristiwa: penyebaran deepfake, konten manipulatif yang memelintir pernyataan pejabat, serta misinformasi yang menyertai tensi politik dan aksi massa. Dalam komunikasi publik, Komdigi menekankan bahwa pemerintah mendorong verifikasi, mengajak semua pihak—termasuk platform—ikut menjaga ruang digital. Pesan yang ingin ditegaskan: moderasi bukan semata urusan perusahaan teknologi, tetapi tanggung jawab kolektif untuk mengurangi dampak nyata di masyarakat.
Koalisi Damai, yang terdiri dari 16 organisasi dan individu, menilai pola seperti ini sering berakhir sebagai penanganan jangka pendek. Menurut mereka, pemanggilan, imbauan mendadak, atau kebijakan “tambal sulam” tidak menyentuh akar masalah: standar moderasi yang tidak selalu jelas, proses pengambilan keputusan yang tidak transparan, serta minimnya akuntabilitas ketika konten dihapus atau akun dibatasi. Dengan kata lain, langkah cepat bisa berguna untuk memadamkan api, tetapi belum tentu membangun sistem pencegahan kebakaran.
Perdebatan semakin tajam ketika isu “bukan penyensoran” muncul dalam ruang publik. Komdigi menekankan pemanggilan tidak ditujukan untuk membatasi konten demonstrasi, melainkan fokus pada moderasi konten yang dianggap berbahaya. Walau begitu, di mata masyarakat sipil, pemisahan ini tidak selalu terasa tegas di praktik. Mengapa? Karena tekanan regulasi sering membuat platform menerapkan pendekatan “lebih baik hapus daripada disanksi.” Akibatnya, konten yang berada di wilayah abu-abu—kritik tajam, satire, dokumentasi lapangan—berpotensi ikut tersapu.
Di sinilah pentingnya membedakan tiga level tindakan: penegakan hukum (yang membutuhkan proses dan bukti), kebijakan platform (yang sering berbasis ketentuan layanan), dan koordinasi pemerintah-platform (yang seharusnya punya pagar transparansi). Ketika ketiganya bercampur tanpa penjelasan yang rapi, publik mudah curiga bahwa negara sedang memperluas pengawasan digital atas percakapan warganya.
Secara sosial, sensitivitas ini punya akar sejarah. Jakarta, misalnya, berkali-kali mengalami momen ketika informasi dan rumor memengaruhi mobilisasi massa, dari era selebaran hingga era pesan berantai. Membaca ulang dinamika kota dan memori kolektif membantu memahami mengapa isu moderasi mudah memantik kecurigaan. Konteks semacam itu bisa ditarik dari ulasan tentang tantangan sejarah Jakarta, yang menunjukkan bagaimana kepadatan sosial dan politik membuat “narasi” menjadi komoditas yang diperebutkan.
Jika tujuan pemanggilan adalah perlindungan publik, maka ukurannya harus jelas: apakah konten berbahaya menurun? apakah korban doxing dan fitnah berkurang? apakah proses penghapusan semakin bisa diaudit? Tanpa indikator, langkah tegas mudah terbaca sebagai gestur politik. Insight akhirnya: publik membutuhkan kepastian prosedural, bukan hanya pernyataan niat baik.
Perdebatan soal efektivitas pemanggilan juga muncul dalam diskusi publik yang ramai di kanal video.
Kerangka regulasi dan celah akuntabilitas: PP PSTE, Permen PSE Privat, dan isu banding
Dalam praktik, pemerintah merujuk pada PP Nomor 71 Tahun 2019 tentang penyelenggaraan sistem dan transaksi elektronik, beserta aturan turunan mengenai Penyelenggara Sistem Elektronik (PSE) lingkup privat. Kerangka ini memberi kewenangan bagi pemerintah untuk memutus akses atau memerintahkan platform melakukan pembatasan jika konten dinilai melanggar hukum atau masuk kategori yang “meresahkan” serta “mengganggu ketertiban umum.” Pada tataran prinsip, kewenangan tersebut tampak wajar: negara memang punya mandat melindungi warga dari penipuan, eksploitasi, atau provokasi kekerasan.
Masalahnya, kategori “meresahkan” dan “mengganggu ketertiban umum” sering tidak disertai indikator yang spesifik. Tanpa parameter terukur—misalnya definisi operasional, contoh kasus, dan ambang batas—penilaian menjadi sangat bergantung pada interpretasi. Dalam isu yang sensitif, interpretasi bisa berubah sesuai konteks politik dan tekanan publik. Ini membuka ruang bagi keputusan yang tidak konsisten: konten A dihapus cepat, konten B dibiarkan; akun kecil ditindak, akun besar lolos karena daya tawarnya lebih kuat.
Koalisi Damai juga menyoroti lemahnya mekanisme banding yang memadai. Di banyak kasus, pengguna yang kontennya dihapus hanya menerima notifikasi singkat: “melanggar kebijakan.” Jika pengguna adalah jurnalis warga yang mendokumentasikan kejadian, atau aktivis yang mengunggah kritik, absennya jalur banding yang jelas menimbulkan efek gentar. Orang memilih diam atau membatasi diri. Di sinilah kebebasan berekspresi bisa tergerus bukan oleh larangan eksplisit, melainkan oleh ketidakpastian dan rasa takut.
Untuk memetakan persoalan secara lebih rapi, berikut ringkasan isu yang sering muncul dalam tata kelola moderasi di Indonesia, terutama saat koordinasi pemerintah-platform menguat.
Area kebijakan |
Tujuan ideal |
Risiko yang diperdebatkan |
Contoh dampak sosial |
|---|---|---|---|
Definisi konten berbahaya |
Menekan disinformasi, fitnah, kebencian, dan penipuan |
Istilah “meresahkan” terlalu lentur, membuka tafsir luas |
Konten kritik bisa ikut terhapus karena dianggap memicu keributan |
Prosedur take down |
Respons cepat terhadap ancaman nyata |
Kurang transparan: publik tak tahu alasan rinci dan bukti |
Korban fitnah sulit memulihkan reputasi jika konten sudah menyebar luas |
Mekanisme banding |
Melindungi pengguna dari keputusan keliru |
Banding lambat atau tidak jelas, sehingga “hukuman” terjadi duluan |
Jurnalis warga enggan mengunggah dokumentasi, takut akun dibatasi |
Audit dan akuntabilitas |
Memastikan keputusan dapat diuji |
Minim akses data independen, sulit menilai pola bias |
Publik menuduh ada standar ganda pada platform |
Isu regulasi juga berkaitan dengan infrastruktur: semakin terpusat data dan pengelolaan, semakin besar pertanyaan tentang kontrol dan pengawasan. Diskusi lebih luas mengenai konsolidasi dan perluasan pusat data kerap dibaca sebagai bagian dari ekosistem kebijakan digital. Salah satu rujukan konteksnya dapat dilihat pada pembahasan perluasan pusat data, yang menambah lapisan pertanyaan tentang bagaimana data dan kebijakan saling menguatkan. Insight akhirnya: ketika kewenangan besar tidak diimbangi prosedur banding dan audit, kepercayaan publik menjadi modal yang cepat terkuras.
Algoritma konten, insentif platform, dan dilema sensor media sosial: bagaimana konflik lahir dari desain
Di TikTok dan Meta, keputusan moderasi tidak berdiri sendiri; ia terkait erat dengan desain produk. Sistem rekomendasi bekerja dengan logika sederhana: konten yang membuat orang bertahan lebih lama akan dipromosikan. Dalam situasi normal, ini menghasilkan hiburan dan tren. Dalam situasi politik memanas, logika yang sama mendorong konten yang memicu marah, takut, atau curiga. Karena emosi kuat memancing komentar dan berbagi, konten semacam itu sering melesat melampaui konten informatif yang tenang.
Ambil contoh kasus hipotetis yang dekat dengan kejadian nyata. “Bima,” admin akun lokal, mengunggah video kerumunan dengan narasi “terjadi penyerangan.” Video itu ternyata diambil pada waktu berbeda, namun diberi konteks palsu. Dalam hitungan jam, potongan video itu ditonton ratusan ribu kali karena memicu kepanikan. Platform kemudian menurunkan jangkauan atau menghapusnya setelah laporan menumpuk. Masalahnya, kerusakan sosial sudah terjadi: orang telanjur menyebarkan, grup keluarga terpecah, dan pihak yang dituduh menerima ancaman. Pertanyaannya: apakah moderasi yang cepat cukup jika algoritma memprioritaskan ledakan awal?
Di sinilah muncul dilema sensor media sosial. Ketika tekanan meningkat, platform sering menaikkan sensitivitas filter. Akibatnya, konten yang sah ikut terkena “false positive”: dokumentasi pelanggaran bisa dianggap kekerasan, satire dianggap ujaran kebencian, atau kritik keras dianggap perundungan. Koalisi Damai mengkhawatirkan pelebaran sistem moderasi pemerintah (sering dibicarakan sebagai sistem pemantauan dan penindakan konten) ke area “abu-abu” seperti DFK tanpa pedoman yang presisi. Dalam skenario itu, platform akan terdorong menerapkan over censorship untuk menghindari sanksi.
Konteks Indonesia membuat dilema ini semakin kompleks karena pluralitas budaya dan bahasa. Kalimat yang terdengar biasa di satu daerah bisa dianggap menghina di daerah lain. Humor yang jamak di komunitas tertentu bisa dipahami sebagai kebencian oleh moderator yang tidak menguasai konteks lokal. Itu sebabnya, moderasi yang adil memerlukan pemahaman sosio-kultural, bukan hanya model bahasa. Perspektif mengenai keragaman ini selaras dengan pembacaan tentang pluralisme budaya Indonesia, yang menegaskan bahwa standar “kepantasan” tidak seragam, sehingga kebijakan tunggal sering menimbulkan gesekan.
Untuk membantu melihat pilihan kebijakan yang realistis, berikut daftar pendek strategi yang sering dianggap lebih seimbang daripada sekadar “hapus atau biarkan”:
- Label konteks dan friksi berbagi: menambahkan peringatan, meminta pengguna membaca sumber sebelum membagikan, atau memberi jeda saat konten viral.
- Transparansi rekomendasi: menjelaskan mengapa konten muncul, serta memberi kontrol bagi pengguna untuk mengurangi topik tertentu.
- Moderasi berbasis risiko: memprioritaskan konten yang berpotensi memicu kekerasan, penipuan, atau doxing dibanding perdebatan opini.
- Kolaborasi pemeriksa fakta lokal: mempercepat klarifikasi dengan jejaring yang memahami bahasa dan konteks daerah.
- Jalur banding yang cepat dan manusiawi: keputusan mesin harus bisa diuji oleh peninjau yang paham konteks.
Jika desain produk memberi insentif pada keterlibatan tanpa mempertimbangkan dampak, maka konflik sosial akan terus “diproduksi ulang.” Insight akhirnya: moderasi konten tidak akan stabil tanpa pembenahan insentif algoritmik yang selama ini memanen atensi dari kemarahan publik.
Dalam banyak diskusi, tema algoritma dan kebebasan berpendapat kerap dibedah oleh pengamat media dan akademisi di YouTube.
Peran masyarakat sipil dan Koalisi Damai: dari akuntabilitas hingga perlindungan kebebasan berekspresi
Koalisi Damai—beranggotakan 16 organisasi dan individu, termasuk jejaring jurnalis, pemerhati kebebasan digital, lembaga riset, organisasi pemeriksa fakta, hingga komunitas lintas iman—mendorong perubahan arah kebijakan: dari reaktif menjadi strategis. Mereka menekankan bahwa moderasi konten seharusnya dibangun dengan prinsip pelibatan publik, transparansi, dan akuntabilitas. Di Indonesia, tuntutan ini bukan sekadar idealisme; ia lahir dari pengalaman panjang ketika kebijakan digital dapat meleset dan menimbulkan korban sekunder, mulai dari pembungkaman kritik hingga kriminalisasi berbasis tafsir.
Yang diperjuangkan Koalisi Damai pada dasarnya adalah keseimbangan dua kepentingan besar. Pertama, penanganan konten berbahaya secara efektif—terutama disinformasi terkoordinasi, fitnah yang merusak reputasi, serta kebencian yang mengarah pada diskriminasi atau kekerasan. Kedua, perlindungan kebebasan berekspresi agar platform dan negara tidak menghapus konten kritis yang sah. Keseimbangan ini menuntut proses yang bisa diuji: standar jelas, data transparansi berkala, dan jalur banding yang dapat diakses.
Dari perspektif sosial, masyarakat sipil memainkan peran “jembatan.” Mereka menerima aduan warga, mengumpulkan pola kasus, lalu menerjemahkannya menjadi rekomendasi kebijakan. Misalnya, saat hoaks terkait demonstrasi menyebar, pemeriksa fakta lokal dapat memetakan format hoaks yang paling sering dipakai: potongan video tanpa konteks, narasi “sumber orang dalam,” atau klaim yang meminjam simbol institusi. Data seperti ini membantu platform menyetel kebijakan bukan berdasarkan kepanikan sesaat, melainkan berdasarkan pola yang terukur.
Koalisi Damai juga menyoroti bahwa diskusi moderasi tidak bisa dilepaskan dari generasi muda, karena merekalah pengguna paling intens di platform video pendek. Anak muda sering menjadi target utama propaganda, sekaligus aktor kunci dalam literasi digital. Kacamata yang lebih luas tentang peran dan tantangan anak muda di ruang publik dapat dikaitkan dengan ulasan generasi muda Indonesia, yang menunjukkan bahwa energi partisipasi bisa berubah menjadi polarisasi jika lingkungan informasinya toksik.
Di tingkat praktik, tuntutan Koalisi Damai dapat dirangkum dalam tiga garis besar: pemerintah menyusun kerangka yang strategis, prosesnya melibatkan banyak pemangku kepentingan, dan platform membangun sistem moderasi yang jelas sekaligus melindungi kritik yang sah. Bagi pembaca awam, ini mungkin terdengar administratif. Namun bagi korban salah hapus, ini menyangkut pekerjaan, reputasi, dan keamanan. Bagi jurnalis, ini menyangkut kemampuan meliput. Bagi demokrasi, ini menyangkut apakah ruang debat publik masih hidup.
Pada akhirnya, arah kebijakan moderasi adalah pilihan tentang masyarakat seperti apa yang ingin dibangun: ruang digital yang aman namun terbuka, atau ruang yang tertib tetapi mudah membungkam. Insight akhirnya: ketika masyarakat sipil dilibatkan sejak desain kebijakan, moderasi konten memiliki peluang lebih besar menjadi alat perlindungan, bukan instrumen kontrol.