Aturan baru India untuk menangani deepfakes terlihat menjanjikan, tetapi sulit untuk diterapkan.
Aturan yang diusulkan untuk mengatasi ancaman deepfakes secara teknis tidak layak, secara sosial naif, dan secara hukum canggung. Solusi yang lebih baik adalah berinvestasi dalam membangun masyarakat yang terinformasi dan kritis.
Upaya pemerintah India untuk mengatur konten yang dihasilkan oleh kecerdasan buatan (AI) patut diapresiasi, namun pemahaman mereka tentang cara orang mengonsumsi konten tidak akurat. Sebuah deepfake menjadi viral bukan karena terlihat autentik, melainkan karena memperkuat bias yang sudah ada sebelumnya. Foto oleh Andres Siimon di Unsplash
| Oleh: |
| Editor: |
| Saraswathy Vaidyanathan - BML Munjal University, Haryana - - |
| Namita Kohli - Commissioning Editor, 360info |
|
|
| Samrat Choudhary - Commissioning Editor, 360info - - |
Aturan yang diusulkan untuk mengatasi ancaman deepfake secara teknis tidak layak, secara sosial naif, dan secara hukum canggung. Solusi yang lebih baik adalah berinvestasi dalam membangun masyarakat yang terinformasi dan kritis.
Di negara yang terobsesi dengan selebriti, dibutuhkan seorang aktris, Rashmika Mandanna, menjadi korban deepfake agar para pembuat kebijakan mulai memperhatikan.
Insiden tersebut menjadi peringatan yang mengejutkan, menunjukkan dengan jelas betapa mudahnya kecerdasan buatan generatif (AI) dapat disalahgunakan terhadap seseorang; sebuah indikasi yang jelas bahwa era media sintetis yang diciptakan oleh AI generatif bukanlah kekhawatiran di masa depan, melainkan sudah ada di sini.
Pemerintah India merespons krisis ini dengan beberapa perubahan pada Peraturan Teknologi Informasi (Pedoman Perantara dan Kode Etika Media Digital) Tahun 2021 (Peraturan TI). Perubahan yang diusulkan, yang dirilis pada 22 Oktober 2025, memungkinkan Kementerian Elektronik dan Teknologi Informasi (MeitY) setidaknya mencoba menangani ancaman disinformasi yang didukung AI dan konsekuensinya.
Perubahan yang diusulkan mencakup serangkaian kewajiban due diligence baru, yang menyatakan bahwa semua konten yang dihasilkan oleh AI harus diberi label dengan jelas, dan platform online harus dapat melacak asal-usulnya.
Tujuan tersebut patut diapresiasi, dan tidak ada yang bisa membantah kebutuhan untuk melindungi masyarakat dari deepfakes yang dihasilkan oleh AI dan bahaya terkait seperti pelanggaran privasi, pencemaran nama baik, dan pelanggaran martabat.
Namun, dalam terburu-buru untuk mengatur, kita berisiko menciptakan kebijakan yang bermaksud baik namun sulit diimplementasikan, dan mungkin bahkan gagal mengatasi akar masalahnya.
Ini adalah contoh klasik ketidakcocokan antara kebijakan dan implementasi – seperangkat aturan yang terlihat bagus di atas kertas tetapi menghadapi tantangan saat diimplementasikan dalam praktik.
`
Ketidakcocokan teknis?
Celah pertama muncul antara harapan regulasi dan realitas teknis. Berdasarkan draf Pasal 4(1A), Penyedia Layanan Media Sosial yang Signifikan (SSMI) harus “mengimplementasikan langkah-langkah teknis yang wajar dan proporsional untuk memverifikasi pernyataan tersebut”. Di sini, mandat tersebut mengharuskan pengguna platform media sosial tersebut untuk menyatakan bahwa konten mereka tidak dihasilkan secara sintetis. Penjelasan aturan ini menyatakan bahwa tanggung jawab untuk memverifikasi kebenaran pernyataan pengguna ada pada platform media sosial, dan bahwa “tidak ada informasi yang dihasilkan secara sintetis yang dipublikasikan tanpa pernyataan atau label tersebut”.
Pertanyaannya adalah, bagaimana platform media sosial akan menerapkan hal ini? Saat ini, tidak ada teknologi tunggal yang andal yang dapat secara pasti mendeteksi semua bentuk konten yang dihasilkan oleh kecerdasan buatan (AI), dengan alat deteksi yang selalu tertinggal satu langkah di belakang alat pembuat konten. Setiap kali metode deteksi baru dikembangkan, model pembuat konten baru muncul untuk mengelakinya.
Dengan mewajibkan "verifikasi," pemerintah menempatkan kewajiban yang samar dan sangat memberatkan pada platform, yang mungkin terbukti menantang dan, hingga batas tertentu, tidak dapat dicapai. Misalnya, bagaimana sebuah startup India dapat mematuhi persyaratan ini? Apa standar hukum untuk "langkah teknis yang wajar dan proporsional" untuk mendeteksi konten palsu?
Aturan ini secara tidak sengaja memberikan kelonggaran yang luas bagi beberapa perusahaan teknologi besar, yang dapat mengucurkan miliaran dolar untuk penelitian dan pengembangan eksperimental, sementara menghambat inovasi dalam sistem AI India yang telah didukung oleh pemerintah.
`
Kesalahan diagnosis konsumsi
Ketidakcocokan kedua — dan mungkin lebih mendalam — terletak pada pemahaman kebijakan terhadap aspek manusia dalam disinformasi.
Asumsi inti pemerintah adalah bahwa masalahnya bersifat teknis, karena pengguna tidak dapat membedakan apakah sebuah video palsu. Oleh karena itu, solusi sesuai dengan Pasal 3(3) juga bersifat teknis — informasi yang dihasilkan secara sintetis harus jelas "dilabeli".
Kesalahan diagnosis ini dapat berbahaya.
Deepfake tidak menjadi viral karena terlihat autentik, tetapi karena mengonfirmasi bias yang sudah ada. Misalnya, deepfake Rashmika Mandana yang menjadi viral menyoroti masalah yang lebih luas tentang objekifikasi perempuan. Kekuatannya tidak terletak pada piksel yang dihasilkan, tetapi pada bagaimana ia beresonansi secara emosional dengan orang-orang.
Dalam lingkungan sosial yang rendah kepercayaan dan tinggi konteks, kewajiban label 10 persen yang menandakan penggunaan AI – label tersebut harus menutupi setidaknya 10 persen dari total area permukaan – mungkin terbukti sebagai perisai yang cukup lemah. Secara argumen, video berbahaya yang dikirimkan pengguna yang mengonfirmasi pandangan dunia orang-orang kemungkinan besar akan memicu kepercayaan lebih besar daripada label yang menyatakan ini adalah konten yang dihasilkan AI.
Amandemen yang diusulkan tampak seperti tambalan teknis untuk masalah manusia yang mendalam dan adaptif. Saran yang layak adalah berinvestasi secara besar-besaran dalam pemikiran kritis, daripada negara mendelegasikan tanggung jawab inti seperti pendidikan publik ke sektor swasta.
Ide utama untuk menangani disinformasi akan lebih efektif jika kita dapat mengajarkan warga negara cara mengonsumsi informasi yang tersedia. Tanpa pendidikan ini, kewajiban penandaan akan gagal pada tahap implementasi akhir — otak manusia.
`
Tambalan regulasi
Ketidakcocokan besar ketiga adalah kerangka hukum itu sendiri. Aturan yang diusulkan tampak seperti upaya memaksakan AI generatif ke dalam kerangka IT Rules 2021 yang tidak sesuai.
Aturan IT dirancang untuk mengatur perantara media sosial dan platform yang menghosting konten pihak ketiga, tetapi ekosistem AI jauh lebih kompleks.
Ini mencakup pengembang model AI, pengembang aplikasi, dan bahkan penyedia antarmuka aplikasi. Aturan yang diusulkan ini menciptakan ambiguitas hukum yang besar dengan memperluas definisi lama tentang perantara untuk mencakup semua aktor dalam ekosistem AI.
Pendekatan ini sendiri tampak reaktif dan terfragmentasi, yang gagal memberikan kejelasan bagi industri yang menjadi sasaran regulasi ini.
Kerangka regulasi yang berantakan ini bertentangan dengan kerangka kerja yang stabil dan dapat diprediksi yang dibutuhkan oleh para inovator kita.
Selain tantangan praktis implementasi, seperti yang telah ditekankan oleh Internet Freedom Foundation, tenggat waktu konsultasi publik, dari 25 Oktober hingga 6 November 2025, juga tidak memadai.
Selain itu, amandemen yang diusulkan juga menimbulkan pertanyaan mendasar mengenai pemisahan kekuasaan antara legislatif dan eksekutif. Kesepakatan besar dalam sistem hukum internet India — Pasal 79 Undang-Undang Teknologi Informasi 2000 (IT Act) — didasarkan pada prinsip safe harbour: platform media sosial dan penyedia layanan digital lainnya hanya dilindungi dari tanggung jawab atas konten pengguna jika mereka tetap netral.
Pasal 79 secara eksplisit menyatakan bahwa kekebalan safe harbour hanya diberikan jika penyedia layanan tidak “menginisiasi transmisi, memilih penerima transmisi, dan memodifikasi konten” transmisi tersebut.
Perubahan yang diusulkan mewajibkan platform untuk melakukan hal tersebut. Berdasarkan Pasal 3(3) perubahan yang diusulkan, platform harus “memodifikasi” konten dengan menambahkan label dan metadata yang terlihat. Mereka kini diwajibkan untuk memilih konten dengan memverifikasinya sebelum konten tersebut dapat dipublikasikan.
Namun, solusi untuk kontradiksi yang mencolok ini juga disediakan dalam amandemen yang diusulkan melalui ketentuan pada Pasal 3(1)(b). Ketentuan tersebut, pada dasarnya, menyarankan bahwa jika perantara melakukan modifikasi yang diminta dari mereka, maka perubahan tersebut tidak akan dianggap sebagai modifikasi berdasarkan Undang-Undang Teknologi Informasi. Artinya, jika perantara melakukan modifikasi sesuai yang diminta, mereka tetap dilindungi oleh perlindungan hukum Pasal 79.
Ini, pada dasarnya, merupakan manuver hukum. Pemerintah, melalui peraturan pelaksana, berusaha untuk mendefinisikan ulang makna substantif inti dari undang-undang induk yang disahkan oleh Parlemen. Hal ini membaurkan batas antara penulisan ulang legislatif dan implementasi eksekutif.
Pergeseran fundamental dalam tanggung jawab perantara dari posisi netral menjadi editor dan verifikator aktif tampaknya merupakan perubahan kebijakan yang signifikan.
Pertanyaan tentang pemisahan kekuasaan pun muncul — apakah perubahan signifikan yang mengubah arsitektur dasar undang-undang internet kita seharusnya dilakukan melalui pemberitahuan eksekutif, ataukah harus melalui pembahasan penuh oleh Parlemen? Untuk memastikan stabilitas hukum dan konstitusional jangka panjangnya, pilihan yang tepat adalah yang terakhir.
`
Solusi yang layak
Pemerintah memang khawatir tentang deepfakes, dan hal itu wajar. Namun, aturan baru yang diusulkan, dalam bentuknya saat ini, mungkin tidak mewakili solusi yang tepat. Aturan tersebut secara teknis tidak feasible, secara sosial naif, dan secara hukum canggung.
Menerapkannya mungkin tidak akan menghentikan atau mencegah deepfakes; sebaliknya, hal itu mungkin menciptakan beban kepatuhan yang besar bagi bisnis tanpa menyelesaikan akar masalahnya.
Sebaliknya, solusi yang layak akan bersifat dua arah. Pertama, setiap regulasi harus secara teknis layak dan dirumuskan melalui konsultasi dengan pemangku kepentingan yang relevan. Kedua, regulasi tersebut harus dipadukan dengan misi nasional jangka panjang untuk literasi digital.
Kita tidak dapat menyelesaikan masalah deepfakes dengan aturan. Kita hanya dapat bermimpi untuk membangun masyarakat yang tangguh dan kritis yang siap menghadapi mereka.
Saraswathy Vaidyanathan adalah Dosen Pembantu, Fakultas Hukum, Universitas BML Munjal, Haryana.
Diterbitkan pertama kali di bawah lisensi Creative Commons oleh 360info™.
`
Artikel ini diterjemahkan menggunakan alat kecerdasan buatan otomatis yang berpotensi memiliki kesalahan, kesilapan dan ketidakakuratan. Berbagai upaya sudah dilakukan untuk memastikan kejelasan dan koherensi, terjemahan ini bisa saja tidak lengkap dalam menangkap nuansa, intonasi dan tujuan dari teks aslinya. Untuk versi yang tepat, silakan merujuk pada artikel aslinya.
`
Artikel ini pertama kali dipublikasikan tanggal 25 Nov 2025 di bawah lisensi Creative Commons oleh 360info™