Ilustrasi kekerasan seksual. setidaknya 1,2 juta anak melaporkan bahwa foto mereka telah dimanipulasi menjadi konten seksual deepfake dalam satu tahun terakhir.
REPUBLIKA.CO.ID, JAKARTA -- Di balik kemudahan dan kreativitas yang ditawarkan oleh kecerdasan buatan (AI), sebuah ancaman kini mengintai ruang privasi anak-anak di seluruh dunia. UNICEF baru-baru ini mengeluarkan peringatan serius mengenai tren pemanfaatan teknologi deepfake.
Jika dulu ancaman predator seksual memerlukan interaksi fisik atau materi asli, kini teknologi memungkinkan siapa pun untuk memanipulasi citra seorang anak menjadi konten eksploitatif hanya dengan modal beberapa foto dari media sosial. Sayangnya, menurut Badan PBB tersebut, kerangka hukum di banyak negara belum mampu mengimbanginya.
"Dampak dari penyalahgunaan deepfake itu nyata dan mendesak. Anak- anak tidak bisa menunggu hukum mengejar ketertinggalan," kata UNICEF dikutip dari laman resminya, Sabtu (7/2/2026).
Temuan tersebut berdasarkan studi di 11 negara yang dilakukan UNICEF bersama interpol dan jaringan global ECPAT. Studi itu mencatat setidaknya 1,2 juta anak melaporkan bahwa foto mereka telah dimanipulasi menjadi konten seksual deepfake dalam satu tahun terakhir.
UNICEF menjelaskan, deepfake berupa gambar, video, atau audio yang dihasilkan atau dimanipulasi menggunakan Al semakin sering dimanfaatkan untuk memproduksi konten seksual anak. Salah satu praktik yang mengkhawatirkan adalah nudifikasi yakni penggunaan Al untuk menghapus atau memodifikasi pakaian dalam foto anak sehingga tercipta gambar telanjang atau seksual palsu.
"Ketika gambar atau identitas seorang anak digunakan, anak tersebut secara langsung menjadi korban. Bahkan tanpa korban yang dapat diidentifikasi, materi seksual anak berbasis Al menormalkan eksploitasi seksual, mendorong permintaan konten abusif, dan menyulitkan aparat penegak hukum melindungi anak-anak yang membutuhkan bantuan," kata UNICEF.

2 hours ago
4














































