Kecerdasan buatan dengan cepat memperburuk masalah materi pelecehan seksual terhadap anak-anak (CSAM) online, dengan dilaporkan peningkatan sebesar 14% pada citra yang dihasilkan AI pada tahun 2025. Lonjakan ini menghadirkan tantangan besar bagi para penyelidik, karena konten sintetis semakin sulit dibedakan dari penggambaran pelecehan di kehidupan nyata. Internet Watch Foundation (IWF), sebuah organisasi nirlaba terkemuka di bidang ini, mendokumentasikan lebih dari 8.000 gambar dan video yang dihasilkan AI dalam satu tahun terakhir, yang menggarisbawahi sifat permasalahan yang semakin cepat.
Meningkatnya Gelombang Penyalahgunaan Sintetis
IWF mengidentifikasi konten yang dihasilkan AI melalui kesalahan yang jelas, laporan korban, atau pengungkapan pencipta. Meskipun porsinya masih lebih kecil dari total CSAM, tingkat pertumbuhannya mengkhawatirkan. Laporan tersebut menyoroti bahwa lebih dari 3.400 karya yang dibuat oleh AI merupakan video full-motion – penggambaran yang sangat realistis dan memungkinkan terjadinya skenario pelecehan yang kompleks dan melibatkan banyak orang.
Tren utamanya adalah semakin parahnya konten yang dihasilkan oleh AI: 65% dari video ini menggambarkan pelecehan ekstrem (pemerkosaan, penyiksaan, kebinatangan) dibandingkan hanya 43% dari materi non-AI. Hal ini menunjukkan bahwa para pelaku kejahatan memanfaatkan AI untuk membuat konten yang lebih eksplisit dan kompleks dibandingkan sebelumnya. CEO IWF, Kerry Smith, memperingatkan bahwa teknologi ini memungkinkan terjadinya “pelanggaran tanpa batas dengan kemudahan yang belum pernah terjadi sebelumnya”.
Cara Pelaku Memanfaatkan AI
Studi ini mengungkap ekosistem aktif pelaku yang mengembangkan dan berbagi alat AI di web gelap. Diskusi mencakup perdagangan model dan basis data AI khusus yang dirancang untuk menghasilkan materi yang kasar, dengan beberapa di antaranya menawarkan “kursus khusus” yang mengajarkan pengguna untuk membuat gambar anak di bawah umur yang dibuat oleh AI.
Hambatan untuk masuk sangat rendah: beberapa model hanya memerlukan satu gambar referensi untuk menghasilkan CSAM. Meskipun konten yang lebih sederhana kini dapat diakses oleh siapa saja, pembuat konten yang terampil memproduksi video pelecehan yang lebih panjang dan canggih. Seorang pembuat konten diberi ucapan terima kasih lebih dari 3.000 kali atas video berdurasi 30 menit yang dibuat oleh AI.
Batasan Deteksi dan Perlunya Regulasi
IWF mengakui temuannya hanya mewakili sebagian pandangan dari masalah ini, karena analis dilarang mengakses ruang atau konten terenkripsi di balik paywall. Skala sebenarnya dari CSAM yang dihasilkan oleh AI kemungkinan besar jauh lebih besar.
Laporan tersebut mendesak Uni Eropa untuk menerapkan larangan menyeluruh terhadap konten penyalahgunaan yang dihasilkan oleh AI dan alat yang digunakan untuk membuatnya, termasuk melarang konten yang dipersonalisasi dan tidak dibagikan. Smith berpendapat bahwa ini harus menjadi “standar minimum tanpa pengecualian”.
Legislator telah memperluas Petunjuk ePrivasi untuk saat ini, sehingga memberikan waktu untuk menetapkan kerangka hukum jangka panjang. Namun, mereka bersikeras bahwa tindakan yang diambil harus proporsional dan fokus pada konten yang ditandai, bukan pengawasan massal. IWF juga berupaya untuk mengubah Undang-Undang AI UE untuk mengklasifikasikan sistem yang mampu menghasilkan CSAM sebagai “berisiko tinggi”, dan melakukan pengujian yang ketat terhadap sistem tersebut.
Krisis yang berkembang ini memerlukan tindakan segera. Kemampuan AI untuk secara cepat meningkatkan dan mengintensifkan eksploitasi anak memerlukan respons peraturan yang komprehensif yang menyeimbangkan keselamatan dan privasi. Tanpa intervensi, penyebaran gambar pelecehan sintetik akan terus membebani upaya penanggulangan yang ada.





















