Hentikan Banjir: Cara Menemukan dan Mengabaikan Sampah Online yang Dihasilkan AI

20

Internet terasa… mati. Baik Anda menggunakan TikTok, Facebook, atau hanya menelusuri Google, semakin banyaknya konten buatan mesin berkualitas rendah menenggelamkan ekspresi manusia yang sebenarnya. “Air kotor” ini, demikian sebutannya, adalah spam di era media sosial: postingan hambar, berita palsu, dan gambar nyata yang dirancang untuk menarik perhatian, bukan memberi informasi.

Istilah ini muncul dari bahasa gaul online beberapa tahun lalu, namun kini menggambarkan masalah besar. Penipuan email yang buruk telah digantikan oleh keluaran AI yang tidak ada habisnya dan mudah dilakukan. Masalahnya bukan hanya karena AI buruk dalam berkreasi; hanya saja terlalu banyak yang menggunakannya untuk membanjiri internet dengan konten yang tidak berguna.

Apa Sebenarnya AI Slop itu?

Kata “slop” awalnya menggambarkan pakan ternak yang murah. Saat ini, bahan pengisi berkualitas rendah memiliki arti yang sama. AI slop adalah konten yang dibuat dengan cepat, sembarangan, dan tanpa memperhatikan keakuratan. Anda akan menemukannya di mana-mana: narasi robot YouTube atas rekaman yang dicuri, “berita” yang ditulis oleh AI yang disalin dari situs lain, dan klip TikTok dengan suara sintetis yang menakutkan. Bahkan hasil pencarian pun tercemar dengan petunjuk AI dan ulasan produk yang seringkali kurang memiliki wawasan nyata.

Masalahnya bukan karena AI buruk dalam menciptakan sesuatu; ini tentang orang-orang yang mengeksploitasinya untuk menghasilkan konten tanpa akhir untuk mendapatkan klik dan pendapatan iklan. Seperti yang dicatat oleh pembuat film Sean King O’Grady, bahkan anak berusia 10 tahun pun kini dapat mengenali barang palsu. Namun hal itu tidak menghentikan penyebaran konten tersebut.

AI Slop vs. Deepfakes dan Halusinasi: Apa Bedanya?

Kecerobohan AI, deepfake, dan halusinasi semuanya kabur, tetapi niat dan kualitasnya berbeda.

  • Deepfakes adalah pemalsuan presisi yang dibuat untuk menipu. Mereka secara meyakinkan mengubah video atau audio untuk membuat seseorang tampak mengatakan atau melakukan sesuatu yang tidak pernah mereka lakukan. Tujuannya adalah manipulasi yang disengaja, sering kali demi keuntungan politik atau finansial.
  • Halusinasi AI adalah kesalahan teknis. Chatbots menciptakan fakta atau kasus hukum karena mereka salah memprediksi kata berikutnya. Model tidak mencoba menyesatkan; itu gagal.
  • AI slop lebih luas dan ceroboh. Ini adalah produksi artikel, video, musik, dan seni secara massal tanpa pengecekan fakta atau koherensi. Ketidakakuratannya berasal dari kelalaian, bukan tipu daya.

Singkatnya: deepfake menipu dengan sengaja, halusinasi dibuat secara tidak sengaja, dan AI membanjiri internet karena ketidakpedulian—sering kali didorong oleh keserakahan.

Mengapa AI Slop Menyebar?

Teknologi AI menjadi murah dan kuat dengan cepat. Perusahaan-perusahaan membangun model ini dengan harapan dapat mengurangi hambatan bagi orang-orang kreatif, namun sebaliknya, mereka justru memungkinkan pengumpulan konten dalam skala besar. Alat seperti ChatGPT, Gemini, dan Sora memungkinkan siapa saja menghasilkan teks, gambar, dan video dalam hitungan detik. Hasilnya adalah kekacauan digital yang menyumbat saluran distribusi dan meningkatkan pendapatan iklan.

Platform juga berperan. Algoritma menghargai kuantitas daripada kualitas. Semakin banyak Anda memposting, semakin banyak perhatian yang Anda dapatkan—meskipun itu tidak masuk akal. AI membuat penskalaan strategi itu menjadi sepele. Beberapa kreator menyebarkan berita selebriti palsu atau video clickbait yang berisi iklan, sementara kreator lain menggunakan konten AI untuk mengelabui rekomendasi dan mengarahkan lalu lintas ke situs yang mudah diakses. Tujuannya bukan untuk memberi informasi; itu untuk mendapatkan sepersekian sen per tampilan, dikalikan jutaan.

Bagaimana AI Slop Merusak Internet

Sekilas, air kotor sepertinya tidak berbahaya. Beberapa postingan buruk di feed Anda mungkin lucu. Tapi volume mengubah segalanya. Hal ini menurunkan sumber-sumber yang kredibel dalam hasil pencarian, menyingkirkan pencipta manusia, dan mengaburkan batas antara kebenaran dan kepalsuan. Ketika separuh dari apa yang Anda lihat tampak palsu, semakin sulit untuk memercayai apa pun.

Terkikisnya kepercayaan ini mempunyai konsekuensi nyata. Misinformasi menyebar lebih cepat, penipu menggunakan AI untuk menyamar sebagai orang, dan pengiklan berisiko merusak merek dengan tampil di samping konten berkualitas rendah. Ada juga dampak budaya yang lebih besar. O’Grady mencatat bahwa paparan kekerasan dan absurditas yang terus-menerus membuat kita tidak peka seiring berjalannya waktu.

Apa yang Dapat Dilakukan?

Tidak ada perbaikan cepat, namun beberapa perusahaan sedang mencobanya. Spotify memberi label pada media yang dihasilkan AI, dan platform seperti Google dan TikTok menjanjikan sistem watermarking. Namun, metode ini mudah dihindari dengan tangkapan layar atau penulisan ulang.

Kerangka kerja C2PA menyematkan metadata ke dalam file digital untuk memverifikasi asal-usulnya, namun penerapannya lambat. Para pembuat konten juga melakukan penolakan dengan menekankan kerajinan manusia dan dengan jelas menyatakan kapan AI tidak digunakan.

Namun pada akhirnya, masalah tersebut tidak akan hilang. Ketika produksi massal konten hampir gratis, pintu air pun terbuka. AI tidak peduli dengan kebenaran atau orisinalitas; itu peduli dengan probabilitas. Dan itulah mengapa AI slop sangat mudah dibuat dan sulit untuk dihindari.

Pertahanan terbaik adalah kesadaran. Pelan-pelan, periksa sumbernya, dan berikan penghargaan kepada pembuat konten yang masih berupaya keras. Internet telah memerangi spam dan misinformasi sebelumnya. AI slop hanyalah versi terbaru—lebih cepat, lebih licin, dan lebih sulit dideteksi. Apakah web dapat mempertahankan integritasnya bergantung pada seberapa besar kita menghargai pekerjaan manusia dibandingkan hasil mesin.