Додому Різне OpenAI Merilis Alat Sumber Terbuka untuk Meningkatkan Keamanan Remaja dalam Aplikasi AI

OpenAI Merilis Alat Sumber Terbuka untuk Meningkatkan Keamanan Remaja dalam Aplikasi AI

OpenAI kini memberi pengembang alat sumber terbuka yang dirancang untuk meningkatkan keamanan aplikasi AI bagi pengguna remaja. Langkah ini menjawab kekhawatiran yang semakin besar: memastikan sistem AI tidak memaparkan konten berbahaya atau tidak pantas kepada anak di bawah umur.

Mengatasi Masalah Keamanan Utama

Alat tersebut terdiri dari serangkaian perintah yang telah ditulis sebelumnya yang dapat diintegrasikan ke dalam sistem AI. Perintah-perintah ini menangani enam bidang penting:
Kekerasan grafis dan konten seksual: Memblokir materi eksplisit.
Cita-cita tubuh yang berbahaya: Mencegah penguatan standar kecantikan yang tidak realistis atau berbahaya.
Aktivitas/tantangan berbahaya: Membatasi promosi perilaku berisiko.
Permainan peran dengan tema kekerasan/romantis: Membatasi skenario yang tidak pantas.
Barang/jasa dengan batasan usia: Menghindari paparan terhadap produk yang ditujukan untuk orang dewasa.

Perintah ini dirancang agar kompatibel dengan berbagai model AI, meskipun mungkin paling efektif dalam ekosistem OpenAI sendiri.

Kolaborasi dengan Pakar Keselamatan

OpenAI mengembangkan kebijakan ini melalui kemitraan dengan Common Sense Media dan Everyone.ai, dua organisasi terkemuka di bidang keselamatan AI dan perkembangan anak. Robbie Torney, kepala Penilaian AI & Digital di Common Sense Media, menyatakan bahwa kebijakan sumber terbuka ini “membantu menetapkan landasan keamanan yang berarti di seluruh ekosistem” dan dapat terus ditingkatkan oleh komunitas yang lebih luas.

Mengapa Ini Penting

Peluncuran alat-alat ini menyoroti tantangan besar dalam pengembangan AI: menerjemahkan sasaran keselamatan tingkat tinggi menjadi aturan yang praktis dan dapat ditegakkan. Pengembang, bahkan tim yang berpengalaman, sering kali kesulitan dengan proses ini, sehingga menyebabkan perlindungan yang tidak konsisten atau filter yang terlalu membatasi.

Membangun Kerangka Pengaman yang Ada

Inisiatif ini merupakan kelanjutan dari upaya OpenAI sebelumnya untuk meningkatkan keamanan AI bagi anak di bawah umur, termasuk kontrol orang tua, alat prediksi usia, dan Spesifikasi Model (Model Spec) yang diperbarui yang menentukan bagaimana model AI harus berinteraksi dengan pengguna di bawah umur.

Meskipun bukan merupakan solusi yang komprehensif, petunjuk sumber terbuka ini mewakili langkah signifikan dalam menciptakan pengalaman AI yang lebih aman bagi remaja. Pendekatan kolaboratif dan fokus pada implementasi praktis dapat menetapkan standar baru bagi pengembangan AI yang bertanggung jawab.

Exit mobile version