OpenAI biedt ontwikkelaars nu open-sourcetools die zijn ontworpen om de veiligheid van AI-applicaties voor tienergebruikers te verbeteren. Deze stap komt tegemoet aan een groeiend probleem: ervoor zorgen dat AI-systemen minderjarigen niet blootstellen aan schadelijke of ongepaste inhoud.
Belangrijke veiligheidsproblemen aanpakken
De tools bestaan uit een reeks vooraf geschreven aanwijzingen die in AI-systemen kunnen worden geïntegreerd. Deze aanwijzingen behandelen zes kritieke gebieden:
– Grafisch geweld en seksuele inhoud: Expliciet materiaal blokkeren.
– Schadelijke lichaamsidealen: Voorkomen van versterking van onrealistische of gevaarlijke schoonheidsnormen.
– Gevaarlijke activiteiten/uitdagingen: Het beteugelen van de promotie van risicovol gedrag.
– Rollenspel met gewelddadige/romantische thema’s: Ongepaste scenario’s beperken.
– Goederen/diensten met een leeftijdsbeperking: Blootstelling aan producten die bedoeld zijn voor volwassenen vermijden.
Deze aanwijzingen zijn ontworpen om compatibel te zijn met verschillende AI-modellen, hoewel ze waarschijnlijk het meest effectief zijn binnen het eigen ecosysteem van OpenAI.
Samenwerking met veiligheidsexperts
OpenAI heeft dit beleid ontwikkeld in samenwerking met Common Sense Media en Everyone.ai, twee toonaangevende organisaties op het gebied van AI-veiligheid en de ontwikkeling van kinderen. Robbie Torney, hoofd van AI & Digital Assessments bij Common Sense Media, verklaarde dat dit open-sourcebeleid “helpt een betekenisvolle veiligheidsvloer in het hele ecosysteem te creëren” en voortdurend kan worden verbeterd door de bredere gemeenschap.
Waarom dit belangrijk is
De release van deze tools benadrukt een grote uitdaging in de AI-ontwikkeling: het vertalen van veiligheidsdoelen op hoog niveau in praktische, afdwingbare regels. Ontwikkelaars, zelfs ervaren teams, worstelen vaak met dit proces, wat leidt tot inconsistente bescherming of te restrictieve filters.
Voortbouwen op bestaande waarborgen
Dit initiatief bouwt voort op de eerdere inspanningen van OpenAI om de AI-veiligheid voor minderjarigen te verbeteren, waaronder ouderlijk toezicht, tools voor leeftijdsvoorspelling en bijgewerkte modelspecificaties (modelspecificaties) die bepalen hoe AI-modellen moeten communiceren met minderjarige gebruikers.
Hoewel het geen alomvattende oplossing is, vertegenwoordigen deze open-sourceprompts een belangrijke stap in de richting van het creëren van veiligere AI-ervaringen voor tieners. De gezamenlijke aanpak en de focus op praktische implementatie zouden een nieuwe standaard kunnen zetten voor verantwoorde AI-ontwikkeling.





















