OpenAI poskytuje vývojářům nástroje s otevřeným zdrojovým kódem navržené tak, aby byly aplikace AI pro dospívající bezpečnější. Tento krok řeší rostoucí problém: zajistit, aby systémy umělé inteligence nevystavovaly nezletilé škodlivému nebo nevhodnému obsahu.
Řešení klíčových bezpečnostních problémů
Nástroje jsou série hotových rad, které lze integrovat do systémů umělé inteligence. Tyto tipy pokrývají šest kritických oblastí:
– Explicitní násilí a sexuální obsah: Blokování explicitních materiálů.
– Obrázky škodlivého těla: Zabraňuje posilování nerealistických nebo nebezpečných standardů krásy.
– Hazardous Actions/Challenges: Omezte propagaci rizikového chování.
– Hry na hrdiny s násilnými/romantickými motivy: Omezení nevhodných scénářů.
– Produkty/služby s věkovým omezením: Vyhněte se vystavení produktům určeným pro dospělé.
Tyto rady jsou navrženy tak, aby byly kompatibilní s různými modely umělé inteligence, i když pravděpodobně budou nejúčinnější v rámci vlastního ekosystému OpenAI.
Spolupráce s bezpečnostními experty
OpenAI vyvinula tyto zásady ve spolupráci s Common Sense Media a everyone.ai, dvěma předními organizacemi v oblasti bezpečnosti umělé inteligence a rozvoje dětí. Robbie Torney, vedoucí oddělení AI a digitálních hodnocení ve společnosti Common Sense Media, uvedl, že tyto zásady pro open source „pomáhají vytvořit smysluplnou úroveň zabezpečení v celém ekosystému“ a komunita je může neustále zlepšovat.
Proč je to důležité
Vydání těchto nástrojů zdůrazňuje hlavní výzvu ve vývoji umělé inteligence: převedení společných bezpečnostních cílů do praktických, vymahatelných pravidel. Vývojáři, dokonce i zkušené týmy, se s tímto procesem často potýkají, což má za následek nekonzistentní ochranu nebo příliš omezující filtry.
Vývoj stávajících ochranných mechanismů
Iniciativa staví na předchozím úsilí OpenAI zlepšit bezpečnost AI pro nezletilé, včetně rodičovské kontroly, nástrojů pro předpovídání věku a aktualizovaných specifikací modelu, které definují, jak by modely AI měly interagovat s uživateli mladšími 18 let.
I když se nejedná o úplné řešení, tyto tipy s otevřeným zdrojovým kódem představují významný krok směrem k vytvoření bezpečnějšího prostředí umělé inteligence pro dospívající. Přístup založený na spolupráci a zaměření na praktickou implementaci by mohly stanovit nový standard pro odpovědný vývoj AI.
