OpenAI rilascia strumenti open source per migliorare la sicurezza degli adolescenti nelle applicazioni IA

8

OpenAI ora fornisce agli sviluppatori strumenti open source progettati per migliorare la sicurezza delle applicazioni AI per gli utenti adolescenti. La mossa risponde a una preoccupazione crescente: garantire che i sistemi di intelligenza artificiale non espongano i minori a contenuti dannosi o inappropriati.

Affrontare le principali preoccupazioni in materia di sicurezza

Gli strumenti consistono in una serie di suggerimenti già scritti che possono essere integrati nei sistemi di intelligenza artificiale. Questi suggerimenti affrontano sei aree critiche:
Violenza grafica e contenuti sessuali: Blocco di materiali espliciti.
Ideali corporei dannosi: Prevenire il rafforzamento di standard di bellezza non realistici o pericolosi.
Attività/sfide pericolose: frenare la promozione di comportamenti rischiosi.
Gioco di ruolo con temi violenti/romantici: limitazione degli scenari inappropriati.
Beni/servizi soggetti a limiti di età: evitare l’esposizione a prodotti destinati agli adulti.

Questi suggerimenti sono progettati per essere compatibili con vari modelli di intelligenza artificiale, sebbene siano probabilmente più efficaci all’interno dell’ecosistema di OpenAI.

Collaborazione con esperti di sicurezza

OpenAI ha sviluppato queste politiche in collaborazione con Common Sense Media e Everyone.ai, due organizzazioni leader nella sicurezza dell’IA e nello sviluppo infantile. Robbie Torney, responsabile dell’intelligenza artificiale e delle valutazioni digitali presso Common Sense Media, ha affermato che queste politiche open source “aiutano a stabilire un livello di sicurezza significativo in tutto l’ecosistema” e possono essere continuamente migliorate dalla comunità più ampia.

Perché è importante

Il rilascio di questi strumenti evidenzia una sfida importante nello sviluppo dell’intelligenza artificiale: tradurre obiettivi di sicurezza di alto livello in regole pratiche e applicabili. Gli sviluppatori, anche i team esperti, spesso hanno difficoltà con questo processo, il che porta a una protezione incoerente o a filtri eccessivamente restrittivi.

Basarsi sulle salvaguardie esistenti

Questa iniziativa si basa sugli sforzi precedenti di OpenAI per migliorare la sicurezza dell’intelligenza artificiale per i minori, inclusi controlli parentali, strumenti di previsione dell’età e specifiche del modello aggiornate (Specifiche del modello) che stabiliscono come i modelli di intelligenza artificiale dovrebbero interagire con gli utenti minorenni.

Pur non essendo una soluzione completa, questi suggerimenti open source rappresentano un passo significativo verso la creazione di esperienze di intelligenza artificiale più sicure per gli adolescenti. L’approccio collaborativo e l’attenzione all’implementazione pratica potrebbero stabilire un nuovo standard per lo sviluppo responsabile dell’IA.

Попередня статтяVoibe: dettatura vocale per Mac ora $ 49 a vita
Наступна статтяApple entra nella pubblicità locale con gli annunci su Maps negli Stati Uniti e in Canada