OpenAI udostępnia narzędzia Open Source w celu poprawy bezpieczeństwa AI dla nastolatków

19

OpenAI zapewnia programistom narzędzia open source zaprojektowane tak, aby aplikacje AI były bezpieczniejsze dla nastolatków. Posunięcie to rozwiązuje rosnący problem: zapewnienie, że systemy sztucznej inteligencji nie narażają nieletnich na szkodliwe lub nieodpowiednie treści.

Rozwiązywanie kluczowych problemów związanych z bezpieczeństwem

Narzędzia to szereg gotowych podpowiedzi, które można zintegrować z systemami AI. Te wskazówki obejmują sześć kluczowych obszarów:
Wyraźna przemoc i treści o charakterze seksualnym: Blokowanie materiałów o charakterze jednoznacznie seksualnym.
Szkodliwe obrazy ciała: Zapobieganie utrwalaniu nierealistycznych lub niebezpiecznych standardów piękna.
Niebezpieczne działania/wyzwania: Ogranicz promowanie ryzykownych zachowań.
Gry fabularne z motywami brutalnymi/romantycznymi: Ograniczanie nieodpowiednich scenariuszy.
Produkty/usługi z ograniczeniami wiekowymi: Unikaj kontaktu z produktami przeznaczonymi dla dorosłych.

Wskazówki te zaprojektowano tak, aby były kompatybilne z różnymi modelami sztucznej inteligencji, chociaż prawdopodobnie będą najskuteczniejsze w ekosystemie OpenAI.

Współpraca z ekspertami ds. bezpieczeństwa

OpenAI opracowało te zasady we współpracy z Common Sense Media i each.ai, dwiema wiodącymi organizacjami w dziedzinie bezpieczeństwa sztucznej inteligencji i rozwoju dzieci. Robbie Torney, szef działu sztucznej inteligencji i ocen cyfrowych w Common Sense Media, powiedział, że te zasady dotyczące otwartego oprogramowania „pomagają w ustanowieniu znaczącego poziomu bezpieczeństwa w całym ekosystemie” i mogą być stale ulepszane przez społeczność.

Dlaczego to jest ważne

Wydanie tych narzędzi uwydatnia główne wyzwanie w rozwoju sztucznej inteligencji: przełożenie wspólnych celów bezpieczeństwa na praktyczne, wykonalne zasady. Programiści, nawet doświadczone zespoły, często borykają się z tym procesem, co skutkuje niespójną ochroną lub nadmiernie restrykcyjnymi filtrami.

Rozwój istniejących mechanizmów ochronnych

Inicjatywa opiera się na wcześniejszych wysiłkach OpenAI mających na celu poprawę bezpieczeństwa sztucznej inteligencji dla nieletnich, w tym kontrolę rodzicielską, narzędzia do przewidywania wieku i zaktualizowane specyfikacje modeli, które definiują, w jaki sposób modele sztucznej inteligencji powinny wchodzić w interakcję z użytkownikami poniżej 18 roku życia.

Chociaż nie jest to kompletne rozwiązanie, te wskazówki dotyczące oprogramowania typu open source stanowią znaczący krok w kierunku zapewnienia nastolatkom bezpieczniejszego korzystania ze sztucznej inteligencji. Podejście oparte na współpracy i skupienie się na praktycznym wdrażaniu mogłoby wyznaczyć nowy standard odpowiedzialnego rozwoju sztucznej inteligencji.