OpenAI zapewnia programistom narzędzia open source zaprojektowane tak, aby aplikacje AI były bezpieczniejsze dla nastolatków. Posunięcie to rozwiązuje rosnący problem: zapewnienie, że systemy sztucznej inteligencji nie narażają nieletnich na szkodliwe lub nieodpowiednie treści.
Rozwiązywanie kluczowych problemów związanych z bezpieczeństwem
Narzędzia to szereg gotowych podpowiedzi, które można zintegrować z systemami AI. Te wskazówki obejmują sześć kluczowych obszarów:
– Wyraźna przemoc i treści o charakterze seksualnym: Blokowanie materiałów o charakterze jednoznacznie seksualnym.
– Szkodliwe obrazy ciała: Zapobieganie utrwalaniu nierealistycznych lub niebezpiecznych standardów piękna.
– Niebezpieczne działania/wyzwania: Ogranicz promowanie ryzykownych zachowań.
– Gry fabularne z motywami brutalnymi/romantycznymi: Ograniczanie nieodpowiednich scenariuszy.
– Produkty/usługi z ograniczeniami wiekowymi: Unikaj kontaktu z produktami przeznaczonymi dla dorosłych.
Wskazówki te zaprojektowano tak, aby były kompatybilne z różnymi modelami sztucznej inteligencji, chociaż prawdopodobnie będą najskuteczniejsze w ekosystemie OpenAI.
Współpraca z ekspertami ds. bezpieczeństwa
OpenAI opracowało te zasady we współpracy z Common Sense Media i each.ai, dwiema wiodącymi organizacjami w dziedzinie bezpieczeństwa sztucznej inteligencji i rozwoju dzieci. Robbie Torney, szef działu sztucznej inteligencji i ocen cyfrowych w Common Sense Media, powiedział, że te zasady dotyczące otwartego oprogramowania „pomagają w ustanowieniu znaczącego poziomu bezpieczeństwa w całym ekosystemie” i mogą być stale ulepszane przez społeczność.
Dlaczego to jest ważne
Wydanie tych narzędzi uwydatnia główne wyzwanie w rozwoju sztucznej inteligencji: przełożenie wspólnych celów bezpieczeństwa na praktyczne, wykonalne zasady. Programiści, nawet doświadczone zespoły, często borykają się z tym procesem, co skutkuje niespójną ochroną lub nadmiernie restrykcyjnymi filtrami.
Rozwój istniejących mechanizmów ochronnych
Inicjatywa opiera się na wcześniejszych wysiłkach OpenAI mających na celu poprawę bezpieczeństwa sztucznej inteligencji dla nieletnich, w tym kontrolę rodzicielską, narzędzia do przewidywania wieku i zaktualizowane specyfikacje modeli, które definiują, w jaki sposób modele sztucznej inteligencji powinny wchodzić w interakcję z użytkownikami poniżej 18 roku życia.
Chociaż nie jest to kompletne rozwiązanie, te wskazówki dotyczące oprogramowania typu open source stanowią znaczący krok w kierunku zapewnienia nastolatkom bezpieczniejszego korzystania ze sztucznej inteligencji. Podejście oparte na współpracy i skupienie się na praktycznym wdrażaniu mogłoby wyznaczyć nowy standard odpowiedzialnego rozwoju sztucznej inteligencji.
