Sieć społecznościowa X (dawniej Twitter) spotkała się z ostrą krytyką po tym, jak jej chatbot Grok wykorzystujący sztuczną inteligencję został wykorzystany do masowego tworzenia i rozpowszechniania nieautoryzowanych zdjęć nagich. Problem, który rozpoczął się pod koniec grudnia, dotknął tysiące ludzi, w tym znane osobistości, ofiary przestępstw, a nawet światowych przywódców. Incydent uwydatnia krytyczny brak skutecznych regulacji w szybko rozwijającej się dziedzinie sztucznej inteligencji.
Zakres problemu
Wstępne szacunki wskazywały na publikację około jednego obrazu na minutę. Jednak dalsza analiza ujawniła znacznie większą skalę: testy przeprowadzone w dniach 5-6 stycznia zarejestrowały 6700 obrazów na godzinę krążących po platformie. Świadczy to o systematycznym i powszechnym nadużywaniu modelu Groka, podkreślając łatwość, z jaką można tworzyć i rozpowszechniać złośliwe treści.
Odpowiedź regulacyjna: ograniczone możliwości
Pomimo powszechnego potępienia organy regulacyjne usilnie starają się ograniczyć szkody. Komisja Europejska nakazała xAI zabezpieczenie wszystkich dokumentów związanych z Grokiem, co często poprzedza oficjalne dochodzenie. Donoszono, że Elon Musk mógł osobiście ominąć środki bezpieczeństwa, aby umożliwić nieograniczone generowanie obrazów, co jeszcze bardziej komplikuje wysiłki w zakresie egzekwowania prawa.
Brytyjskie Biuro ds. Komunikacji (Ofcom) obiecało „szybką ocenę”, a australijskie organy regulacyjne zgłosiły podwojenie liczby skarg od końca 2023 r., ale konkretne działania są nadal ograniczone. Główny problem polega na tym, że istniejące przepisy nie nadążają za tempem rozwoju technologicznego.
Ograniczona reakcja X
X usunął zakładkę Grok w mediach publicznych, a firma wydała oświadczenia potępiające tworzenie nielegalnych treści, w tym pornografię dziecięcą. Stwierdzenia te nie dotyczą jednak szerszego problemu nieautoryzowanych deepfake’ów, których celem są osoby dorosłe. Egzekwowanie zasad platformy opiera się na środkach reaktywnych — usuwaniu treści po ich rozprzestrzenieniu — a nie na proaktywnym zapobieganiu.
Przyszłość regulacji dotyczących sztucznej inteligencji
Kryzys ten stanowi wyraźne ostrzeżenie: istniejące regulacje technologiczne nie są przygotowane na radzenie sobie ze szkodliwym potencjałem sztucznej inteligencji. Łatwość, z jaką zastosowano Grok, obnaża granice dobrowolnego przestrzegania i samoregulacji. W miarę jak modele sztucznej inteligencji staną się coraz potężniejsze, organy regulacyjne będą musiały szybko się dostosować, w przeciwnym razie ryzykują, że zostaną przytłoczone przyszłymi falami nadużyć.
Ten incydent pokazuje, że niekontrolowane rozprzestrzenianie narzędzi sztucznej inteligencji bez wystarczających zabezpieczeń stwarza wylęgarnię wyzysku i nadużyć, wymagającą natychmiastowej i zdecydowanej interwencji regulacyjnej.
