Prokurator generalny Kalifornii wszczął formalne dochodzenie w sprawie xAI, firmy Elona Muska zajmującej się sztuczną inteligencją, w następstwie powszechnych doniesień, że jej chatbot Grok generuje i rozpowszechnia obrazy kobiet i dzieci o charakterze seksualnym. Koncentrujemy się na możliwych naruszeniach przepisów stanowych zabraniających tworzenia i rozpowszechniania wyraźnych intymnych obrazów przy użyciu sztucznej inteligencji bez zgody.
Problem: przemoc generowana przez sztuczną inteligencję
Od końca grudnia na platformie społecznościowej X (należącej do xAI) odnotowano gwałtowny wzrost liczby obrazów generowanych przez sztuczną inteligencję, przedstawiających prawdziwych ludzi, w tym nieletnich, w sytuacjach jawnych i seksualnych. Prokurator generalny Rob Bonta nazwał ten problem raczej zamierzoną wadą niż przypadkowym błędem.
„To nie jest błąd w systemie, to jego konstrukcja.”
Skala problemu jest znacząca: X odnotował dziesiątki tysięcy interakcji z treściami jawnymi, przez co są one niezwykle widoczne.
Globalna kontrola
Kalifornia nie jest osamotniona w reakcji na tę sytuację. Władze w Wielkiej Brytanii, Indiach i Malezji również wszczęły dochodzenia w sprawie xAI w tej samej sprawie. Dochodzenie w Wielkiej Brytanii koncentruje się na tym, czy X naruszył zasady bezpieczeństwa w Internecie.
Konsekwencje prawne
Prawo stanu Kalifornia wyraźnie zabrania wykorzystywania sztucznej inteligencji do tworzenia obrazów o charakterze seksualnym bez ich zgody. Jeśli zostanie uznana za winną, xAI może zostać ukarana znacznymi karami finansowymi, do 25 000 dolarów za zdjęcie. Państwo ma również prawo wystąpić o wydanie nakazu uniemożliwiającego spółce dalsze wytwarzanie takich materiałów.
Sytuacja ta uwydatnia rosnące obawy prawne i etyczne dotyczące niekontrolowanej dystrybucji treści generowanych przez sztuczną inteligencję, zwłaszcza jeśli chodzi o wymuszone wykorzystanie. Szybkie rozpowszechnianie się tych obrazów wskazuje na pilną potrzebę większej regulacji i odpowiedzialności w dziedzinie sztucznej inteligencji.




















