Senator Elizabeth Warren formalnie zakwestionowała decyzję Departamentu Obrony (DoD) o przyznaniu xAI, twórcy modelu Grok AI, dostępu do tajnych sieci wojskowych. Obawy wynikają z udokumentowanych przypadków generowania przez Groka szkodliwych i nielegalnych treści, w tym materiałów ekstremistycznych, języka antysemickiego i obrazów przedstawiających wykorzystywanie seksualne dzieci. Rodzi to poważne pytania dotyczące procesu weryfikacji systemów sztucznej inteligencji przetwarzających wrażliwe dane.
Obawy dotyczące funkcji Groka
W liście do sekretarza obrony Pete’a Hegsetha Warren podkreśla „oczywisty brak odpowiednich zabezpieczeń” Groka. Sztuczna inteligencja wykazała zdolność do generowania niepokojących rezultatów, takich jak instrukcje dotyczące przeprowadzania ataków terrorystycznych, i była wykorzystywana przez użytkowników do tworzenia zseksualizowanych obrazów nieletnich bez ich zgody. Zapewnienie takiemu systemowi dostępu do tajnych sieci stwarza wyraźną lukę w zabezpieczeniach: wrażliwe informacje wojskowe mogą zostać naruszone lub sama sztuczna inteligencja może zostać wykorzystana do złośliwych celów.
Szerszy kontekst: kontrakty antropiczne i OpenAI
Posunięcie Departamentu Obrony następuje po tym, jak agencja uznała Anthropic za ryzyko w łańcuchu dostaw ze względu na odmowę zapewnienia nieograniczonego dostępu do swoich systemów sztucznej inteligencji. Wcześniej Anthropic była jedyną firmą zajmującą się sztuczną inteligencją dopuszczoną do tajnych operacji. Departament Obrony zawarł następnie umowy zarówno z OpenAI, jak i xAI na używanie ich systemów sztucznej inteligencji w tajnych środowiskach, sygnalizując chęć naruszenia standardów bezpieczeństwa w celu rozszerzenia integracji sztucznej inteligencji.
Kwestie prawne i zarzuty dotyczące naruszenia danych
Kontrowersje pogłębia także pozew zbiorowy przeciwko xAI, w którym zarzuca się, że Grok generował treści o charakterze seksualnym na podstawie zdjęć powodów, gdy byli nieletni. Osobno pojawiły się zarzuty, że były pracownik Departamentu Efektywności Rządu Muska rzekomo ukradł dane osobowe Amerykanów z Administracji Ubezpieczeń Społecznych. Połączenie tych incydentów stawia pod znakiem zapytania praktyki xAI w zakresie bezpieczeństwa danych.
Stanowisko Pentagonu i plany na przyszłość
Pomimo obaw wyższy rangą urzędnik Pentagonu potwierdził, że Grok został podłączony do tajnego użytku, chociaż nie został jeszcze aktywowany. Rzecznik Departamentu Obrony powiedział, że Grok zostanie wdrożony na oficjalnej platformie sztucznej inteligencji GenAI.mil „w najbliższej przyszłości”, co rodzi dalsze pytania dotyczące tego, czy podjęto odpowiednie środki ostrożności. Warren domaga się przejrzystości umowy między DoD a xAI, w tym gwarancji, że sztuczna inteligencja nie będzie udostępniać wrażliwych informacji ani nie będzie przedmiotem cyberataków.
Decyzja Pentagonu o nadaniu priorytetu integracji sztucznej inteligencji zamiast sprawdzonych środków bezpieczeństwa może zagrozić bezpieczeństwu narodowemu. Dopóki xAI nie dostarczy weryfikowalnych dowodów na swoje zabezpieczenia, dalsze wdrażanie Groka w niejawnych środowiskach pozostaje znaczącym i niepotrzebnym ryzykiem.
