Platforma społecznościowa X (dawniej Twitter), której właścicielem jest Elon Musk, podejmuje działania przeciwko twórcom udostępniającym bez odpowiedniego ujawnienia treści generowane przez sztuczną inteligencję przedstawiające strefy działań wojennych. Posunięcie to następuje w obliczu wzmożonych napięć na Bliskim Wschodzie w następstwie niedawnych nalotów między USA, Izraelem i Iranem, podczas których platformę zalały niezweryfikowane filmy i zdjęcia.
Nowe kary dla autorów uczestniczących w programie monetyzacji
Nikita Beer, szef produktu X, ogłosił we wtorek, że każdy twórca uczestniczący w programie podziału przychodów platformy, który rozpowszechnia treści wojskowe generowane przez sztuczną inteligencję bez odpowiedniego oznakowania, zostanie ukarany. Pierwsze naruszenia będą skutkować trzymiesięcznym zawieszeniem w programie, a powtarzające się naruszenia mogą skutkować całkowitym anulowaniem. Program monetyzacji pozwala popularnym autorom zarabiać bezpośrednio na swoich publikacjach.
Cel jest jasny: zapobiec rozprzestrzenianiu się dezinformacji w krytycznych momentach geopolitycznych. X będzie korzystać z Notatek społeczności (poprawek zgłaszanych przez użytkowników) i narzędzi do wykrywania sztucznej inteligencji, aby egzekwować tę politykę.
Dlaczego to jest ważne
Możliwość tworzenia przekonujących fałszywych materiałów wojskowych przy użyciu sztucznej inteligencji szybko rośnie. Niedawne badanie CNET wykazało, że mniej niż połowa dorosłych w USA (44%) potrafi niezawodnie identyfikować obrazy i filmy wygenerowane przez sztuczną inteligencję. Jest to szczególnie niebezpieczne podczas konfliktów, gdzie dezinformacja może eskalować napięcia, wpływać na opinię publiczną, a nawet prowadzić do realnych konsekwencji.
„W czasie wojny dostęp ludzi do wiarygodnych informacji jest niezwykle istotny” – powiedział Beer w programie Platform X. „Dzięki dzisiejszej technologii sztucznej inteligencji tworzenie treści, które mogłyby wprowadzić ludzi w błąd, jest banalne”.
Ograniczone rozwiązanie?
Krytycy twierdzą, że nowa polityka skierowana jest wyłącznie do twórców, którzy zarabiają na platformie, pozostawiając bez komentarza tych, którzy rozpowszechniają niezweryfikowane treści poza programem monetyzacji. Rodzi to pytania o skuteczność bardziej rygorystycznych kontroli: czy rzeczywiście zwalczą one dezinformację, czy po prostu ukarzą osoby, które mają finansowy interes w zaangażowaniu odbiorców?
X nie określił, czy zostaną podjęte dodatkowe środki wobec użytkowników, którzy nie zarabiają i rozpowszechniają podobne treści. Firma nie odpowiedziała natychmiast na prośbę o komentarz.
To posunięcie sygnalizuje rosnącą świadomość zagrożeń wynikających z dezinformacji generowanej przez sztuczną inteligencję, ale jego ograniczony zakres budzi wątpliwości, czy rzeczywiście rozwiąże problem. Rozwiązanie tego problemu wymaga szerszych rozwiązań niż zwykłe karanie płatnych współpracowników.
