Gazeta przypomina o pokazywanym w internecie zwęglonym ciele dziecka, co niektórzy uznali za podróbkę wygenerowaną przez AI. Mimo wyjaśnień, że technologia nie mogła tego wykreować, istniały wątpliwości co do autentyczności wstrząsającego wizerunku.

Reklama

"Organizacje monitorujące dezinformację przewidywały, że sztuczna inteligencja, w tym fotomontaż wideo wygenerowany dzięki sieciom neuronowym, może zostać wykorzystany do manipulowania opinią publiczną podczas konfliktu. Jednak niewiele było przekonujących podróbek AI wiążących się z wojną. Niemniej sama możliwość stosowania AI spowodowała, że ludzie zaczęli kwestionować autentyczność prawdziwych zdjęć i filmów" - zauważył nowojorski dziennik.

"Ewolucja tej technologii budzi obawy"

Jak zaznaczył, sztuczna inteligencja ułatwia tworzenie przekonujących podróbek poprzez wprowadzanie tekstu do generatorów AI. Ewolucja tej technologii budzi obawy co do wiarygodności przekazów. Wyzwanie polega na sprawdzaniu autentyczności treści medialnych w środowisku cyfrowym, w którym zaufanie jest coraz bardziej kruche.

Reklama

Dostępność sztucznej inteligencji prowadzi niekiedy do uznawania autentycznych treści za fałszywe. Jest to zjawisko znane jako "dywidenda kłamcy". Yasmin Green, dyrektor ds. badań w Puzzle (spółka zależna Google), wyjaśnił, że demaskowanie fałszywych lub zmanipulowanych materiałów, jak filmy, nagrania lub dokumenty, może wzmocnić wiarę w powszechność fałszerstw. W rezultacie po ujawnieniu podróbki opinii publicznej będzie trudniej zaufać jakimkolwiek informacjom na dany temat.

Reklama

AI jeszcze nie jest powszechnym źródłem dezinformacji

"Użytkownicy mediów społecznościowych korzystają z narzędzi do wykrywania treści generowanych przez sztuczną inteligencję, ale narzędzia te nie zawsze są niezawodne. Wpis izraelskiego premiera Benjamina Netanjahu na portalu X został skrytykowany za rozpowszechnianie treści generowanych przez sztuczną inteligencję, ale później okazało się to niejednoznaczne" - pisze „NYT”.

Zwraca uwagę na wysiłki, m.in. firmy Google, mające na celu identyfikację źródła i historii plików multimedialnych dla przywrócenia zaufania do treści. Podsumowując, choć AI ma potencjał zakłócania postrzegania rzeczywistości podczas konfliktów, nie jest jeszcze powszechnym źródłem dezinformacji. Zamiast tego do oszukiwania opinii publicznej często wykorzystuje się dawne materiały filmowe z przeszłych konfliktów.

Z Nowego Jorku Andrzej Dobrowolski