Dziennik Gazeta Prawana logo

Eksperci ostrzegają: AI może mieć wpływ na konflikt Izraelu z Hamasem

1 listopada 2023, 08:46
Ten tekst przeczytasz w 2 minuty
Strefa Gazy
Strefa Gazy/PAP/EPA
Na konflikt Izraela z Hamasem może wywrzeć wpływ sztuczna inteligencja (AI), podkreśla „New York Times”. Zwraca uwagę, że może ona zostać potencjalnie wykorzystana do manipulowania opinią publiczną.

Gazeta przypomina o pokazywanym w internecie zwęglonym ciele dziecka, co niektórzy uznali za podróbkę wygenerowaną przez AI. Mimo wyjaśnień, że technologia nie mogła tego wykreować, istniały wątpliwości co do autentyczności wstrząsającego wizerunku.

"Organizacje monitorujące dezinformację przewidywały, że sztuczna inteligencja, w tym fotomontaż wideo wygenerowany dzięki sieciom neuronowym, może zostać wykorzystany do manipulowania opinią publiczną podczas konfliktu. Jednak niewiele było przekonujących podróbek AI wiążących się z wojną. Niemniej sama możliwość stosowania AI spowodowała, że ludzie zaczęli kwestionować autentyczność prawdziwych zdjęć i filmów" - zauważył nowojorski dziennik.

"Ewolucja tej technologii budzi obawy"

Jak zaznaczył, sztuczna inteligencja ułatwia tworzenie przekonujących podróbek poprzez wprowadzanie tekstu do generatorów AI. Ewolucja tej technologii budzi obawy co do wiarygodności przekazów. Wyzwanie polega na sprawdzaniu autentyczności treści medialnych w środowisku cyfrowym, w którym zaufanie jest coraz bardziej kruche.

Dostępność sztucznej inteligencji prowadzi niekiedy do uznawania autentycznych treści za fałszywe. Jest to zjawisko znane jako "dywidenda kłamcy". Yasmin Green, dyrektor ds. badań w Puzzle (spółka zależna Google), wyjaśnił, że demaskowanie fałszywych lub zmanipulowanych materiałów, jak filmy, nagrania lub dokumenty, może wzmocnić wiarę w powszechność fałszerstw. W rezultacie po ujawnieniu podróbki opinii publicznej będzie trudniej zaufać jakimkolwiek informacjom na dany temat.

AI jeszcze nie jest powszechnym źródłem dezinformacji

"Użytkownicy mediów społecznościowych korzystają z narzędzi do wykrywania treści generowanych przez sztuczną inteligencję, ale narzędzia te nie zawsze są niezawodne. Wpis izraelskiego premiera Benjamina Netanjahu na portalu X został skrytykowany za rozpowszechnianie treści generowanych przez sztuczną inteligencję, ale później okazało się to niejednoznaczne" - pisze „NYT”.

Zwraca uwagę na wysiłki, m.in. firmy Google, mające na celu identyfikację źródła i historii plików multimedialnych dla przywrócenia zaufania do treści. Podsumowując, choć AI ma potencjał zakłócania postrzegania rzeczywistości podczas konfliktów, nie jest jeszcze powszechnym źródłem dezinformacji. Zamiast tego do oszukiwania opinii publicznej często wykorzystuje się dawne materiały filmowe z przeszłych konfliktów.

Z Nowego Jorku Andrzej Dobrowolski 

Copyright
Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję
Źródło PAP
Zapisz się na newsletter
Najważniejsze wydarzenia polityczne i społeczne, istotne wiadomości kulturalne, najlepsza rozrywka, pomocne porady i najświeższa prognoza pogody. To wszystko i wiele więcej znajdziesz w newsletterze Dziennik.pl. Trzymamy rękę na pulsie Polski i świata. Zapisz się do naszego newslettera i bądź na bieżąco!

Zapisując się na newsletter wyrażasz zgodę na otrzymywanie treści reklam również podmiotów trzecich

Administratorem danych osobowych jest INFOR PL S.A. Dane są przetwarzane w celu wysyłki newslettera. Po więcej informacji kliknij tutaj