Rosji chodzi o „oszukiwanie, odwracanie uwagi i tworzenie nowych narracji”. To coś więcej, niż tworzenie fake newsów – podkreślił ekspert. W taktyce rosyjskiej występuje efekt lustra, czyli przekierowywanie otrzymywanej krytyki na innych, jak było w przypadku masakry w Buczy – wyjaśnił Guellner.

Reklama

Przypomniał, że popularną narracją Kremla stało się obarczanie winą za wojnę w Ukrainie NATO. Mówiono, że „to NATO zagroziło Rosji, że jest agresorem, dlatego musiała ona walczyć”. Podobnie było z narracją o „nazistowskim reżimie z Kijowa”. Takie narracje powtarzane jak mantry, utrwalają się. (…) To nie oznacza, że ludzie w nie wierzą. Ale znają te narracje, a to stanowi pierwszy krok w kampaniach dezinformacyjnych – stwierdził ekspert.

Jak podkreślił, dezinformacja nie jest jedynie prostą kremlowską propagandą. Aby określić rzeczywiste zjawisko, należałoby używać nazwy manipulacja informacją. Ta manipulacja oparta jest na czterech filarach – wyjaśnił Guellner.

Cztery filary manipulacji

Pierwszym z filarów są działania rosyjskiego aparatu państwowego, w tym sieć dyplomatyczna. Drugim są media, kontrolowane przez państwo. Trzeci filar to tzw. ekosystem dezinformacji – powiedział ekspert i przypomniał, że Jewgienij Prigożyn, znany jako szef Grupy Wagnera, zbudował imperium medialne, w tym tzw. Internet Research Agency, która działała podczas kampanii wyborczej w USA w 2016 roku i „prawdopodobnie nadal działa, w zmienionej formie”.

Jak zaznaczył przy tym Guellner, Grupa Wagnera jest nie tylko organizacją militarną, ale też „dokonała ukierunkowanych inwestycji w sektorze informacyjnym, na przykład kupując gazety i radia, tworząc własne kanały i narzędzia do kreowania i rozpowszechniania dezinformacji”.

Czwartym filarem są operacje wywiadowcze. Rosyjskie służby specjalne są aktywne w mediach społecznościowych, gdzie tworzą sieci fałszywych tożsamości. Z jednej strony informacje można tam łatwo generować, z drugiej - szybko zintensyfikować kampanie dezinformacyjne – zauważył ekspert.

Sztuczna inteligencja (AI) odgrywa od dawna rolę w dezinformacji – kiedyś były to chociażby boty, które rozpowszechniały dezinformację. Teraz nastąpił kolejny impuls w automatyzacji, działać można łatwiej i szybciej. To niepokojące zjawisko. (…) W przyszłości technika deepfake może generować tak doskonałe materiały wideo, że nie dostrzeże się różnicy w stosunku do oryginałów – stwierdził Guellner.

Mam jednak nadzieję, że rozwój sztucznej inteligencji, wykorzystywanej do demaskowania dezinformacji, będzie się rozwijać również w podobnym tempie – podsumował szef East StratCom.