Rosji chodzi o „oszukiwanie, odwracanie uwagi i tworzenie nowych narracji”. To coś więcej, niż tworzenie fake newsów – podkreślił ekspert. W taktyce rosyjskiej występuje efekt lustra, czyli przekierowywanie otrzymywanej krytyki na innych, jak było w przypadku masakry w Buczy – wyjaśnił Guellner.
Przypomniał, że popularną narracją Kremla stało się obarczanie winą za wojnę w Ukrainie NATO. Mówiono, że „to NATO zagroziło Rosji, że jest agresorem, dlatego musiała ona walczyć”. Podobnie było z narracją o „nazistowskim reżimie z Kijowa”. Takie narracje powtarzane jak mantry, utrwalają się. (…) To nie oznacza, że ludzie w nie wierzą. Ale znają te narracje, a to stanowi pierwszy krok w kampaniach dezinformacyjnych – stwierdził ekspert.
Jak podkreślił, dezinformacja nie jest jedynie prostą kremlowską propagandą. Aby określić rzeczywiste zjawisko, należałoby używać nazwy manipulacja informacją. Ta manipulacja oparta jest na czterech filarach – wyjaśnił Guellner.
Cztery filary manipulacji
Pierwszym z filarów są działania rosyjskiego aparatu państwowego, w tym sieć dyplomatyczna. Drugim są media, kontrolowane przez państwo. Trzeci filar to tzw. ekosystem dezinformacji – powiedział ekspert i przypomniał, że Jewgienij Prigożyn, znany jako szef Grupy Wagnera, zbudował imperium medialne, w tym tzw. Internet Research Agency, która działała podczas kampanii wyborczej w USA w 2016 roku i „prawdopodobnie nadal działa, w zmienionej formie”.
Jak zaznaczył przy tym Guellner, Grupa Wagnera jest nie tylko organizacją militarną, ale też „dokonała ukierunkowanych inwestycji w sektorze informacyjnym, na przykład kupując gazety i radia, tworząc własne kanały i narzędzia do kreowania i rozpowszechniania dezinformacji”.
Czwartym filarem są operacje wywiadowcze. Rosyjskie służby specjalne są aktywne w mediach społecznościowych, gdzie tworzą sieci fałszywych tożsamości. Z jednej strony informacje można tam łatwo generować, z drugiej - szybko zintensyfikować kampanie dezinformacyjne – zauważył ekspert.
Sztuczna inteligencja (AI) odgrywa od dawna rolę w dezinformacji – kiedyś były to chociażby boty, które rozpowszechniały dezinformację. Teraz nastąpił kolejny impuls w automatyzacji, działać można łatwiej i szybciej. To niepokojące zjawisko. (…) W przyszłości technika deepfake może generować tak doskonałe materiały wideo, że nie dostrzeże się różnicy w stosunku do oryginałów – stwierdził Guellner.
Mam jednak nadzieję, że rozwój sztucznej inteligencji, wykorzystywanej do demaskowania dezinformacji, będzie się rozwijać również w podobnym tempie – podsumował szef East StratCom.