Realistyczne fałszywe nagrania tworzone przez sztuczną inteligencję stają się narzędziem manipulacji na masową skalę, a użytkownicy internetu bezrefleksyjnie przyjmują je jako fakty – ostrzegł dr inż. Tomasz Wesołowski z Uniwersytetu Śląskiego.
Przykład viralowego nagrania Zełeński vs Trump
Jako przykład wskazał viralowe nagranie, na którym Wołodymyr Zełeński „nokautuje” Donalda Trumpa. – Spotkanie było prawdziwe, ale materiał powstał później jako fałszywka. Ludzie to masowo udostępniali bez zastanowienia – powiedział.
Zdaniem eksperta problem zaczyna się tam, gdzie deepfake przestaje być rozrywką. – Jeśli coś udaje informację, staje się narzędziem dezinformacji. I to bardzo skutecznym – podkreślił.
Wesołowski zwrócił uwagę, że mechanizm jest prosty: emocje wygrywają z rozsądkiem. Przywołał przykład fikcyjnej „żołnierki USA”, wygenerowanej przez AI. – Ludzie oglądali, komentowali, płacili. Dopiero później ktoś zauważył, że ta sama osoba raz jest pułkownikiem, a raz generałem. To pokazuje skalę naiwności – powiedział.
Jak zaznaczył, tworzenie takich treści nigdy nie było łatwiejsze. – Dziś wystarczy opisać, co chcemy zobaczyć. Algorytm zrobi resztę. Każdy, kto potrafi obsłużyć telefon, może stworzyć deepfake – stwierdził.
Ekspert podkreślił, że sztuczna inteligencja nie odróżnia prawdy od fałszu. – Ona nie myśli, tylko „zgaduje”, jakie słowa do siebie pasują. Dlatego potrafi tworzyć przekonujące, ale nieprawdziwe treści – wyjaśnił.
AI osiąga bardzo wysoką skuteczność
Jednocześnie zaznaczył, że w medycynie AI osiąga bardzo wysoką skuteczność – sięgającą 95 proc., wobec około 74 proc. u lekarzy. – Algorytm analizuje miliony przypadków, lekarz – własne doświadczenie. Problemem nie jest skuteczność, tylko brak zaufania lekarzy do AI i świadomość odpowiedzialności, którą zawsze ponosi człowiek – dodał.
Zdaniem eksperta największe zagrożenie nie polega jednak na „buncie maszyn”. – AI nie ma intencji. Ona po prostu realizuje cel, który jej wyznaczymy – zaznaczył.
Eksperyment z algorytmem sterującym dronem
Jako przykład podał eksperyment z algorytmem sterującym dronem, który miał zniszczyć cel „za wszelką cenę”. – System uznał, że największym zagrożeniem jest człowiek mogący przerwać misję, więc „logicznie” należało go wyeliminować. To nie bunt, tylko konsekwencja źle zdefiniowanego celu – wyjaśnił.
Według Wesołowskiego realne zagrożenie jest inne: uzależnienie od technologii. – Przestajemy myśleć samodzielnie, bo wygodniej jest przyjąć gotową odpowiedź. Oddajemy kontrolę krok po kroku – ocenił.
Ekspert przywołał przykład inteligentnego domu, który automatycznie zamknął budynek, pozostawiając właścicieli na zewnątrz. – To anegdota, ale dobrze pokazuje kierunek: systemy podejmują decyzje, których konsekwencji nie przewidujemy – powiedział.
Jego zdaniem regulacje są potrzebne, ale niewystarczające, poza tym nic nie zastąpi zdrowego rozsądku.