Sztuczna inteligencja, tworząc treści, niszczy social media
Pojawienie się wszelkiego rodzaju narzędzi AI do generowani treści, takich jak Sora, Veo, Midjourney czy nawet ChatGPT sprawiło, że tworzenie wszelkiego rodzaju treści stało nie tylko banalnie proste, ale też szalenie szybkie. W efekcie tego, w ekspresowym tempie sieć zaczęła zapełniać się takim rodzajem zawartości, który często jest też bardzo niskiej jakości.
W obliczu zalewających nas zewsząd treści o bardzo wątpliwej jakości internauci ukuli termin AI Slop, który bardzo obrazowo oddaje to, z czym mamy do czynienia. Określenie to opisuje wszelkiego rodzaju filmiki, grafiki czy teksty, które już na pierwszy rzut oka zdradzają, że nie zostały stworzone ludzką ręką. Tak właśnie na YouTube możemy co chwile trafiać na Shortsy, które prezentują nierealne historyjki ze zwierzętami czy grafiki, których detale wyglądają jak deliryczne sny.
Nie tylko sama jakoś generowanych treści jest niepokojąca. Do tego wszystkiego dochodzą jeszcze wszelkiego rodzaju deepfake'i, które wykorzystując znane powszechnie osoby, mają skłonić nas do uwierzenia, że coś nieprawdopodobnego faktycznie się stało. Tak właśnie możemy trafić np. na wygenerowane zdjęcie Michaela Jacksona, który - wedle takiej narracji - wcale nie umarł, tylko ukrywa się gdzieś przed światem.
W efekcie tego mamy obraz współczesnych social mediów, jako miejsca, gdzie oddzielenie prawdy od fałszu jest szalenie trudne. Nie jest to jednak kwestia dokładności falsyfikatów, a raczej ilości tego typu treści, które pojawiają się na naszych ekranach w zatrważających wręcz ilościach. W tym wszystkim element ludzki staje się systematycznie zanikać.
Media społecznościowe zatraciły swój pierwotny cel
Ktoś mógłby teraz wskazać, że przecież taka sytuacja jest skrajnie niekorzystna dla wszystkich właścicieli platform społecznościowych. W końcu zalew treści generowanych przez AI, który pogarsza nasze doświadczenia z korzystania z nich, sprawi, że firmy będą chciały się ich pozbyć i będą je surowo karać. Niestety, nic bardziej mylnego, prawdziwy punkt ciężkości leży gdzie indziej.
Spójrzmy na przykłady trzech dużych graczy: Mety, Google'a oraz Elona Muska. Pierwsza z nich ma pod sobą Facebooka oraz Instagrama, druga ma YouTube oraz najpopularniejszą wyszukiwarkę internetową, a Musk jakiś czas temu zdecydował się na zakup Twittera i przemianował go na X. Co łączy ich wszystkich, poza faktem posiadania popularnych platform? Każdy rozwija aktywnie swój własny model AI.
Alexios Mantzarlis, dyrektor Inicjatywy Bezpieczeństwa, Zaufania i Bezpieczeństwa na Cornell Tech przytaczany przez portal cnet.com podkreśla, że media społecznościowe mają teraz łączyć nas nie z ludźmi, a narzędziami. Warto też wspomnieć, że często to właśnie social media stają się poligonem doświadczalnym dla wielu programów, bazujących na generatywnej sztucznej inteligencji.
Wielkim firmom jest to na rękę, bo mogą pochwalić się przed inwestorami nowymi możliwościami swoich modeli. Coraz lepsze obrazy, coraz bardziej realne wideo, coraz bardziej naturalny tekst - wszystko to kusi inwestorów, chcących zarobić na nabrzmiałej do granic bańce spekulacyjnej. A co z użytkownikami social mediów? Nimi się nikt nie przejmuje.
Prawo nie nadąża za technologią. Telenowela, która nigdy się nie kończy
Nawet jeśli wielkie firmy deklarują, że chcą walczyć o jakość social mediów, to trudno wierzyć w te zapewnienia. Meta oraz TikTok zobowiązały się publicznie do oznaczania treści generowanych przez AI, a także walczyć z dezinformacją, która ogromnie korzysta na powszechnym dostępie do takich narzędzi.
Problemem jest jednak skala, bo nic nie da ograniczenie tego do jednej platformy, skoro przechodząc na kolejną, znowu będziemy bombardowani smutnymi pieskami, głupkowatymi treściami oraz nieprawdziwymi informacjami, powodującymi coraz to większy dyskomfort i poczucie zagrożenia. Z tego też powodu coraz więcej osób domaga się konkretnych regulacji ze strony państw.
Te jednak nie nadążają albo nie chcą nadążać. Z jednej strony klasa polityczna na całym świecie (poza pewnymi wyjątkami) nie jest świadoma zagrożenia i czeka, aż jakieś państwo wprowadzi przepisy, na których mogliby się wzorować. Do tego dochodzi kwestia lobby Big Techów, którym jakiekolwiek regulacje są po prostu nie na rękę. Dla nich możliwość nieskrępowanego rozwijania AI jest kluczowa, bo jakiś czas temu zdecydowali się postawić na to właśnie ogromne zasoby.
W obliczu tego wizja kolejnych lat social mediów nie kreuje się dla nas, ludzi, szczególnie dobrze. AI wykorzystywana do zalewania nas treściami, które mają nas polaryzować, wzbudzać strach, nienawiść czy zakłopotanie może stać się chlebem powszednim. Czy to sprawi, że ludzie odwrócą się od social mediów? Na takie odpowiedzi jest za wcześnie, jednak popularność i uzależniający charakter wielu takich platform może okazać się silniejszy nawet od potrzeby poprawienia swojego zdrowia psychicznego.