Autorzy są zdania, że przy mierzeniu się z obecnymi wyzwaniami związanymi z rozwojem sztucznej inteligencji można sięgnąć po nauki zaczerpnięte z historii ograniczania ryzyka broni nuklearnej. Twierdzą jednak, że oba typy zagrożeń dzielą zasadnicze różnice.

Reklama

Różnice między zagrożeniem nuklearnym a AI

Po pierwsze, rozwojem technologii nuklearnej kierowały rządy, z kolei to prywatni przedsiębiorcy, technolodzy i firmy napędzają współczesne postępy w dziedzinie sztucznej inteligencji. I znacznie wyprzedzają wszelkie analogiczne wysiłki rządu.

Reklama

"Co więcej, firmy ze sobą konkurują. Przyspiesza to innowacje, ale ponieważ prywatne podmioty koncentrują się na rachunku zysków i strat, interesy narodowe będą w tej kalkulacji niedoceniane" - podkreślają autorzy.

Reklama

Po drugie, tworzenie broni jądrowej wymagało złożonej infrastruktury na każdym etapie: od wzbogacania uranu po projektowanie broni jądrowej. Produkty były obiektami fizycznymi, a zatem policzalnymi. Tam, gdzie można było sprawdzić, co robi przeciwnik, można było tworzyć ograniczenia. Natomiast sztuczna inteligencja stanowi zupełnie inne wyzwanie.

Jak piszą autorzy, jej główne ewolucje zachodzą w umysłach ludzi. "Jej zastosowanie ewoluuje w laboratoriach, a jej wdrożenie jest trudne do zaobserwowania. Broń nuklearna jest namacalna; istota sztucznej inteligencji jest konceptualna" - diagnozują eksperci.

Po trzecie, sztuczna inteligencja rozwija się i rozprzestrzenia z prędkością, która uniemożliwia długie negocjacje. Kontrola zbrojeń rozwijała się przez dziesięciolecia, ale ograniczenia dla AI muszą pojawić się, zanim AI zostanie wbudowana w strukturę bezpieczeństwa każdego społeczeństwa, a więc zanim maszyny zaczną wyznaczać własne cele (a to może nastąpić w ciągu najbliższych pięciu lat).

Wspólne zobowiązania amerykańskich firm

Na szczęście - zauważają - największe firmy, które uczyniły Stany Zjednoczone wiodącym supermocarstwem AI, zdają sobie sprawę, że mają obowiązki nie tylko wobec swoich akcjonariuszy, ale także wobec kraju i całej ludzkości. Wiele z nich opracowało już własne wytyczne dotyczące oceny ryzyka przed wdrożeniem, zmniejszania stronniczości danych szkoleniowych i ograniczania niebezpiecznych zastosowań swoich modeli. Znaczącym krokiem we właściwym kierunku była inicjatywa administracji prezydenta Bidena, dzięki której liderów siedmiu głównych firm zajmujących się sztuczną inteligencją zjawili się w Białym Domu, by wspólnie zobowiązać się do ustanowienia wytycznych zapewniających "bezpieczeństwo, ochronę i zaufanie".

Skala zagrożeń związanych z nieograniczonym postępem sztucznej inteligencji wymaga, aby liderzy zarówno w rządzie, jak i biznesie zaczęli działać jak najszybciej, i to mimo istniejących w USA ostrych podziałów politycznych - twierdzą eksperci.

Każda z firm dysponujących ogromnymi możliwościami obliczeniowymi do trenowania nowych modeli sztucznej inteligencji oraz każda firma lub grupa badawcza opracowująca nowe modele powinna stworzyć grupę analizującą ludzkie i geopolityczne implikacje swoich komercyjnych operacji AI.

"Wymaga to współdziałania obu partii politycznych" - podkreślają eksperci. Prezydent i Kongres powinni powołać krajową komisję składającą się z wybitnych, bezpartyjnych byłych liderów sektora prywatnego, Kongresu, wojska i wywiadu, która powinna zaproponować szczegółowe obowiązkowe zabezpieczenia. Winny one obejmować wymagania dotyczące stałego monitoringu możliwości obliczeniowych potrzebnych do szkolenia modeli sztucznej inteligencji, takich jak GPT-4, oraz tego, że zanim firmy wprowadzą na rynek nowy produkt czy model, przetestują go pod kątem ekstremalnych zagrożeń.

Poważne rozmowy między USA a Chinami wskazane

Analitycy zwracają uwagę, że wcale nie jest za wcześnie na rozpoczęcie poważnych rozmów z jedynym na świecie supermocarstwem AI. Chińscy mistrzowie w sektorze technologicznym - Baidu (czołowa wyszukiwarka w kraju), ByteDance (twórca TikTok), Tencent (twórca WeChat) i Alibaba (lider w handlu elektronicznym) - budują własne chińskojęzyczne analogi ChatGPT, chociaż chiński system polityczny stwarza szczególne trudności dla sztucznej inteligencji. Biden i Xi Jinping powinni zatem spotkać się w najbliższej przyszłości na prywatnej rozmowie o kontroli broni AI.

Każdy z nich powinien omówić, jak ocenia zagrożenia stwarzane przez sztuczną inteligencję, co robi jego kraj, aby zapobiec aplikacjom stwarzającym katastrofalne zagrożenia oraz w jaki sposób jego państwo przeciwdziała eksportowi zagrożeń przez krajowe firmy. Powinni stworzyć grupę doradczą składającą się z amerykańskich i chińskich naukowców zajmujących się sztuczną inteligencją oraz innych osób, które zastanawiały się nad konsekwencjami tych wydarzeń. Podejście to byłoby wzorowane na istniejącej dyplomacji Track II w innych dziedzinach, gdzie grupy składają się z osób wybranych ze względu na ich osąd i uczciwość, choć nie są formalnie zatwierdzone przez ich rząd. Na podstawie naszych rozmów z kluczowymi naukowcami w obu rządach jesteśmy przekonani, że może to być bardzo produktywna dyskusja - podkreślają analitycy.

Zdaniem autorów, amerykańsko-chińskie działania byłyby tylko częścią globalnej dyskusji na temat sztucznej inteligencji. W dłuższej perspektywie wymagany będzie globalny porządek w zakresie sztucznej inteligencji. Prace nad nim powinny rozpocząć się od krajowych wysiłków na rzecz zapobiegania najbardziej niebezpiecznym i potencjalnie katastrofalnym konsekwencjom sztucznej inteligencji. Wszystkie te inicjatywy powinny być uzupełnione dialogiem między naukowcami z różnych krajów.

Czy jeśli Biden, Xi i inni światowi przywódcy podejmą teraz działania, aby stawić czoła wyzwaniom związanym ze sztuczną inteligencją, tak jak ich poprzednicy w walce z zagrożeniami nuklearnymi we wcześniejszych dziesięcioleciach, odniosą taki sam sukces? Patrząc na historię i rosnącą polaryzację, trudno być optymistą. Niemniej jednak fakt, że minęło już 78 lat pokoju między mocarstwami nuklearnymi, powinien zainspirować wszystkich do opanowania rewolucyjnych, nieuniknionych wyzwań naszej przyszłości związanych ze sztuczną inteligencją - konkludują Henry Kissinger i Graham Allison.