Sztuczna inteligencja. Coraz trudniej uregulować AI

"Tempo rozwoju sztucznej inteligencji jest oszałamiające. (...) Ale AI różni się od innych technologii i inaczej wpływa na władzę. Nie tylko stawia wyzwania polityczne, jej hiperewolucyjny charakter sprawia, że rozwiązanie tych kwestii jest coraz trudniejsze. To właśnie paradoks mocy AI" - zaznaczają Bremmer (politolog zajmujący się kwestiami geopolityki) i Suleyman (przedsiębiorca z branży AI, współzałożyciel przejętej przez Google'a firmy DeepMind).

Reklama

W odróżnieniu od poprzednich rewolucji technologicznych, rozwój AI rozpocznie zasadniczą zmianę w światowej strukturze władzy i zagraża pozycji państw narodowych jako głównych aktorów geopolityki - przewidują autorzy "FA". W ciągu ostatniej dekady wielkie firmy technologiczne stały się de facto niezależnymi, suwerennymi podmiotami w stworzonych przez siebie cyfrowych domenach, przejmując władzę zarezerwowaną wcześniej dla państw narodowych. Rozwój AI tylko przyspieszy ten trend i przeniesie go daleko poza obszar świata cyfrowego - dodają Bremmer i Suleyman.

"Złożoność tej technologii i szybkość jej rozwoju sprawią, że wprowadzenie przez rządy odpowiednich przepisów w rozsądnym tempie będzie praktycznie niemożliwe. Jeżeli rządy wkrótce się za to nie zabiorą, prawdopodobnie nigdy się to nie uda" - podkreślają autorzy.

Kto ma regulować AI

W Unii Europejskiej, USA, Wielkiej Brytanii, na forum G7 i ONZ już toczą się debaty i inicjowane są działania regulujące rozwój AI. Niestety zbyt duża część tych rozmów grzęźnie w pułapce niebezpiecznej, fałszywej alternatywy: wykorzystania AI do rozszerzenia władzy państw narodowych lub ograniczenia rozwoju tej technologii, by uniknąć związanych z tym zagrożeń - oceniają Bremmer i Suleyman.

Tymczasem AI nie może być regulowana na wzór jakiejkolwiek poprzedniej technologii i wymaga zaprojektowania nowych ram zarządzania, które wyjdą poza tradycyjnie rozumianą zasadę suwerenności państw i będę współtworzone przez firmy technologiczne. Te podmioty mogą nie mieć legitymacji, której źródłem jest umowa społeczna czy demokratyczny wybór, ale bez ich udziału zarządzanie AI nie będzie miało żadnego sensu - argumentują autorzy artykułu w "FA". Podkreślają, że to tylko jeden z przykładów tego, jak w związku z rozwojem AI, społeczność międzynarodowa będzie musiała przemyśleć podstawowe założenia dotyczące porządku geopolitycznego.

Reklama

Sztuczna inteligencja rozwija się w błyskawicznym tempie: stwarza nowe, nieznane wcześniej możliwości; coraz bardziej zaawansowane modele mogą działać na coraz bardziej dostępnym sprzęcie; oprogramowanie którego opracowanie kosztuje teraz setki milionów dolarów, będzie prawdopodobnie dostępne za dwa-trzy lata dla każdego jako open source. "Żadna technologia o tak potężnych możliwościach nie stała się tak szybko i tak szeroko dostępna" - zaznaczają Bremmer i Suleyman.

Sztuczna inteligencja pokieruje samochodem i… czołgiem

AI może być charakteryzowana jako technologia podwójnego zastosowania, użyteczna zarówno w celach cywilnych, jak i wojskowych. Niezależnie od dobrych intencji twórców, programy używane do sterowania samochodami, będą mogły również sterować czołgami, a te pomagające w diagnostyce medycznej, mogą być wykorzystane do rozwijania broni biologicznej - ostrzegają autorzy. Dodają, że raz stworzone modele AI będą już dostępne na całym świecie, nie da się ich fizycznie ograniczyć, dlatego regulacje tej technologii muszą mieć międzynarodowy, globalny charakter i nie zawierać luk.

Trudno sobie wyobrazić granice szkód, które może spowodować AI. Ta technologia może być wykorzystywana do szerzenia toksycznej dezinformacji, podważającej zaufanie społeczne i demokrację; do inwigilowania i manipulowania obywatelami; ograniczania ich wolności; tworzenia broni, która może fizycznie zagrażać ludziom - wyliczają Bremmer i Suleyman. AI może również przyczynić się do likwidacji milionów miejsc pracy, co pogłębi istniejące nierówności i stworzy nowe oraz utrwali dyskryminujące wzorce, albo wywołać niezamierzoną i niekontrolowaną eskalację zbrojną, która doprowadzi do wojny - uzupełniają.

To tylko początek potencjalnych zagrożeń, bo chociaż korzyści płynące z rozwoju sztucznej inteligencji są oczywiste, AI będzie z czasem tylko potężniejsza, lepsza, tańsza i bardziej wszechobecna - ostrzegają autorzy "FA".

Bez woli politycznej nie uporządkujemy AI

Bremmer i Suleyman postulują więc stworzenie co najmniej trzech nakładających się na siebie międzynarodowych systemów zarządzania AI, opartych o wspólne podejście "technoroztropności" (ang. technoprudentialism). Jego pierwszą zasadą powinna być ostrożność, w myśl maksymy, by "po pierwsze nie szkodzić" - maksymalne ograniczenie AI wymusiłoby rezygnację z jej potencjalnych, korzystnych dla ludzi zalet, ale nienałożenie na nią żadnych regulacji groziłoby wyzwoleniem jej wszystkich potencjalnie katastrofalnych wad - argumentują. Trzeba zapobiegać tym zagrożeniom zanim się zmaterializują, a nie łagodzić je po fakcie - podkreślają.

Każdy z trzech systemów powinien mieć inne cele, uprawnienia i instytucje, każdy z nich może też inspirować się już istniejącymi rozwiązaniami, stworzonymi by radzić sobie z innymi globalnymi wyzwaniami - zmianą klimatu, ograniczeniem zbrojeń i międzynarodowym systemem finansowym - opisują eksperci. Pierwszy służyłby ustaleniu podstawowych faktów i terminów związanych z AI i byłby globalnym ciałem naukowym zajmującym się tą problematyką. Drugie, bardziej polityczne ciało zapobiegałoby wyścigowi zbrojeń między państwami w obszarze AI. Trzeci, techniczny regulator kontrolowałby rozwój AI od strony technicznej, zajmując się również aktorami niepaństwowymi, np. oprogramowaniem open source i regulowałby "geotechnologiczną stabilność" - wyliczają autorzy.

"Te rozwiązania nie będą łatwe do wprowadzenia, wciąż brakuje tutaj woli politycznej (...) ale alternatywa, jaką jest nieograniczony rozwój AI, nie tylko stwarzałaby niedopuszczalne ryzyko dla globalnej stabilności, byłaby też niekorzystna dla biznesu i sprzeczna z interesem narodowym każdego z państw" - konkludują Bremmer i Suleyman.