Dominika Pietrzyk: Elon Musk zaapelował o zatrzymanie prac nad sztuczną inteligencją (SI) na pół roku. A pan podpisałby się pod jego apelem?

Reklama

Jarosław Królewski, prezes Synerise: Nie, bo to nic nie da... Jeśli apel miał nas trochę przerazić, być może Muskowi to się udało. A jeśli miał zatrzymać prace nad SI, to wywołał efekt przeciwny. To trochę tak jak z kościelnym indeksem ksiąg zakazanych…

Chcemy czegoś więcej, bo jest to zakazane.

Tak, dlatego powinniśmy inaczej prowadzić narrację na temat rozwoju SI. Edukować i tłumaczyć, na czym polegają zagrożenia, bo technologia będzie się rozwijać. OpenAI, amerykańskie laboratorium pracujące nad SI, zrobiło ostatnio coś, co np. z mojej perspektywy – właściciela firmy zajmującej się sztuczną inteligencją – jest bardzo korzystne. Na przykładzie rozwiązania dla konsumenta końcowego, czyli ChatGTP, pokazało, jak ważna będzie w przyszłości sztuczna inteligencja i jak istotne będzie to, żeby uwzględniać ją w swoich planach biznesowych i życiowych.

A na czym polegają zagrożenia dla „społeczeństw i ludzkości”, o których mówi Musk?

Istnieje zagrożenie, że modele SI staną się jeszcze bardziej black boxowe, działające na zasadzie czarnej skrzynki – przestaniemy rozumieć, jak podejmują decyzje, w jaki sposób odpowiadają na zadane pytania i czy dane, na których podstawie wnioskują, są prawdziwe. Może zdarzyć się też tak, że stworzymy w przyszłości Artificial General Intelligence, silną sztuczną inteligencję, która będzie miała samoświadomość. Zresztą niektórzy naukowcy twierdzą, że do 2025 r. taką samoświadomość mogą zyskać niektóre sieci neuronowe. W związku z czym trzeba będzie pogodzić się z nową wizją postrzegania człowieka i jego współgrania z maszynami. Mogą pojawić się też zagrożenia związane z klonowaniem tożsamości, wirtualnymi awatarami, prywatnością, dostępem do informacji czy własnością intelektualną. Jest wiele kwestii, które obecnie są nieuregulowane, a ponieważ rozwój technologii następuje bardzo szybko, to pojawia się pole do wielu nadużyć formalnych i prawnych.

Co trzeba uregulować najpilniej?

Reklama

Pilne jest uregulowanie w transparentny sposób kwestii, co np. jest data setem (zbiorem danych – red.), który wchodzi do modelu SI. Czyli jakie dane i w jaki sposób posłużyły do powstania danego modelu. Chodzi o to, żeby na zasadzie inżynierii odwróconej móc później podejrzeć, na jakiej podstawie zostały wysunięte przez SI takie, a nie inne wnioski czy jakie było ich źródło. Trzeba również określić, do kogo należy odpowiedź wygenerowana przez modele SI, czyli kto ma do niej prawa autorskie. Zdecydowanie trzeba pomyśleć o tym, jak świat – państwa, rządy, fundacje, think tanki, organizacje międzynarodowe – ma kontrybuować w rozwój SI. Bo jeśli będą to robić jedynie prywatne firmy, wszystko, co powstanie w rezultacie takich działań, może być niesatysfakcjonujące.

Skąd biorą się obawy związane z SI?

Z kilku źródeł, w tym z niepewności dotyczącej jej wpływu na społeczeństwo, gospodarkę, prywatność i bezpieczeństwo. Ważne więc, żeby wytłumaczono użytkownikom, jaki wpływ na ludzkość będzie miała sztuczna inteligencja - bo wtedy przestaną się tak bardzo bać przyszłości. Myślę, że wątpliwości, które mamy, tyczą się głównie spraw nam najbliższych. Tego, jak będą wyglądały relacje międzyludzkie czy nasza praca. W odpowiedzi na tego typu obawy OpenAI pracuje z pomocą sztucznej inteligencji np. nad swoją wersją dochodu podstawowego (UBI).

A z mojej perspektywy im ciekawsza będzie przyszłość, tym lepiej. To, że mówimy dziś o interakcjach z czymś, co będzie "semiludzkie”, jest dla mnie inspirujące – to, w jaki sposób będą wyglądały nasze kontakty z maszynami, jaki będzie poziom ich niezależności, czy przejdą do końca test Turinga? Być może dla niektórych rozmowy z maszyną będą ciekawsze i cenniejsze niż interakcja z człowiekiem? Widzimy też, co się dzieje w Chinach czy Japonii, gdzie dochodzi czasami do absurdów, np. ktoś bierze ślub ze swoim pecetem. Natomiast to wszystko jest metaforą. Kiedy patrzymy na obraz, czasami abstrakcyjny, wydaje nam się, że nie dostrzegamy w nim nic, ale są ludzie, którzy coś widzą. Podobnie jest ze sztuczną inteligencją. Dlatego ja optowałbym za wolnością w podejściu do niej. Bo choć nowe fajne technologie stwarzają też zagrożenia, to wierzę, że ludzie są na tyle mądrzy, żeby sobie z nimi radzić.

A nie jest trochę tak, że SI sprawi, że pojawią się nowe podziały? Będzie garstka tych, którzy poczują się świetnie w nowej rzeczywistości, i będzie wielu takich, którzy nie ogarną tych technologii.

To pewne, że kiedyś pojawi się ruch, którego postulaty będą brzmiały: „Dość komputerów, dość SI!”. Tak jak mamy trend odchodzenia od wysoko przetworzonego jedzenia na rzecz żywności naturalnej, tak pojawi się trend odejścia od skażenia informacją i wszystkim, co technologiczne. Wcześniej czy później taki ruch powstanie i to też może być atrakcyjne, jako próba powrócenia do człowieczeństwa. Być może będzie to chichot historii, że mając na wyciągnięcie ręki niesamowite technologie, będziemy chcieli wrócić do tego, co pierwotne. Być może i ja będę miał w swoim życiu moment buntu i powiem „dość”. Trzeba jednak pamiętać, że żyjemy w świecie, który jest mocno stratyfikowany. Są miejsca, gdzie mamy technologie, wspaniałe warunki do życia i przez cały czas są miejsca, gdzie ludzie żyją w bardzo dużym ubóstwie bez tych wszystkich rzeczy.

A dlaczego państwa, np. Włochy, zakazują używania ChatGPT?

Myślę, że to paniczny ruch, wykonany bez rozwagi. A zresztą zakaz obowiązujący w jednym kraju niczego nie zmieni. Nawet gdybyśmy jako Europa zamknęli się na nowe technologie, to z punktu widzenia naszych fundamentalnych celów byłoby to bardzo złe. Wyobraźmy sobie teraz, że nie używamy SI, a musimy konkurować na rynkach finansowych z modelami predykcyjnymi wykorzystującymi sztuczną inteligencję. Bylibyśmy na straconej pozycji.

A czy sztuczna inteligencja jest poprawna politycznie? Mam na myśli to, czy dane, którymi jest karmiony chatbot, wpływają na to, w jaki sposób będzie z nami rozmawiał, a być może kształtował nasze poglądy.

To, w jaki sposób wyglądają odpowiedzi, zależy od tego, jak trenujemy modele – jaki typ informacji im dostarczamy, jak je "obrabiamy" oraz jaką formę np. supervised learningu (uczenia nadzorowanego – red.) uprawiamy. Na przykład, czy nagradzamy model za pozytywne odpowiedzi? Można to zorganizować w ten sposób – i pewnie większość modeli językowych jest tak zabezpieczana, żeby nie dzielić ludzi – że SI generuje odpowiedzi poprawne politycznie. Czy tak będzie zawsze? Pewnie znajdą się tacy, którzy spróbują to zmienić.

Czy modele SI mogą się wymknąć spod kontroli?

Pięknym snem naukowców, którzy zajmują się SI, jest to, żeby ona "się wyzwoliła". Żeby każdy nowy model tworzył kolejny - dokładniejszy, a ten jeszcze inny - i tak w nieskończoność. Co zresztą kiedyś może doprowadzić do wielu wspaniałych rzeczy, np. do tego, że wszyscy będą mieli równy dostęp do wiedzy. Z tym, o co pani pyta, rzeczywiście wiążą się dość duże wyzwania. Można założyć, że model SI może się wymknąć spod naszej kontroli, przy czym na razie komputer można po prostu odłączyć od gniazdka.

W jaki sposób SI zmieni rynek pracy? Teraz niemal każdy chce zostać programistą, bo tu pensje są obfite, lecz ChatGPT może wyręczyć mniej zaawansowanych koderów. Może też zastąpić innych specjalistów.

Wszystkie kompetencje cyfrowe, których się uczymy - nawet sposób myślenia, który jest potrzebny do programowania - w dużej mierze pomogą nam się odnaleźć i być elastycznym na rynku pracy. Cóż, myślano, że zawody cyfrowe nie znikną, a tu się okazuje, że SI zaczyna wypierać podstawowe programowanie. Ludzie się śmieją, że przetrwają hydraulicy… Ale trochę tak wygląda ten świat i nie ma co się na to obrażać, tylko być elastycznym. Jeśli mam spojrzeć na strukturę zatrudnienia w przyszłości, to moim zdaniem zawody będą związane z tym, że będziemy pracować na systemach low-code.

To znaczy?

Za pomocą komputerowych interfejsów będziemy w stanie budować z cyfrowych klocków różnego rodzaju rozwiązania. Kiedyś byli algorytmicy i programiści, którzy znali od podstaw metody kodowania. Programowali, analizowali, wiedzieli, jak wyglądają poszczególne schematy czy gramatyki budowania programów. A dzisiaj to są głównie software deweloperzy, którzy składają oprogramowanie z różnych klocków. Kiedyś będzie tak samo, jeśli chodzi o budowanie aplikacji, czyli np. będzie pani miała pomysł na swój start-up, powiedzmy w branży podróży, będzie pani miała ideę, jak to powinno działać, a resztę będzie pani w stanie "wyklikać" za pomocą prostych reguł bez umiejętności programowania.

Ile mamy czasu, zanim te zmiany nastąpią?

Od 5 do 10 lat. Przy czym już dziś może pani wyklikać sobie taką aplikacje i zebrać na nią miliony dolarów w rundach finansowania, o ile będzie ciekawa koncepcyjnie.

A jeśli się nie przygotuję, to co ze mną będzie?

Zawsze można się przenieść do Amazonii… (śmiech) A poważnie, myślę, że jest tyle rzeczy do zrobienia, tyle ciekawych prac, chociażby związanych z tym, jak będzie wyglądało dziennikarstwo przyszłości, że ja bym się szczególnie nie obawiał. Dla każdego znajdzie się w przyszłości zawód.

Czy polscy programiści przyczyniają się do rozwoju SI?

Mamy bardzo zdolnych ludzi, ale też nie jest tak, że w dziedzinie sztucznej inteligencji mamy ich wybitnie dużo.

A pan?

Jestem programistą przez cały czas praktykującym, ale zdecydowanie nie mogę się równać z ludźmi, których mam w firmie. Oni rywalizują z najlepszymi, wygrywają konkursy – i to jest dla mnie ogromna satysfakcja. I nie jest też tak, że mamy w Polsce dużo firm, które mogą konkurować z tymi największymi na świecie. Raczej wygląda to w ten sposób, że rodzime przedsiębiorstwa IT używają technologii z zagranicy, przykrywają ją własnym interfejsem i rozwiązują określony problem. Co nie jest złe, ale nie mogą one konkurować z innymi na czystą technologię. A moja firma stara się właśnie konkurować na czystą technologię. Czasami jest to pełne wyzwań i bardzo kosztowne, ale bardziej satysfakcjonujące.

Co pana biznes ma dać światu?

Dzisiaj istnieją dwa typy ambicji związanych z rozwijaniem SI. Pierwsza wiąże się z tym, co robią modele językowe: przetwarzają tekst, obraz, wideo i na podstawie uzyskanej w ten sposób wiedzy odpowiadają na zadane pytania. Drugi typ ambicji łączy się z foundation models. To modele, które mają „personalizować” świat lub wskazywać, co wydarzy się w przyszłości. I to jest coś, co chciałbym robić, czyli być taką wróżką. I nasze systemy są takimi wróżkami, które mówią, co się stanie: jakie są preferencje człowieka, jakie powinny być rekomendacje dla konkretnej osoby, jaki będzie jej kolejny krok. Specjalizujemy się w modelowaniu behawioralnym i staramy się to wplatać w biznes i w inne rozwiązania. Nasze narzędzia open source’owe, otwarte dla wszystkich, mogą być stosowane np. w procesie tworzenia leków, a konkretniej do opracowywania lepszych metod tworzenia ich zamienników. Nie zajmujemy się tym, ale to skutek uboczny naszych badań naukowych. Oprócz tego dostarczamy organizacjom narzędzia do tego, żeby mogły lepiej przewidywać przyszłość. Na tym się dzisiaj skupiamy i w tym rywalizujemy z największymi na świecie.

Wiele górnolotnych słów.

Wierzę w romantyczną wizję informatyki. Nie w taką bzdurną, budowaną przez firmy konsultingowe, że oto mamy ładnie opakowaną, acz infantylną prezentację i ogłupiamy klientów. Moim zdaniem powinniśmy edukować klientów i partnerów, żeby widzieli różnice między poszczególnymi rozwiązaniami, bo wtedy będą je doceniać. Moja firma w tej części świata przetwarza setki miliardów transakcji rocznie. Bardzo trudno jest znaleźć przedsiębiorstwo w segmencie big data, które ma doświadczenia z tak wrażliwymi i ważnymi danymi. Nasze rozwiązania, zarówno open source’owe, jak i komercyjne, są już obecne w 149 krajach i 183 językach na całym świecie. Zarabiamy na naszym modelu subskrypcyjnym miliony dolarów, więc wydaje mi się, że ma to sens biznesowy. Ale, co dla mnie jest najistotniejsze,regularnie bierzemy udział w najważniejszych na świecie konkursach związanych ze sztuczną inteligencją i staramy się nie wypadać z trójki najlepszych rozwiązań, a wśród tych, z którymi rywalizujemy są: Google, Microsoft, Baidu, Nvidia, Parc czy Intel. Będziemy walczyć o to, żeby postrzegano nas jako firmę, która jest ambitna i potrafi rywalizować swoimi rozwiązaniami z największymi na świecie, opierając to wszystko na własności intelektualnej wytworzonej w kraju.

Przez opinię publiczną raczej jest pan kojarzony jako właściciel klubu piłkarskiego. Czy więc sztuczna inteligencja zmieni także sport?

Zdecydowanie. Kiedyś statystyka i modele predykcyjne odmieniły koszykówkę. W ostatniej dekadzie liczba rzutów za 3 pkt zwiększyła się, bo okazało się, że dużo łatwiej jest wygrać mecz, częściej ryzykując taki rzut, nawet jeśli szansa trafienia jest mniejsza. I jeśli spojrzymy na rozkład rzutów za 3 pkt w NBA, to on zmienił się m.in. dzięki pracy statystyków. I tak samo będzie w piłce nożnej. Na przykład będą strefy boiska, gdzie napastnik będzie musiał być częściej obecny, bo tak będzie wynikało ze statystyk. Żeby była jasność, to już się dzieje.

A stosujecie takie rozwiązania w Wiśle Kraków?

Tak. I inne kluby też. Zbieramy wszystkie statystyki dotyczące piłkarzy - np. fizyczne, i analizujemy, co się dzieje.

Co przyniosą kolejne miesiące, jeśli chodzi o rozwój SI?

Firmy będą się prześcigać w rozwiązaniach, a wpływ tego wyścigu na biznes będzie niesamowity. Będziemy obserwować nowe wymiary zastosowania SI. Czeka nas też wyścig zbrojeń między największymi potentatami technologicznymi, państwami, uniwersytetami... To będą piękne czasy.

A kto wygra wyścig zbrojeń?

Wygra społeczność open source. Bo do wszystkich zamkniętych projektów komercyjnych będą od razu pojawiać się otwarte odpowiedniki.

Dlaczego, skoro można na tym zarabiać?

Bo zawsze tak jest. Społeczność światowa, zbuntowani programiści, ludzie, którzy się nudzą, będą dążyć do tego, żeby powstawało otwarte oprogramowanie.

A jeśli chodzi o wyścig krajów - czy rozwój SI należy w ogóle postrzegać z uwzględnieniem podziału na kraje?

Myślę, że jest istotne, żeby rozumieć, który kraj na jakim jest etapie i jakie ma wyzwania z SI. To kluczowe. Każdy aspekt życia, w którym nie zostaną wytworzone elementy pozwalające na budowę kompetencji w dziedzinie AI, będzie ten kraj osłabiał.

Jak będzie w Polsce? Nie zostaniemy w tyle?

Myślę, że staramy się nie być w tyle. Ale może być różnie.