Dziennik Gazeta Prawana logo

Sztuczna inteligencja nam zagraża? "Moralności nie da się zaprogramować"

5 lutego 2023, 13:23
Ten tekst przeczytasz w 2 minuty
technologia sztuczna inteligencja ai
technologia sztuczna inteligencja ai/shutterstock
"Wcześniej pewne decyzje podejmowało za nas życie i można było mówić, że to jest fatum, Opatrzność czy przypadek. W tej chwili zaawansowana wiedza i technologie sprawiają, że spadają one na nas" - mówi w rozmowie z "Dziennikiem Gazetą Prawną" Maciej Chojnowski, współtwórca i dyrektor programowy Centrum Etyki Technologii Instytutu Humanites, członek grupy roboczej ds. AI w KPRM; autor publikacji "Etyka sztucznej inteligencji. Wprowadzenie".

Czy przyszłość już tu jest?

Zdecydowanie. I musimy być tego świadomi, bo to kwestia odpowiedzialności za przyszłe pokolenia. To poniekąd fundament etycznego myślenia o technologii.

Pytam, bo jeszcze pół roku temu wydawało się, że technologie wykorzystujące AI to konstrukcja z filmów science fiction.

Nie zgodzę się. Przez kilka lat pracowałem w portalu Sztucznainteligencja.org.pl i obserwowałem, jak moi koledzy opisują kolejne nowinki. To wszystko trwa już od dłuższego czasu.

Nigdy jeszcze nie było jednak tak, że narzędzi wykorzystujących AI mogły używać dzieci do pisania wypracowań.

W ostatnim czasie rzeczywiście wielką popularność zyskał chatbot opracowany przez firmę OpenAI. Myślę jednak, że udostępnienie tego narzędzia to do pewnego stopnia chwyt marketingowy. Choć oczywiście przyznaję, że już teraz widać, jak duży potencjał w tym drzemie i zarazem jak duże są ryzyka. Ale też nie przesadzajmy z ekscytacją - czytałem niedawno reportaż o tym, jak próbowano wykorzystać AI w dziennikarstwie. Okazało się, że efekty tylko pozornie były świetne. I teraz zamiast czerpać zyski, trzeba sprawdzać, czy artykuły są zgodne z prawdą, bo robot w wielu miejscach napisał kompletne dyrdymały.

Tymczasem w społecznej świadomości pokutuje obraz podsycany przez myślicieli takich jak Max Tegmark czy Nick Bostrom, że AI najpierw osiągnie poziom ludzki, a następnie pojawi się „superinteligencja”, która zawładnie światem. Oczywiście nie można tego zupełnie wykluczyć, ale dzisiaj mamy dużo bardziej przyziemne problemy z AI.

Czyli poważnego zagrożenia - przynajmniej na razie - nie ma?

To też nie tak. Sztuczna inteligencja niesie ze sobą wiele niebezpieczeństw. Część z nich związana jest dość ściśle ze sposobem działania systemów uczenia maszynowego. Jak choćby ryzyko dyskryminacji wynikające ze skrzywienia algorytmicznego, które jest efektem trenowania AI na niewystarczająco reprezentatywnych danych. Kolejny problem to nieprzejrzystość działania niektórych systemów sztucznej inteligencji. Ale są też kwestie innego rodzaju, które dotyczą naszego funkcjonowania w świecie pełnym nowoczesnych technologii, jak np. malejące poczucie ludzkiej sprawczości. Jeszcze inna sprawa to koncentracja kapitału przez najbardziej zaawansowane firmy technologiczne i monopolizowanie rynków. Tych wyzwań jest naprawdę sporo i mają one różne, nierzadko złożone przyczyny.

CZYTAJ WIĘCEJ W WEEKENDOWYM "DZIENNIKU GAZECIE PRAWNEJ">>>

Copyright
Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję
Źródło Dziennik Gazeta Prawna
Zapisz się na newsletter
Najważniejsze wydarzenia polityczne i społeczne, istotne wiadomości kulturalne, najlepsza rozrywka, pomocne porady i najświeższa prognoza pogody. To wszystko i wiele więcej znajdziesz w newsletterze Dziennik.pl. Trzymamy rękę na pulsie Polski i świata. Zapisz się do naszego newslettera i bądź na bieżąco!

Zapisując się na newsletter wyrażasz zgodę na otrzymywanie treści reklam również podmiotów trzecich

Administratorem danych osobowych jest INFOR PL S.A. Dane są przetwarzane w celu wysyłki newslettera. Po więcej informacji kliknij tutaj