Politycy stanu Kalifornia z gubernatorem Gavinem Newsomem na czelę wprowadzili nowe prawo o sygnaturze SB 243. Jest to akt, który ma stawiać na pierwszym miejscu bezpieczeństwo ludzi w momencie korzystania przez nich ze sztucznej inteligencji. W głównej mierze chodzi jednak o ochronę najmłodszych.
Dokładnie od 1 stycznia 2026 roku twórcy takich rozwiązań muszą wprowadzić weryfikację wiekową, której celem jest ograniczanie dostępu do narzędzi osobom niepełnoletnim. Nie jest to jednak jedyna regulacja, bo firmy zobligowane są do tego, aby informować użytkowników, że ich konwersacje prowadzone są z maszyną, a chatboty nie mogą w żaden sposób przedstawiać się jako bytów, które uznać można za specjalistów.
W ten sposób stan Kalifornia chce zapewnić bezpieczeństwo najmłodszym oraz tym grupom, które mogą być najbardziej podatne na działanie i sugestie AI. Kontrola wieku i podkreślanie, że chatbot nie jest ekspertem, mają stanowić ochronę przed szkodliwym wpływem niektórych odpowiedzi, które taki LLM może generować.
Surowe kary za przestępstwa z wykorzystaniem AI
Jednocześnie w ramach ustawy przewidziane zostały kary za przestępstwa z wykorzystaniem AI. Osoby, które czerpią korzyści z tzw. deepfake'ów mogą się spodziewać grzywny w wysokości 250 tysięcy dolarów. Chodzi dokładnie o sytuacje, gdy ktoś przerobi cudzy wizerunek, aby potem sprzedawać sfabrykowane fotografie w sieci.
Proceder ten zyskał na sile w momencie szerszej popularyzacji wszelkiego rodzaju narzędzi właśnie do generowania obrazu. Co prawda firmy próbowały jakoś blokować ten proces, ucząc maszyny, aby nie przerabiały np. wizerunków znanych osób, jednak skuteczność tych zabezpieczeń nie była zbyt wysoka i dość szybko pojawiły się sposoby na obejście tego.
W ciągu ostatnich kilkunastu miesięcy kwestie regulujące kary za deepfake'i stały się coraz popularniejsze. Całkiem niedawno we włoskim systemie karnym pojawiło się właśnie przestępstwo z tej kategorii. Osoby, które w nielegalny sposób wykorzystujące wizerunki innych muszą liczyć się z karą więzienia nawet do 5 lat.
Europa a kwestia bezpieczeństwa w przypadku AI
W Europie (a co za tym idzie, także w Polsce) od 2 lutego 2025 roku obowiązuje tzw. AI Act. Jest to dokument, który obowiązuje na terenie całej UE. Dokument reguluje, że LLM-y nie mogą wykorzystywać pewnych technik jak np. scoring społeczny, czyli klasyfikowania osób według ich zachowań lub cech osobistych.
Dodatkowo systemy sztucznej inteligencji nie mogą dokonywać profilowania osób fizycznych lub oceniać osobowości pod kątem ryzyka popełniania przestępstw. W ogólnym rozrachunku jest to więc bardziej ogólny i znacznie szerszy dokument, który nie skupia się tak bardzo na konkretnych przypadkach.
Amerykański dokument ściśle określa pewne przestępstwa, które będą podlegać karze. To oznacza, że przepisy aktu stanowić mogą podstawę do ścigania, jeśli organy dopatrzą się naruszeń. Zdaniem senatora Alexa Padilla podpisany przez gubernatora Kalifornii dokument jest "krokiem we właściwym kierunku".