Twórcy AI podczas pierwszego globalnego szczytu bezpieczeństwa AI w Wielkiej Brytanii, który odbył się 2 listopada, zgodzili się współpracować z rządami w celu przetestowania nowych narzędzi przed ich szerszym udostępnieniem, aby pomóc w zarządzaniu ryzykiem związanym z rozwijającą się technologią.

Reklama

Nadzór nad AI

Ponad 25 krajów obecnych na szczycie podpisało 1 listopada Deklarację z Bletchley, aby współpracować i ustalić wspólne podejście do nadzoru nad AI.

Przedstawiciele Wielkiej Brytanii powiedzieli podczas szczytu, że kraj potroi do 300 milionów funtów swoje fundusze dla instytutu AI Research Resource, co obejmuje dwa superkomputery, które będą wspierać badania nad bezpieczeństwem zaawansowanych modeli sztucznej inteligencji. Wielka Brytania planuje także utworzenie pierwszego na świecie instytutu bezpieczeństwa sztucznej inteligencji.

Z kolei prawodawcy i rządy UE osiągnęły 8 grudnia tymczasowe porozumienie w sprawie zasad regulujących wykorzystanie sztucznej inteligencji, w tym wykorzystanie sztucznej inteligencji przez rządy w nadzorze biometrycznym.

Obowiązki sztucznej inteligencji

Porozumienie wymaga, aby systemy AI ogólnego przeznaczenia spełniały obowiązki w zakresie przejrzystości przed wprowadzeniem ich na rynek. Obejmują one sporządzanie dokumentacji technicznej, przestrzeganie prawa autorskiego UE i rozpowszechnianie szczegółowych podsumowań dotyczących treści wykorzystywanych do szkolenia AI.

Stany Zjednoczone, Wielka Brytania i kilkanaście innych krajów przedstawiły 27 listopada 20-stronicowe niewiążące porozumienie zawierające ogólne zalecenia dotyczące sztucznej inteligencji, takie jak monitorowanie systemów pod kątem nadużyć, ochrona danych przed manipulacją i weryfikacja dostawców oprogramowania.

Reklama

Stany Zjednoczone uruchomią instytut bezpieczeństwa sztucznej inteligencji w celu oceny znanych i nowych się zagrożeń związanych z tak zwanymi "pionierskimi" modelami sztucznej inteligencji.

Rozporządzenie Bidena

Prezydent Joe Biden wydał 30 października rozporządzenie wykonawcze wymagające od twórców systemów sztucznej inteligencji, które mogą stanowić zagrożenie dla bezpieczeństwa narodowego USA, gospodarki, zdrowia publicznego lub bezpieczeństwa, udostępniania rządowi wyników testów bezpieczeństwa.

Także Chiny zdecydowały się na wprowadzenie regulacji prawnych dotyczących AI, Wu Zhaohui, chiński wiceminister nauki i technologii, powiedział podczas sesji otwierającej AI Safety Summit w Wielkiej Brytanii 1 listopada, że Pekin jest gotowy do zwiększenia współpracy w zakresie bezpieczeństwa sztucznej inteligencji, aby pomóc w budowaniu międzynarodowych "ram zarządzania".

W październiku Chiny opublikowały proponowane wymogi bezpieczeństwa dla firm oferujących usługi oparte na generatywnej sztucznej inteligencji, w tym czarną listę źródeł, których nie można wykorzystywać do trenowania modeli AI.

W sierpniu kraj ten wydał zestaw tymczasowych środków wymagających od usługodawców przedłożenia ocen bezpieczeństwa i uzyskania zgody przed wypuszczeniem produktów AI na rynek.