Dziennik Gazeta Prawana logo

Twoja firma używa AI? Te narzędzia mogą wpaść pod nowe przepisy UE

AI ACT
AI w rekrutacji, finansach i ocenie klientów może być jednym z pierwszych obszarów, które firmy będą musiały dokładnie sprawdzić pod kątem AI Act./Shutterstock
AI Act kojarzy się głównie z wielkimi firmami technologicznymi, ale nowe przepisy UE mogą objąć także zwykłe firmy korzystające z gotowych narzędzi AI. Największe ryzyko dotyczy dziś m.in. rekrutacji, scoringu klientów, oceny ryzyka i części usług finansowych. Oficjalny harmonogram UE nadal wskazuje, że większość kluczowych zasad ma zacząć być stosowana od 2 sierpnia 2026 r., choć równolegle trwają prace nad możliwymi zmianami terminów.

Sztuczna inteligencja weszła do firm szybciej niż regulacje. Najpierw pojawiły się narzędzia do pisania, obsługi klienta i analizy danych. Później doszły systemy do filtrowania CV, oceny klientów i wspierania decyzji biznesowych. Teraz do gry wchodzi prawo.

I właśnie tu wiele firm może się zdziwić.

Bo AI Act nie jest regulacją tylko dla twórców modeli i gigantów technologicznych. W praktyce może dotyczyć także firm, które po prostu korzystają z gotowych rozwiązań AI — zwłaszcza wtedy, gdy wpływają one na ludzi, ważne decyzje albo dostęp do usług. Oficjalne materiały UE wskazują, że obowiązki zależą od roli podmiotu i konkretnego zastosowania systemu, a nie od samej etykiety „firma technologiczna”.

Nie branża ma znaczenie. Liczy się sposób użycia AI

Najważniejsze pytanie nie brzmi dziś: „czy jesteśmy firmą technologiczną?”. Dużo ważniejsze jest inne: „do czego dokładnie używamy AI?”

To właśnie od zastosowania zależy, czy firma może wejść w obszar nowych obowiązków. Nie każde użycie AI będzie problemem. Ale są obszary, które od razu powinny zapalić czerwoną lampkę. W załączniku III AI Act jako obszary wysokiego ryzyka wymieniono m.in. biometrię, edukację, zatrudnienie, dostęp do części usług publicznych i prywatnych, organy ścigania, migrację, wymiar sprawiedliwości i infrastrukturę krytyczną.

Te zastosowania AI są dziś najbardziej wrażliwe

Na pierwszej linii są firmy, które wykorzystują AI w procesach związanych z ludźmi i oceną ryzyka.

Rekrutacja i HR

Jeśli system pomaga filtrować kandydatów, analizować CV, porządkować zgłoszenia albo wspiera decyzje kadrowe, temat robi się poważny. To jeden z tych obszarów, które najczęściej pojawiają się w kontekście systemów wysokiego ryzyka. Załącznik III wprost obejmuje AI wykorzystywaną przy rekrutacji, selekcji osób, podejmowaniu decyzji wpływających na warunki pracy czy dostęp do samozatrudnienia.

Finanse i scoring klientów

Równie wrażliwe są wszystkie zastosowania, w których AI ocenia klienta, analizuje jego wiarygodność albo wpływa na decyzje dotyczące kredytu czy dostępu do usługi. W oficjalnym katalogu unijnym pojawiają się systemy używane do oceny zdolności kredytowej i oceny ryzyka, jeśli mogą wpływać na dostęp osoby do istotnych usług.

Ubezpieczenia i ocena ryzyka

Jeśli algorytm pomaga oceniać klienta lub ryzyko, także może wejść w obszar szczególnego zainteresowania regulatora. Tu znów nie chodzi o samą branżę, ale o to, czy system wpływa na dostęp do ważnej usługi albo ocenę osoby.

Dostawcy oprogramowania

To pułapka, o której wiele firm zapomina. Nawet jeśli spółka sama nie zatrudnia ludzi na podstawie AI ani nie przyznaje kredytów, może dostarczać narzędzie, które ktoś inny wykorzystuje właśnie do takich celów. A to oznacza, że jej rola w łańcuchu wartości też może podlegać obowiązkom wynikającym z AI Act.

Gotowe narzędzie też może oznaczać problem

Wiele firm myśli w prosty sposób: nie stworzyliśmy własnego modelu, więc temat nas nie dotyczy. To może być błędne założenie.

Nowe przepisy nie patrzą wyłącznie na autora technologii. Znaczenie ma też to, kto z niej korzysta i w jakim celu. Można więc kupić gotowe rozwiązanie od zewnętrznego dostawcy, a mimo to wejść w obszar obowiązków wynikających z AI Act.

Największy błąd? Traktować AI jak niewinny dodatek

To właśnie tu może pojawić się największy problem. W firmach AI często działa po cichu: pomaga porządkować dane, grupować zgłoszenia, nadawać priorytety, sortować kandydatów albo wspierać ocenę klientów.

Na papierze to tylko „wsparcie”. W praktyce taki system może realnie wpływać na decyzję o zatrudnieniu, przyznaniu usługi albo ocenie człowieka.

A wtedy przestaje być tylko wygodnym dodatkiem. To właśnie logika załącznika III: kluczowe jest nie modne hasło w ofercie dostawcy, ale rzeczywisty wpływ systemu na ludzi i decyzje.

Co firma powinna sprawdzić już teraz

Na początek nie potrzeba kosztownego audytu ani wielkiego projektu compliance. Wystarczy uporządkować podstawy.

Najpierw warto zrobić listę wszystkich narzędzi AI używanych w organizacji. Potem odpowiedzieć na kilka prostych pytań:

  • do czego dokładnie służy dane narzędzie,
  • kto z niego korzysta,
  • czy pomaga podejmować decyzje dotyczące ludzi,
  • czy wpływa na zatrudnienie, kredyt, ubezpieczenie albo dostęp do ważnej usługi,
  • czy firma potrafi wyjaśnić, jaką rolę AI odgrywa w tym procesie.

To praktyczny wniosek z konstrukcji AI Act: obowiązki zależą od kategorii systemu i roli firmy, więc bez podstawowej inwentaryzacji nie da się ocenić realnego ryzyka.

Problemem będzie nie tylko technologia, ale też chaos

W praktyce wiele firm może przegrać nie przez sam algorytm, ale przez brak wiedzy, gdzie AI w ogóle działa. Często narzędzia są wdrażane lokalnie, w działach HR, sprzedaży, marketingu czy obsługi klienta. Potem nikt nie ma pełnego obrazu.

A nowe przepisy premiują coś odwrotnego: porządek, dokumentację, nadzór i świadomość tego, do czego system jest używany. Oficjalne materiały Komisji podkreślają, że AI Act jest wdrażany etapami i wymaga przygotowania organizacyjnego, a nie tylko technologicznego.

AI Act to nie tylko problem Big Techów

To chyba najważniejszy wniosek.
W debacie publicznej AI Act bywa przedstawiany jak pojedynek Unii z największymi firmami technologicznymi. Tymczasem dla wielu przedsiębiorstw ważniejsze będzie coś znacznie bardziej przyziemnego: czy używany od dawna system do HR, oceny klienta albo analizy ryzyka nie wpada właśnie pod nowe zasady.

Dla części biznesu pytanie nie brzmi już więc: czy AI Act nas dotyczy.
Coraz częściej brzmi raczej tak: czy my już dziś używamy AI w sposób, który może stać się problemem.

FAQ. Pytania i odpowiedzi

Czy AI Act dotyczy tylko firm technologicznych?

Nie. Przepisy mogą dotyczyć także firm spoza branży IT, jeśli używają AI w obszarach takich jak rekrutacja, scoring klientów, ocena ryzyka czy dostęp do ważnych usług. AI Act obejmuje nie tylko twórców systemów, ale też ich użytkowników, importerów i dystrybutorów.

Czy samo korzystanie z gotowego narzędzia AI może podpadać pod przepisy?

Tak. Firma nie musi budować własnego modelu, żeby wejść w obszar regulacji. Wystarczy, że korzysta z gotowego systemu AI w zastosowaniach objętych przepisami, zwłaszcza tam, gdzie algorytm wpływa na ludzi lub ważne decyzje.

Które zastosowania AI są dziś najbardziej wrażliwe?

Najwięcej uwagi powinny poświęcić firmy używające AI w zatrudnieniu i HR, przy ocenie osób, dostępie do usług prywatnych i publicznych, w finansach, ubezpieczeniach, edukacji, biometr ii, wymiarze sprawiedliwości czy infrastrukturze krytycznej. To właśnie te obszary są wymienione w załączniku III AI Act jako przykłady systemów wysokiego ryzyka.

Od kiedy firmy powinny traktować temat poważnie?

Już teraz. Oficjalna oś czasu Komisji Europejskiej pokazuje, że AI Act jest wdrażany etapami, a większość zasad ma zacząć obowiązywać od 2 sierpnia 2026 r. Pełny rollout przewidziano do 2 sierpnia 2027 r.

Czy terminy mogą się jeszcze zmienić?

Tak. Komisja Europejska opublikowała propozycję uproszczeń w ramach Digital Omnibus on AI. To oznacza, że część terminów może jeszcze być przedmiotem zmian legislacyjnych, ale na dziś oficjalny harmonogram nadal pokazuje 2 sierpnia 2026 r. jako kluczową datę dla większości obowiązków.

ŹRÓDŁA

Komisja Europejska - AI Act Service Desk:
https://ai-act-service-desk.ec.europa.eu/en/ai-act/timeline/timeline-implementation-eu-ai-act

Komisja Europejska - Annex III:
https://ai-act-service-desk.ec.europa.eu/en/ai-act/annex-3

Komisja Europejska - Digital Omnibus on AI Regulation Proposal:
https://digital-strategy.ec.europa.eu/en/library/digital-omnibus-ai-regulation-proposal

Ministerstwo Cyfryzacji - projekt ustawy o systemach sztucznej inteligencji:
https://www.gov.pl/web/cyfryzacja/projekt-ustawy-o-systemach-sztucznej-inteligencj

Copyright
Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone. Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję
Źródło dziennik.pl
Dominik Kulig
Dominik Kulig
Dziennikarz i redaktor specjalizujący się w tematyce społecznej, gospodarczej oraz nowych technologii.
Zobacz wszystkie artykuły tego autoraTwoja firma używa AI? Te narzędzia mogą wpaść pod nowe przepisy UE »
Zapisz się na newsletter
Świadczenia, emerytury, podatki, zmiany przepisów, newsy gospodarcze... To wszystko i wiele więcej znajdziesz w newsletterze Dziennik Radzi. Chcesz się dowiedzieć, kto może przejść na wcześniejszą emeryturę? A może jakie ulgi można odliczyć od podatku? Kto może otrzymać środki w ramach renty wdowiej? Zapisz się do naszego newslettera i bądź na bieżąco!

Zapisując się na newsletter wyrażasz zgodę na otrzymywanie treści reklam również podmiotów trzecich

Administratorem danych osobowych jest INFOR PL S.A. Dane są przetwarzane w celu wysyłki newslettera. Po więcej informacji kliknij tutaj