Większość firm w Polsce, które dziś analizują AI Act, jest deployerem — używa systemów AI rozwiniętych przez kogoś innego. Obowiązki deployera są zauważalnie lżejsze niż providera, ale nadal wymagają wdrożeń procesowych i — w niektórych przypadkach — oceny skutków dla praw podstawowych (FRIA). Ten artykuł mapuje wszystko, co wynika z art. 26 i art. 27 AI Act.

Hub całego cyklu jest w AI Act 2024/1689 — przewodnik dla firm, rola deployera w Role w AI Act — provider, deployer, importer, dystrybutor, a klasyfikacja high-risk w Systemy AI wysokiego ryzyka (art. 6 + zał. III).

Co rozumiemy przez „deployera" w AI Act?

Deployer (podmiot stosujący) to osoba fizyczna lub prawna, organ publiczny, agencja lub inny podmiot, które wykorzystują system AI pod swoją kontrolą, z wyjątkiem osobistej działalności pozazawodowej (art. 3 pkt 4).

Każda firma korzystająca z systemu AI w działalności zawodowej jest deployerem. Obowiązki konkretne — sekcja niniejsza — dotyczą jednak deployerów systemów wysokiego ryzyka. Dla pozostałych systemów obowiązują wybrane elementy z art. 50 (transparentność, Transparentność: chatbot, deepfake, syntetyczne treści (art. 50)) oraz art. 4 (kompetencje w zakresie AI, AI literacy — art. 4 AI Act).

Jakie podstawowe obowiązki nakłada art. 26?

Z art. 26 wynika dziewięć grup obowiązków deployera systemu AI wysokiego ryzyka.

  • Stosowanie zgodnie z instrukcją obsługi (ust. 1) — deployer podejmuje odpowiednie środki techniczne i organizacyjne, aby system był wykorzystywany zgodnie z dołączoną instrukcją obsługi (art. 13).
  • Nadzór ze strony człowieka (ust. 2) — deployer powierza sprawowanie nadzoru osobom fizycznym z niezbędnymi kompetencjami, przeszkoleniem, uprawnieniami i wsparciem.
  • Adekwatność danych wejściowych (ust. 4) — w zakresie, w jakim deployer kontroluje dane wejściowe, zapewnia ich adekwatność i wystarczającą reprezentatywność w odniesieniu do przeznaczenia systemu.
  • Monitorowanie działania (ust. 5) — deployer monitoruje działanie systemu w oparciu o instrukcję obsługi i informuje dostawcę o ryzykach. Jeśli ma podstawy uważać, że stosowanie zgodne z instrukcją może powodować ryzyko z art. 79 ust. 1, zawiesza wykorzystywanie i informuje dostawcę, dystrybutora oraz odpowiedni organ nadzoru rynku. W przypadku poważnego incydentu — natychmiast.
  • Przechowywanie logów (ust. 6) — deployer przechowuje generowane automatycznie przez system rejestry zdarzeń przez okres adekwatny do przeznaczenia, co najmniej 6 miesięcy, o ile prawo Unii lub prawo krajowe (w tym ochrony danych osobowych) nie stanowi inaczej.
  • Informowanie pracowników (ust. 7) — przed oddaniem do użytku lub wykorzystaniem systemu AI wysokiego ryzyka w miejscu pracy deployer-pracodawca informuje przedstawicieli pracowników i pracowników, których system będzie dotyczył.
  • Rejestracja w bazie UE (ust. 8) — deployerzy będący publicznymi organami, instytucjami, organami i jednostkami organizacyjnymi UE spełniają obowiązki rejestracji z art. 49. Jeżeli system, który zamierzają wykorzystywać, nie został zarejestrowany w bazie z art. 71 — nie stosują systemu i informują dostawcę lub dystrybutora.
  • Korzystanie z informacji od dostawcy do DPIA (ust. 9) — deployerzy, w stosownych przypadkach, korzystają z informacji przekazanych na podstawie art. 13, aby spełnić obowiązek przeprowadzenia oceny skutków dla ochrony danych z art. 35 RODO lub art. 27 dyrektywy 2016/680.
  • Informowanie osób fizycznych (ust. 11) — bez uszczerbku dla art. 50 deployerzy systemów wysokiego ryzyka z załącznika III, którzy podejmują decyzje lub uczestniczą w podejmowaniu decyzji dotyczących osób fizycznych, informują te osoby, że jest wobec nich wykorzystywany system AI wysokiego ryzyka.

Dla deployerów-instytucji finansowych podlegających wymogom dotyczącym systemu zarządzania wewnętrznego na podstawie unijnego prawa usług finansowych obowiązki monitorowania (ust. 5) i prowadzenia rejestrów zdarzeń (ust. 6) uznaje się za spełnione w ramach zgodności z odpowiednimi przepisami sektorowymi.

Co obejmuje FRIA z art. 27?

FRIA (Fundamental Rights Impact Assessment) to ocena skutków systemu AI wysokiego ryzyka dla praw podstawowych — wymagana przed wdrożeniem systemu z określonego kręgu deployerów.

Z art. 27 ust. 1 wynika, że FRIA przeprowadzają przed wdrożeniem systemu AI wysokiego ryzyka, o którym mowa w art. 6 ust. 2 (z wyjątkiem systemów z załącznika III pkt 2 — infrastruktura krytyczna):

  • deployerzy będący podmiotami prawa publicznego;
  • deployerzy będący podmiotami prywatnymi świadczącymi usługi publiczne;
  • deployerzy systemów z załącznika III pkt 5 lit. b i c — czyli oceny zdolności kredytowej osób fizycznych (scoring kredytowy) oraz oceny ryzyka i ustalania cen w ubezpieczeniu na życie i ubezpieczeniu zdrowotnym.

FRIA obejmuje co najmniej:

  • opis procesów deployera, w których system AI wysokiego ryzyka będzie wykorzystywany zgodnie z przeznaczeniem (lit. a);
  • opis okresu i częstotliwości wykorzystywania (lit. b);
  • kategorie osób fizycznych i grup, na które system może mieć wpływ (lit. c);
  • szczególne ryzyko szkody dla zidentyfikowanych kategorii (lit. d);
  • opis wdrożenia środków nadzoru ze strony człowieka zgodnie z instrukcją obsługi (lit. e);
  • środki, jakie należy podjąć w przypadku urzeczywistnienia się ryzyka, w tym ustalenia dotyczące zarządzania wewnętrznego i mechanizmów rozpatrywania skarg (lit. f).

Z art. 27 ust. 2 wynika, że obowiązek dotyczy pierwszego użycia systemu — w podobnych przypadkach deployer może polegać na wcześniej przeprowadzonych ocenach skutków lub na ocenach przeprowadzonych przez dostawcę. W razie istotnej zmiany — aktualizuje informacje.

Po przeprowadzeniu FRIA deployer powiadamia organ nadzoru rynku o jej wynikach (art. 27 ust. 3), przedkładając wypełniony wzór, który Urząd ds. AI opracuje zgodnie z ust. 5.

Tabela — kto, kiedy, co (deployer high-risk)

ObowiązekPodstawaZakres podmiotowyTermin
Stosowanie wg instrukcji obsługiart. 26 ust. 1wszyscy deployerzy high-riskprzed pierwszym użyciem
Nadzór ze strony osób z kompetencjamiart. 26 ust. 2wszyscy deployerzy high-riskprzed pierwszym użyciem
Kontrola danych wejściowychart. 26 ust. 4gdy deployer kontroluje dane wejścioweciągle
Monitorowanie i zgłaszanie ryzykart. 26 ust. 5wszyscy deployerzy high-riskciągle; incydent — natychmiast
Przechowywanie logów ≥ 6 mies.art. 26 ust. 6wszyscy deployerzy high-riskciągle
Informowanie pracowników i przedstawicieliart. 26 ust. 7deployer-pracodawcaprzed oddaniem do użytku
Rejestracja w bazie UEart. 26 ust. 8publiczne organy/instytucje UEprzed wykorzystaniem
Korzystanie z informacji od dostawcy do DPIAart. 26 ust. 9gdy obowiązuje DPIA z RODOrównolegle z DPIA
Informowanie osób fizycznych o decyzjiart. 26 ust. 11deployerzy systemów z zał. IIIprzy każdej decyzji
FRIAart. 27publiczne, prywatne świadczące usługi publiczne, scoring kredytowy, ubezpieczenia (zał. III pkt 5 lit. b i c)przed wdrożeniem

Jak FRIA łączy się z DPIA z RODO?

Z art. 27 ust. 4 wynika, że jeśli którykolwiek z obowiązków FRIA został już spełniony w wyniku DPIA przeprowadzonej zgodnie z art. 35 RODO lub art. 27 dyrektywy 2016/680, FRIA stanowi uzupełnienie tej oceny.

Praktycznie oznacza to, że deployer może prowadzić jeden zintegrowany dokument oceny — z pełnym pokryciem obu reżimów. Z naszego doświadczenia warto jednak zachować rozdział strukturalny: część FRIA dedykowana prawom podstawowym (art. 27) i część DPIA dedykowana przetwarzaniu danych osobowych (art. 35 RODO). Wskaźnik dla obowiązków FRIA inny niż dla DPIA — DPIA odpowiada na pytanie „jak to przetwarzanie wpływa na prywatność", FRIA — „jak to wdrożenie wpływa na całość praw podstawowych zidentyfikowanych grup".

Pełniejsze przecięcia z RODO opisaliśmy w AI Act a RODO — przecięcia praktyczne.

Co z deployerami systemów high-risk z załącznika I?

Obowiązki deployera systemu AI będącego elementem produktu z załącznika I (art. 6 ust. 1) zaczynają obowiązywać dopiero 2 sierpnia 2027 r. (art. 113 lit. c) — czyli rok później niż obowiązki dla systemów z załącznika III. Praktycznie dotyczy to firm korzystających z urządzeń medycznych z elementami AI, maszyn z AI i podobnych — proporcjonalnie do harmonogramu providerów.

Jak przygotować się operacyjnie?

Z naszego doświadczenia kompletny zestaw deployera obejmuje:

  • procedurę przyjmowania, oceny i akceptacji nowych systemów AI z odpowiednimi gate'ami compliance;
  • szablon FRIA (dla podmiotów objętych art. 27) zharmonizowany z DPIA;
  • procedurę nadzoru człowieka — kogo, jak długo, w jakim trybie szkolić; wymóg uprawnień i wsparcia;
  • politykę informowania pracowników i ich przedstawicieli przed wdrożeniami AI w pracy;
  • szablon notyfikacji dla osób fizycznych objętych decyzjami z systemów high-risk z załącznika III;
  • politykę przechowywania logów (co najmniej 6 miesięcy, z uwzględnieniem RODO);
  • procedurę reagowania na poważny incydent (24/7);
  • klauzule kontraktowe z dostawcą systemu (SLA, dostęp do logów, wsparcie compliance, prawo audytu).

Jak możemy Ci pomóc?

W Legal Geek prowadzimy projekty wdrożeniowe dla deployerów systemów AI wysokiego ryzyka. Audytujemy posiadane wdrożenia, przygotowujemy szablony FRIA dopasowane do branży, łączymy je z istniejącymi DPIA z RODO, opracowujemy procedury nadzoru ze strony człowieka i tworzymy klauzule kontraktowe z dostawcami. Chcę pomocy z FRIA!

Co dalej w cyklu?

Źródła