Większość firm w Polsce, które dziś analizują AI Act, jest deployerem — używa systemów AI rozwiniętych przez kogoś innego. Obowiązki deployera są zauważalnie lżejsze niż providera, ale nadal wymagają wdrożeń procesowych i — w niektórych przypadkach — oceny skutków dla praw podstawowych (FRIA). Ten artykuł mapuje wszystko, co wynika z art. 26 i art. 27 AI Act.
Hub całego cyklu jest w AI Act 2024/1689 — przewodnik dla firm, rola deployera w Role w AI Act — provider, deployer, importer, dystrybutor, a klasyfikacja high-risk w Systemy AI wysokiego ryzyka (art. 6 + zał. III).
Co rozumiemy przez „deployera" w AI Act?
Deployer (podmiot stosujący) to osoba fizyczna lub prawna, organ publiczny, agencja lub inny podmiot, które wykorzystują system AI pod swoją kontrolą, z wyjątkiem osobistej działalności pozazawodowej (art. 3 pkt 4).
Każda firma korzystająca z systemu AI w działalności zawodowej jest deployerem. Obowiązki konkretne — sekcja niniejsza — dotyczą jednak deployerów systemów wysokiego ryzyka. Dla pozostałych systemów obowiązują wybrane elementy z art. 50 (transparentność, Transparentność: chatbot, deepfake, syntetyczne treści (art. 50)) oraz art. 4 (kompetencje w zakresie AI, AI literacy — art. 4 AI Act).
Jakie podstawowe obowiązki nakłada art. 26?
Z art. 26 wynika dziewięć grup obowiązków deployera systemu AI wysokiego ryzyka.
- Stosowanie zgodnie z instrukcją obsługi (ust. 1) — deployer podejmuje odpowiednie środki techniczne i organizacyjne, aby system był wykorzystywany zgodnie z dołączoną instrukcją obsługi (art. 13).
- Nadzór ze strony człowieka (ust. 2) — deployer powierza sprawowanie nadzoru osobom fizycznym z niezbędnymi kompetencjami, przeszkoleniem, uprawnieniami i wsparciem.
- Adekwatność danych wejściowych (ust. 4) — w zakresie, w jakim deployer kontroluje dane wejściowe, zapewnia ich adekwatność i wystarczającą reprezentatywność w odniesieniu do przeznaczenia systemu.
- Monitorowanie działania (ust. 5) — deployer monitoruje działanie systemu w oparciu o instrukcję obsługi i informuje dostawcę o ryzykach. Jeśli ma podstawy uważać, że stosowanie zgodne z instrukcją może powodować ryzyko z art. 79 ust. 1, zawiesza wykorzystywanie i informuje dostawcę, dystrybutora oraz odpowiedni organ nadzoru rynku. W przypadku poważnego incydentu — natychmiast.
- Przechowywanie logów (ust. 6) — deployer przechowuje generowane automatycznie przez system rejestry zdarzeń przez okres adekwatny do przeznaczenia, co najmniej 6 miesięcy, o ile prawo Unii lub prawo krajowe (w tym ochrony danych osobowych) nie stanowi inaczej.
- Informowanie pracowników (ust. 7) — przed oddaniem do użytku lub wykorzystaniem systemu AI wysokiego ryzyka w miejscu pracy deployer-pracodawca informuje przedstawicieli pracowników i pracowników, których system będzie dotyczył.
- Rejestracja w bazie UE (ust. 8) — deployerzy będący publicznymi organami, instytucjami, organami i jednostkami organizacyjnymi UE spełniają obowiązki rejestracji z art. 49. Jeżeli system, który zamierzają wykorzystywać, nie został zarejestrowany w bazie z art. 71 — nie stosują systemu i informują dostawcę lub dystrybutora.
- Korzystanie z informacji od dostawcy do DPIA (ust. 9) — deployerzy, w stosownych przypadkach, korzystają z informacji przekazanych na podstawie art. 13, aby spełnić obowiązek przeprowadzenia oceny skutków dla ochrony danych z art. 35 RODO lub art. 27 dyrektywy 2016/680.
- Informowanie osób fizycznych (ust. 11) — bez uszczerbku dla art. 50 deployerzy systemów wysokiego ryzyka z załącznika III, którzy podejmują decyzje lub uczestniczą w podejmowaniu decyzji dotyczących osób fizycznych, informują te osoby, że jest wobec nich wykorzystywany system AI wysokiego ryzyka.
Dla deployerów-instytucji finansowych podlegających wymogom dotyczącym systemu zarządzania wewnętrznego na podstawie unijnego prawa usług finansowych obowiązki monitorowania (ust. 5) i prowadzenia rejestrów zdarzeń (ust. 6) uznaje się za spełnione w ramach zgodności z odpowiednimi przepisami sektorowymi.
Co obejmuje FRIA z art. 27?
FRIA (Fundamental Rights Impact Assessment) to ocena skutków systemu AI wysokiego ryzyka dla praw podstawowych — wymagana przed wdrożeniem systemu z określonego kręgu deployerów.
Z art. 27 ust. 1 wynika, że FRIA przeprowadzają przed wdrożeniem systemu AI wysokiego ryzyka, o którym mowa w art. 6 ust. 2 (z wyjątkiem systemów z załącznika III pkt 2 — infrastruktura krytyczna):
- deployerzy będący podmiotami prawa publicznego;
- deployerzy będący podmiotami prywatnymi świadczącymi usługi publiczne;
- deployerzy systemów z załącznika III pkt 5 lit. b i c — czyli oceny zdolności kredytowej osób fizycznych (scoring kredytowy) oraz oceny ryzyka i ustalania cen w ubezpieczeniu na życie i ubezpieczeniu zdrowotnym.
FRIA obejmuje co najmniej:
- opis procesów deployera, w których system AI wysokiego ryzyka będzie wykorzystywany zgodnie z przeznaczeniem (lit. a);
- opis okresu i częstotliwości wykorzystywania (lit. b);
- kategorie osób fizycznych i grup, na które system może mieć wpływ (lit. c);
- szczególne ryzyko szkody dla zidentyfikowanych kategorii (lit. d);
- opis wdrożenia środków nadzoru ze strony człowieka zgodnie z instrukcją obsługi (lit. e);
- środki, jakie należy podjąć w przypadku urzeczywistnienia się ryzyka, w tym ustalenia dotyczące zarządzania wewnętrznego i mechanizmów rozpatrywania skarg (lit. f).
Z art. 27 ust. 2 wynika, że obowiązek dotyczy pierwszego użycia systemu — w podobnych przypadkach deployer może polegać na wcześniej przeprowadzonych ocenach skutków lub na ocenach przeprowadzonych przez dostawcę. W razie istotnej zmiany — aktualizuje informacje.
Po przeprowadzeniu FRIA deployer powiadamia organ nadzoru rynku o jej wynikach (art. 27 ust. 3), przedkładając wypełniony wzór, który Urząd ds. AI opracuje zgodnie z ust. 5.
Tabela — kto, kiedy, co (deployer high-risk)
| Obowiązek | Podstawa | Zakres podmiotowy | Termin |
|---|---|---|---|
| Stosowanie wg instrukcji obsługi | art. 26 ust. 1 | wszyscy deployerzy high-risk | przed pierwszym użyciem |
| Nadzór ze strony osób z kompetencjami | art. 26 ust. 2 | wszyscy deployerzy high-risk | przed pierwszym użyciem |
| Kontrola danych wejściowych | art. 26 ust. 4 | gdy deployer kontroluje dane wejściowe | ciągle |
| Monitorowanie i zgłaszanie ryzyk | art. 26 ust. 5 | wszyscy deployerzy high-risk | ciągle; incydent — natychmiast |
| Przechowywanie logów ≥ 6 mies. | art. 26 ust. 6 | wszyscy deployerzy high-risk | ciągle |
| Informowanie pracowników i przedstawicieli | art. 26 ust. 7 | deployer-pracodawca | przed oddaniem do użytku |
| Rejestracja w bazie UE | art. 26 ust. 8 | publiczne organy/instytucje UE | przed wykorzystaniem |
| Korzystanie z informacji od dostawcy do DPIA | art. 26 ust. 9 | gdy obowiązuje DPIA z RODO | równolegle z DPIA |
| Informowanie osób fizycznych o decyzji | art. 26 ust. 11 | deployerzy systemów z zał. III | przy każdej decyzji |
| FRIA | art. 27 | publiczne, prywatne świadczące usługi publiczne, scoring kredytowy, ubezpieczenia (zał. III pkt 5 lit. b i c) | przed wdrożeniem |
Jak FRIA łączy się z DPIA z RODO?
Z art. 27 ust. 4 wynika, że jeśli którykolwiek z obowiązków FRIA został już spełniony w wyniku DPIA przeprowadzonej zgodnie z art. 35 RODO lub art. 27 dyrektywy 2016/680, FRIA stanowi uzupełnienie tej oceny.
Praktycznie oznacza to, że deployer może prowadzić jeden zintegrowany dokument oceny — z pełnym pokryciem obu reżimów. Z naszego doświadczenia warto jednak zachować rozdział strukturalny: część FRIA dedykowana prawom podstawowym (art. 27) i część DPIA dedykowana przetwarzaniu danych osobowych (art. 35 RODO). Wskaźnik dla obowiązków FRIA inny niż dla DPIA — DPIA odpowiada na pytanie „jak to przetwarzanie wpływa na prywatność", FRIA — „jak to wdrożenie wpływa na całość praw podstawowych zidentyfikowanych grup".
Pełniejsze przecięcia z RODO opisaliśmy w AI Act a RODO — przecięcia praktyczne.
Co z deployerami systemów high-risk z załącznika I?
Obowiązki deployera systemu AI będącego elementem produktu z załącznika I (art. 6 ust. 1) zaczynają obowiązywać dopiero 2 sierpnia 2027 r. (art. 113 lit. c) — czyli rok później niż obowiązki dla systemów z załącznika III. Praktycznie dotyczy to firm korzystających z urządzeń medycznych z elementami AI, maszyn z AI i podobnych — proporcjonalnie do harmonogramu providerów.
Jak przygotować się operacyjnie?
Z naszego doświadczenia kompletny zestaw deployera obejmuje:
- procedurę przyjmowania, oceny i akceptacji nowych systemów AI z odpowiednimi gate'ami compliance;
- szablon FRIA (dla podmiotów objętych art. 27) zharmonizowany z DPIA;
- procedurę nadzoru człowieka — kogo, jak długo, w jakim trybie szkolić; wymóg uprawnień i wsparcia;
- politykę informowania pracowników i ich przedstawicieli przed wdrożeniami AI w pracy;
- szablon notyfikacji dla osób fizycznych objętych decyzjami z systemów high-risk z załącznika III;
- politykę przechowywania logów (co najmniej 6 miesięcy, z uwzględnieniem RODO);
- procedurę reagowania na poważny incydent (24/7);
- klauzule kontraktowe z dostawcą systemu (SLA, dostęp do logów, wsparcie compliance, prawo audytu).
Jak możemy Ci pomóc?
W Legal Geek prowadzimy projekty wdrożeniowe dla deployerów systemów AI wysokiego ryzyka. Audytujemy posiadane wdrożenia, przygotowujemy szablony FRIA dopasowane do branży, łączymy je z istniejącymi DPIA z RODO, opracowujemy procedury nadzoru ze strony człowieka i tworzymy klauzule kontraktowe z dostawcami. Chcę pomocy z FRIA!
Co dalej w cyklu?
- AI Act 2024/1689 — przewodnik dla firm — hub: AI Act dla firm
- Systemy AI wysokiego ryzyka (art. 6 + zał. III) — co jest high-risk
- Obowiązki dostawcy systemu AI wysokiego ryzyka — strona providera
- AI Act a RODO — przecięcia praktyczne — FRIA vs DPIA
- AI literacy — art. 4 AI Act — AI literacy
Źródła
- Rozporządzenie (UE) 2024/1689 — art. 26-27
- Rozporządzenie (UE) 2016/679 (RODO) — art. 35
- Komisja Europejska — AI Act