AI Act i RODO to dwa odrębne reżimy compliance, ale w wielu wdrożeniach AI obowiązują równolegle. Z naszego doświadczenia firmy najczęściej popełniają jeden z dwóch błędów — albo traktują AI Act jako rozszerzenie RODO i pomijają specyficzne obowiązki techniczne, albo prowadzą oba reżimy w pełnej separacji i marnują pracę dokumentacyjną. Ten artykuł rozkłada trzy najważniejsze obszary przecięć i pokazuje, gdzie warto integrować dokumentację.

Hub całego cyklu jest w AI Act 2024/1689 — przewodnik dla firm, obowiązki deployera w Obowiązki deployera i FRIA (art. 26-27).

Czy AI Act zastępuje RODO?

Nie. AI Act stosuje się równolegle do rozporządzenia 2016/679 (RODO) i dyrektywy 2016/680 oraz nie wpływa na obowiązki z tych aktów.

Z art. 2 ust. 7 AI Act wynika wprost, że prawo Unii dotyczące ochrony danych osobowych, prywatności i poufności komunikacji ma zastosowanie do przetwarzania danych osobowych podejmowanego w związku z prawami i obowiązkami z rozporządzenia. AI Act nie wpływa na rozporządzenie 2016/679 ani na rozporządzenie 2018/1725 (przepisy o instytucjach UE) — z wyjątkiem przepisów odnoszących się do określonych systemów AI w art. 5.

Z motywu 9 rozporządzenia 2024/1689 wynika, że niniejsze rozporządzenie nie stanowi podstawy prawnej dla przetwarzania danych osobowych, w tym danych szczególnych kategorii — taką podstawę musi zapewniać RODO lub inny akt unijny.

Praktycznie: każde wdrożenie AI dotykające danych osobowych wymaga podstawy prawnej z RODO (art. 6 i art. 9), a osobno spełnienia obowiązków AI Act (art. 5, art. 26-27, art. 50, sekcja 2 dla high-risk).

Pierwszy obszar przecięcia — FRIA z art. 27 AI Act a DPIA z art. 35 RODO

FRIA i DPIA to dwie osobne oceny ryzyka, które mają różne cele, ale w praktyce mogą być prowadzone w jednym zintegrowanym dokumencie.

Cel DPIA (RODO art. 35): ocena ryzyka, jakie operacja przetwarzania danych osobowych powoduje dla praw i wolności osób fizycznych w zakresie ochrony danych. Wymagana, gdy przetwarzanie z dużym prawdopodobieństwem powoduje wysokie ryzyko (np. systematyczna ocena na podstawie zautomatyzowanego przetwarzania, przetwarzanie kategorii szczególnych na dużą skalę, systematyczne monitorowanie miejsc dostępnych publicznie).

Cel FRIA (AI Act art. 27): ocena skutków, jakie wdrożenie systemu AI wysokiego ryzyka może wywołać dla wszystkich praw podstawowych osób fizycznych w danym wdrożeniu. Wymagana dla podmiotów publicznych, podmiotów prywatnych świadczących usługi publiczne oraz deployerów systemów z załącznika III pkt 5 lit. b i c (scoring kredytowy, ubezpieczenia).

ElementDPIA (art. 35 RODO)FRIA (art. 27 AI Act)
ZakresPrzetwarzanie danych osobowychWykorzystanie systemu AI wysokiego ryzyka
TriggerWysokie ryzyko z art. 35 ust. 3Wdrożenie systemu z załącznika III dla zdefiniowanych deployerów
Punkt ciężkościPrawa do prywatności, integralność, poufnośćPełne spektrum praw podstawowych
StronnictwoADM danych osobowychWszystkie kategorie osób z udziałem grup wrażliwych
NotyfikacjaKonsultacje z UODO przed przetwarzaniem (art. 36 RODO)Powiadomienie organu nadzoru rynku z wynikami (art. 27 ust. 3)
WzórEROD wytyczneWzór kwestionariusza Urzędu ds. AI (art. 27 ust. 5)

Z art. 27 ust. 4 AI Act wynika, że jeżeli którykolwiek z obowiązków FRIA został spełniony w wyniku DPIA z art. 35 RODO, FRIA stanowi uzupełnienie tej oceny. Z art. 26 ust. 9 AI Act wynika, że deployer korzysta z informacji przekazanych przez dostawcę zgodnie z art. 13 AI Act, aby spełnić obowiązek przeprowadzenia DPIA.

Z naszego doświadczenia praktyczna struktura zintegrowanego dokumentu obejmuje: identyfikację systemu i ról, podstawy prawne RODO, opis przetwarzania, ryzyka dla ochrony danych (DPIA-core), ryzyka dla pozostałych praw podstawowych (FRIA-core), środki minimalizujące ryzyko, plan reakcji na incydent. Dokument ma jeden właściciel (zwykle DPO) i jest aktualizowany przy istotnych zmianach.

Praktyka FRIA omawiamy szerzej w Obowiązki deployera i FRIA (art. 26-27).

Drugi obszar — biometria i kategorie szczególne danych

Zakaz z art. 5 ust. 1 lit. g AI Act i art. 9 RODO wzajemnie się uzupełniają, choć nakładają obowiązki na różnych podstawach.

Art. 5 ust. 1 lit. g AI Act zakazuje systemów kategoryzacji biometrycznej, które kategoryzują osoby fizyczne na podstawie danych biometrycznych w celu wywnioskowania ich rasy, poglądów politycznych, przynależności do związków zawodowych, przekonań religijnych lub światopoglądowych, seksualności lub orientacji seksualnej. Wyjątek dotyczy etykietowania/filtrowania zgodnych z prawem zbiorów oraz ścigania przestępstw.

Art. 9 RODO zakazuje przetwarzania danych ujawniających pochodzenie rasowe lub etniczne, poglądy polityczne, przekonania religijne lub światopoglądowe, przynależność do związków zawodowych oraz danych genetycznych, danych biometrycznych przetwarzanych w celu jednoznacznego zidentyfikowania osoby, danych dotyczących zdrowia, seksualności lub orientacji seksualnej — z 10 wyjątkami z art. 9 ust. 2 (m.in. wyraźna zgoda, niezbędne wykonanie obowiązków z prawa pracy, ochrona żywotnych interesów).

Praktyczna konsekwencja: nawet jeśli operator znajdzie wyjątek z art. 9 ust. 2 RODO (np. wyraźną zgodę), system kategoryzacji biometrycznej według wrażliwych atrybutów nadal jest zakazany przez art. 5 AI Act. Reżim AI Act nie zna „uchylenia zakazu zgodą".

Detale art. 5 — w Zakazane praktyki AI (art. 5).

Trzeci obszar — zautomatyzowane podejmowanie decyzji

Art. 22 RODO i art. 26 ust. 11 AI Act dają osobie fizycznej dwie różne, ale komplementarne ochrony przed decyzjami AI.

Art. 22 RODO — osoba ma prawo do tego, by nie podlegać decyzji, która opiera się wyłącznie na zautomatyzowanym przetwarzaniu, w tym profilowaniu, i wywołuje wobec niej skutki prawne lub w podobny sposób istotnie na nią wpływa. Wyjątki: niezbędność do zawarcia/wykonania umowy, przepisy szczególne, wyraźna zgoda. Administrator zapewnia minimum: prawo do uzyskania interwencji ludzkiej, do wyrażenia własnego stanowiska i do zakwestionowania decyzji.

Art. 26 ust. 11 AI Act — bez uszczerbku dla art. 50 AI Act, deployerzy systemów AI wysokiego ryzyka z załącznika III, którzy podejmują decyzje lub uczestniczą w podejmowaniu decyzji dotyczących osób fizycznych, informują te osoby, że jest wobec nich wykorzystywany system AI wysokiego ryzyka.

Praktyczna integracja:

  • Klauzula informacyjna RODO (art. 13/14) wzbogacona o informację z art. 26 ust. 11 AI Act.
  • Procedura realizacji praw osób (z art. 22 RODO) ma uwzględniać scenariusze AI high-risk i być spójna z polityką nadzoru ze strony człowieka (art. 14 AI Act).
  • W systemach z załącznika III pkt 5 (scoring kredytowy, ocena świadczeń, ubezpieczenia) — szczególna uwaga na realizację prawa do interwencji ludzkiej.

Obowiązki transparentności z art. 50 omawiamy w Transparentność: chatbot, deepfake, syntetyczne treści (art. 50).

Czy kary mogą być wymierzane równolegle?

Tak. RODO i AI Act to odrębne reżimy sankcyjne — każdy z własną maksymalną wysokością kary i własnym organem.

ReżimMaks. karaLub procent obrotuOrgan wymierzający (PL)
RODO (najwyższy próg z art. 83 ust. 5)20 000 000 EUR4% rocznego globalnego obrotuUODO
AI Act art. 99 ust. 3 (zakazy z art. 5)35 000 000 EUR7% rocznego globalnego obrotukrajowy organ nadzoru rynku (do określenia w ustawie wdrażającej)
AI Act art. 99 ust. 4 (m.in. obowiązki transparentności art. 50)15 000 000 EUR3% rocznego globalnego obrotukrajowy organ nadzoru rynku

Z art. 99 ust. 7 lit. b AI Act wynika, że organ przy wymierzaniu kary uwzględnia, czy inne organy nadzoru rynku już nałożyły kary za to samo naruszenie. Z art. 99 ust. 7 lit. c — czy inne organy nałożyły kary za naruszenia innych przepisów prawa Unii lub krajowego, gdy wynikają one z tego samego działania. Mechanizm proporcjonalności sankcji jest po stronie organu, nie operatora — ale operator może wnioskować o uwzględnienie wcześniejszych kar.

Praktyczne wskazówki dla integracji compliance

Z naszego doświadczenia firmy, które dobrze radzą sobie z dwiema warstwami, robią pięć rzeczy:

  • Wspólny rejestr systemów AI — łączy aspekty RODO (czy przetwarza dane osobowe, w jakiej kategorii) i AI Act (klasyfikacja ryzyka, role).
  • Zintegrowany szablon FRIA + DPIA — z osobnymi sekcjami, ale jednym dokumentem i jednym właścicielem.
  • Wspólne klauzule kontraktowe z dostawcami modeli — łączą DPA (RODO) z klauzulami informacyjnymi z art. 13 AI Act i wsparciem compliance dla integratora.
  • Wspólny szablon klauzuli informacyjnej dla osób fizycznych — łączy art. 13/14 RODO, art. 22 RODO i art. 26 ust. 11 + art. 50 AI Act.
  • Wspólna polityka praw osób — z procedurą interwencji ludzkiej, dostępem do logów (z art. 12 AI Act dla providera) i terminami z RODO (1 miesiąc).

Jak możemy Ci pomóc?

W Legal Geek prowadzimy projekty integrowania compliance AI Act z RODO. Zaczynamy od mapy systemów AI z dwiema warstwami (dane osobowe + ryzyko AI), przygotowujemy zintegrowane szablony FRIA + DPIA, klauzule kontraktowe i informacyjne, oraz wspólne procedury operacyjne. Współpracujemy z DPO i zespołem compliance. Chcę pomocy z integracją AI Act + RODO!

Co dalej w cyklu?

Źródła