Klasyfikacja systemu AI jako „wysokiego ryzyka" jest najważniejszą decyzją compliance pod AI Act. Decyduje o tym, czy firma musi spełnić sekcję 2 rozdziału III (kompletny zestaw obowiązków dla dostawcy: zarządzanie ryzykiem, dokumentacja, ocena zgodności, oznakowanie CE), czy też pozostaje przy lżejszych obowiązkach z art. 50 lub bez nich. Ten artykuł rozkłada art. 6 i załącznik III na dwie ścieżki klasyfikacji oraz omawia wyjątek z art. 6 ust. 3.
Kontekst całego rozporządzenia jest w AI Act 2024/1689 — przewodnik dla firm, a kalendarz stosowania w Harmonogram stosowania AI Act.
Co rozumiemy przez „system AI wysokiego ryzyka"?
System AI wysokiego ryzyka to system, który albo jest związanym z bezpieczeństwem elementem produktu objętego unijnym prawodawstwem harmonizacyjnym z załącznika I (art. 6 ust. 1), albo mieści się w jednym z 8 obszarów wskazanych w załączniku III (art. 6 ust. 2).
Dwa źródła klasyfikacji są niezależne: system może wpadać do pierwszej kategorii i jednocześnie nie być w załączniku III — i odwrotnie. Praktycznie firma powinna każdy system AI ocenić w obu wymiarach.
Kiedy system AI jest high-risk z powodu produktu (art. 6 ust. 1)?
Z art. 6 ust. 1 wynika, że system AI jest wysokiego ryzyka, jeżeli łącznie:
- jest przeznaczony do wykorzystania jako związany z bezpieczeństwem element produktu objętego unijnym prawodawstwem harmonizacyjnym z załącznika I lub sam jest takim produktem;
- produkt podlega na podstawie tego prawodawstwa ocenie zgodności przez stronę trzecią w związku z wprowadzeniem do obrotu lub oddaniem do użytku.
Załącznik I obejmuje m.in.: rozporządzenie 2017/745 o wyrobach medycznych (MDR), rozporządzenie 2017/746 o wyrobach IVD, rozporządzenie 2023/1230 o maszynach, rozporządzenie 2009/48/WE o bezpieczeństwie zabawek, rozporządzenie 2016/424 o urządzeniach kolei linowych, rozporządzenie 2014/68/UE o urządzeniach ciśnieniowych, rozporządzenia o pojazdach silnikowych, lotnictwie cywilnym, rolnictwie i jednostkach pływających rekreacyjnych. Pełna lista jest w samym załączniku I AI Act.
Z naszego doświadczenia ta ścieżka klasyfikacji dotyczy przede wszystkim producentów sprzętu medycznego (np. AI w urządzeniach diagnostycznych), motoryzacji (zaawansowane systemy wspomagania kierowcy), maszyn przemysłowych z elementami AI oraz urządzeń konsumenckich z modułami AI. Obowiązki dla tej grupy zaczynają obowiązywać dopiero od 2 sierpnia 2027 r. (art. 113 lit. c).
Kiedy system AI jest high-risk z powodu zastosowania (art. 6 ust. 2 + załącznik III)?
System AI wpada w drugą ścieżkę klasyfikacji, jeżeli mieści się w jednym z 8 obszarów wskazanych w załączniku III rozporządzenia.
Pełny katalog z załącznika III:
- Pkt 1 — Biometria: zdalna identyfikacja biometryczna (poza weryfikacją tożsamości), kategoryzacja biometryczna według wrażliwych lub chronionych atrybutów na podstawie wnioskowania, rozpoznawanie emocji.
- Pkt 2 — Infrastruktura krytyczna: systemy AI jako związane z bezpieczeństwem elementy procesów zarządzania krytyczną infrastrukturą cyfrową, ruchem drogowym oraz zaopatrzeniem w wodę, gaz, ciepło lub energię elektryczną.
- Pkt 3 — Kształcenie i szkolenie zawodowe: dostęp/przyjęcie do instytucji edukacyjnych, ocena efektów uczenia się, ocena odpowiedniego poziomu wykształcenia, monitorowanie i wykrywanie niedozwolonego zachowania uczniów na testach.
- Pkt 4 — Zatrudnienie: rekrutacja i wybór osób (m.in. ukierunkowane ogłoszenia o pracę, analiza i filtrowanie podań, ocena kandydatów), decyzje o warunkach pracy, awansie, rozwiązaniu umowy, przydzielaniu zadań, monitorowaniu i ocenie wydajności pracowników.
- Pkt 5 — Dostęp do podstawowych usług prywatnych oraz publicznych: ocena kwalifikowalności do świadczeń i usług publicznych (w tym opieki zdrowotnej), scoring kredytowy osób fizycznych (z wyjątkiem wykrywania oszustw), ocena ryzyka i ustalanie cen w ubezpieczeniu na życie i zdrowotnym, ocena i klasyfikacja zgłoszeń alarmowych oraz priorytetów wysyłania służb ratunkowych.
- Pkt 6 — Ściganie przestępstw: ocena ryzyka, że osoba stanie się ofiarą przestępstwa; wariografy i podobne narzędzia; ocena wiarygodności dowodów; ocena ryzyka popełnienia lub ponownego popełnienia przestępstwa; profilowanie osób fizycznych.
- Pkt 7 — Zarządzanie migracją, azylem i kontrolą graniczną: wariografy, ocena ryzyka (m.in. nieuregulowanej migracji), wsparcie rozpatrywania wniosków o azyl, wizy lub dokumenty pobytowe, wykrywanie i identyfikacja osób (poza weryfikacją dokumentów podróży).
- Pkt 8 — Sprawowanie wymiaru sprawiedliwości i procesy demokratyczne: wsparcie sędziego w badaniu i interpretacji stanu faktycznego oraz prawa, alternatywne metody rozwiązywania sporów; systemy mające wywierać wpływ na wyniki wyborów lub referendum lub na zachowanie wyborców (z wyjątkiem narzędzi czysto organizacyjnych).
Obowiązki dla tej grupy systemów stosuje się od 2 sierpnia 2026 r. (art. 113 zd. 2).
Tabela — dwie ścieżki klasyfikacji high-risk
| Ścieżka | Podstawa | Zakres | Data stosowania |
|---|---|---|---|
| Element bezpieczeństwa produktu | art. 6 ust. 1 + załącznik I | Maszyny, MDR, IVD, motoryzacja, lotnictwo, zabawki, urządzenia ciśnieniowe i in. | 2 sierpnia 2027 r. |
| Zastosowanie z 8 obszarów | art. 6 ust. 2 + załącznik III | Biometria, infrastruktura krytyczna, edukacja, zatrudnienie, dostęp do usług, ściganie, migracja, sprawiedliwość | 2 sierpnia 2026 r. |
Czy system z załącznika III zawsze jest wysokiego ryzyka?
Nie. Art. 6 ust. 3 wprowadza wyjątek: system z załącznika III nie jest uznawany za high-risk, jeżeli nie stwarza znaczącego ryzyka szkody dla zdrowia, bezpieczeństwa lub praw podstawowych osób fizycznych — w tym przez brak znaczącego wpływu na wynik procesu decyzyjnego — i jeżeli spełnia którykolwiek z czterech warunków:
- system jest przeznaczony do wykonywania wąsko określonego zadania proceduralnego;
- system jest przeznaczony do poprawienia wyniku zakończonej uprzednio czynności wykonywanej przez człowieka;
- system jest przeznaczony do wykrywania wzorców podejmowania decyzji lub odstępstw od wcześniejszych decyzji i nie ma na celu zastąpienia ani wpłynięcia na ocenę człowieka bez jego weryfikacji;
- system jest przeznaczony do wykonywania zadań przygotowawczych w kontekście oceny istotnej z punktu widzenia przypadków z załącznika III.
Niezależnie od powyższego, system zawsze jest wysokiego ryzyka, gdy dokonuje profilowania osób fizycznych (art. 6 ust. 3 zd. 3).
Z naszego doświadczenia wyjątek z ust. 3 jest atrakcyjny, ale wymaga ostrożności. Z art. 6 ust. 4 wynika obowiązek udokumentowania oceny przed wprowadzeniem systemu do obrotu i obowiązek rejestracji z art. 49 ust. 2. Na wniosek właściwego organu krajowego dostawca przedstawia dokumentację — czyli ślad pracy musi być twardy, nie deklaratywny.
Co z systemami GPAI integrowanymi w high-risk?
Modele AI ogólnego przeznaczenia (GPAI) same w sobie nie są systemami AI w rozumieniu art. 6 — są regulowane oddzielnie w rozdziale V (art. 51-56). Jeżeli jednak GPAI jest integrowane w system, którego zastosowanie mieści się w załączniku III, ten konkretny system staje się high-risk, a integrator zwykle staje się dostawcą tego systemu (art. 25). Reżim GPAI omawiamy w GPAI w AI Act (art. 51-56).
Kiedy Komisja przedstawi wytyczne do art. 6?
Z art. 6 ust. 5 wynika, że Komisja — po konsultacji z Radą ds. AI — przedstawi nie później niż 2 lutego 2026 r. wytyczne określające praktyczne wdrożenie art. 6 wraz z kompleksowym wykazem praktycznych przykładów przypadków wykorzystania, które stanowią wykorzystanie wysokiego ryzyka, oraz tych, które nie stanowią. Tym samym firmy podejmujące decyzje klasyfikacyjne w 2025 r. powinny obserwować ten kanał — wytyczne mogą doprecyzować szczególnie wyjątek z ust. 3.
Komisja ma też kompetencję do zmiany załącznika III aktem delegowanym (art. 7) oraz do zmiany warunków wyjątku z ust. 3 — w obu przypadkach z zachowaniem ogólnego poziomu ochrony.
Co wynika z klasyfikacji jako high-risk?
Status systemu high-risk uruchamia kompletny zestaw obowiązków sekcji 2 i 3 rozdziału III. Lista (uproszczona):
- Dostawca — system zarządzania ryzykiem (art. 9), data governance (art. 10), dokumentacja techniczna (art. 11), zapis zdarzeń (art. 12), transparentność i instrukcja obsługi (art. 13), nadzór człowieka (art. 14), dokładność i cyberbezpieczeństwo (art. 15), QMS (art. 17), procedura oceny zgodności (art. 43), oznakowanie CE (art. 48), rejestracja w bazie UE (art. 49), monitorowanie po wprowadzeniu do obrotu (art. 72). Pełne omówienie w Obowiązki dostawcy systemu AI wysokiego ryzyka.
- Deployer — stosowanie zgodnie z instrukcją obsługi, nadzór człowieka, kontrola danych wejściowych, monitorowanie, przechowywanie logów co najmniej 6 miesięcy, informowanie pracowników i osób, wobec których podejmowane są decyzje (art. 26), FRIA dla podmiotów publicznych i wybranych prywatnych (art. 27). Detale w Obowiązki deployera i FRIA (art. 26-27).
- Importer i dystrybutor — kontrola zgodności i dokumentacji (art. 23-24).
Jak możemy Ci pomóc?
W Legal Geek prowadzimy audyt klasyfikacji ryzyka systemów AI. Dla każdego systemu sprawdzamy obie ścieżki z art. 6 oraz wyjątek z ust. 3 — z dokumentacją uzasadniającą decyzję, wymaganą przez art. 6 ust. 4. Wynik audytu to lista systemów z przypisanym statusem (zakaz / high-risk / ograniczone ryzyko / minimalne ryzyko) i mapą obowiązków per system. Chcę audytu klasyfikacji!
Co dalej w cyklu?
- AI Act 2024/1689 — przewodnik dla firm — hub: AI Act dla firm
- Zakazane praktyki AI (art. 5) — co jest zakazane całkowicie (art. 5)
- Obowiązki dostawcy systemu AI wysokiego ryzyka — pełna lista obowiązków providera high-risk
- Obowiązki deployera i FRIA (art. 26-27) — obowiązki deployera + FRIA
- AI Act a RODO — przecięcia praktyczne — high-risk a DPIA z art. 35 RODO
Źródła
- Rozporządzenie (UE) 2024/1689 — art. 6 i załącznik III
- Załącznik I AI Act — lista unijnego prawodawstwa harmonizacyjnego
- Komisja Europejska — strona AI Act