Klasyfikacja systemu AI jako „wysokiego ryzyka" jest najważniejszą decyzją compliance pod AI Act. Decyduje o tym, czy firma musi spełnić sekcję 2 rozdziału III (kompletny zestaw obowiązków dla dostawcy: zarządzanie ryzykiem, dokumentacja, ocena zgodności, oznakowanie CE), czy też pozostaje przy lżejszych obowiązkach z art. 50 lub bez nich. Ten artykuł rozkłada art. 6 i załącznik III na dwie ścieżki klasyfikacji oraz omawia wyjątek z art. 6 ust. 3.

Kontekst całego rozporządzenia jest w AI Act 2024/1689 — przewodnik dla firm, a kalendarz stosowania w Harmonogram stosowania AI Act.

Co rozumiemy przez „system AI wysokiego ryzyka"?

System AI wysokiego ryzyka to system, który albo jest związanym z bezpieczeństwem elementem produktu objętego unijnym prawodawstwem harmonizacyjnym z załącznika I (art. 6 ust. 1), albo mieści się w jednym z 8 obszarów wskazanych w załączniku III (art. 6 ust. 2).

Dwa źródła klasyfikacji są niezależne: system może wpadać do pierwszej kategorii i jednocześnie nie być w załączniku III — i odwrotnie. Praktycznie firma powinna każdy system AI ocenić w obu wymiarach.

Kiedy system AI jest high-risk z powodu produktu (art. 6 ust. 1)?

Z art. 6 ust. 1 wynika, że system AI jest wysokiego ryzyka, jeżeli łącznie:

  • jest przeznaczony do wykorzystania jako związany z bezpieczeństwem element produktu objętego unijnym prawodawstwem harmonizacyjnym z załącznika I lub sam jest takim produktem;
  • produkt podlega na podstawie tego prawodawstwa ocenie zgodności przez stronę trzecią w związku z wprowadzeniem do obrotu lub oddaniem do użytku.

Załącznik I obejmuje m.in.: rozporządzenie 2017/745 o wyrobach medycznych (MDR), rozporządzenie 2017/746 o wyrobach IVD, rozporządzenie 2023/1230 o maszynach, rozporządzenie 2009/48/WE o bezpieczeństwie zabawek, rozporządzenie 2016/424 o urządzeniach kolei linowych, rozporządzenie 2014/68/UE o urządzeniach ciśnieniowych, rozporządzenia o pojazdach silnikowych, lotnictwie cywilnym, rolnictwie i jednostkach pływających rekreacyjnych. Pełna lista jest w samym załączniku I AI Act.

Z naszego doświadczenia ta ścieżka klasyfikacji dotyczy przede wszystkim producentów sprzętu medycznego (np. AI w urządzeniach diagnostycznych), motoryzacji (zaawansowane systemy wspomagania kierowcy), maszyn przemysłowych z elementami AI oraz urządzeń konsumenckich z modułami AI. Obowiązki dla tej grupy zaczynają obowiązywać dopiero od 2 sierpnia 2027 r. (art. 113 lit. c).

Kiedy system AI jest high-risk z powodu zastosowania (art. 6 ust. 2 + załącznik III)?

System AI wpada w drugą ścieżkę klasyfikacji, jeżeli mieści się w jednym z 8 obszarów wskazanych w załączniku III rozporządzenia.

Pełny katalog z załącznika III:

  • Pkt 1 — Biometria: zdalna identyfikacja biometryczna (poza weryfikacją tożsamości), kategoryzacja biometryczna według wrażliwych lub chronionych atrybutów na podstawie wnioskowania, rozpoznawanie emocji.
  • Pkt 2 — Infrastruktura krytyczna: systemy AI jako związane z bezpieczeństwem elementy procesów zarządzania krytyczną infrastrukturą cyfrową, ruchem drogowym oraz zaopatrzeniem w wodę, gaz, ciepło lub energię elektryczną.
  • Pkt 3 — Kształcenie i szkolenie zawodowe: dostęp/przyjęcie do instytucji edukacyjnych, ocena efektów uczenia się, ocena odpowiedniego poziomu wykształcenia, monitorowanie i wykrywanie niedozwolonego zachowania uczniów na testach.
  • Pkt 4 — Zatrudnienie: rekrutacja i wybór osób (m.in. ukierunkowane ogłoszenia o pracę, analiza i filtrowanie podań, ocena kandydatów), decyzje o warunkach pracy, awansie, rozwiązaniu umowy, przydzielaniu zadań, monitorowaniu i ocenie wydajności pracowników.
  • Pkt 5 — Dostęp do podstawowych usług prywatnych oraz publicznych: ocena kwalifikowalności do świadczeń i usług publicznych (w tym opieki zdrowotnej), scoring kredytowy osób fizycznych (z wyjątkiem wykrywania oszustw), ocena ryzyka i ustalanie cen w ubezpieczeniu na życie i zdrowotnym, ocena i klasyfikacja zgłoszeń alarmowych oraz priorytetów wysyłania służb ratunkowych.
  • Pkt 6 — Ściganie przestępstw: ocena ryzyka, że osoba stanie się ofiarą przestępstwa; wariografy i podobne narzędzia; ocena wiarygodności dowodów; ocena ryzyka popełnienia lub ponownego popełnienia przestępstwa; profilowanie osób fizycznych.
  • Pkt 7 — Zarządzanie migracją, azylem i kontrolą graniczną: wariografy, ocena ryzyka (m.in. nieuregulowanej migracji), wsparcie rozpatrywania wniosków o azyl, wizy lub dokumenty pobytowe, wykrywanie i identyfikacja osób (poza weryfikacją dokumentów podróży).
  • Pkt 8 — Sprawowanie wymiaru sprawiedliwości i procesy demokratyczne: wsparcie sędziego w badaniu i interpretacji stanu faktycznego oraz prawa, alternatywne metody rozwiązywania sporów; systemy mające wywierać wpływ na wyniki wyborów lub referendum lub na zachowanie wyborców (z wyjątkiem narzędzi czysto organizacyjnych).

Obowiązki dla tej grupy systemów stosuje się od 2 sierpnia 2026 r. (art. 113 zd. 2).

Tabela — dwie ścieżki klasyfikacji high-risk

ŚcieżkaPodstawaZakresData stosowania
Element bezpieczeństwa produktuart. 6 ust. 1 + załącznik IMaszyny, MDR, IVD, motoryzacja, lotnictwo, zabawki, urządzenia ciśnieniowe i in.2 sierpnia 2027 r.
Zastosowanie z 8 obszarówart. 6 ust. 2 + załącznik IIIBiometria, infrastruktura krytyczna, edukacja, zatrudnienie, dostęp do usług, ściganie, migracja, sprawiedliwość2 sierpnia 2026 r.

Czy system z załącznika III zawsze jest wysokiego ryzyka?

Nie. Art. 6 ust. 3 wprowadza wyjątek: system z załącznika III nie jest uznawany za high-risk, jeżeli nie stwarza znaczącego ryzyka szkody dla zdrowia, bezpieczeństwa lub praw podstawowych osób fizycznych — w tym przez brak znaczącego wpływu na wynik procesu decyzyjnego — i jeżeli spełnia którykolwiek z czterech warunków:

  • system jest przeznaczony do wykonywania wąsko określonego zadania proceduralnego;
  • system jest przeznaczony do poprawienia wyniku zakończonej uprzednio czynności wykonywanej przez człowieka;
  • system jest przeznaczony do wykrywania wzorców podejmowania decyzji lub odstępstw od wcześniejszych decyzji i nie ma na celu zastąpienia ani wpłynięcia na ocenę człowieka bez jego weryfikacji;
  • system jest przeznaczony do wykonywania zadań przygotowawczych w kontekście oceny istotnej z punktu widzenia przypadków z załącznika III.

Niezależnie od powyższego, system zawsze jest wysokiego ryzyka, gdy dokonuje profilowania osób fizycznych (art. 6 ust. 3 zd. 3).

Z naszego doświadczenia wyjątek z ust. 3 jest atrakcyjny, ale wymaga ostrożności. Z art. 6 ust. 4 wynika obowiązek udokumentowania oceny przed wprowadzeniem systemu do obrotu i obowiązek rejestracji z art. 49 ust. 2. Na wniosek właściwego organu krajowego dostawca przedstawia dokumentację — czyli ślad pracy musi być twardy, nie deklaratywny.

Co z systemami GPAI integrowanymi w high-risk?

Modele AI ogólnego przeznaczenia (GPAI) same w sobie nie są systemami AI w rozumieniu art. 6 — są regulowane oddzielnie w rozdziale V (art. 51-56). Jeżeli jednak GPAI jest integrowane w system, którego zastosowanie mieści się w załączniku III, ten konkretny system staje się high-risk, a integrator zwykle staje się dostawcą tego systemu (art. 25). Reżim GPAI omawiamy w GPAI w AI Act (art. 51-56).

Kiedy Komisja przedstawi wytyczne do art. 6?

Z art. 6 ust. 5 wynika, że Komisja — po konsultacji z Radą ds. AI — przedstawi nie później niż 2 lutego 2026 r. wytyczne określające praktyczne wdrożenie art. 6 wraz z kompleksowym wykazem praktycznych przykładów przypadków wykorzystania, które stanowią wykorzystanie wysokiego ryzyka, oraz tych, które nie stanowią. Tym samym firmy podejmujące decyzje klasyfikacyjne w 2025 r. powinny obserwować ten kanał — wytyczne mogą doprecyzować szczególnie wyjątek z ust. 3.

Komisja ma też kompetencję do zmiany załącznika III aktem delegowanym (art. 7) oraz do zmiany warunków wyjątku z ust. 3 — w obu przypadkach z zachowaniem ogólnego poziomu ochrony.

Co wynika z klasyfikacji jako high-risk?

Status systemu high-risk uruchamia kompletny zestaw obowiązków sekcji 2 i 3 rozdziału III. Lista (uproszczona):

  • Dostawca — system zarządzania ryzykiem (art. 9), data governance (art. 10), dokumentacja techniczna (art. 11), zapis zdarzeń (art. 12), transparentność i instrukcja obsługi (art. 13), nadzór człowieka (art. 14), dokładność i cyberbezpieczeństwo (art. 15), QMS (art. 17), procedura oceny zgodności (art. 43), oznakowanie CE (art. 48), rejestracja w bazie UE (art. 49), monitorowanie po wprowadzeniu do obrotu (art. 72). Pełne omówienie w Obowiązki dostawcy systemu AI wysokiego ryzyka.
  • Deployer — stosowanie zgodnie z instrukcją obsługi, nadzór człowieka, kontrola danych wejściowych, monitorowanie, przechowywanie logów co najmniej 6 miesięcy, informowanie pracowników i osób, wobec których podejmowane są decyzje (art. 26), FRIA dla podmiotów publicznych i wybranych prywatnych (art. 27). Detale w Obowiązki deployera i FRIA (art. 26-27).
  • Importer i dystrybutor — kontrola zgodności i dokumentacji (art. 23-24).

Jak możemy Ci pomóc?

W Legal Geek prowadzimy audyt klasyfikacji ryzyka systemów AI. Dla każdego systemu sprawdzamy obie ścieżki z art. 6 oraz wyjątek z ust. 3 — z dokumentacją uzasadniającą decyzję, wymaganą przez art. 6 ust. 4. Wynik audytu to lista systemów z przypisanym statusem (zakaz / high-risk / ograniczone ryzyko / minimalne ryzyko) i mapą obowiązków per system. Chcę audytu klasyfikacji!

Co dalej w cyklu?

Źródła