Zakazane praktyki w zakresie AI to jedyne przepisy AI Act, które obowiązują już dziś. Stosuje się je od 2 lutego 2025 r. (art. 113 lit. a), a sankcje administracyjne — do 35 mln EUR lub 7% rocznego globalnego obrotu — mogą być nakładane od 2 sierpnia 2025 r. (art. 99 ust. 3 + art. 113 lit. b). Dla każdej firmy korzystającej z AI to pierwszy test, który warto zrobić: czy żaden z naszych systemów lub procesów nie wpada pod art. 5.
Pełny kontekst rozporządzenia opisaliśmy w AI Act 2024/1689 — przewodnik dla firm, a kalendarz dat — w Harmonogram stosowania AI Act.
Co rozumiemy przez „zakazane praktyki" w AI Act?
Zakazane praktyki to wąska lista zachowań, w których sam fakt wprowadzenia do obrotu, oddania do użytku lub wykorzystywania systemu AI jest zabroniony bezwzględnie. Nie istnieje tu mechanizm „compliance przez dokumentację" jak przy systemach wysokiego ryzyka — albo dany system mieści się w wyjątku, albo jest zakazany.
Z art. 5 ust. 1 wynika, że zakaz obejmuje wszystkich operatorów — dostawców (providerów), podmioty stosujące (deployerów), importerów i dystrybutorów. Zakaz dotyczy także systemów rozwiniętych poza UE, jeżeli są wprowadzane do obrotu w Unii lub jeżeli ich wynik jest wykorzystywany w UE (art. 2). Inaczej niż przy high-risk, art. 5 nie wymaga, aby system był „związanym z bezpieczeństwem elementem produktu" — wystarczy spełnienie definicji systemu AI z art. 3 pkt 1.
Jakich systemów dotyczy zakaz manipulacji?
Pierwsza kategoria zakazu to systemy stosujące techniki podprogowe lub celowe techniki manipulacyjne wprowadzające w błąd, których celem lub skutkiem jest dokonanie znaczącej zmiany zachowania osoby i wyrządzenie poważnej szkody.
Z art. 5 ust. 1 lit. a wynikają trzy elementy konieczne, które muszą być spełnione łącznie:
- system stosuje techniki podprogowe (poza świadomością osoby) lub celowe techniki manipulacyjne lub wprowadzające w błąd;
- celem lub skutkiem jest znaczące ograniczenie zdolności do podejmowania świadomych decyzji i podjęcie decyzji, której osoba inaczej by nie podjęła;
- działanie wyrządza lub może wyrządzić poważną szkodę osobie, innej osobie lub grupie.
W praktyce ten zakaz uderza w niektóre wzorce „dark patterns" zasilane przez AI, w nieuczciwe systemy rekomendacyjne, w manipulacyjne kampanie nudgingu wykorzystujące mikrotargetowanie pasujące do podatności psychicznej. Pamiętamy jednak, że granica wymaga poważnej szkody — nie każda perswazja jest zakazana.
Czy zakaz dotyczy też systemów wykorzystujących słabości osób?
Tak. Art. 5 ust. 1 lit. b zakazuje systemów, które wykorzystują słabości osoby fizycznej lub grupy osób ze względu na wiek, niepełnosprawność lub szczególną sytuację społeczną lub ekonomiczną — gdy celem lub skutkiem jest istotna zmiana zachowania powodująca lub mogąca z uzasadnionym prawdopodobieństwem powodować poważną szkodę.
Przepis ma chronić w szczególności dzieci, osoby starsze, osoby z niepełnosprawnościami i osoby w trudnej sytuacji ekonomicznej. Z naszego doświadczenia w pracy z firmami fintech ten zakaz powinien skłonić do przeglądu modeli scoringowych pod kątem grup wrażliwych, a w e-commerce — do audytu mechanizmów upsell skierowanych do klientów w tarapatach finansowych.
Co z scoringiem społecznym?
Art. 5 ust. 1 lit. c zakazuje systemów AI prowadzących ocenę lub klasyfikację osób fizycznych przez określony czas na podstawie ich zachowania społecznego lub cech osobistych, jeżeli prowadzi to do krzywdzącego traktowania w kontekście niezwiązanym z pierwotnym celem zbierania danych albo do nieproporcjonalnego traktowania.
Zakaz dotyczy zarówno organów publicznych, jak i podmiotów prywatnych. Z naszego doświadczenia firmy najczęściej pytają, czy ich modele scoringu kredytowego mogą wpaść pod ten zakaz — odpowiedź jest zwykle nie, ponieważ scoring kredytowy wpada do innego reżimu (high-risk, Systemy AI wysokiego ryzyka (art. 6 + zał. III), załącznik III pkt 5 lit. b), nie do bezwzględnego zakazu. Granica jest tu jednak delikatna i wymaga osobnej oceny per system.
Kiedy AI nie może oceniać ryzyka popełnienia przestępstwa?
Art. 5 ust. 1 lit. d zakazuje systemów AI do oceny ryzyka popełnienia przestępstwa przez osobę fizyczną wyłącznie na podstawie profilowania lub oceny cech osobowości. Wyjątek dotyczy systemów wspomagających ocenę człowieka opartą na obiektywnych i weryfikowalnych faktach bezpośrednio związanych z działalnością przestępczą.
Zakaz uderza przede wszystkim w predictive policing oparte tylko na profilowaniu. Systemy wspierające pracę śledczą opartą na faktach pozostają dopuszczalne — ale wpadają w high-risk z załącznika III pkt 6.
Co ze scrapingiem wizerunków twarzy?
Art. 5 ust. 1 lit. e zakazuje wprowadzania do obrotu lub wykorzystywania systemów AI, które tworzą lub rozbudowują bazy danych do rozpoznawania twarzy poprzez nieukierunkowane pozyskiwanie (untargeted scraping) wizerunków twarzy z internetu lub nagrań z CCTV.
Ten przepis świadomie nawiązuje do modelu działania kontrowersyjnych firm w rodzaju Clearview AI. Zakaz jest absolutny — bez wyjątków dla organów ścigania, bez podstawy prawnej z RODO. Praktycznie każdy serwis budujący bazę rozpoznawania twarzy w Polsce powinien zrobić audyt swoich źródeł danych przed 2 lutego 2025 r.
Czy AI w pracy może wykrywać emocje?
Z art. 5 ust. 1 lit. f wynika zakaz systemów AI do wyciągania wniosków na temat emocji osoby fizycznej w miejscu pracy lub w instytucjach edukacyjnych, z wyjątkiem systemów wdrożonych ze względów medycznych lub bezpieczeństwa.
Tym samym AI analizujące tonację głosu rozmów telefonicznych konsultantów call center pod kątem stresu, narzędzia oceny zaangażowania uczniów na lekcji online czy systemy badające „nastrój" pracowników biurowych są w większości zakazane. Wyjątki dotyczą np. systemów wykrywających zmęczenie kierowcy — ale te wymagają solidnej podstawy bezpieczeństwa.
Co z biometryczną kategoryzacją według wrażliwych atrybutów?
Art. 5 ust. 1 lit. g zakazuje systemów kategoryzacji biometrycznej, które indywidualnie kategoryzują osoby na podstawie danych biometrycznych w celu wywnioskowania ich rasy, poglądów politycznych, przynależności do związków zawodowych, przekonań religijnych lub światopoglądowych, seksualności lub orientacji seksualnej. Zakaz nie obejmuje etykietowania ani filtrowania zbiorów danych biometrycznych pozyskanych zgodnie z prawem ani kategoryzacji danych biometrycznych w obszarze ścigania przestępstw.
Ten zakaz zachodzi na art. 9 RODO — oba dotyczą tych samych kategorii danych szczególnych. AI Act dodaje jednak własną sankcję administracyjną za naruszenie. Detale relacji z RODO opisaliśmy w AI Act a RODO — przecięcia praktyczne.
Kiedy organy ścigania mogą używać identyfikacji biometrycznej w czasie rzeczywistym?
Art. 5 ust. 1 lit. h ustanawia zakaz wykorzystywania systemów zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do celów ścigania przestępstw — chyba że jest to bezwzględnie konieczne i mieści się w jednym z trzech wyjątków: (i) ukierunkowane poszukiwanie ofiar uprowadzeń, handlu ludźmi, wykorzystywania seksualnego lub osób zaginionych; (ii) zapobieżenie konkretnemu, istotnemu i bezpośredniemu zagrożeniu życia lub bezpieczeństwa albo realnemu zagrożeniu atakiem terrorystycznym; (iii) lokalizowanie lub identyfikowanie osoby podejrzanej o popełnienie przestępstwa wymienionego w załączniku II, podlegającego karze pozbawienia wolności do co najmniej 4 lat.
Z art. 5 ust. 2-3 wynika dodatkowa warstwa zabezpieczeń: ocena skutków dla praw podstawowych przed użyciem (art. 27), rejestracja systemu w bazie UE (art. 49) i — co do zasady — uprzednie zezwolenie organu wymiaru sprawiedliwości lub niezależnego organu administracyjnego. W przypadkach pilnych zezwolenie można uzyskać w ciągu 24 godzin (art. 5 ust. 3).
Tabela — 8 kategorii zakazów z art. 5
| Lit. | Kategoria | Wyjątki |
|---|---|---|
| a | Manipulacja podprogowa lub celowa wyrządzająca poważną szkodę | brak |
| b | Wykorzystywanie słabości osób (wiek, niepełnosprawność, sytuacja społeczno-ekonomiczna) | brak |
| c | Scoring społeczny prowadzący do krzywdzącego/nieproporcjonalnego traktowania | brak |
| d | Ocena ryzyka popełnienia przestępstwa wyłącznie na podstawie profilowania | wsparcie oceny ludzkiej opartej na obiektywnych faktach |
| e | Scraping wizerunków twarzy z internetu/CCTV w celu budowy baz biometrycznych | brak |
| f | Rozpoznawanie emocji w miejscu pracy lub edukacji | względy medyczne lub bezpieczeństwa |
| g | Kategoryzacja biometryczna według wrażliwych atrybutów | etykietowanie/filtrowanie zgodnych z prawem zbiorów; ściganie przestępstw |
| h | Zdalna identyfikacja biometryczna w czasie rzeczywistym przez organy ścigania | (i) ofiary, (ii) zagrożenia, (iii) ściganie z zał. II — z zezwoleniem |
Jakie są kary za naruszenie zakazu z art. 5?
Z art. 99 ust. 3 wynika, że nieprzestrzeganie zakazu z art. 5 podlega administracyjnej karze pieniężnej w wysokości do 35 000 000 EUR lub — jeżeli sprawcą jest przedsiębiorstwo — do 7% rocznego globalnego obrotu z poprzedniego roku, w zależności od tego, która z kwot jest wyższa.
Dla MŚP, w tym startupów, ust. 6 wprowadza wyjątek na korzyść — kara nie przekracza wartości procentowej lub kwoty, w zależności od tego, która jest niższa. Pełne omówienie reżimu sankcji w Kary i nadzór w AI Act (art. 99-101).
Jak możemy Ci pomóc?
W Legal Geek prowadzimy audyt zgodności z art. 5 AI Act. Sprawdzamy, czy któryś z systemów rozwijanych lub używanych w firmie może wpadać pod jeden z 8 zakazów, oceniamy ryzyko nałożenia sankcji i przygotowujemy plan działań naprawczych. Audyt zwykle obejmuje 1-3 sesje robocze z zespołem produktowym i compliance oraz raport z rekomendacjami. Chcę audytu zakazanych praktyk!
Co dalej w cyklu?
- AI Act 2024/1689 — przewodnik dla firm — hub: AI Act dla firm
- Harmonogram stosowania AI Act — kiedy obowiązują zakazy
- Systemy AI wysokiego ryzyka (art. 6 + zał. III) — co jest high-risk (zamiast zakazu)
- Kary i nadzór w AI Act (art. 99-101) — kary do 35 mln EUR / 7%
- AI Act a RODO — przecięcia praktyczne — biometria i RODO
Źródła
- Rozporządzenie (UE) 2024/1689 — art. 5 (EUR-Lex)
- RODO — art. 9 (kategorie szczególne danych) i art. 22 (zautomatyzowane podejmowanie decyzji)
- Komisja Europejska — strona AI Act