Akt w sprawie sztucznej inteligencji — w skrócie AI Act — to rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. Tekst opublikowano w Dzienniku Urzędowym UE 12 lipca 2024 r., a w życie wszedł 1 sierpnia 2024 r. Przepisy stosuje się jednak nie od razu: zakazane praktyki obowiązują od 2 lutego 2025 r., zasady dla modeli AI ogólnego przeznaczenia od 2 sierpnia 2025 r., większość pozostałych obowiązków od 2 sierpnia 2026 r., a obowiązki dla systemów wysokiego ryzyka będących elementem produktów z załącznika I — od 2 sierpnia 2027 r. (art. 113 rozporządzenia).
Ten artykuł to hub całego cyklu Legal Geek o AI Act. Każdy z 11 clustrów rozwija jedno z poniższych zagadnień. Cykl pisaliśmy z myślą o firmach, które dziś zadają sobie trzy pytania: czy AI Act dotyczy mojego produktu lub procesu, jakie obowiązki na mnie spadają i kiedy.
Czym jest AI Act i kogo dotyczy?
AI Act to pierwsze unijne rozporządzenie regulujące horyzontalnie rozwój i wykorzystanie sztucznej inteligencji w jednolitym podejściu opartym na ryzyku.
Definicja systemu AI w art. 3 pkt 1 jest świadomie szeroka: „system maszynowy, który został zaprojektowany do działania z różnym poziomem autonomii po jego wdrożeniu oraz który może wykazywać zdolność adaptacji po jego wdrożeniu, a także który — na potrzeby wyraźnych lub dorozumianych celów — wnioskuje, jak generować na podstawie otrzymanych danych wejściowych wyniki, takie jak predykcje, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne lub wirtualne". Definicja jest bliska tej zaproponowanej przez OECD i ma za zadanie objąć współczesne systemy uczenia maszynowego, ale nie klasyczne oprogramowanie regułowe.
Zakresem podmiotowym AI Act obejmuje cały łańcuch: dostawców (providers), podmioty stosujące (deployers), importerów, dystrybutorów oraz upoważnionych przedstawicieli (art. 2 i 3). Co istotne — rozporządzenie ma efekt eksterytorialny: jeżeli wynik systemu AI jest wykorzystywany na terenie UE, dostawca z państwa trzeciego również podlega temu reżimowi i musi ustanowić upoważnionego przedstawiciela w Unii (art. 22). Z naszego doświadczenia większość polskich firm wdrażających AI to deployerzy lub klienci dostawców spoza UE — a to oznacza, że trzeba też patrzeć w łańcuch dostaw.
Najważniejsze pojęcia:
- System AI — system maszynowy o pewnej autonomii, który wnioskuje wyniki z danych wejściowych (art. 3 pkt 1).
- Dostawca (provider) — podmiot, który rozwija lub zleca rozwój systemu AI i wprowadza go do obrotu lub oddaje do użytku pod własną nazwą (art. 3 pkt 3).
- Podmiot stosujący (deployer) — podmiot, który wykorzystuje system AI pod swoją kontrolą w działalności zawodowej (art. 3 pkt 4).
- Importer — podmiot z UE, który wprowadza do obrotu system AI opatrzony nazwą firmy spoza Unii (art. 3 pkt 6).
- Dystrybutor — podmiot w łańcuchu dostaw, inny niż dostawca lub importer, który udostępnia system AI na rynku UE (art. 3 pkt 7).
Szczegółowe omówienie ról znajdziesz w Role w AI Act — provider, deployer, importer, dystrybutor.
Jak AI Act dzieli systemy AI według ryzyka?
Rozporządzenie różnicuje obowiązki w czterech poziomach ryzyka — od pełnego zakazu po wolność stosowania.
| Poziom ryzyka | Co to oznacza | Podstawa prawna |
|---|---|---|
| Niedopuszczalne | Praktyki zakazane bezwzględnie (manipulacja, scoring społeczny, scraping wizerunków, część biometrii) | art. 5 |
| Wysokie | Systemy z załącznika I (elementy bezpieczeństwa produktów regulowanych) lub załącznika III (8 obszarów: biometria, infrastruktura krytyczna, edukacja, zatrudnienie, dostęp do usług, ściganie, migracja, sprawiedliwość) | art. 6 + zał. III |
| Ograniczone | Systemy interakcji z człowiekiem, deepfake, syntetyczne treści — obowiązek transparentności | art. 50 |
| Minimalne | Wszystkie pozostałe systemy AI — brak obowiązków na gruncie AI Act, ale obowiązują przepisy ogólne (RODO, prawo konsumenckie, KC) | brak (zasada wolności) |
Zakaz z art. 5 obejmuje m.in. systemy stosujące techniki podprogowe lub manipulacyjne wyrządzające poważną szkodę, systemy wykorzystujące słabości osób ze względu na wiek lub niepełnosprawność, scoring społeczny prowadzony przez podmioty publiczne lub prywatne, systemy oceny ryzyka popełnienia przestępstwa wyłącznie na podstawie profilowania, nieukierunkowane scrapowanie wizerunków twarzy z internetu lub kamer CCTV w celu budowy baz rozpoznawania twarzy, systemy wnioskujące o emocjach w pracy lub w edukacji oraz większość systemów kategoryzacji biometrycznej według wrażliwych atrybutów. Listę zakazów rozwijamy w Zakazane praktyki AI (art. 5).
System AI uznaje się za wysokiego ryzyka, jeżeli jest związanym z bezpieczeństwem elementem produktu objętego unijnym prawodawstwem harmonizacyjnym z załącznika I (np. zabawki, urządzenia medyczne, maszyny, lotnictwo, motoryzacja) i podlega ocenie zgodności przez stronę trzecią — albo jeżeli mieści się w jednym z ośmiu obszarów załącznika III. Wśród nich są m.in. zdalna identyfikacja biometryczna, AI w infrastrukturze krytycznej (energia, woda, ruch drogowy), AI w edukacji (np. systemy oceny prac uczniów), AI w rekrutacji i ocenie pracowników, scoring kredytowy, ocena ryzyka w ubezpieczeniu na życie i zdrowotnym, rozpatrywanie zgłoszeń alarmowych, niektóre systemy organów ścigania oraz wybrane systemy wsparcia wymiaru sprawiedliwości i procesów wyborczych. Pełną listę i wyjątek z art. 6 ust. 3 (gdy system z załącznika III nie stwarza znaczącego ryzyka) opisaliśmy w Systemy AI wysokiego ryzyka (art. 6 + zał. III).
Jakie obowiązki ciążą na dostawcy i podmiocie stosującym?
Dostawca odpowiada za zgodność systemu z wymogami sekcji 2 rozdziału III rozporządzenia, a podmiot stosujący — za właściwe użytkowanie systemu zgodnie z instrukcją obsługi i nadzór ze strony człowieka.
Obowiązki dostawcy systemu AI wysokiego ryzyka obejmują m.in.: ustanowienie systemu zarządzania ryzykiem (art. 9), data governance i jakość danych treningowych (art. 10), dokumentację techniczną zgodną z załącznikiem IV (art. 11), automatyczny zapis zdarzeń (art. 12), transparentność i instrukcję obsługi dla deployera (art. 13), nadzór ze strony człowieka (art. 14), dokładność, solidność i cyberbezpieczeństwo (art. 15), system zarządzania jakością — QMS (art. 17), procedurę oceny zgodności (art. 43), oznakowanie CE (art. 48), rejestrację w bazie UE (art. 49) i monitorowanie po wprowadzeniu do obrotu (art. 72). Operacyjne rozpisanie tych obowiązków znajdziesz w Obowiązki dostawcy systemu AI wysokiego ryzyka.
Obowiązki podmiotu stosującego są zauważalnie lżejsze niż obowiązki dostawcy, ale nadal wymagają wdrożeń procesowych. Z art. 26 wynika m.in.: stosowanie systemu zgodnie z instrukcją obsługi, nadzór ze strony osób z odpowiednimi kompetencjami, kontrola adekwatności danych wejściowych w zakresie, w jakim deployer ma nad nimi kontrolę, monitorowanie działania systemu, przechowywanie automatycznie generowanych logów co najmniej 6 miesięcy, informowanie pracowników i ich przedstawicieli przed wdrożeniem AI w miejscu pracy oraz informowanie osób fizycznych, wobec których podejmowane są decyzje. Dla podmiotów prawa publicznego oraz podmiotów prywatnych świadczących usługi publiczne — a także dla niektórych deployerów z sektora finansowego i ubezpieczeniowego — art. 27 wprowadza ocenę skutków dla praw podstawowych (FRIA). Praktyczny opis FRIA i jej relacji z DPIA z art. 35 RODO omawiamy w Obowiązki deployera i FRIA (art. 26-27) oraz w AI Act a RODO — przecięcia praktyczne.
Czym są modele AI ogólnego przeznaczenia (GPAI) i kiedy mają „ryzyko systemowe"?
GPAI to modele zdolne do wykonywania szerokiego zakresu zadań i integracji w wielu systemach niższego szczebla — odrębnie od „systemów AI" rozporządzenie reguluje je w rozdziale V (art. 51-56).
Próg ryzyka systemowego jest twardy: model jest klasyfikowany jako „GPAI z ryzykiem systemowym", jeżeli ma „zdolności dużego oddziaływania" — a przyjmuje się to, gdy łączna liczba operacji zmiennoprzecinkowych użytych do trenowania przekracza 10²⁵ FLOPs (art. 51 ust. 2). Komisja może ten próg zmieniać w aktach delegowanych zgodnie z art. 97. Dostawca, który spełnia warunek, ma dwa tygodnie na powiadomienie Komisji (art. 52 ust. 1). Podstawowe obowiązki dostawców GPAI obejmują dokumentację techniczną, informacje dla integratorów, politykę zgodności z prawem autorskim oraz publikację „streszczenia dostatecznie szczegółowego" co do danych treningowych (art. 53 i nast.). Obowiązki dla modeli z ryzykiem systemowym są dodatkowo zaostrzone — m.in. ocena modelu z perspektywy ryzyka systemowego, ograniczanie ryzyk, raportowanie poważnych incydentów i odpowiednia ochrona cybernetyczna (art. 55).
Reżim GPAI obowiązuje od 2 sierpnia 2025 r. dla modeli wprowadzonych do obrotu po tej dacie, a od 2 sierpnia 2027 r. dla modeli wprowadzonych do obrotu wcześniej (art. 111). Szczegóły, w tym Code of Practice opracowywany przez Urząd ds. AI, omawiamy w GPAI w AI Act (art. 51-56).
Co z chatbotami, deepfake'ami i treściami generowanymi przez AI?
Każdy system AI, który wchodzi w bezpośrednią interakcję z osobami fizycznymi, oraz każda treść syntetyczna podlega obowiązkom transparentności z art. 50 — niezależnie od poziomu ryzyka.
Z art. 50 wynika m.in., że dostawca chatbota musi tak zaprojektować system, by człowiek wiedział, że rozmawia z AI (chyba że jest to oczywiste). Każda syntetyczna treść (audio, obraz, wideo, tekst) generowana przez system AI powinna być oznakowana w formacie nadającym się do odczytu maszynowego (np. C2PA-watermark). Deployerzy systemów rozpoznawania emocji lub kategoryzacji biometrycznej muszą informować osoby fizyczne o ich stosowaniu. Kto generuje deepfake, ma obowiązek ujawnić, że treść jest sztucznie wygenerowana lub zmanipulowana (z wyjątkami dla treści artystycznych, satyrycznych, fikcyjnych — w odpowiedniej formie ujawnienia). Tekst generowany przez AI publikowany jako materiał interesu publicznego również wymaga oznaczenia, chyba że został poddany kontroli redakcyjnej osoby odpowiedzialnej. Cały reżim przejrzystości rozwijamy w Transparentność: chatbot, deepfake, syntetyczne treści (art. 50).
Kiedy AI Act zaczyna obowiązywać?
Harmonogram stosowania AI Act jest wieloetapowy — niektóre obowiązki działają już dziś, inne wejdą w życie w 2026 i 2027 roku.
| Data | Co zaczyna obowiązywać | Podstawa |
|---|---|---|
| 1 sierpnia 2024 r. | Wejście rozporządzenia w życie (publikacja: 12 lipca 2024 r.) | art. 113 |
| 2 lutego 2025 r. | Rozdział I (przepisy ogólne, w tym art. 4 — kompetencje w zakresie AI) i rozdział II (zakazane praktyki — art. 5) | art. 113 lit. a |
| 2 sierpnia 2025 r. | Rozdział III sekcja 4 (jednostki notyfikowane), rozdział V (modele AI ogólnego przeznaczenia), rozdział VII (governance — Urząd ds. AI, Rada ds. AI), rozdział XII (kary, art. 99-100) oraz art. 78 — z wyjątkiem art. 101 | art. 113 lit. b |
| 2 sierpnia 2026 r. | Pozostała część rozporządzenia (m.in. obowiązki dla większości systemów wysokiego ryzyka z załącznika III, transparentność z art. 50, FRIA z art. 27, baza danych UE) | art. 113 zd. 2 |
| 2 sierpnia 2027 r. | Art. 6 ust. 1 i odpowiadające mu obowiązki — high-risk AI w produktach objętych prawodawstwem harmonizacyjnym z załącznika I; obowiązki dla istniejących GPAI wprowadzonych przed 2 sierpnia 2025 r. (art. 111) | art. 113 lit. c |
Pełny rozkład obowiązków na osi czasu, z mapą „kto i kiedy musi co zrobić", znajdziesz w Harmonogram stosowania AI Act.
Jakie są kary za naruszenie AI Act?
Wysokość kary z art. 99 jest zróżnicowana w zależności od rodzaju naruszenia — od 1% do 7% globalnego rocznego obrotu lub od 7,5 mln do 35 mln EUR.
| Typ naruszenia | Maksymalna kara | Wartość alternatywna |
|---|---|---|
| Naruszenie zakazu z art. 5 (zakazane praktyki) | 35 000 000 EUR | lub 7% rocznego globalnego obrotu z poprzedniego roku |
| Naruszenie obowiązków operatorów lub jednostek notyfikowanych (m.in. art. 16, 22, 23, 24, 26, 31, 33-34, 50) | 15 000 000 EUR | lub 3% rocznego globalnego obrotu |
| Dostarczenie nieprawidłowych, niekompletnych lub wprowadzających w błąd informacji jednostkom notyfikowanym lub organom | 7 500 000 EUR | lub 1% rocznego globalnego obrotu |
Wartością wymierzaną jest wyższa z dwóch alternatyw — kwotowa lub procentowa (art. 99 ust. 3-5). Dla MŚP, w tym startupów, ust. 6 wprowadza wyjątek na korzyść — kara nie przekracza wartości procentowej lub kwoty, w zależności od tego, która jest niższa. Przy ustalaniu wysokości kary organ uwzględnia m.in. charakter, wagę i czas trwania naruszenia, liczbę poszkodowanych, wcześniejsze kary nałożone na operatora, jego wielkość i obrót, stopień zawinienia oraz zakres współpracy z organem (art. 99 ust. 7). Pełne omówienie sankcji wraz z polskim modelem nadzoru znajduje się w Kary i nadzór w AI Act (art. 99-101).
Sankcje administracyjne dla GPAI (do 3% rocznego globalnego obrotu lub 15 mln EUR) reguluje art. 101.
Jak AI Act łączy się z RODO i innymi regulacjami?
AI Act nie zastępuje RODO ani sektorowych reżimów — nakłada równolegle dodatkowe obowiązki, które trzeba czytać razem z dotychczasowymi.
W relacji z RODO szczególnie trzy punkty wymagają uwagi: podstawa prawna i zasady przetwarzania danych osobowych w zbiorach treningowych (art. 5, 6, 9 RODO), DPIA z art. 35 RODO i jej relacja z FRIA z art. 27 AI Act (akty mają różne cele i mogą się uzupełniać — art. 27 ust. 4 AI Act wprost na to wskazuje) oraz prawo z art. 22 RODO przy zautomatyzowanym podejmowaniu decyzji wywołujących skutki prawne. Dla podmiotów finansowych AI Act przecina się z DORA (rozporządzenie 2022/2554), MiCA (rozporządzenie 2023/1114), PSD2/PSD3, Solvency II i nowymi pakietami AML — szczegółowo wracamy do tego w AI Act a RODO — przecięcia praktyczne, a dla całej kategorii „compliance AI w fintechu" pracujemy nad osobnym cyklem.
Od czego zacząć przygotowanie firmy?
Z naszego doświadczenia każde wdrożenie AI Act zaczyna się od trzech rzeczy: inwentaryzacji systemów, przypisania ról i mapy obowiązków per system.
Praktyczna ścieżka, którą rekomendujemy klientom:
- Inwentaryzacja systemów AI — lista wszystkich systemów rozwijanych wewnętrznie i kupowanych z rynku, z określeniem celu, dostawcy i charakteru danych. Dotyczy też modeli GPAI używanych przez pracowników (np. asystenty kodowania, narzędzia copywriterskie).
- Przypisanie roli per system — czy w danym wdrożeniu jesteśmy dostawcą, podmiotem stosującym, importerem czy dystrybutorem (jedna firma może łączyć kilka ról jednocześnie).
- Klasyfikacja ryzyka — czy system wpada pod art. 5 (zakaz), załącznik III (high-risk), art. 50 (transparentność) albo czy używamy GPAI z ryzykiem systemowym. Tu się rozstrzyga, ile pracy stoi przed firmą.
- Mapowanie obowiązków per system — dla high-risk lista 13 wymogów z sekcji 2 rozdziału III i obowiązków deployera z art. 26-27. Dla GPAI — art. 53-55.
- Polityka kompetencji w zakresie AI (art. 4) — obowiązuje od 2 lutego 2025 r. dla wszystkich, niezależnie od ryzyka. Szczegóły w AI literacy — art. 4 AI Act.
- Aktualizacja dokumentacji RODO i kontraktów — DPIA, DPA z dostawcami, rejestr czynności przetwarzania, zasady udzielania zgody, ścieżki praw osób.
- Plan przejścia 2025-2027 — kalendarz dat z art. 113 wpisany w roadmapę kierunkową firmy, z dedykowanym właścicielem (Compliance / DPO / CTO — w zależności od tego, kto faktycznie wdraża).
W większości firm punkty 1-3 zajmują od dwóch do sześciu tygodni — w dużej mierze nie ze względu na regulację, lecz na rozproszenie informacji o wdrożeniach AI w organizacji.
Jak możemy Ci pomóc?
W Legal Geek prowadzimy projekty AI Act na trzech poziomach. Audyt AI Act to ustalenie, gdzie firma stoi — inwentaryzacja systemów, przypisanie ról i wstępna klasyfikacja ryzyka z mapą obowiązków. Wdrożenie to przygotowanie pełnej dokumentacji wymaganej przez rozporządzenie (system zarządzania ryzykiem, dokumentacja techniczna, FRIA, polityka kompetencji, klauzule kontraktowe z dostawcami modeli) wraz z procesami operacyjnymi. Szkolenia z AI Act dla zarządu, zespołu compliance i zespołów produktowych (art. 4 — kompetencje) prowadzimy w wersji dwugodzinnej i całodniowej. Chcę audytu AI Act!
Co dalej w cyklu?
- Harmonogram stosowania AI Act — harmonogram stosowania AI Act 2024-2027
- Zakazane praktyki AI (art. 5) — zakazane praktyki z art. 5
- Systemy AI wysokiego ryzyka (art. 6 + zał. III) — systemy AI wysokiego ryzyka
- Role w AI Act — provider, deployer, importer, dystrybutor — role: provider, deployer, importer, distributor
- Obowiązki dostawcy systemu AI wysokiego ryzyka — obowiązki dostawcy systemu high-risk
- Obowiązki deployera i FRIA (art. 26-27) — obowiązki deployera + FRIA
- GPAI w AI Act (art. 51-56) — GPAI i ryzyko systemowe
- Transparentność: chatbot, deepfake, syntetyczne treści (art. 50) — transparentność, chatbot, deepfake
- Kary i nadzór w AI Act (art. 99-101) — kary i nadzór
- AI Act a RODO — przecięcia praktyczne — AI Act a RODO
- AI literacy — art. 4 AI Act — AI literacy z art. 4
Źródła
- Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. — EUR-Lex
- Komisja Europejska — strona AI Act
- Komisja Europejska — European AI Office