Obowiązki transparentności z art. 50 to przepis, który dotyka większości firm korzystających z AI — niezależnie od poziomu ryzyka systemu. Czterema kierunkami uderzenia są: chatboty, syntetyczne treści (audio/obraz/wideo/tekst), rozpoznawanie emocji oraz deepfake. Każda grupa ma osobny zakres podmiotowy i własne wyjątki.

Hub cyklu w AI Act 2024/1689 — przewodnik dla firm, różnica między art. 5 (zakazy) a art. 50 (transparentność) — w Zakazane praktyki AI (art. 5).

Czym są obowiązki transparentności w AI Act?

Obowiązki transparentności to dodatkowa warstwa wymagań nakładana na operatorów systemów AI, które wchodzą w interakcję z osobami fizycznymi lub generują treści zdolne wprowadzić w błąd. Reguluje ją art. 50.

Z art. 50 ust. 6 wynika, że ust. 1-4 nie wpływają na wymogi i obowiązki ustanowione w rozdziale III (sekcje dla systemów wysokiego ryzyka) i pozostają bez uszczerbku dla innych obowiązków przejrzystości w prawie Unii lub krajowym (m.in. art. 13 i 14 RODO przy informowaniu osób, których dane są przetwarzane).

Jak informować, że rozmawiamy z chatbotem?

Z art. 50 ust. 1 wynika, że dostawcy zapewniają, by systemy AI przeznaczone do wchodzenia w bezpośrednią interakcję z osobami fizycznymi projektowano i rozwijano w taki sposób, by zainteresowane osoby były informowane o tym, że prowadzą interakcję z systemem AI — chyba że jest to oczywiste z punktu widzenia osoby dostatecznie poinformowanej, uważnej i ostrożnej, z uwzględnieniem okoliczności i kontekstu.

Wyjątek dotyczy systemów AI, których wykorzystywanie jest dozwolone na mocy prawa do celów wykrywania przestępstw, przeciwdziałania im, prowadzenia postępowań przygotowawczych lub ścigania ich sprawców — z zastrzeżeniem odpowiednich zabezpieczeń w zakresie praw i wolności osób trzecich i pod warunkiem, że nie są udostępniane ogółowi społeczeństwa.

Praktyka: każdy chatbot na stronie firmy, w aplikacji lub w komunikatorze powinien mieć wyraźne oznaczenie „AI" przy pierwszej interakcji. Z naszego doświadczenia bezpieczna formuła to komunikat startowy w stylu „Cześć, jestem asystentem AI…" lub label trwale widoczny w interfejsie.

Jak znakować syntetyczne treści (audio, obraz, wideo, tekst)?

Z art. 50 ust. 2 wynika, że dostawcy systemów AI — w tym GPAI — generujących treści w postaci syntetycznych dźwięków, obrazów, wideo lub tekstu, zapewniają, by wyniki systemu były oznakowane w formacie nadającym się do odczytu maszynowego i wykrywalne jako sztucznie wygenerowane lub zmanipulowane.

Dostawcy zapewniają skuteczność, interoperacyjność, solidność i niezawodność rozwiązań technicznych, w zakresie technicznie wykonalnym, uwzględniając specyfikę i ograniczenia różnych rodzajów treści, koszty wdrażania oraz powszechnie uznany stan wiedzy technicznej.

Wyjątek dotyczy systemów AI pełniących funkcję wspomagającą w zakresie standardowej edycji lub niezmieniających w istotny sposób przekazywanych przez deployera danych wejściowych lub ich semantyki — oraz w zakresie dozwolonym przez prawo dla celów ścigania przestępstw.

W praktyce odpowiada to wdrożeniu standardów takich jak C2PA (Coalition for Content Provenance and Authenticity) lub innych watermarków odczytywalnych maszynowo.

Czy deployer musi informować o rozpoznawaniu emocji?

Z art. 50 ust. 3 wynika, że deployerzy systemów rozpoznawania emocji lub systemów kategoryzacji biometrycznej informują osoby fizyczne, wobec których systemy te są stosowane, o fakcie ich stosowania i przetwarzają dane osobowe stosownie do RODO i dyrektywy 2016/680.

Obowiązek nie ma zastosowania do systemów AI wykorzystywanych do kategoryzacji biometrycznej i rozpoznawania emocji, których wykorzystywanie jest dozwolone z mocy prawa do celów wykrywania przestępstw — z zastrzeżeniem odpowiednich zabezpieczeń.

Pamiętamy, że rozpoznawanie emocji w pracy i edukacji jest co do zasady zakazane na mocy art. 5 ust. 1 lit. f. Art. 50 ust. 3 dotyczy więc systemów, które są dopuszczalne (np. w ochronie zdrowia, w bezpieczeństwie publicznym z wyjątkami art. 5).

Jak ujawniać, że treść to deepfake?

Z art. 50 ust. 4 wynika, że deployerzy systemu AI generującego obrazy, treści audio lub wideo stanowiące deepfake lub manipulującego takimi treściami, ujawniają, że treści zostały sztucznie wygenerowane lub zmanipulowane.

Wyjątek dotyczy wykorzystania dozwolonego prawem do celów ścigania przestępstw. W przypadku gdy treść jest częścią pracy lub programu o wyraźnie artystycznym, twórczym, satyrycznym, fikcyjnym lub analogicznym charakterze, obowiązki ograniczają się do ujawnienia istnienia takich wygenerowanych lub zmanipulowanych treści w odpowiedni sposób, który nie utrudnia wyświetlania lub korzystania z utworu.

Drugi akapit ust. 4 dotyczy tekstu: deployerzy systemu AI generującego tekst publikowany w celu informowania społeczeństwa o sprawach leżących w interesie publicznym lub manipulujący takim tekstem, ujawniają, że tekst został sztucznie wygenerowany lub zmanipulowany. Obowiązek nie ma zastosowania, gdy treści wygenerowane przez AI zostały poddane weryfikacji przez człowieka lub kontroli redakcyjnej i gdy odpowiedzialność redakcyjną ponosi osoba fizyczna lub prawna.

Tabela — cztery zakresy art. 50

Ust.Kogo dotyczyCo trzeba zrobićGłówne wyjątki
ust. 1Dostawca systemu AI w bezpośredniej interakcji z osobamiZaprojektować system tak, by człowiek wiedział, że rozmawia z AIOczywiste z kontekstu; ściganie przestępstw
ust. 2Dostawca systemu AI (w tym GPAI) generującego syntetyczne treściOznakować wyniki w formacie nadającym się do odczytu maszynowegoStandardowa edycja; ściganie
ust. 3Deployer systemu rozpoznawania emocji lub kategoryzacji biometrycznejInformować osoby fizyczne o stosowaniu systemuŚciganie przestępstw
ust. 4Deployer systemu generującego/manipulującego deepfake'iemUjawniać, że treść jest sztucznaTreści artystyczne, satyryczne, fikcyjne (ograniczona forma); kontrola redakcyjna dla tekstu

W jakim formacie i kiedy trzeba przekazać informacje?

Z art. 50 ust. 5 wynika, że informacje, o których mowa w ust. 1-4, są przekazywane zainteresowanym osobom fizycznym w jasny i wyraźny sposób, najpóźniej w momencie pierwszej interakcji lub pierwszego stosowania. Informacje te muszą spełniać mające zastosowanie wymogi dostępności (m.in. dyrektywa o dostępności produktów i usług).

Z art. 50 ust. 7 wynika, że Urząd ds. AI zachęca do opracowywania kodeksów praktyk na poziomie Unii i wspiera ich opracowanie, by ułatwić skuteczne wykonywanie obowiązków w zakresie wykrywania i oznaczania treści sztucznie wygenerowanych lub zmanipulowanych. Komisja może przyjmować akty wykonawcze dotyczące zatwierdzenia tych kodeksów. Jeśli Komisja uzna, że kodeks nie jest odpowiedni, może przyjąć akt wykonawczy określający wspólne zasady wykonywania obowiązków.

Kiedy obowiązuje art. 50?

Art. 50 stosuje się od 2 sierpnia 2026 r. (art. 113 zd. 2). Tym samym mamy ponad rok na wdrożenie watermarków, mechanizmów ujawnienia deepfake i komunikatów chatbotowych.

Jakie sankcje grożą za naruszenie art. 50?

Z art. 99 ust. 4 lit. g wynika, że nieprzestrzeganie obowiązków transparentności z art. 50 podlega administracyjnej karze pieniężnej do 15 000 000 EUR lub 3% rocznego globalnego obrotu z poprzedniego roku, w zależności od tego, która kwota jest wyższa. Pełne omówienie reżimu sankcji w Kary i nadzór w AI Act (art. 99-101).

Jak możemy Ci pomóc?

W Legal Geek prowadzimy audyt obowiązków transparentności art. 50 dla firm rozwijających lub wdrażających systemy AI. Sprawdzamy chatboty, generatory treści, narzędzia rozpoznawania emocji oraz procesy publikacji treści generowanych przez AI. Wynik audytu to lista wymagań technicznych (watermark, komunikaty UI, polityki redakcyjne) i kontraktowych (klauzule z dostawcami modeli) oraz mapa wdrożenia do 2 sierpnia 2026 r. Chcę audytu transparentności!

Co dalej w cyklu?

Źródła