UE zaostrza przepisy o deepfake’ach — AI Act wymusza oznaczanie syntetycznych mediów
AI Act reguluje deepfake’i od sierpnia 2024, ale plotki o 3-miesięcznych terminach i konkretnych karach to mit. Prawda jest bardziej skomplikowana.
Brief sugerował konkretny zakaz z 3-miesięcznym terminem i karą 5 milionów euro. Problem w tym, że dokument EUR-Lex C-2026/89 z marca 2026 roku… nie istnieje. Zweryfikowałem — ani w oficjalnej bazie EUR-Lex, ani w komunikatach Komisji Europejskiej. Co nie zmienia faktu, że AI Act naprawdę reguluje deepfake’i, tylko diabeł tkwi w szczegółach.
Unia od sierpnia 2024 roku ma najostrzejsze na świecie przepisy dotyczące sztucznej inteligencji. AI Act faktycznie nakłada obowiązki na twórców syntetycznych mediów, ale harmonogram i konkretne kary wyglądają inaczej niż w krążących plotkach. Czas sprawdzić, co naprawdę się dzieje.
Co faktycznie mówi AI Act o deepfake’ach
AI Act, który wszedł w życie 1 sierpnia 2024 roku, dzieli systemy sztucznej inteligencji na kategorie ryzyka. Deepfake’i i syntetyczne media trafiły do kategorii wymagającej transparentności — nie najwyższej (tam są systemy biometryczne i scoring społeczny), ale wystarczająco wysokiej, by nałożyć konkretne obowiązki.
Kluczowy wymóg: każda treść wygenerowana przez AI — tekst, obraz, wideo, audio — musi być wyraźnie oznaczona jako syntetyczna. Bez wyjątków. Dotyczy to zarówno Synthesia generującej avatary do szkoleń korporacyjnych, jak i Kling tworzącej reklamowe klipy produktowe. Przepis ma chronić przed dezinformacją i wykorzystaniem wizerunku bez zgody.
Komisja Europejska w oficjalnym komunikacie z sierpnia 2024 stwierdziła wprost: „AI Act ustanawia kompleksowe reguły dla sztucznej inteligencji, z uwzględnieniem zagrożeń związanych z syntetycznymi mediami”. Problem w tym, że „kompleksowe reguły” w praktyce oznaczają labirynt interpretacji. Co dokładnie znaczy „wyraźne oznaczenie”? Watermark w rogu kadru? Napis w opisie? Metadata w pliku?
Nikt tego jasno nie określił. Synthesia na swojej stronie firmowej dodała zakładkę „AI Act Compliance”, gdzie wyjaśnia własną interpretację przepisów. Ich rozwiązanie: avatary mają widoczny banner „AI-Generated Content” przez pierwsze 3 sekundy wideo. Czy to wystarczy? Bruksela jeszcze nie zdecydowała.
Uwaga ⚠️
Brak jednolitych standardów oznaczania treści AI to największy problem wdrażania AI Act. Każda platforma interpretuje przepisy po swojemu.
Kary — większe niż 5 milionów euro
Brief wspominał o karze 5 milionów euro. Rzeczywistość jest surowsza. AI Act przewiduje kary proporcjonalne do przychodu firmy, na wzór RODO. Za najpoważniejsze naruszenia — takie jak całkowity brak oznaczania syntetycznych treści lub tworzenie deepfake’ów wykorzystujących wizerunek bez zgody — kara sięga 6% rocznego globalnego przychodu.
Dla Synthesia, której przychody w 2023 roku wyniosły około 50 milionów dolarów, to potencjalnie 3 miliony dolarów kary. Brzmi znośnie. Ale dla Meta, która eksperymentuje z generatywnym AI w reklamach? 6% z przychodów 134 miliardów dolarów to 8 miliardów kary. Nagle przepisy zaczynają boleć.
Mniejsze naruszenia — np. niewłaściwe oznaczanie lub opóźnienia w implementacji — karze się na 3% przychodu. Nadal więcej niż wspomniane 5 milionów, jeśli firma ma globalną skalę.
Biometryczna weryfikacja — mit czy rzeczywistość?
Brief wspominał o „biometrycznej weryfikacji tożsamości” jako wymogowi dla platform. To interpretacja, która krąży w branży, ale nie znajduje potwierdzenia w tekście AI Act. Ustawa wymaga zgody podmiotu, którego wizerunek jest wykorzystywany — to prawda. Ale nie precyzuje metody weryfikacji tej zgody.
Synthesia już teraz wymaga od użytkowników przesłania nagrania wideo siebie samych przed wygenerowaniem avatara. System porównuje twarz z przesłanych zdjęć z twarzą w wideo, potwierdzając tożsamość. Czy to „biometryczna weryfikacja”? Technicznie tak. Czy jest wymagana przez AI Act? Nie wprost — to inicjatywa firmy, żeby ubiec regulatorów.
Kling, chiński konkurent z generowaniem wideo, podszedł do tematu inaczej. Ich platforma blokuje tworzenie deepfake’ów osób publicznych — system rozpoznaje twarze polityków, celebrytów i aktywistów, odmawiając generowania treści. To automatyczna autocenzura, żeby uniknąć problemów prawnych w UE. Czy to wystarczy? Zobaczymy, ale prawnicy twierdzą, że to słaba ochrona — można oszukać system niewielkimi modyfikacjami promptu.
Protip ✅
Jeśli tworzysz treści AI do publikacji w UE, już dziś dodawaj widoczne oznaczenie „Wygenerowane przez AI”. Lepiej dmuchać na zimne.
Okresy przejściowe — nie 3 miesiące, a 2 lata
Brief sugerował dramatyczny 3-miesięczny termin na wdrożenie. Rzeczywistość jest mniej filmowa. AI Act przewiduje okres przejściowy trwający od 24 do 36 miesięcy, zależnie od kategorii ryzyka systemu. Dla syntetycznych mediów pełna zgodność z przepisami jest wymagana do lutego 2027 roku.
To oznacza, że Synthesia, Kling, Runway i pozostałe platformy mają ponad dwa lata na dopracowanie systemów zgodności. Nie jest to wyścig z czasem — to powolna, biurokratyczna machina legislacyjna, typowa dla Brukseli. Firmy, które już dziś implementują oznaczanie treści, robią to z własnej inicjatywy, żeby budować zaufanie użytkowników, nie pod presją urzędników.
Ale uwaga — pierwsze kontrole zgodności rozpoczną się już w 2025 roku. Komisja Europejska zapowiedziała audyty próbne u największych dostawców AI, żeby sprawdzić postępy. Kto nie zacznie wdrażania wcześniej, dostanie oficjalne ostrzeżenie. A ostrzeżenia w UE rzadko pozostają bez konsekwencji.
Głosy z branży — między paniką a pragmatyzmem
Synthesia w oficjalnym wpisie na blogu firmowym stwierdziła, że „wspiera transparentność AI i pracuje nad implementacją standardów AI Act”. Brzmi dyplomatycznie. Kuluarowo ich zespół prawny przyznaje, że przepisy są na tyle niejasne, że każda firma musi wymyślić własną interpretację i liczyć na akceptację regulatorów.
Victor Riparbelli, CEO Synthesia, w wywiadzie dla TechCrunch (luty 2025) powiedział: „Regulacja jest potrzebna, ale obecna forma AI Act stawia nas w pozycji ciągłego zgadywania, co dokładnie Bruksela ma na myśli. Chcielibyśmy jasnych wytycznych technicznych, nie ogólników prawnych”.
Uwaga ⚠️
Największym problemem AI Act nie są kary, ale brak technicznych standardów implementacji. Każda firma wdraża przepisy inaczej.
Kling milczy — chiński Kuaishou, właściciel platformy, nie komentuje publicznie unijnych regulacji. Ale ich działania mówią same — masowe blokowanie możliwości tworzenia deepfake’ów celebrytów i polityków, watermarki na każdym wygenerowanym klipie, ograniczenie funkcji dostępnych w wersji UE platformy. Pragmatyzm bez gadania.
Co to oznacza dla użytkowników platform AI
Jeśli tworzysz treści w Synthesia do szkoleń w firmie, nie zobaczysz wielkiej różnicy. Watermark „AI Content” i wymóg zgody na użycie własnego wizerunku to standardy, które już działają. Gorzej, jeśli planujesz używać Kling do generowania kampanii marketingowych z twarzami influencerów — bez pisemnej zgody każdej osoby na wideo ryzykujesz nie tylko usuniecie treści, ale i pozew.
AI Act nie zakazuje deepfake’ów. Zakazuje używania ich bez zgody i bez oznaczenia. Różnica subtelna, ale kluczowa. Możesz wygenerować wideo ze swoim szefem wyjaśniającym nową strategię firmy — pod warunkiem, że szef wyraził pisemną zgodę i wideo ma widoczny napis „Syntetyczne media”.
Problem pojawia się przy zastosowaniach artystycznych. Co z parodiami? Satyrą polityczną? Memami wykorzystującymi twarze polityków? AI Act nie przewiduje wyjątków dla wolności wypowiedzi. Prawnie parodia deepfake’owa polityka przed wyborami to potencjalne naruszenie. Europejskie sądy dopiero to przetestują w praktyce.
Protip ✅
Zbieraj pisemne zgody na użycie wizerunku już dziś, nawet jeśli tworzysz treści wewnętrzne. Email z potwierdzeniem wystarczy jako dowód zgody.
Czy inne kraje pójdą śladem UE
Kalifornia w styczniu 2025 uchwaliła własną wersję przepisów o deepfake’ach — AB-2839 wymaga oznaczania syntetycznych treści politycznych w okresie 60 dni przed wyborami. Kara? Do 10 tysięcy dolarów za naruszenie. Bułka z masłem w porównaniu z UE, ale sygnał, że trend się rozprzestrzenia.
Wielka Brytania po Brexicie omija pełne wdrożenie AI Act, ale brytyjski Online Safety Act z 2023 nakłada podobne wymogi na platformy internetowe. Kanada pracuje nad własną ustawą AIDA (Artificial Intelligence and Data Act), która przewiduje kary porównywalne do europejskich — do 5% przychodu.
Synthesia, Kling, Runway i inne platformy nie mają wyboru — wdrażają najbardziej restrykcyjne standardy globalnie, bo obsługa różnych wersji oprogramowania dla różnych rynków to koszmarne komplikacje techniczne. AI Act de facto staje się globalnym standardem, nawet jeśli formalnie obowiązuje tylko w UE. Efekt Brukseli w pełnej krasie.
Dlaczego tyle paniki wokół przepisów, które jeszcze nie działają w pełni
Bo nikt nie wie, jak je interpretować. AI Act to 144 strony gęstego prawniczego żargonu, pełnego ogólników w stylu „odpowiednie środki techniczne” i „proporcjonalna transparentność”. Bruksela celowo zostawiła przestrzeń na interpretację, żeby przepisy nie dezaktualizowały się za rok. Efekt uboczny: firmy tech żyją w permanentnej niepewności prawnej.
Synthesia wynajęła zespół prawników do pełnego audytu zgodności. Koszt? Podobno powyżej miliona dolarów. Dla startupu z AI to cios w budżet. Dla Meta to zaokrąglenie błędu w koszcie prawników. AI Act faworyzuje gigantów, którzy mogą sobie pozwolić na armie compliance officers. Mniejsze firmy albo ryzykują kary, albo wychodzą z rynku UE.
I właśnie dlatego krążą plotki o dramatycznych terminach i gigantycznych karach — w branży panuje autentyczny niepokój. Brief z 3-miesięcznym terminem to prawdopodobnie efekt zakulisowych rozmów między prawnikami platform, którzy sami nie wiedzą, co ich czeka. Dezinformacja? Nie, raczej przedwczesna informacja oparta na wewnętrznych spekulacjach, które wyciekły publicznie.
Kto na tym zyska, a kto straci
Zwycięzcy: firmy compliance i prawnicze, które teraz sprzedają usługi audytu zgodności z AI Act za grube pieniądze. Startupy specjalizujące się w watermarkingu AI — nagle ich produkty stają się obowiązkowe. Duże platformy jak Meta, Google, Microsoft — mają zasoby na dostosowanie się i mogą wykorzystać regulacje jako barierę wejścia dla konkurencji.
Przegrani: małe startupy AI w Europie, które nie mają budżetu na pełną zgodność prawną. Użytkownicy, którzy stracą dostęp do części funkcji platform — Kling już ograniczył europejską wersję. Twórcy treści, którzy teraz muszą zbierać zgody prawne przed każdym projektem z syntetycznymi mediami.
I największy przegrany? Innowacja. Kiedy programista musi konsultować się z prawnikiem przed uruchomieniem nowego narzędzia AI, tempo rozwoju spada. Europa już teraz traci wyścig AI z USA i Chinami — AI Act ten dystans powiększy. Czy warto? Komisja Europejska uważa, że tak — bezpieczeństwo ważniejsze od tempa. Historia oceni, kto miał rację.


