Ministerstwo Sprawiedliwości chce skuteczniejszych narzędzi prawnych w walce ze złośliwymi deepfake’ami i innymi formami cyfrowej przemocy. W resorcie powstanie specjalny zespół, który wypracuje propozycje zmian. – Dobrze, że temat zaczyna być traktowany poważnie, ale powoływanie kolejnych zespołów czy komisji nie może zastępować działań – komentuje Marcel Kiełtyka, ekspert stowarzyszenia Demagog.

- Ministerstwo Sprawiedliwości powołuje zespół ekspertów, którzy wypracują nowe przepisy ułatwiające walkę z cyfrową przemocą.
- Chodzi przede wszystkim o ochronę dzieci przed złośliwymi deepfake’ami – na przykład takimi o podłożu seksualnym.
- Urząd Ochrony Danych Osobowych już we wrześniu 2025 r. wzywał do zainicjowania prac nad nowymi przepisami. UODO akcentował również odpowiedzialność platform cyfrowych.
- Marcel Kiełtyka, ekspert stowarzyszenia Demagog, podkreśla w rozmowie z Zero.pl, że podobne inicjatywy miały już miejsce w przeszłości. Według niego, w walce z dezinformacją politykom brakuje sprawczości.
Ministerstwo Sprawiedliwości chce zmienić przepisy i skuteczniej walczyć z cyfrową przemocą – w tym z twórcami złośliwych deepfake’ów. Na przykład takich, które wykorzystują wizerunki dzieci.
Resort powołuje zespół ekspertów, którzy przyjrzą się istniejącym regulacjom i zaproponują zmiany.
Waldemar Żurek: Nie możemy pozwolić, by aplikacja niszczyła życie dzieciom
„Przemoc w sieci, w tym deepfake i tzw. deepnude, krzywdzi w realnym świecie – szczególnie dzieci i młodzież. Cel jest prosty: karać sprawców, chronić ofiary i wzmocnić odpowiedzialność platform cyfrowych” – czytamy w poście opublikowanym przez Ministerstwo Sprawiedliwości w mediach społecznościowych.
– Nasze dzieci są dla nas najważniejsze. Nie możemy pozwolić na to, by prosta aplikacja niszczyła im życie. Nie możemy pozwolić na to, by doprowadzać do dramatów – mówi minister Waldemar Żurek w filmie dołączonym do wpisu.
– Co byś zrobił, gdyby głowa z twojego zdjęcia, głowa ze zdjęcia twojego dziecka pojawiła się w internecie z nagim ciałem? Gdyby pojawiła się w filmie o podłożu seksualnym? – pyta występująca w tym samym nagraniu posłanka Koalicji Obywatelskiej Monika Rosa, przewodnicząca sejmowej komisji ds. dzieci i młodzieży.
Deepfake narzędziem przemocy albo szantażu. UODO już dawno postulował zmiany
W obecnym stanie prawnym obywatele mogą liczyć tylko na pośrednią ochronę przed szkodliwymi deepfake’ami. Chodzi głównie o przepisy o ochronie wizerunku, dóbr osobistych czy danych osobowych. We wrześniu ubiegłego roku na niewystarczającą ochronę zwrócił uwagę Urząd Ochrony Danych Osobowych.
UODO wskazywał, że ofiary złośliwych deepfake’ów mogą dziś sięgać głównie po ustawę o prawie autorskim i prawach pokrewnych – jest w niej wymóg zgody na rozpowszechnianie wizerunku.
Kolejną potencjalną tarczą mogą być przepisy dotyczące ochrony dóbr osobistych, w tym wizerunku i głosu opisane w Kodeksie cywilnym. Pomocne w walce z deepfake’ami może być również RODO.
„Prezes UODO zaznaczył, że żadna z wymienionych regulacji prawnych nie zapewnia narzędzi do pełnej i skutecznej ochrony przed skutkami takich nadużyć, np. poprzez szybkie usuwanie nielegalnych materiałów” – podkreślono w komunikacie urzędu opublikowanym we wrześniu ubiegłego roku.
UODO wezwał wicepremiera i ministra cyfryzacji Krzysztofa Gawkowskiego do zainicjowania prac nad nowymi przepisami. Jednocześnie akcentował odpowiedzialność platform – wielkich firm technologicznych. Chodzi przede wszystkim o skuteczność wykrywania i oznaczania deepfake’ów. UODO zachęcił ponadto do wspierania oddolnych działań na rzecz wypracowania standardów i dobrych praktyk w zakresie weryfikacji nieautentycznych lub krzywdzących treści.
Marcel Kiełtyka: Teraz jest moment na działanie, nie na rozmawianie
W rozmowie z Zero.pl Marcel Kiełtyka, członek zarządu stowarzyszenia Demagog, przypomina, że próby poprawy istniejących regulacji już były. I to zarówno na poziomie Unii Europejskiej, jak i krajowym. Jak przekonuje, problem nie polega na braku diagnozy, a na bierności. – Powinniśmy zacząć działać, a przestać gadać – komentuje.
– Dobrze, że temat zaczyna być traktowany poważnie, ale powoływanie kolejnych zespołów czy komisji nie może zastępować działań – podkreśla Kiełtyka. – My już nie mamy czasu – przekonuje.
Ekspert stowarzyszenia Demagog przypomina, że problemy ze szkodliwymi deepfakami są znane od lat. Organizacje społeczne czy instytucje międzynarodowe od dawna również przedstawiają swoje rekomendacje. – To nie jest nic nowego. Tylko politycy robią z tego politykę – podsumowuje.
Kiełtyka zauważa, że problem złośliwych treści nie dotyczy tylko dzieci, ale i osób publicznych. Według niego potrzebne jest ponadpolityczne podejście do bezpieczeństwa cyfrowego i zachowanie standardów. A przecież często sami politycy rozpowszechniają fejki. – Każdy może się pomylić i nabrać na jakiegoś deepfake'a. Ważne jest, jak potem zareagujemy. Czy przeprosimy, czy usuniemy i czy sprostujemy fałszywą informację – mówi ekspert.
Rozwiązania unijne już istnieją. W Polsce ich nie wdrażamy
Ekspert stowarzyszenia Demagog podkreśla, że kluczowe jest egzekwowanie już istniejącego prawa. Apeluje o skuteczne wdrożenie unijnego Aktu o Usługach Cyfrowych (Digital Services Act, DSA). Zobowiązuje on platformy społecznościowe do ograniczania widoczności nielegalnych treści i do szybkiego reagowania na zgłoszenia użytkowników.
Jak przekonuje dalej Kiełtyka, potrzebne są również przepisy zobowiązujące wielkie platformy do identyfikacji i oznaczania treści stworzonych przy użyciu sztucznej inteligencji. Wprowadza je kolejny unijny akt prawny – rozporządzenie o sztucznej inteligencji (AI Act).
Według Kiełtyki konieczne jest wzmocnienie ochrony ofiar cyfrowej przemocy – w szczególności dzieci. Kluczowe jest usprawnienie procedur usuwania szkodliwych treści z internetu. Jak ocenia, jest to możliwe na przykład poprzez wprowadzenie dotkliwych kar za publikowanie materiałów o charakterze seksualnym.
– Te mechanizmy obowiązują w Unii Europejskiej już od kilku lat, ale ich wdrażanie w Polsce jest opóźnione - mówi Kiełtyka. Przypomina, że w styczniu ustawę wdrażającą DSA zawetował prezydent. Karol Nawrocki przekonywał wówczas, że ustawa wykracza poza wymogi unijnego rozporządzenia i może zagrażać wolności słowa.
