- Parlament Europejski tuż przed Wielkanocą zablokował tymczasowy mechanizm wykrywania w internecie treści obrazujących wykorzystywanie seksualne najmłodszych.
- Platformy nie mogą już legalnie stosować technologii do wykrywania nowych lub znanych materiałów z wykorzystywaniem dzieci w komunikacji prywatnej. Mechanizm miał chronić dzieci do czasu powstania systemowego rozwiązania.
- Tymczasem skala zjawiska wykorzystywania dzieci w świecie cyfrowym rośnie lawinowo: miliony zgłoszeń rocznie, coraz więcej materiałów tworzonych przez najmłodszych pod presją i szantażem.
- Przeciwnicy regulacji mówią o „inwigilacji”, choć proponowane technologie nie ingerują w prywatne rozmowy.
- W praktyce decyzja oznacza osłabienie walki z przestępczością seksualną wobec dzieci.
Od 4 kwietnia platformy cyfrowe w UE mają zakaz wykrywania materiałów ukazujących seksualne wykorzystanie dzieci, tzw. CSAM (Child Sexual Abuse Material) – to konsekwencja feralnego głosowania w Parlamencie Europejskim.
Stało się tak pomimo próśb i apeli ponad 240 instytucji i organizacji zajmujących się ochroną szczególnie wrażliwych grup społecznych. To objaw społecznego darwinizmu rządzącego w przestrzeni informacyjno-cyfrowej i w niektórych kręgach politycznych. I to w okresie, kiedy mamy do czynienia z istną epidemią krzywdzenia seksualnego młodych ludzi w sieci oraz wieloma innymi zagrożeniami.
Głosujący przeciwko przedłużeniu zasad odpowiadać będą za katastrofalny regres w przeciwdziałaniu przemocy seksualnej wobec osób małoletnich.
Europejski system przeciwdziałania krzywdzie dzieci
Żeby zrozumieć istotę tego, co się stało, wskazać należy na nadrzędny cel, wobec którego głosowanie stanowiło jedynie środek. Jest nim budowanie europejskiego systemu przeciwdziałania wykorzystaniu seksualnemu dzieci w środowisku cyfrowym. Wynika on z przyjętej przez Komisję Europejską strategii UE na rzecz skuteczniejszej walki z niegodziwym traktowaniem dzieci w celach seksualnych.
Drogami wiodącymi do powstania strategii są wprost zobowiązania:
- Konwencji o prawach dziecka ONZ z 1989 roku z naczelną zasadą kierowania się najlepiej pojętym interesem dziecka, ratyfikowanej przez wszystkie państwa unijne (w tym Polskę w 1991 roku),
- protokołu fakultatywnego do Konwencji, zapewniającego ochronę przed wszelkimi formami wykorzystania i niegodziwego traktowania w celach seksualnych,
- Konwencji Rady Europy z Lanzarote z 2007 roku,
- Dyrektywy 2011/93/UE.
Ta ostatnia podkreśla, że „poważne formy niegodziwego traktowania w celach seksualnych i wykorzystywania seksualnego dzieci powinny podlegać skutecznym, proporcjonalnym i odstraszającym sankcjom”. Dalej czytamy, że państwa „powinny opracować lub udoskonalić strategie […], prowadzić kampanie informacyjne i kampanie mające na celu podnoszenie świadomości, a także programy badawcze i edukacyjne […]. Realizując takie inicjatywy, państwa członkowskie powinny przede wszystkim kierować się prawami dziecka”.
Zobowiązania państw wobec wykrywania materiałów CSAM opisane zostały w dyrektywie w następujący sposób:
„W celu zwalczania tego zjawiska należy ograniczyć obieg materiałów przedstawiających niegodziwe traktowanie dzieci poprzez utrudnianie sprawcom wprowadzania takich treści do publicznie dostępnych stron internetowych. Dlatego konieczne są działania w celu usuwania takich treści oraz zatrzymywania osób odpowiedzialnych za produkcję, dystrybucję lub pobieranie obrazów […]”.
Artykuł 25 dyrektywy zobowiązuje do usuwania takich treści. Warunki stosowania takich środków muszą być przejrzyste i proporcjonalne, o czym więcej za moment.
„To może być każdy”. Szef cyberpolicji o ludziach, których zamykają za krzywdzenie dzieci
Europejskie centrum będzie pomagać w przyszłości
Powstanie strategii związane było z faktem przegrywania walki z tym rodzajem przestępstw oraz kosmicznym tempem przyrostu ich liczby. Strategia przewiduje szereg rozwiązań, wśród których najważniejszą rolę pełnić ma Europejskie centrum na rzecz zapobiegania niegodziwemu traktowaniu dzieci w celach seksualnych oraz walki z tym zjawiskiem. Centrum integrowałoby podejmowane przez unijne instytucje wysiłki na rzecz walki z tą specyficzną i wyjątkowo okrutną formą przestępczości.
Do głównych zadań należeć miałoby:
- wsparcie w egzekwowaniu prawa, w tym współpraca z dostawcami usług i produktów online,
- odbieranie od nich zgłoszeń materiałów CSAM,
- weryfikacja ich istotności,
- przekazywanie właściwych materiałów do organów ścigania.
Centrum odpowiadałoby także za ujednoliconą bazę materiałów CSAM, co znacząco ułatwiałoby przedsiębiorstwom ich wykrywanie. Ważnym zadaniem miało być także wsparcie w usuwaniu materiałów z przestrzeni sieci. W celu przejrzystości działania i rozliczalności Centrum obsługiwałoby także mechanizm skargowy od użytkowników uznających usunięcie treści za błędne.
Centrum wspierałoby krajowe systemy ochrony wiedzy poprzez prowadzenie oraz łączenie i rozpowszechnianie najnowszych badań oraz praktyk w zakresie eliminowania zagrożeń oraz koordynacji zapewnienia pokrzywdzonym całościowego wsparcia, przewidzianego w dyrektywie.
Uwzględniając dynamikę zmian technologicznych, do zadań Centrum należałaby współpraca z laboratoriami, w tym utworzonymi w ramach struktur Europolu, w celu doskonalenia technologicznych możliwości wykrywania materiałów CSAM z optymalnymi gwarancjami ochrony innych praw użytkowników sieci.
Opisywane wyżej systemowe rozwiązania od samego początku napotykały na opór środowisk, które w ostatnim głosowaniu odrzuciły środek prowadzący do rozwiązania, nazywając te rozwiązania od początku chwytliwie „chat control”.
W rzeczywistości odrzucono możliwość dobrowolnego wykrywania przez przedsiębiorstwa materiałów CSAM, które funkcjonowało przez ostatnie lata i miało mieć w tym kształcie charakter tymczasowy. Chodziło o ochronę osób małoletnich w tym zakresie do czasu powstania europejskiego systemu przeciwdziałania krzywdzeniu dzieci w cyberprzestrzeni opartego na Centrum.
Zaklęty krąg przemocy i jej monetyzacji
Obecnie system detekcji opiera się głównie na amerykańskim ośrodku NCMEC (National Center for Missing and Exploited Children). Kiedy w 2020 roku doszło do zaledwie kilkumiesięcznego wstrzymania wykrywania takich treści, spadek liczby zgłoszeń od dostawców działających w UE do NCMEC wyniósł 58 proc. Uwzględniając dynamikę przyrostu przestępczości w tym praktycznie pozbawionym regulacji sektorze, należy założyć, że konsekwencje głosowania w PE będą jeszcze bardziej dojmujące.
Ciężko przyjąć do świadomości, że ponad 60 proc. materiałów CSAM wytwarzanych jest w UE. Polska znajduje się na 5. miejscu pod względem liczby raportów URL związanych z krajowymi usługami hostingowymi oraz na 8. miejscu w skali globalnej według raportów brytyjskiej Internet Watch Foundation. Dla zobrazowania skali i grozy zjawiska warto zwrócić uwagę na dane przedstawiane w opracowaniach Katarzyny Staciwy, koordynującej obszar badań i rozwoju w Państwowej Komisji ds. przeciwdziałania wykorzystaniu osób małoletnich poniżej lat 15 (PKDP), wskazujące na to, że od 1998 roku do NCMEC wpłynęło 195 milionów zgłoszeń o materiałach przestępczych CSAM, z czego aż 20 milionów tylko w 2024 roku. Wśród nich 51 tysięcy to zgłoszenia, w których dziecko znajdowało się w niebezpieczeństwie wymagającym pilnej interwencji. 44 proc. zdjęć oraz 1/4 filmów wideo zaklasyfikowano jako treści nowe, spoza baz danych.
Największy przyrost materiałów to materiały wytwarzane przez same dzieci w wieku 7–10 lat pod wpływem manipulacji, zastraszania i szantażu. Katarzyna Staciwa odnotowała przyrost liczby takich materiałów między 2019 a 2023 rokiem o ponad 1800 proc. Aż 40 proc. materiałów CSAM spełnia kryteria najbardziej brutalnych przestępstw seksualnych wobec dzieci, w tym z użyciem narzędzi i zwierząt. Rośnie też skala materiałów „wytwarzanych” przez dzieci poniżej 7. roku życia.
Ostatni raport prestiżowej i skupiającej ponad 300 podmiotów organizacji We Protect wskazuje, że tylko w ciągu jednego roku (2023–2024) wzrost liczby zgłoszeń materiałów tworzonych za pomocą narzędzi AI wyniósł 1325 proc. Polskie Ministerstwo Cyfryzacji i Dyżurnet.pl deklarowały przyrosty zgłoszeń o 150 i 200 proc. W porównaniu do średniej za 20 lat działania Dyżurnet.pl wzrost w 2024 roku wyniósł aż 400 proc. To bardzo dużo, szczególnie jeśli uwzględnimy, że Polska nie posiada proaktywnego systemu detekcji treści CSAM, opierając się jedynie na wrażliwości, uważności i zaangażowaniu zgłaszających.
Centralne Biuro Zwalczania Cyberprzestępczości (CBZC) w swoim kolejnym już raporcie wykazało, że zwalczanie materiałów CSAM zajmuje drugą pozycję w zakresie zaangażowania tej służby, na którą przeznacza się ponad 30 proc. zasobów i kompetencji CBZC.
Jak sprawcy namierzają swoje potencjalne ofiary?
Wzrost przestępczości seksualnej offline i online wobec dzieci uznać należy za fakt. W PKDP w 2025 roku nastąpił przyrost spraw bieżących o 45 proc., z czego 20 proc. dotyczy przestępstw popełnionych z użyciem nowoczesnych technologii. Danych tych nie należy odczytywać jako obiektywnej miary zjawiska, ale pozwalają one wnioskować o radarze instytucjonalnym. Ten najczęściej widzi tylko część rzeczywistości.
Na typowy modus operandi sprawcy wskazywała Joanna Napierała, przewodnicząca PKDP, nadzorująca bezpośrednio obszar postępowań indywidualnych. Sprawca najczęściej typuje młode osoby w przestrzeniach ich aktywności na popularnych platformach społecznościowych, forach oraz w grach online. Po nawiązaniu kontaktu, uwiarygodnieniu się i zyskaniu zaufania proponuje przejście na komunikator, który ze względu na szyfrowanie daje mu poczucie bezkarności. Tam następuje faktyczne krzywdzenie seksualne, włącznie z gwałtami.
Analiza akt posiadanych przez PKDP jest w tym przypadku zbieżna z raportem organizacji Protect Children, badającej osoby poszukujące treści CSAM oraz kontaktu z dziećmi w sieci. Treści te są przez nich znajdowane przede wszystkim w serwisach pornograficznych, na platformach społecznościowych i w komunikatorach.
Dostęp do takich treści to bardzo często jedynie etap. Zdecydowana większość oglądających przestępcze materiały CSAM deklaruje, że zaczynała od częstego korzystania z treści pornograficznych. Dla wielu grooming (uwodzenie) i próba nawiązania kontaktu z dzieckiem w sferze online i offline poprzedzone są właśnie korzystaniem z materiałów CSAM. Niedawne alarmy instytucji zajmujących się bezpieczeństwem wewnętrznym, opisujące działanie swego rodzaju sekt i grup ekstremistycznych, typujących i angażujących coraz młodsze dzieci, nakłaniających do samookaleczeń, prób samobójczych i działań przestępczych, wskazują także na istotną rolę CSAM. Grupy te używają popularnych platform i ich komunikatorów. Część z nich (jak 764 i jej odnogi) produkowała i dystrybuowała CSAM na dużą skalę. Był on formą wikłania i szantażowania młodych ludzi. Ta nihilistycznie zorientowana forma przemocy wskazuje, że zjawisko wytwarzania i dystrybuowania CSAM powiązane jest z całym szeregiem innych działań przestępczych.
Powiązanym z brakiem regulacji i złożonością łańcucha wartości reklamowej w sieci jest także istniejący wciąż problem monetyzacji treści destrukcyjnych dla zdrowia i porządku publicznego, w tym treści prezentujących seksualne wykorzystanie dzieci. W 2025 roku wykazali to analitycy amerykańskiej firmy Adalytics. Okazało się, że znacząca część kampanii finansowanych przez największe marki świata lokowana była (bez świadomości zarządzających budżetami reklamowymi) w serwisach, gdzie znajdowały się także materiały CSAM. Taka forma świadomych, bardziej lub mniej, luk zarządczych po stronie największych operatorów lokujących reklamy w sieci legitymizuje przestępcze treści poprzez ich komercjalizowanie.
Wszystkim ignorującym skalę tej patologii należy przypomnieć, że krzywdzenie w sieci ma swoje dramatyczne konsekwencje, wśród nich syndrom stresu pourazowego (PTSD), zachowania autodestrukcyjne, próby samobójcze, długotrwały smutek, izolacja społeczna, wycofanie się z aktywności w sieci i wiele innych. Według Canadian Centre for Child Protection aż 70 proc. osób pokrzywdzonych żyje w ciągłym strachu przed byciem rozpoznanym. Wbrew temu, co wielu sądzi, nie są to w najmniejszym stopniu lżejsze formy przemocy, a w wielu kontekstach wręcz cięższe. Za każdym razem, kiedy obraz prezentowany jest w sieci, dochodzi do wtórnej wiktymizacji. Akceptacja tego stanu to ciągłe, dziejące się często przez długie lata, dokrzywdzanie. Jednym z przykładów jest wizerunek i doświadczenie wykorzystania dziecka, które krążyło w sieci przez 19 lat i pojawiło się w zgłoszeniach do NCMEC aż 1,3 mln razy, o czym mówiliśmy także na jednej z ostatnich konferencji PKDP.
Podejście skoncentrowane na rozwiązaniach
Wracając do nieszczęsnego głosowania. Dotyczyło okresowego rozwiązania umożliwiającego dobrowolne wykrywanie CSAM przez platformy do czasu powstania kompleksowego systemu. Wydawało się, że skoro wciąż przeciągane są negocjacje dotyczące głównej regulacji, to głosowanie, podejmowane po raz drugi, wyda się jedynie formalnością. Niestety stało się inaczej.
Głosujący przeciw od samego początku dyskusji nad opisanym wcześniej systemem używają wobec tego kluczowego dla bezpieczeństwa społecznego wyzwania narracji o chęci „inwigilacji”, „chat control”, „zamachu na wolność słowa” i wielu innych. Niektórzy z oponentów wykazują się sporą, w mojej ocenie toksyczną, konsekwencją, walcząc z każdą formą regulacji przestrzeni cyfrowej. Te same kręgi polityczne wypowiadają się przeciwko wdrażaniu Aktu o usługach cyfrowych (DSA) – pierwszej i minimalnej regulacji zobowiązującej największe przedsiębiorstwa cyfrowe do większej transparentności w prowadzeniu działalności komercyjnej, zarządzania ryzykiem i zwalczania wszelkich zjawisk zagrażających zdrowiu i bezpieczeństwu publicznemu. Inni wykazują się z kolei równie toksyczną niekonsekwencją, argumentując, że daje się zbyt duże uprawnienia do wykrywania CSAM platformom cyfrowym.
Trudno uznać za przypadek, że głosujący w ostatnich dniach przeciw nie wspominają o kilku kluczowych dla wdrożenia systemu kwestiach. Po pierwsze, że w założeniach systemu bazującego na Centrum Europejskim mowa jest o optymalnych rozwiązaniach technologicznych, które wymagają doskonalenia. Jako potencjalne wskazywane były metody oparte na technologii haszy – „cyfrowym odcisku palca” – czy wykorzystywaniu metadanych, pozwalających między innymi na wykrywanie ponadprzeciętnych i podejrzanych wzorów plików i ich rozpowszechniania. Metoda detekcji oparta na haszowaniu opiera się na zautomatyzowanym wyszukiwaniu plików lub ich fragmentów z „cyfrowym odciskiem”, które obecne są w bazach haszy i zobrazowań prowadzonych – według proponowanego modelu – przez niezależne Centrum.
Metod tych w żaden sposób nie można nazwać „chat control”, bo nie oznaczają one ingerowania w prywatność komunikatorów. Szczególnie skuteczna i sprawdzona w praktyce przez organy ścigania oraz firmy cyfrowe jest detekcja na bazie technologii haszy. Wykrywa co prawda wyłącznie materiały oznaczone już wcześniej, ale jest niezwykle precyzyjna. Podejście skoncentrowane na rozwiązaniach wymaga dużego i stałego wysiłku w celu poszukiwania technologii o większej skuteczności i jednoczesnym poszanowaniu praw człowieka.
Po drugie, pomimo tego, że przepisy RODO, ale także DSA (art. 28), wymagają szczególnej ochrony danych osobowych dzieci, prawo to wobec osób małoletnich jest powszechnie ignorowane. Ciekawe, że sloganami odnoszącymi się do prywatności posługują się często środowiska, które jednocześnie nie traktują praw dziecka ani jako praw człowieka, ani jako litery prawa, z którego wynikają obowiązki, ani jako systemu wartości, z którego wynikają powinności. Wytyczne Komitetu Praw Dziecka w zakresie stosowania najlepiej pojętego interesu dziecka (zasada dobra dziecka) na wszystkich etapach stanowienia prawa i zarządzania są jednoznaczne.
Ze względu na szczególną wrażliwość i etapy rozwoju poznawczego, emocjonalnego, społecznego i moralnego dobro tej grupy społecznej powinno mieć pierwszeństwo, zgodnie z interpretacją Adama Łopatki, współtwórcy Konwencji, „przed domniemanym dobrem społeczeństwa”. Czynnikiem kluczowym w stosowanej metodzie jest obowiązek priorytetyzacji spraw i polityk odnoszących się do dzieci. Po trzecie, prawo do prywatności nie ma charakteru bezwzględnego i nie może być traktowane indywidualistycznie. Wszelkie przepisy chroniące prywatność uwzględniają odstępowanie od pewnych jej aspektów, jeśli wymaga tego bezpieczeństwo społeczne, jeśli są „niezbędne i proporcjonalne w demokratycznym społeczeństwie”.
Wiara w rozwiązania technologiczne
Czy budowanie systemu przeciwdziałania niegodziwemu traktowaniu dzieci w celach seksualnych w warunkach najbardziej cywilizowanej ochrony prywatności na świecie, jaką zapewnia UE, nie spełnia zasad proporcjonalności? Proponowane rozwiązania, właśnie w celu ochrony praw i wolności, wymagają obecnie nie rezygnacji z regulacji, ale ich poszerzania, stawiania wymagań dostawcom usług i produktów online oraz poddawania ich audytom ze strony niezależnych regulatorów rynku. Zwalczanie tego rodzaju przestępstw daje szansę na współpracę i konstruktywny dialog z sektorem przedsiębiorstw cyfrowych. Tak właśnie odbieram pozytywną opinię rządu (przygotowaną w ramach konsultacji przez Ministerstwo Cyfryzacji) w sprawie głosowanego ostatnio w Parlamencie Europejskim rozporządzenia.
Jako PKDP też złożyliśmy stanowisko wspierające. Stało się tak mimo dystansu polskich władz wobec postulowanego wcześniej nałożenia na platformy obowiązku detekcji. Pomimo pewnych wątpliwości zgłaszanych w 2022 roku wobec niektórych dyskutowanych metod Europejska Rada Ochrony Danych (EROD) pozytywnie oceniała potrzebę utworzenia Europejskiego centrum, doceniając system opierający się na przewidywalności i koordynacji pracy różnych organów. To właśnie dlatego Prezes UODO, komentując dyskutowane rozwiązania, podkreślał wiarę w znalezienie rozwiązań technologicznych wspierających realizację celów przy optymalnym poszanowaniu prawa do prywatności.
Niestety kierunek obrany dzisiaj przez przeciwników to w mojej opinii objaw społecznego darwinizmu, przekonania, że w tej przestrzeni liczą się przede wszystkim prawa silniejszych, a sfera cyfrowa wyłączona jest z powszechnie respektowanych norm i nie obowiązuje w niej dobro wspólne, nakazujące w pierwszej kolejności chronić najsłabszych. Tym samym, redukując wyzwanie do krzyku o „inwigilacji” i „chat control”, zabija się poważny dialog o celach nadrzędnych. W Komentarzu ogólnym nr 25 do Konwencji o prawach dziecka Komitet stwierdza, że internet nie został stworzony z uwzględnieniem zasady dobra dziecka. Dlatego właśnie potrzebujemy dzisiaj to zaniedbanie naprawiać właściwymi regulacjami.

