- Od 4 kwietnia nie obowiązuje podstawa prawna, która pozwalała firmom na skanowanie komunikacji użytkowników w UE. Parlament Europejski nie zgodził się na to, by utrzymać umożliwiające to przepisy.
- Za tym, by je utrzymać głosowało wielu polskich europarlamentarzystów.
- To jednak nie koniec rozmów o skanowaniu korespondencji. W instytucjach UE trwają prace nad wprowadzeniem kontroli czatów.
- Eksperci od lat ostrzegają, że rozwiązania mające chronić dzieci mogą jednocześnie otworzyć drzwi do masowej kontroli komunikacji.
- Diabeł tkwi w szczegółach technicznych. Wyjaśnijmy, jak mają działać proponowane rozwiązania.
W 2021 roku przyjęto w UE kontrowersyjne rozporządzenie, które wprowadzało ograniczone czasowo odstępstwo od ogólnych reguł chroniących naszą prywatność w komunikacji internetowej. Dawało ono platformom internetowym możliwość dobrowolnego skanowania przechodzącej przez nie komunikacji w poszukiwaniu treści wskazujących na seksualne wykorzystywanie dzieci (tzw. CSAM). Ważność rozporządzenia wygasła w 2024 roku, ale przedłużono wówczas jego obowiązywanie do kwietnia 2026. 26 marca w Parlamencie Europejskim głosowano, czy przedłużyć je na kolejne lata. PE tę propozycję odrzucił.
Co ciekawe, za tym by dalej obowiązywało było wielu polskich eurodeputowanych z różnych ugrupowań, m.in.: Krzysztof Brejza, Mariusz Kamiński, Maciej Wąsik i Michał Dworczyk.
Przyjmiemy prawo, wy znajdźcie sposób by je wdrożyć
Fakt, że nie udało się przedłużyć obowiązywania regulacji to – paradoksalnie – dobra wiadomość. Bezpieczeństwo narodowe oraz materiały pokazujące przestępstwa seksualne wobec dzieci to od lat dwa preteksty najczęściej wykorzystywane do ograniczania prywatności i wprowadzania rozwiązań śledzących łączność w sieci. Odwołują się do naszych najsilniejszych instynktów – kto o zdrowych zmysłach nie chce zwalczać wykorzystywania najsłabszych?
Skarbiec NBP zubożał. Złoto, na które stawia Adam Glapiński, mocno potaniało
Diabeł, jak się łatwo domyślić, tkwi jednak w szczegółach. Do dziś nikt bowiem nie zaproponował technicznego rozwiązania, które pozwoliłoby z jednej strony wyszukiwać przestępców, a z drugiej chronić prywatność obywateli.
Początkowo europejscy politycy chcieli nakładać na operatorów usług internetowych obowiązek wykrywania, usuwania i zgłaszania treści związanych z wykorzystywaniem seksualnym dzieci. Skanowanie miałoby objąć nie tylko treści przesyłane nieszyfrowanymi kanałami, lecz także wiadomości wysyłane za pośrednictwem bezpiecznych komunikatorów typu Signal.
Wprowadzenie tego obowiązku oznaczałoby konieczność wdrożenia mechanizmu poważnie osłabiającego bezpieczeństwo komunikacji 450 mln obywateli UE. Każda wiadomość wysłana przez dowolny komunikator musiałaby być przeskanowana pod kątem obecności w niej znanej lub nieznanej treści CSAM, a także śladów namawiania dzieci do aktywności seksualnej. Co istotne, stawia wymagania, ale nie rozwiązuje przekonująco problemu technicznej skuteczności i błędów. Metodę mają znaleźć dostawcy usług.
Skanowanie wiąże się z problemami technicznymi
Teoretycznie najprostszym elementem powinno być zbudowanie systemu wykrywającego znane już zdjęcia przedstawiające wykorzystywanie dzieci. Tylko jak to zrobić nie dając operatorom komunikatorów dostępu do gigantycznej bazy treści wytworzonych przez przestępców seksualnych?
Z pomocą powinna przyjść matematyka. Istnieją funkcje kryptograficzne (tzw. funkcje skrótu albo hashowanie), które pozwalają na przekształcenie informacji dowolnej długości – na przykład całego pliku – w krótką liczbę. Każda kopia tego samego pliku będzie – po przeprowadzeniu na niej odpowiednich działań – generować taką samą liczbę. Dzięki temu, z dużym prawdopodobieństwem, mając bazę skrótów kryptograficznych można stwierdzić, że dany plik jest lub go nie ma w bazie znanych nielegalnych materiałów. Co istotne, funkcja hashująca działa tylko w jedną stronę - mając zdjęcie da się wygenerować jego skrót kryptograficzny, mając tylko skrót kryptograficzny nie możemy wygenerować na jego podstawie oryginalnego zdjęcia.
Problemy z tym podejściem są dwa: po pierwsze, zdjęcie po przekadrowaniu lub ponownej kompresji będzie generowało inną liczbę na wyjściu.
Po drugie, upublicznienie bazy danych skrótów da producentom CSAM materiał, na podstawie którego przestępcy seksualni opracują rozwiązanie automatycznie przekształcające treści pornograficzne w taki sposób, by nie były wykrywane na podstawie istniejących baz. Zwrócił na to uwagę w swoim stanowisku Komitet Informatyki PAN, podkreślając, że jest to proste i nie wymaga głębszej wiedzy merytorycznej...
Pierwszy problem da się częściowo rozwiązać - istnieją mechanizmy pozwalające wykrywać częściowo zmodyfikowane zdjęcia. Nie działają idealnie - ale pomagają wstępnie przefiltrować duże ilości materiałów, by resztę później weryfikować ręcznie. Nie rozwiązuje to jednak kwestii związanej z publicznym dostępem do baz danych, z której te mechanizmy korzystają. Głównym skutkiem ich odtajnienia będzie utrudnienie pracy instytucjom zajmującym się wyszukiwaniem treści pokazujących wykorzystywanie dzieci w sieci i na komputerach podejrzanych o ich rozpowszechnianie.
Dodatkowym problemem jest ta sama matematyka, która wcześniej okazała się pomocna. Skrócenie długiego pliku do kilkunastoznakowej liczby oznacza, że więcej niż jeden materiał źródłowy da nam ten sam wynik. Taka sytuacja, nazywana kolizją hashy, oznacza że odpowiednio przygotowany plik z puszystymi kotkami zostanie wykryty i zgłoszony jako materiał obrazujący wykorzystanie dzieci. To z kolei może uruchomić cały aparat ścigania i wycelować go w odbiorcę wiadomości z futrzakami. Biorąc pod uwagę liczbę użytkowników internetu i ilość przesyłanych przez nich informacji oznacza to ogromną liczbę tzw. false positives - czyli niewinnych treści oznaczonych przez automaty jako coś nielegalnego.
A to zaledwie część problemów technicznych związanych z wykrywaniem treści, które są już znane.
Zdjęcie przestępcy, czy zatroskanego taty?
Drugim tematem, którym mają zajmować się dostawcy usług internetowych, jest wykrywanie nowych zdjęć i treści tekstowych związanych z wykorzystywaniem dzieci. Tu nie można się wspierać istniejącą bazą danych, bo chodzi o wykrycie czegoś wcześniej nieznanego. Trzeba stworzyć mechanizmy, które skanują wszystko, co robimy w sieci, i w sposób jednoznaczny oznaczają i przesyłają dalej treści, które zostaną zidentyfikowane jako nielegalne.
Każdy, kto korzysta z AI, zetknął się już z problemem bzdurnych odpowiedzi generowanych przez systemy, w których stworzenie włożono miliardy dolarów. To idealne zobrazowanie naszych obecnych możliwości technicznych: potrafimy zbudować coś, co pracuje z nowymi treściami, nawet nieźle działa, jednak ryzyko błędu jest tak wysokie, że wszystko wymaga ręcznej weryfikacji.
Podobnie będzie z systemami skanującymi nasze wiadomości. Obecnie nie jesteśmy w stanie zbudować systemu, który jednoznacznie stwierdzi, że dana treść jest nielegalna i bezbłędnie zgłosi ją do odpowiedniej instytucji.
Zwłaszcza, że analizując ten temat nie poruszyliśmy jeszcze kwestii kontekstu. Kilka lat temu Google zablokował konto, na którym znalazło się zdjęcie okolic krocza dziecka. Była to fotografia, którą ojciec wysłał lekarzowi - ten na podstawie zdjęcia stwierdził stan zapalny i przepisał maluchowi antybiotyk. Google - na podstawie tego samego zdjęcia - zablokował zaniepokojonemu ojcu dostęp do wszystkich swoich usług - w tym telefonii Google Fi. Dodatkowo materiały z telefonu ofiary zostały przekazane policji, która rozpoczęła śledztwo.
Jedynym sposobem, by stwierdzić, czy neutralne w wymowie zdjęcie nagiego dziecka ma podtekst seksualny, czy jest fotografią z rodzinnych wakacji, jest zbadanie pełnego kontekstu. I tu wchodzi w życie konieczność przetworzenia przez Urząd Nadzorcy większej liczby zdjęć, pełniejszej korespondencji, plików.
Co z szyfrowaniem? A może dać służbom furtkę?
Na te wszystkie problemy nakłada się kolejny. Większość komunikacji w sieci jest dziś szyfrowana. Duża część jest szyfrowana end-to-end. Oznacza to, że klucze do rozszyfrowania wiadomości posiadają wyłącznie strony biorące udział w konwersacji, a dostawca usługi (Signal, Messenger) nie możliwości sprawdzenia jej treści. Bez wprowadzenia mechanizmów inwigilacji znanych chociażby z rosyjskiego państwowego komunikatora Max, nie da się stwierdzić, czy przesyłane jest zdjęcie z wakacji, czy pochodzące z przestępstwa wobec dziecka.
Dodatkowo przesyłane pliki mogą być szyfrowane przez nadawcę. Wystarczy zaszyfrowanie plików treści kluczem znanym wyłącznie nadawcy i odbiorcy, i żaden mechanizm weryfikujący treści nie będzie miał możliwości zweryfikowania zawartości.
Rozwiązania są dwa – wprowadzenie furtki dającej służbom dbającym o bezpieczeństwo możliwość podglądu wszystkiego, co dzieje się na podsłuchiwanym urządzeniu (tu w grę wchodzą już takie same rozwiązania, jakie służą do działań operacyjnych) lub lokalne przetwarzanie danych przed ich zaszyfrowaniem i wysłaniem.
Tego podejścia próbowało Apple przy okazji wprowadzania iOS w wersji 15. Ich rozwiązanie miało na celu wykrywanie znanych obrazów CSAM przed synchronizacją bazy zdjęć z iCloud. Po ostrej krytyce, Apple wycofało się z tego pomysłu jako zbyt mocno ingerującego w prywatność komunikacji.
Głównym problemem związanym z przetwarzaniem komunikacji przed jej zaszyfrowaniem jest konieczność przygotowania sumy kontrolnej każdego przekazu. Jest ona wysyłana do dostawcy usługi – który siłą rzeczy otrzymuje informację pozwalającą na późniejsze sprawdzenie, że dany użytkownik na pewno wysłał taki obraz.
Odpowiednio przygotowana baza danych umożliwia porównywanie sum kontrolnych z bazą obrazów dostępnych w internecie i w efekcie wychwycenie na przykład źródła zdjęcia dokumentów, które sygnalista wysyła dziennikarzowi, a ten publikuje by zobrazować na przykład niejawne kontakty lokalnych władz z Rosją.
Wreszcie – nic nie stoi na przeszkodzie, by bazę identyfikatorów nielegalnych treści dyskretnie uzupełnić o informacje pozwalające przechwycić komunikację chińskich dysydentów rozpowszechniających zdjęcia z masakry na Placu Niebiańskiego Spokoju czy automatycznie wysłać do ręcznej kontroli Państwowego Urzędu Nadzoru wiadomości węgierskiej opozycji.
Jeśli nie kontrola czatów, to co?
Do tej pory nie udało się stworzyć automatycznego systemu, który gwarantuje prywatność 450 mln Europejczyków, a jednocześnie wyłapie tysiące pedofilów, którzy żerują na krzywdzie najmłodszych.
Wszystkie dotychczas zaproponowane rozwiązania można za to bardzo łatwo przestawić w tryb wychwytywania wszelkich niepożądanych treści. Co – patrząc globalnie – jest bardzo aktualnym tematem. Państwa dotychczas kojarzone z demokracją i rządami prawa coraz częściej chcą sięgać do prywatnej komunikacji swoich obywateli, zaś państwa mające niewiele szacunku dla prywatności już od dawna próbują wymuszać na największych producentach systemów łączności obniżenie bezpieczeństwa ich produktów. Gdyby Unia Europejska wprowadziła rozwiązania de facto dające wgląd w dowolne treści przekazywane komunikatorami, straciłaby prawo głosu w sytuacji, gdy inne państwa naciskałyby na Apple, Metę czy Signal Foundation dążąc do przechwycenia dotychczas bezpiecznej komunikacji.
Dlatego warto skutecznie wspierać służby realnie zajmujące się walką z treściami pedofilskimi zamiast skupiać się na wprowadzaniu systemu mogącego docelowo służyć do powszechnej inwigilacji. Centralne Biuro Zwalczania Przestępczości ma duże doświadczenie w walce z pedofilami w sieci. Wspólnie z zagranicznymi służbami odniosło wiele sukcesów na tym polu. Wszystkie działania mające na celu wzmacnianie tej instytucji – zarówno finansowe, jak i merytoryczne, dadzą docelowo lepszy rezultat niż próba podsłuchiwania wiadomości każdego Europejczyka.
Wieloletnie prace nad wprowadzeniem patentów na oprogramowanie czy ACTA pokazały, że nawet bardzo głupie rozwiązanie będzie forsowane na różne sposoby, jeśli tylko ktoś widzi w tym swój interes. Rozporządzenie o podsłuchiwaniu komunikacji internetowej jest forsowane od wielu lat. Pierwotne wersje zakładały obowiązek stałego skanowania wszystkich treści przesyłanych komunikatorami. Po silnych protestach (również ze strony Polski) zostało złagodzone i wprowadzono “tymczasowe” i “nieobowiązkowe” odstępstwo od reguł chroniących naszą prywatność. “Tymczasowość” widzimy w działaniu – po raz pierwszy przedłużono jego działanie dwa lata temu. Teraz Parlament Europejski o mały włos zgodziłby się na wydłużenie o kolejny okres.
Dodatkowo, w listopadowym komunikacie Rady Unii Europejskiej można znaleźć informację, że chce ona zastąpienia tymczasowości stałym obowiązywaniem zezwolenia na skanowanie naszych wiadomości. Podobnie z dobrowolnością - RUE zapowiada jednoznaczny nakaz wprowadzeniu rozwiązań zapobiegających rozpowszechniania CSAM.
Wszystko to prowadzi do tworzenia i obowiązkowego wdrożenia mechanizmów, które co prawda nie są skuteczne w wykrywaniu treści krzywdzących najmłodszych, ale są za to gotowym narzędziem do przechwycenia innych informacji przechowywanych na naszych urządzeniach.
Widzisz treści obrazujące krzywdzenie najmłodszych? Możesz je zgłosić na DyżurNet.pl.

