Ekspertka: w sprawie pornografii dziecięcej z AI system reaguje za późno albo wcale (wywiad)
3 lutego 2026Sprawa uczennicy z Mazowsza i „Różowej piżamki” pokazują, że problemem nie jest brak przepisów, lecz ich bezradne stosowanie – powiedziała PAP biegła sądowa Amanda Krać-Batyra. Ostrzegła, że normalizujemy zjawiska, które prowadzą do realnej przemocy wobec dzieci.
Sprawa uczennicy z Mazowsza, której wizerunek został wykorzystany przez jej rówieśników do stworzenia pornograficznych materiałów typu deepfake przy użyciu narzędzi sztucznej inteligencji, oraz policyjna akcja pod kryptonimem „Różowa piżamka” dotycząca internetowego wykorzystywania seksualnego małoletnich zwróciły uwagę na problem ścigania przestępstw seksualnych wobec dzieci w środowisku cyfrowym.
W pierwszym przypadku postępowanie zostało początkowo umorzone, mimo że obowiązujące przepisy penalizują także pornografię dziecięcą wytworzoną lub przetworzoną komputerowo. Wznowiono je dopiero po interwencji prezesa UODO.
Akcja „Różowa piżamka” zakończona ujęciem sprawców ujawniła z kolei mechanizmy działania sieci pedofilów, którzy za pośrednictwem internetu nakłaniali małoletnie dziewczynki do zachowań o charakterze seksualnym i rejestrowali te treści.
PAP: Polskie prawo uchodzi za jedno z najbardziej restrykcyjnych na świecie, jeśli chodzi o pornografię dziecięcą. Karane jest nie tylko rozpowszechnianie, ale także posiadanie takich treści, również w formie animacji czy materiałów wytworzonych przez AI. Tymczasem sprawa uczennicy z Mazowsza, której wizerunek wykorzystano do stworzenia pornograficznych deepfake’ów, została początkowo umorzona. Co zawiodło w systemie?
Amanda Krać-Batyra: Przede wszystkim stosowanie prawa, a nie jego brak. Organy ścigania bardzo często patrzą na takie sprawy wyłącznie przez pryzmat art. 202 Kodeksu karnego i jeśli uznają, że nie spełniają one wszystkich jego znamion, postępowanie jest umarzane. Tymczasem kodeks daje znacznie więcej narzędzi, tylko trzeba chcieć z nich skorzystać.
PAP: Co konkretnie okazało się problemem w tej sprawie?
A.K-B.: Kluczowy jest art. 202 par. 4 i par. 4b k.k., który penalizuje wytwarzanie, posiadanie i rozpowszechnianie treści pornograficznych z udziałem małoletniego także wtedy, gdy są to treści wytworzone lub przetworzone, a więc np. animacje, grafiki czy materiały wygenerowane przez sztuczną inteligencję.
Problem polega na tym, że przepis ten wymaga, aby małoletni był przedstawiony w trakcie czynności seksualnej. W praktyce oznacza to, że fotorealistyczny, nagi wizerunek dziecka wygenerowany przez AI, jeśli nie pokazuje konkretnej czynności, może nie zostać uznany za przestępstwo.
PAP: Czyli nagi, realistyczny wizerunek dziecka wygenerowany przez AI może być w Polsce legalny?
A.K-B.: Tak. I to jest jedna z najpoważniejszych luk w systemie. Ktoś może mieć setki czy tysiące takich obrazów i – jeśli nie przedstawiają one czynności seksualnych – może nie ponieść odpowiedzialności karnej.
Jako biegła coraz częściej opiniuję materiały, które są tak realistyczne, że bez kontekstu technicznego nie sposób odróżnić ich od zdjęć prawdziwych dzieci. Oznacza to, że organy ścigania wkrótce mogą nie wiedzieć, czy mają do czynienia z realną ofiarą, którą trzeba identyfikować i chronić, czy z wytworem algorytmu.
PAP: Szef Urzędu Ochrony Danych Osobowych sugerował w rozmowie z PAP, że potrzebne są doprecyzowania przepisów. Podziela pani ten pogląd?
A.K-B.: Częściowo. W sprawie dziewczynki z Mazowsza naprawdę dało się zareagować, opierając się na obowiązującym prawie. Nawet idąc po linii najmniejszego oporu, można było zastosować art. 191a k.k., czyli bezprawne utrwalanie i rozpowszechnianie wizerunku osoby bez jej zgody – szczególnie w kontekście seksualnym i wobec osoby małoletniej.
Problem polega na tym, że nikt się nad tym nie pochylił. Skupiono się na jednym przepisie, uznano, że nie pasuje, i sprawę zamknięto.
PAP: Czyli nie chodzi tylko o przepisy, ale o sposób myślenia organów ścigania?
A.K-B.: Dokładnie. Część prokuratur – zwłaszcza mniejszych – idzie najprostszą drogą proceduralną. Jeśli sprawa jest nowa technologicznie, trudna interpretacyjnie, wymaga nieszablonowego podejścia, to łatwiej ją umorzyć. W tej konkretnej sprawie nawet Centralne Biuro Zwalczania Cyberprzestępczości oferowało wsparcie, które zostało odrzucone.
PAP: Jakie inne przepisy Kodeksu karnego mogłyby mieć zastosowanie w podobnych sprawach?
A.K-B.: Choćby art. 200a i 200b k.k., czyli grooming i utrwalanie treści o charakterze seksualnym z udziałem dziecka. Te przepisy nie mówią wprost o deepfake’ach, ale prawo nie działa w próżni.
Znam sprawy, w których prokuratorzy potrafili zastosować nawet art. 197 k.k., aby właściwie oddać ciężar czynu, np. w sytuacjach, gdy sprawca nakłaniał dorosłych do prezentowania dzieci przed kamerą. To pokazuje, że wszystko zależy od odwagi interpretacyjnej prowadzącego sprawę.
PAP: Czy w praktyce biegłych widać wzrost liczby treści generowanych przez AI?
A.K-B.: Zdecydowanie tak. Statystyki międzynarodowych organizacji pokazują kilkuset– i kilkutysięczne procentowe wzrosty rok do roku. W mojej pracy coraz częściej spotykam się z materiałami wytworzonymi przez modele AI, które są tworzone masowo, tanio i szybko.
Dziś do generowania takich treści nie potrzeba już specjalistycznego sprzętu – wystarczy przeciętny laptop i ogólnodostępne narzędzia.
PAP: Dlaczego treści, w których – jak mówią niektórzy – „żadne dziecko nie zostało skrzywdzone”, są tak niebezpieczne?
A.K-B.: Bo normalizują przemoc seksualną wobec dzieci. Argument „to tylko fikcja” jest bardzo złudny. Takie treści obniżają próg wejścia, utrwalają preferencje seksualne i prowadzą do eskalacji. Z praktyki wiemy, że od treści wytworzonych do realnej krzywdy droga bywa krótka.
PAP: Jedną z najbardziej wstrząsających spraw była ta pod kryptonimem „Różowa piżamka”.
A.K-B.: Tak. To sprawa wielowątkowa, która ujawniła, jak działają sieci przestępcze w internecie. W jej tle były m.in. nagrania z czatów wideo, na których dorośli mężczyźni manipulowali bardzo młodymi dziewczynkami. Materiały te były nagrywane, katalogowane i archiwizowane.
Najbardziej poraża to, że system skoncentrował się głównie na ściganiu sprawców, a los dzieci, ich identyfikacja i wsparcie często schodziły na dalszy plan. Argument, że „nie należy ich traumatyzować”, bywał wygodnym usprawiedliwieniem bezczynności. Nie szukano ofiar, nie próbowano im pomóc, zdjęcie sprawców zakończyło sprawę.
PAP: Czyli problem dotyczy także ochrony ofiar?
A.K-B.: Zdecydowanie. Polski system karny nie ma spójnego mechanizmu wsparcia dla dzieci pokrzywdzonych przemocą seksualną w internecie. Brakuje wyspecjalizowanych ośrodków, specjalistów i długofalowej pomocy, szczególnie poza dużymi miastami. Organizacje pozarządowe robią bardzo dużo, ale nie zastąpią państwa.
PAP: A wątek informatyczny – AI i nowe technologie – bardziej pomagają, czy przeszkadzają w ściganiu?
A.K-B.: Jedno i drugie. Z jednej strony technologia ułatwia popełnianie przestępstw. Z drugiej – sprawcy zostawiają ślady cyfrowe. Problem w tym, że ci najlepiej zabezpieczeni sprawcy potrafią ukrywać się latami. Miałam sprawę, w której dwa zaszyfrowane dyski po kilkanaście terabajtów do dziś są nie do odszyfrowania, a istniało wysokie prawdopodobieństwo, że zawierały ogromne archiwa takich treści.
PAP: Czy darknet jest dziś głównym miejscem takich przestępstw?
A.K-B.: Nie. To mit. Ogromna część tej przestępczości odbywa się w otwartym internecie, na platformach społecznościowych, komunikatorach, a nawet w serwisach dla dzieci i graczy. Darknet jest tylko jednym z elementów, często nie najważniejszym.
PAP: Gdyby miała pani wskazać jedną zmianę, która najbardziej poprawiłaby ochronę dzieci przed przemocą cyfrową, co by to było?
A.K-B.: Realna odpowiedzialność platform internetowych. Dopóki duże firmy technologiczne nie będą ponosiły konsekwencji prawnych i finansowych za to, co dzieje się na ich platformach, prawo karne wobec pojedynczych sprawców będzie niewystarczające. Wystarczy tutaj wspomnieć TikToka, jedną z najpopularniejszych platform społecznościowych obleganą przez dzieci, na którą nikt w Polsce nie ma wpływu.
Rozmawiała Mira Suchodolska (PAP)
Echo Chorzowa, informacje, wiadomosci, aktualnosci


