Wygenerowane przez AI materiały z rozebranymi dziećmi są w Polsce legalne, jeśli nie przedstawiają czynności seksualnych, należy pilnie zmienić to prawo – alarmują w rozmowie z PAP biegli sądowi Amanda Krać-Batyra i Tomasz Sidor.
Zgodnie z 202 art. Kodeksu karnego rozpowszechnianie i posiadanie treści pornograficznych z udziałem osoby małoletniej podlega karze pozbawienia wolności od 3 miesięcy do 5 lat. Chodzi o materiały z prawdziwymi, żywymi dziećmi, niezależnie od tego, czy jest na nich ukazana czynność seksualna.
Natomiast posiadanie i rozpowszechnianie materiałów wytworzonych czy przetworzonych przez sztuczną inteligencję, na których widoczne jest realistycznie rozebrane dziecko, czy też ukazane w stylu bajkowym, ale bez czynności seksualnej, nie jest w Polsce karane – wskazała w rozmowie z PAP biegła z zakresu antropologii sądowej Amanda Krać-Batyra. Jak dodała, podobnie jest w przypadku materiałów z dziećmi ubranymi w sposób seksualizujący (np. w samą bieliznę, stroje kąpielowe, kabaretki czy pończochy), które nie ukazują jednak rzeczywistych czynności seksualnych ani prawdziwych, żyjących dzieci.
W Polsce legalne są też opowieści, czyli słowny opis czynności seksualnych wobec dziecka oraz nagrania audio w tym zakresie – dodał w rozmowie z PAP biegły z zakresu informatyki śledczej Tomasz Sidor.
Jak wskazali eksperci, problemem jest definicja zawarta w artykule 202 Kodeksu karnego, który penalizuje produkcję, posiadanie i rozpowszechnianie materiałów „przedstawiających wytworzony albo przetworzony wizerunek małoletniego uczestniczącego w czynności seksualnej”.
„Musimy pilnie zmienić to prawo” – alarmują biegli.
Jak wskazała Krać-Batyra, prace nad nową treścią artykułu 202 kk już trwają, postulują je głównie środowiska pozarządowe oraz część instytucji publicznych (np. Dyżurnet działający przy NASK), związanych z ochroną dzieci. Główny postulat to zastąpienie pojęcia „treści pornograficzne przedstawiające wytworzony albo przetworzony wizerunek małoletniego uczestniczącego w czynności seksualnej” terminem przyjętym w prawodawstwie unijnym, czyli „materiały ukazujące seksualne wykorzystanie dziecka” (z ang. „child sexual abuse material” – CSAM) – wskazała ekspertka.
„Słowo «pornografia» nie powinno być używane w przepisach odnoszących się do dziecka, bo pornografia to legalny biznes rozrywkowy skierowany dla dorosłych” – zaznaczyła.
Jak przekazał Tomasz Sidor, część krajów UE, w tym Słowenia, Belgia czy Niemcy podchodzą bardziej restrykcyjne do przepisów związanych z materiałami CSAM.
„Tego typu przestępstwa przekraczają granice państw. Tymczasem w jednym kraju pewne zachowania są penalizowane, a w innym legalne. W związku z tym występuje poważny problem z międzynarodowym ściganiem przestępstw popełnianych przez osoby z zaburzonymi preferencjami seksualnymi” – mówił biegły.
Jak wskazał, generowanie CSAM jest możliwe przez modele AI ogólnodostępne w Internecie, co stanowi poważne wyzwanie. Są też modele, które można uruchomić na swoim urządzeniu i przygotować tak, by omijały filtry nakładane przez producentów. „Nie potrzeba do tego specjalnego sprzętu. Często wystarczy laptop z dedykowaną kartą graficzną” – mówił Tomasz Sidor. Dodał, że istnieją również modele AI specjalnie trenowane w celu „rozbierania” przedstawionych na zdjęciach dzieci lub generowania materiałów CSAM, do których dostęp na zasadzie subskrypcji cyberprzestępcy sprzedają w Darknecie.
Praca nad materiałami CSAM, których jeden podejrzany potrafi mieć na urządzeniu tysiące, niesie ze sobą ogromne obciążenie psychiczne dla biegłych, którzy często są przeciążeni albo wypaleni zawodowo – podkreśliła Amanda Krać-Batyra. Jak wskazała – zadaniem biegłych jest wytypowanie podejrzanych materiałów i opisanie ich w opinii, która trafi do policji, prokuratury czy sądu. Zaznaczyła, że organy te weryfikują nadesłane materiały, decydują o np. powołaniu seksuologa, który może zbadać preferencje podejrzanego, czy o postawieniu zarzutów i na końcu – o wydaniu wyroku.
„Zawsze wskazuję materiały, które są według mnie są podejrzane, nawet jeśli w świetle polskiego prawa ich posiadanie nie jest zabronione. Jednak rzadko kiedy w takich sprawach zapadają wyroki skazujące. Kiedyś zgłosiłam, że podejrzany miał na urządzeniu setki reklamowych zdjęć niemowlaków w śpioszkach, które pobrał ze stron sprzedających ubranka. Prokurator zadzwonił do mnie z pretensjami, że przecież tam nie ma nic nielegalnego” – wspomina ekspertka.
Część biegłych korzysta ze sztucznej inteligencji, która ma pomóc we wstępnym wytypowaniu CSAM, jednak i tu pojawiają się problemy. „Zdarzają się «fałszywe pozytywy» (z ang. false positive), czyli sytuacje, w których AI oznacza jako podejrzane materiały w ogóle nie związane z dziećmi, np. zdjęcia, na których były pierogi ze śmietaną, pyzy ze skwarkami, czy borsuk” – mówiła biegła. Jak dodała, zdarzają się też tzw. „fałszywe negatywy” (z ang. false negative), czyli sytuacje, w których AI nie wykrywa CSAM.
„Jeśli źle zakwalifikowany materiał trafi do sądu, będzie go bardzo łatwo podważyć. A biegły odpowiada karnie za złożenie fałszywej opinii, nawet jeśli zrobi to nieumyślnie” – zaznaczyła Krać-Batyra.
Jak wskazali eksperci, aby narzędzia AI mogły skutecznie pomagać w wykrywaniu CSAM, powinny być specjalnie w trenowane w tym celu oraz wyjaśnialne, co oznacza, że dostępna jest informacja, dlaczego algorytm podjął taką, a nie inną decyzję. Jednak twórcy AI strzegą tajemnic związanych z algorytmami – wskazała ekspertka. Nie są też chętni do udzielania informacji ani udostępniania narzędzi do wykrywania materiałów wygenerowanych przez AI – dodał Tomasz Sidor.
Źródło: