deepfake

Deepfake wciąż bez kary: prezes UODO alarmuje o bezradności polskiego prawa

02.02.2026
Kamil Śliwiński
Czas czytania: 2 minut/y

Sztuczna inteligencja i technologie generatywne stają się narzędziem drastycznych naruszeń prywatności, przed którymi obecne przepisy nie są w stanie skutecznie chronić obywateli. Mirosław Wróblewski, prezes Urzędu Ochrony Danych Osobowych (UODO), wskazuje na rosnącą liczbę skomplikowanych skarg dotyczących biometrii czy deepfake’ów. Brak precyzyjnych regulacji sprawia, że nawet w ewidentnych przypadkach krzywdzenia ludzi, organy ścigania bywają bezsilne, co rodzi pilną potrzebę legislacyjnych zmian na wzór rozwiązań włoskich czy francuskich.

Sprawa 15-latki obnażyła luki w systemie

Symbolem bezsilności polskiego prawa stała się sprawa uczennicy, której wizerunek wykorzystano do stworzenia pornograficznego deepfake’u. Choć materiał kolportowano wśród znajomych dziewczyny, policja i prokuratura początkowo odmówiły wszczęcia śledztwa. Uznano, że skoro zdjęcie nie pochodziło z chronionego zbioru, to jego przerobienie nie jest przetwarzaniem danych osobowych. Dopiero interwencja prezesa UODO u Prokuratora Generalnego doprowadziła do wznowienia sprawy w styczniu 2026 roku.

Mirosław Wróblewski, prezes UODO, komentuje:

To sprawa bardzo krzywdząca dla tej dziewczyny. Teoretyczne rozważania, że istnieją przepisy pozwalające na ściganie takich zachowań, dowodzą, że potrzebne są nowe rozwiązania. We Włoszech i Francji przyjęto prawo, które ma na celu skuteczniejszą ochronę wizerunku i walkę z technologiami wykorzystywanymi do krzywdzenia ludzi.

Unijna ofensywa przeciwko cyfrowym zagrożeniom

Nadzieją na poprawę sytuacji w Polsce jest wdrożenie Aktu o usługach cyfrowych (DSA). Równolegle na poziomie unijnym toczą się postępowania przeciwko gigantom technologicznym. 26 stycznia br. Komisja Europejska wszczęła dochodzenie przeciwko platformie X w sprawie chatbota Grok. Badane jest, czy system ten nie ułatwia rozpowszechniania zmanipulowanych obrazów o charakterze seksualnym, w tym materiałów przedstawiających wykorzystywanie dzieci.

Skala zagrożeń jest porażająca – system CyberTipline odnotował wzrost o 1325 proc. liczby zgłoszeń związanych z AI w ciągu zaledwie roku. Problem dotyczy także danych, które nieświadomie „oddaliśmy” algorytmom:

Wiele systemów zostało wytrenowanych na podstawie analizy danych, które wcześniej wprowadziliśmy do sieci. Nie spodziewaliśmy się, że będą wykorzystane do innych celów niż te, dla których je zamieściliśmy – ostrzega Mirosław Wróblewski.

Niska świadomość organizacji i błędy algorytmów

Z raportu strategicznego UODO wynika, że aż 41 proc. badanych organizacji nie potrafi ocenić, czy wdrażanie AI wiąże się u nich z przetwarzaniem danych osobowych. Największe braki w wiedzy wykazują samorządy, uczelnie oraz placówki ochrony zdrowia.

Główne zagrożenia AI monitorowane przez UODO:

  • Dyskryminacja: algorytmiczne uprzedzenia w przetwarzaniu danych.
  • Halucynacje: generowanie przez AI fałszywych informacji wprowadzających w błąd.
  • Manipulacja i dezinformacja: wykorzystywanie syntetycznych treści do wpływania na opinie.

Choć Akt o sztucznej inteligencji nakazuje znakowanie materiałów syntetycznych, prezes UODO uważa, że to za mało. Pomysłowość sprawców wykracza poza obecne definicje prawne, dlatego Polska potrzebuje przepisów, które uregulują kwestie deepfake’ów nie tylko na płaszczyźnie administracyjnej, ale przede wszystkim karnej.

Masz temat, o którym powinniśmy napisać? Skontaktuj się z nami!
Opisujemy ciekawe sprawy nadsyłane przez naszych czytelników. Napisz do nas, opisz dokładnie fakty i prześlij wraz z ewentualnymi załącznikami na adres: redakcja@pkb24.pl.
REKLAMA
REKLAMA