Unia Europejska szykuje kolejne duże zmiany dotyczące sztucznej inteligencji. Bruksela chce uderzyć w narzędzia typu „nudifier”, pozwalające „rozbierać” osoby widoczne na fotografiach. Problem w ostatnich miesiącach zaczął gwałtownie narastać, a ofiarami takich materiałów coraz częściej stają się nieletni.
Eksperci zwracają uwagę, że nowoczesne modele generowania obrazu i wideo pozwalają tworzyć realistyczne fałszywe materiały praktycznie każdemu użytkownikowi. Unijni politycy twierdzą, że platformy oraz dostawcy modeli AI zbyt długo ignorowali zagrożenie.
Koniec z aplikacjami do „rozbierania”
Parlament Europejski i Rada UE osiągnęły wstępne porozumienie dotyczące zmian w AI Act, czyli unijnym rozporządzeniu regulującym sztuczną inteligencję. Jednym z nowych przepisów ma być całkowity zakaz udostępniania systemów AI służących do tworzenia seksualnych materiałów bez zgody przedstawionej osoby.
Zakaz obejmie zarówno obrazy, nagrania wideo, jak i materiały dźwiękowe. Co istotne, nowe przepisy mają dotyczyć nie tylko modeli zaprojektowanych specjalnie do takich działań. Odpowiedzialność poniosą również firmy oferujące „ogólne” modele AI bez odpowiednich zabezpieczeń. Firmy działające na rynku europejskim otrzymają czas do 2 grudnia 2026 roku na dostosowanie swoich systemów do nowych wymagań.
Technologia szybsza od regulacji
Powodem zaostrzenia przepisów jest lawinowy wzrost liczby nielegalnych materiałów tworzonych przez sztuczną inteligencję. Internet Watch Foundation alarmuje, że liczba filmów przedstawiających seksualne wykorzystywanie dzieci wygenerowanych przez AI wzrosła w 2025 roku ponad 260-krotnie względem poprzedniego roku.
W zeszłym roku głośno było o przypadkach wykorzystywania AI przez uczniów do tworzenia seksualnych przeróbek zdjęć koleżanek z klasy. Szczególny rozgłos zyskały sprawa z bydgoskiego liceum ze stycznia 2025, oraz z podwarszawskiej podstawówki z czerwca. Można podejrzewać, że podobne dramaty dzieją się na porządku dziennym, ale nie trafiają do sądu czy do mediów. Podobne incydenty odnotowywano także w innych krajach Europy.

BigTechy a aplikacje do rozbierania
Problem narasta przez bierną postawę największych firm technologicznych. Jak ujawnił serwis WIRED, serwisy tworzące seksualne deepfake’i i obrazy typu „nudify” przez długi czas korzystały z systemów logowania Google, Apple czy Discorda, co nadawało im pozory wiarygodności i ułatwiało rejestrację nowych użytkowników.
Niedawno pisałem także o tym, że aplikacje służące do „rozbierania” zdjęć były dostępne zarówno w sklepie Google Play, jak i App Store – część z nich nie miała nawet ograniczeń wiekowych, przez co mogły je bez problemu pobierać również dzieci. Dopiero po nagłośnieniu sprawy część firm zaczęła usuwać konta deweloperów i blokować dostęp do swoich usług.


Platformy dostaną nowe obowiązki
Zmiany obejmą nie tylko twórców modeli sztucznej inteligencji. Platformy internetowe będą musiały szybciej reagować na zgłoszenia dotyczące nielegalnych materiałów. W Wielkiej Brytanii procedowane są już przepisy zobowiązujące serwisy do usuwania zgłoszonych treści o charakterze seksualnym w ciągu 48 godzin.
Firmom, które zignorują nowe obowiązki, grozić będą wysokie kary finansowe, a w skrajnych przypadkach nawet blokada usług. Unijni politycy podkreślają, że regulacje mają chronić podstawowe prawa użytkowników oraz godność ofiar technologicznych nadużyć.
Źródło: Parlament Europejski
Zdjęcie otwierające: Pexels (Andrea Piacquadio)