Apple ma problem. Te aplikacje na iOS generowały nagie zdjęcia

Piotr MalinowskiSkomentuj
Apple ma problem. Te aplikacje na iOS generowały nagie zdjęcia

Apple podjęło decyzję, na którą czekało mnóstwo osób. Usunięto właśnie aplikacje na iOS wykorzystujące sztuczną inteligencję do generowania nagich zdjęć. Technologiczny gigant przez pewien czas nie przejmował się tym problemem, przez co użytkownicy nieustannie mieli dostęp do niebezpiecznych programów. Teraz sytuacja uległa zmianie, lecz nie wiadomo do końca czy cyfrowy sklep wciąż nie obfituje w podobne usługi. Natrafiliście na nie wcześniej?

Apple usuwa podejrzane aplikacje na iOS

Deepfake i deepnude to wciąż nie do końca uregulowane kwestie. Mimo wszystko są powszechnie uznawane za szkodliwe, a także przyczyniające się do szerzenia dezinformacji. Mówimy przecież o wykorzystaniu oraz przekształceniu cudzego wizerunku – najczęściej na niekorzyść. Sprawa robi się jeszcze bardziej skomplikowana w momencie, gdy w grę wchodzą nagie zdjęcia bądź pornografia. Dla takiej zawartości nie ma aprobaty. Mimo wszystko bez problemu można ją odnaleźć i nie trzeba zbyt daleko szukać. Wystarczy otworzyć jeden z najpopularniejszych cyfrowych sklepów.

Okazuje się, że Apple usunęło właśnie aplikacje na iOS umożliwiające wykorzystanie sztucznej inteligencji do wygenerowania nagich zdjęć. Co jednak najciekawsze, programy te były bardzo długo obecne w App Store i korporacja nie spieszyła się z podjęciem jakiejkolwiek interwencji. Sytuacja na szczęście uległa zmianie, kilka usług permanentnie zniknęło ze sklepu i raczej zbyt prędko ich tam z powrotem nie zobaczymy. Mimo wszystko mamy do czynienia z poważnym problemem wymagającym wykonania stanowczych kroków.

Zlikwidowane programy oferowały szereg funkcji. Mowa przede wszystkim o zamianie twarzy na zdjęciach przedstawiających dorosłe osoby. Inni producenci sprzedawali natomiast rozwiązanie umożliwiające rozebranie człowieka znajdującego się na przesłanej grafice. Tym samym konsumenci byli w stanie wykorzystać zatwierdzoną przez Apple usługę do roznegliżowania dowolnej jednostki bez jej zgody, a nawet wiedzy. Opublikowany raport wskazuje na pozbycie się trzech takich aplikacji.

Inne korporacje także nie radzą sobie najlepiej

Zniknęły one także ze Sklepu Play, natomiast Meta usunęła reklamy podobnych stron internetowych pojawiających się na łamach Instagrama. To oczywiście bardzo dobre wiadomości, ale rodzące masę pytań i kontrowersji. Korporacje musiały wpierw zostać poinformowane o zagrożeniach, by dostrzec niebezpieczne apki – zawiodła więc przeprowadzana przez nich początkowa weryfikacja. Dlatego sprawa powinna nabrać rozgłosu i przyczynić się do implementacji stosownych regulacji.

Pozostaje mieć nadzieję, że App Store oraz Sklep Play wprowadzą wkrótce szereg stosownych mechanizmów ułatwiających wykrycie funkcji nadużywających sztuczną inteligencję. Aplikacje na iOS umożliwiające rozebranie dowolnej osoby brzmią bowiem jak nieśmieszny żart i raczej nikt nie chciałby paść jego ofiarą.

Czy jednak takie zabiegi cokolwiek zmienią? Internet roi się wręcz od podobnych narzędzi łamiących wszelkie przepisy dotyczące prywatności i bezpieczeństwa. Kto wie, może nadchodzący AI Act cokolwiek zmieni?

Źródło: Apple Insider / Zdjęcie otwierające: instalki.pl (Maksym Słomski)

Udostępnij

Piotr MalinowskiDziennikarz z pasji i wykształcenia. Jest związany z popularnymi serwisami branżowymi, gdzie od siedmiu lat publikuje treści o nowych technologiach, gamingu oraz „ludziach internetu”. Fascynuje go wpływ influencer marketingu na społeczeństwo oraz szeroko pojęte przyczyny i skutki nierówności społecznych. Prywatnie fan powieści/filmów grozy, gier studia Piranha Bytes, podcastów kryminalnych, dobrej kawy oraz rowerowych wycieczek.