YouTube idzie na wojnę z deepfake. Nie dla generowania podróbek

Piotr MalinowskiSkomentuj
YouTube idzie na wojnę z deepfake. Nie dla generowania podróbek

Wygląda na to, że YouTube ma dość niektórych treści generowanych przez sztuczną inteligencję. Tym razem chodzi o realistyczne podróbki prawdziwych przestępców, zmarłych dzieci i ofiar przestępstw. Dzięki temu platforma chce ograniczyć cyberprzemoc oraz ewentualne prześladowania pewnych jednostek oraz ich rodzin. Dlatego też postanowiono wprowadzić istotne zmiany do regulaminu. Przyjrzyjmy się temu nieco bliżej.

YouTube zaczyna regulować treści generowane przez AI

Materiały generowane przez sztuczną inteligencję to wciąż śliski temat znajdujący się w szarej strefie prawnej. We wielu przypadkach trudno określić zasoby, z których AI czerpie dane, dlatego też często w dyskusjach pojawia się kwestia praw autorskich. Na konkretne regulacje jeszcze trochę poczekamy, lecz jesteśmy na dobrej drodze – nie tak dawno dawaliśmy Wam znać o postępach w zakresie prac nad rewolucyjnymi unijnymi przepisami. Na razie konkretne podmioty muszą wprowadzać wewnętrzne zasady minimalizujące różnego rodzaju nadużycia.

Doczekaliśmy się właśnie aktualizacji zasad dotyczących cyberprzemocy i nękania na YouTube. Okazuje się, że platforma do serca wzięła sobie krytykę społeczności oraz coraz częściej pojawiające się kontrowersyjne filmy. Nie będzie już zgody na publikację treści, które „realistycznie symulują nieletnich i inne ofiary przestępstw opowiadających o ich śmierci lub doświadczanej przemocy”. Jeśli jesteście fanami filmików o charakterze kryminalnym, to zapewne doskonale wiecie o czym jest tu mowa.

Najnowsza zmiana zasad dotyczących nękania i cyberprzemocy / Źródło: YouTube

Chodzi tu głównie o materiały przedstawiające ofiarę lub przestępcę w formie narratora. Zazwyczaj w grę wchodzi nie tylko wideo, ale także dźwięk imitujący prawdziwy głos tych osób. Opowiadane są tam makabryczne historie, co w połączeniu z generowaną przez AI symulacją nie wypada zbyt dobrze. Niejednokrotnie dochodziło do zgłoszeń takich treści przez rodziny ofiar. Nie zgadzały się one, by ich dziecko było przedstawiane w takiej formie i to jeszcze bez wiedzy/zgody. Nic dziwnego.

Twórcy treści kryminalnych muszą uważać

Jeśli moderacja YouTube wykryje obecność takiej zawartości, to niezwłocznie usunie ją z danego kanału oraz tymczasowo ograniczy wolność twórcy. Pierwsze ostrzeżenie poskutkuje niemożnością przesłania nowego klipu przez siedem dni. Naruszenie regulaminu w przeciągu kolejnych 90 dni będzie wiązać się z nałożeniem kolejnych kar, aż w końcu profil zostanie zlikwidowany. Nie warto więc chyba ryzykować – niektórzy influencerzy niemający skrupułów będą więc musieli się nieco przebranżowić.

To oczywiście nie pierwszy krok podjęty przed właścicieli największych sieci społecznościowych. YouTube swego czasu ogłosił szereg narzędzi umożliwiających lepsze oznaczanie filmików generowanych przy użyciu sztucznej inteligencji. Na podobny krok zdecydował się również TikTok, gdzie zasady są jeszcze bardziej restrykcyjne.

Oczywiście nie należy zapominać o obecności przydatnych narzędzi wykorzystujących AI – technologia może również służyć w dobrych celach. Często niestety jest wykorzystywana przez wątpliwie moralnych ludzi i dobrze, że coraz więcej usług walczy z takimi jednostkami.

Źródło: YouTube / Zdjęcie otwierające: unsplash.com (@sci_fi_superfly)

Udostępnij

Piotr MalinowskiDziennikarz z pasji i wykształcenia. Jest związany z popularnymi serwisami branżowymi, gdzie od siedmiu lat publikuje treści o nowych technologiach, gamingu oraz „ludziach internetu”. Fascynuje go wpływ influencer marketingu na społeczeństwo oraz szeroko pojęte przyczyny i skutki nierówności społecznych. Prywatnie fan powieści/filmów grozy, gier studia Piranha Bytes, podcastów kryminalnych, dobrej kawy oraz rowerowych wycieczek.