Jeden z użytkowników Reddita odkrył, że wykorzystując określone hasła wyszukiwania, można bez problemu znaleźć na YouTube zdjęcia o charakterze pornograficznym. Dodatkowo, widzą je wszyscy – także osoby niezalogowane do serwisu, a więc i dzieci.
Erotyczne materiały na YouTube dostępne na wyciągnięcie ręki
Jak zwracają uwagę użytkownicy Reddita, wpisanie w wyszukiwarkę YouTube fraz takich jak „mmd r18” czy „see through try on haul” potrafi prowadzić do materiałów o wyraźnie erotycznym charakterze. W serwisie bez trudu można też natknąć się na rozbudowane playlisty z treściami NSFW. Według internautów szczególnym problemem pozostaje nieocenzurowane hentai, które wciąż pojawia się na platformie mimo obowiązujących zasad moderacji.
Co istotne, wiele z tych kanałów wcale nie publikuje pełnowymiarowych filmów pornograficznych. Zamiast tego użytkownicy trafiają na playlisty z krótkimi materiałami NSFW, które są przeplatane neutralnie wyglądającymi nagraniami. Taki zabieg może pomagać w omijaniu mechanizmów moderacji YouTube. Mimo krótkiej formy, klipy te potrafią generować miliony odsłon, a najpopularniejsze kanały zgromadziły już ponad 200 tysięcy subskrybentów. Dodatkowo wiele z tych kont odsyła do siebie nawzajem, co może wskazywać na zorganizowaną, częściowo zautomatyzowaną aktywność.

YouTube łata jedną lukę, inne wciąż pozostają otwarte
YouTube deklaruje, że konsekwentnie usuwa treści pornograficzne z miniaturek i grafik kanałów, wykorzystując do tego algorytmy oraz pracę moderatorów. Problem w tym, że zdjęcia profilowe traktowane są inaczej. Podlegają one słabszej kontroli i często są weryfikowane dopiero po zgłoszeniach. To sprawia, że nieodpowiednie treści utrzymują się na platformie przez dłuższy czas, zanim ktoś je usunie.
Platforma rozpoczęła jakiś czas temu testy mechanizmu, który automatycznie rozmywa miniaturki filmów powiązanych z tematyką NSFW. To krok w dobrą stronę, ale YouTube wciąż w pełni nie rozwiązał problemu. Nieocenzurowane zdjęcia profilowe nadal są widoczne dla wszystkich użytkowników, także tych niezalogowanych, co podważa skuteczność obecnych zabezpieczeń i pokazuje, że system moderacji nadal ma poważne luki.
Największe obawy budzi fakt, że tego typu materiały pojawiają się także przed osobami, które nie są zalogowane na YouTube. Oznacza to, że nieocenzurowane zdjęcia profilowe mogą zobaczyć również nieletni użytkownicy, omijając tym samym podstawowe mechanizmy ochronne. Google na razie sprawy nie komentuje.
Eksperci podkreślają, że YouTube mógłby szybko zamknąć lukę, obejmując zdjęcia profilowe taką samą kontrolą jak miniatury wideo, ograniczając aktywność nowych kont do czasu weryfikacji oraz skuteczniej wykrywając sieci powiązanych profili i farmy botów. Rozwiązaniem mogłoby być także rozmywanie avatarów dla osób niezalogowanych oraz uproszczenie procesu zgłaszania nieodpowiednich treści. Do czasu wdrożenia zmian użytkownikom, zwłaszcza rodzicom, zaleca się korzystanie z trybu ograniczonego, narzędzi kontroli rodzicielskiej, filtrów DNS oraz zgłaszanie podejrzanych profili i playlist.
Źródło: Android Authority / Zdjęcie otwierające: Unsplash (@rachitank)