Sztuczna inteligencja wykryje zdjęcia z dziecięcą pornografią

Bartek SzcześniakSkomentuj
Sztuczna inteligencja wykryje zdjęcia z dziecięcą pornografią
Przeciętny człowiek raczej niechętnie będzie przeglądać treści związane z dziecięcą pornografią. Dlatego też ciężką pracę mają moderatorzy, którzy muszą ręcznie takie zdjęcia identyfikować i usuwać. Google wychodzi im na przód prezentując swoje nowe narzędzie.

Wykorzystując widzenie maszynowe nowy mechanizm ma oznaczać potencjalnie niepożądane treści i sortować je według prawdopodobieństwa łamania prawa. Następnie tak przygotowane materiały trafią do moderatorów. Według firmy z Mountain View może to zwiększyć efektywność pracy o 700 procent – podobno potwierdzono to w jednym z wewnętrznych testów firmy.

Szybka identyfikacja nowych obrazów oznacza, że ​​dzieci, które są dziś wykorzystywane seksualnie, będą miały znacznie większe szanse na identyfikację i ochronę przed dalszymi nadużyciami” – napisali w poniedziałek na blogu  firmowym Nikola Todorovic i Abhi Chaudhuri. „Udostępniamy to bezpłatnie organizacjom pozarządowym i partnerom branżowym za pośrednictwem naszego Content Safety API

Wcześniej w tym celu serwisy pokroju Facebooka korzystały z prostych robotów wyłapujących treści już kiedyś oznaczone przez moderację jako szkodliwe. W przeciwieństwie do nich, sztuczna inteligencja Google’a pozwala wychwytywać także nowe zdjęcia. Patrząc na dzisiejszy postęp technologiczny, możemy spodziewać się, że w niedługim czasie wszystkie procesy tego typu nie będą wymagały ingerencji człowieka.

Źródło: CNET

Udostępnij

viriacci