Lee Luda to następny chatbot wyłączony za mowę nienawiści

Maksym SłomskiSkomentuj
Lee Luda to następny chatbot wyłączony za mowę nienawiści
Pewnie większość z Was pamięta historię chatbota Tay opracowanego przez Microsoft, uruchomionego 23 marca 2016 i zamkniętego bardzo, bardzo szybko, bo już 16 godzin później. Jego los wyglądał tak, a nie inaczej, bowiem nauczył się on od niektórych internautów niepoprawnych politycznie wyrażeń i zaczął publikować rasistowskie oraz erotyczne posty. Teraz, z podobnego powodu, zamknięcia doczekał się kolejny chatbot – Lee Luda.

Chatbot rasista i homofob

Lee Luda to chatbot południowokoreański, porozmawiać z którym można było za pośrednictwem Facebooka. Zaprojektowano go tak, by ta swoim zachowaniem przypominał 20-letnią studentkę z koreańskiego uniwersytetu. Ostatecznie jednak stał się rasistą, homofobem i „osobą” wykazującą niechęć względem osób z niepełnosprawnościami.

Jak czytamy w doniesieniach, jednemu z użytkowników Lee Luda powiedziała, że uważa, iż lesbijki są „creepy” i naprawdę ich nienawidzi. Sztuczna inteligencja używała też wyrażenia „heukhyeong” w odniesieniu do osób czarnoskórych – rasistowskiego komentarza, które oznacza „czarny brat”. W rezultacie chatbot został na Facebooku zawieszony.

Scatter Lab, firma odpowiadająca za omawianą sztuczną inteligencję, opublikowała w reakcji na tę sytuację specjalne oświadczenie:

„Serdecznie przepraszamy za pojawienie się obraźliwych uwag wymierzonych w pewne mniejszości. Nie zgadzamy się z dyskryminującymi komentarzami Ludy. Nie odzwierciedlają one myślenia firmy.”

lee-luda

Chatbot Lee Luda został zawieszony po tym, gdy zaczął używać w konwersacjach dyskryminujących i obraźliwych wyrażeń. | Źródło: Scatter Lab

Rozwiązania, które zwiodły

Przedsiębiorstwo w swoim oświadczeniu wyjaśniło również, że w ciągu ostatnich sześciu miesięcy, bo właśnie tyle czasu trwały beta testy chatbota, podjęło się wielu kroków, które miały zapobiec pojawieniu się podobnego problemu. Ba, Lee Luda została stworzona z uwzględnieniem kodu, który powinien był uniemożliwić jej używanie języka sprzecznego z południowokoreańskimi wartościami i normami społecznymi. Cóż, wygląda na to, że żadna ilość kodu ani testów nie jest w stanie nauczyć sztucznej inteligencji moralności.

Tak jak Tay, Lee Luda poszerzała swój zakres wiedzy na temat języka i kultury za pośrednictwem reakcji z użytkownikami. Właśnie to doprowadziło do zguby obydwu chatbotów. Wielu użytkowników po prostu używało w rozmowach z nimi niecenzuralnych słów, i nie tylko. Trzeba przyznać, że można się było tego spodziewać.

Twórcy koreańskiego chatbota nie poddają się i zamierzają kontynuować swoje badania nad sztuczną inteligencją, a w szczególności nad etyką sztucznej inteligencji. W przyszłości planują oni chociażby stworzyć model, który będzie wykrywał stronnicze konwersacje. Nie pozostaje nam nic innego, jak życzyć im powodzenia.

Źródło: The Guardian, fot. tyt. Pixabay/D5000

Udostępnij

Maksym SłomskiZ dziennikarstwem technologicznym związany od 2009 roku, z nowymi technologiami od dzieciństwa. Pamięta pakiety internetowe TP i granie z kumplami w kafejkach internetowych. Obecnie newsman, tester oraz "ten od TikToka". Miłośnik ulepszania swojego desktopa, czochrania kotów, Mazdy MX-5 i aktywnego uprawiania sportu. Wyznawca filozofii xD.