Microsoft stworzył bota, który stał się rasistą

Wojciech OnyśkówSkomentuj
Microsoft stworzył bota, który stał się rasistą
{reklama-artykul}
Inżynierowie Microsoftu napisali specjalny algorytm, a następnie podpięli pod niego konto na Twitterze. Dzięki temu każdy mógł zadać pytanie sztucznej inteligencji, która miała zadanie udzielać odpowiedzi w dość luźnym i żartobliwym tonie, naśladując mowę współczesnych nastolatków.

Warto zaznaczyć, że Microsoft nie nałożył na sztuczną inteligencję żadnych ograniczeń. Nie skorzystano również z filtrów wyrazów, których nie można używać. Bot ponadto miał usprawniać swoje konwersacje, analizując wypowiedzi internautów.

Na stronie projektu Microsoft wyjaśnia, że „im więcej rozmawiasz z Tay, tym bardziej staje się inteligentna”. Sam eksperyment jest kierowany do amerykańskich nastolatków w wieku 18-24 lat.

W związku z grupą docelową, na której Tay się wzoruje, sztuczna inteligencja szybko wymknęła się spod kontroli. Na Twitterze zaczęły pojawiać się rasistowskie teksty oraz obraźliwe stwierdzenia. Dostało się nawet prezydentowi Stanów Zjednoczonych.

tay botJeden z usuniętych wpisów Tay / fot. Business Insider

Microsoft oczywiście zaczął usuwać niepoprawne politycznie wpisy z Twittera. Warto zaznaczyć, że nie reprezentowały one stanowiska firmy, wszak bot został pozostawiony samemu sobie i miał się uczyć od internautów. To ci ostatni bezpośrednio odpowiadają za wygłoszone przez Tay poglądy.

Microsoft wyłączył obecnie działanie bota. Prawdopodobnie nanoszone są poprawki, które wyeliminują w przyszłości wygłaszanie rasistowskich i obraźliwych komentarzy.

Z Tay można porozmawiać na Twitterze.

Źródło: Business Insider

Udostępnij

Wojciech OnyśkówRedaktor w serwisie instalki.pl piszący o nowych technologiach i grach.