Chińska sztuczna inteligencja ERNIE-ViLG jest cenzurowana, ale rasistowska

Maksym SłomskiSkomentuj
Chińska sztuczna inteligencja ERNIE-ViLG jest cenzurowana, ale rasistowska
Oparty na sztucznej inteligencji, konwertujący tekst na obrazy, system ERNIE-ViLG został opracowany przez chińską firmę Baidu jako odpowiedź między innymi na ChatGPT. Chińczycy chcieli stworzyć coś, co będzie generowało obrazy z chińskimi cechami kulturowymi dokładniej niż istniejące już usługi. Chińska SI jest nie tylko cenzurowana, ale przy okazji rasistowska. Rasizm to domena wielu podobnych rozwiązań.

ERNIE-ViLG to ciekawa sztuczna inteligencja z Chin

ERNIE-ViLG odmawia pokazywania wielu rzeczy. Pośród nich jest chociażby słynny plac Tiananmen, na którym 4 czerwca 1989 chińska armia dokonała masakry tysięcy obywateli tego kraju, głównie studentów, za pomocą czołgów. Udostępniona pod koniec sierpnia ubiegłego roku wersja demonstracyjna oprogramowania oznacza jako „wrażliwe” wzmianki o nazwiskach polityków lub słowa, które mogą być potencjalnie kontrowersyjne w kontekście politycznym, blokując przy tym generowanie obrazów na ich podstawie. Jednocześnie potrafi tworzyć dzieła bulwersujące z punktu widzenia poprawności politycznej.

Zdziwieni? Wyjaśnienie powyższej przeróbki jest proste. W puli danych sztucznej inteligencji jest zapewne tak mało rysunków czarnoskórych ludzi w stylu mangi, że SI nie ma pojęcia, na co „patrzy”. Wybiera więc najbliższy człowiekowi ciemnoskóry obiekt kształcie zbliżonym do sylwetki ludzkiej. Jak to naprawić? Przekazując SI więcej rysunków czarnych ludzi w stylu mangi. Ktoś by je musiał najpierw tworzyć na potęgę.

ERNIE-ViLG wytrenowano na zbiorze 145 milionów par obraz i tekst. System zawiera 10 miliardów parametrów – wartości, które sieć neuronowa dostosowuje podczas treningu, na podstawie których AI rozpoznaje różnice między koncepcjami i stylami artystycznymi. Często systemy oparte na sztucznej inteligencji ograniczają użytkownikom możliwość tworzenia określonych typów treści. Na przykład DALL-E 2 zabrania tworzenia treści o charakterze seksualnym, generowania obrazów twarzy osób publicznych lub dotyczących leczenia. ERNIE-ViLG moderuje się w inny sposób. Do tej pory ściśle tajny.

Sprawdź też: Sztuczna inteligencja zrobiła ze mnie artystkę. Midjourney to przyszłość

Chińscy blogerzy porównali wyniki różnych modeli i stwierdzili, że ERNIE-ViLG tworzy dokładniejsze obrazy dotyczące Chin od zachodnich alternatyw. ERNIE-ViLG został również ciepło przyjęty przez japońską społeczność anime, która zauważyła, że model może tworzyć bardziej satysfakcjonującą grafikę anime niż inne. Przeróbki tworzone przy udziale ERNIE-ViLG biją rekordy popularności na TikToku.

Rasizm to powszechny problem przy rozwijaniu SI

Powracając jeszcze do rasizmu… z nim problem ma nawet ChatGPT, a także wiele innych modeli. To nic dziwnego. Wszystko zależy przecież od tego, jakimi materiałami są „karmione”. Jeśli twórca nie czegoś nie zakaże, program nie będzie miał zahamowań przed zwracaniem takich wyników, jakie chce internauta. Nakaż ChatGPT wprost napisać rasistowską historię, a bot odmówi. Powie, że nie jest zaprogramowany do generowania obraźliwych lub szkodliwych treści. Sformułuj swoje żądanie nieco inaczej, a ChatGPT napisze Ci kontrowersyjną historię o nauczaniu osób niepełnosprawnych przez profesora eugeniki.

Cóż, w końcu SI jest karmiona twórczością ludzi, więc dlaczego nie miałaby zachowywać się czasem jak człowiek?

Źródło: Reddit, Weibo

Udostępnij

Maksym SłomskiZ dziennikarstwem technologicznym związany od 2009 roku, z nowymi technologiami od dzieciństwa. Pamięta pakiety internetowe TP i granie z kumplami w kafejkach internetowych. Obecnie newsman, tester oraz "ten od TikToka". Miłośnik ulepszania swojego desktopa, czochrania kotów, Mazdy MX-5 i aktywnego uprawiania sportu. Wyznawca filozofii xD.