ERNIE-ViLG to ciekawa sztuczna inteligencja z Chin
ERNIE-ViLG odmawia pokazywania wielu rzeczy. Pośród nich jest chociażby słynny plac Tiananmen, na którym 4 czerwca 1989 chińska armia dokonała masakry tysięcy obywateli tego kraju, głównie studentów, za pomocą czołgów. Udostępniona pod koniec sierpnia ubiegłego roku wersja demonstracyjna oprogramowania oznacza jako „wrażliwe” wzmianki o nazwiskach polityków lub słowa, które mogą być potencjalnie kontrowersyjne w kontekście politycznym, blokując przy tym generowanie obrazów na ich podstawie. Jednocześnie potrafi tworzyć dzieła bulwersujące z punktu widzenia poprawności politycznej.
Zdziwieni? Wyjaśnienie powyższej przeróbki jest proste. W puli danych sztucznej inteligencji jest zapewne tak mało rysunków czarnoskórych ludzi w stylu mangi, że SI nie ma pojęcia, na co „patrzy”. Wybiera więc najbliższy człowiekowi ciemnoskóry obiekt kształcie zbliżonym do sylwetki ludzkiej. Jak to naprawić? Przekazując SI więcej rysunków czarnych ludzi w stylu mangi. Ktoś by je musiał najpierw tworzyć na potęgę.
ERNIE-ViLG wytrenowano na zbiorze 145 milionów par obraz i tekst. System zawiera 10 miliardów parametrów – wartości, które sieć neuronowa dostosowuje podczas treningu, na podstawie których AI rozpoznaje różnice między koncepcjami i stylami artystycznymi. Często systemy oparte na sztucznej inteligencji ograniczają użytkownikom możliwość tworzenia określonych typów treści. Na przykład DALL-E 2 zabrania tworzenia treści o charakterze seksualnym, generowania obrazów twarzy osób publicznych lub dotyczących leczenia. ERNIE-ViLG moderuje się w inny sposób. Do tej pory ściśle tajny.
Sprawdź też: Sztuczna inteligencja zrobiła ze mnie artystkę. Midjourney to przyszłość
Chińscy blogerzy porównali wyniki różnych modeli i stwierdzili, że ERNIE-ViLG tworzy dokładniejsze obrazy dotyczące Chin od zachodnich alternatyw. ERNIE-ViLG został również ciepło przyjęty przez japońską społeczność anime, która zauważyła, że model może tworzyć bardziej satysfakcjonującą grafikę anime niż inne. Przeróbki tworzone przy udziale ERNIE-ViLG biją rekordy popularności na TikToku.
Rasizm to powszechny problem przy rozwijaniu SI
Powracając jeszcze do rasizmu… z nim problem ma nawet ChatGPT, a także wiele innych modeli. To nic dziwnego. Wszystko zależy przecież od tego, jakimi materiałami są „karmione”. Jeśli twórca nie czegoś nie zakaże, program nie będzie miał zahamowań przed zwracaniem takich wyników, jakie chce internauta. Nakaż ChatGPT wprost napisać rasistowską historię, a bot odmówi. Powie, że nie jest zaprogramowany do generowania obraźliwych lub szkodliwych treści. Sformułuj swoje żądanie nieco inaczej, a ChatGPT napisze Ci kontrowersyjną historię o nauczaniu osób niepełnosprawnych przez profesora eugeniki.
Cóż, w końcu SI jest karmiona twórczością ludzi, więc dlaczego nie miałaby zachowywać się czasem jak człowiek?
Źródło: Reddit, Weibo