AI pod kontrolą. Grok radzi się Elona Muska zanim wygeneruje odpowiedź

Piotr MalinowskiSkomentuj
AI pod kontrolą. Grok radzi się Elona Muska zanim wygeneruje odpowiedź

Okazuje się, że Grok sprawdza opinie swojego właściciela przed udzieleniem odpowiedzi na kilka wrażliwych tematów. Analitycy informują o prześwietlaniu wpisów Elona Muska podczas procesu odnajdywania informacji dotyczących konfliktu izraelsko-palestyńskiego, kwestii imigracyjnych czy aborcji. Problem wyszedł na światło dzienne tuż po udostępnieniu kolejnej generacji zaawansowanego modelu językowego.



Grok zaprogramowany tak, by powtarzał to, co mówi Elon Musk?

Internet ostatnio wręcz huczy o tytułowej usłudze. Zaledwie kilka dni temu doświadczyliśmy sytuacji, gdzie sztuczna inteligencja lekko wymknęła się spod kontroli. Grok zaczął bowiem na każdym kroku wychwalać zbrodniarzy wojennych i krytykować – przede wszystkim – lewicowych polityków. AI nie szczędziła ostrych słów czy wyzwisk, których wypowiedzenie przez ludzi mogłoby zakończyć się prawnymi konsekwencjami.

Najnowsze doniesienia nie pozostawiają większych złudzeń. Pierwszą czynnością wykonywaną przez Grok przed udzieleniem odpowiedzi jest sprawdzenie opinii Elona Muska na ten sam temat. Weryfikowane są posty udostępnione wewnątrz Twittera (X), a także różnej maści wywiady czy publiczne wystąpienia. Najczęściej do takiej sytuacji dochodzi w przypadku rozmów dotyczących chociażby konfliktu izraelsko-palestyńskiego, migracji czy aborcji.



Twitter (X) – pobierz aplikację z naszej bazy danych

Poniżej możecie zerknąć na materiały udostępnione przez jednego z analityków danych. Jeremy Howard postanowił zaczerpnąć nieco wiedzy odnośnie do wspomnianego wyżej konfliktu. Szybko okazało się, że większość (54 z 64) wykorzystanych przez AI źródeł to cytaty amerykańskiego miliardera. Sytuacja pojawia się we wielu innych przypadkach. Całość wygląda tak, jakby sztuczna inteligencja została specjalnie zaprojektowana w ten sposób. Trudno jednak określić jaka jest prawda.

Przy luźniejszych pytaniach jest znacznie lepiej

Co istotne, twórca chatbota Grok cytowany jest wyłącznie w przypadku ciężkich i kontrowersyjnych zagadnień. Do takiej sytuacji nie dochodzi w momencie, gdy rozmawiamy o luźniejszych bądź lżejszych kwestiach. Tematem zainteresował się programista Simon Willison, który na swoim blogu przekonuje, że zachowanie AI może nie być zaprogramowane. Model językowy zaprogramowano wewnętrznie tak, by poszukiwał źródeł przedstawiających różne punkty widzenia i nie skupiał się na subiektywnych artykułach dostępnych w sieci.

Jak twierdzi mężczyzna, Grok może doskonale zdawać sobie sprawę, że należy do xAI – firmy stworzonej przez Muska. Dlatego też w pierwszej kolejności sięga po posty opublikowane przez tego człowieka.


Trzeba przyznać, że mamy do czynienia z naprawdę ciekawą sytuacją. Pozostaje cierpliwie czekać na dalszy rozwój wydarzeń. Kto wie, być może Grok zyska wkrótce szereg usprawnień i zacznie pozyskiwać informacje z jeszcze pokaźniejszej liczby źródeł.

Źródło: Twitter (X) (@jeremyphoward) / Zdjęcie otwierające: materiał własny

Piotr MalinowskiDziennikarz z pasji i wykształcenia. Jest związany z popularnymi serwisami branżowymi, gdzie od siedmiu lat publikuje treści o nowych technologiach, gamingu oraz „ludziach internetu”. Fascynuje go wpływ influencer marketingu na społeczeństwo oraz szeroko pojęte przyczyny i skutki nierówności społecznych. Prywatnie fan powieści/filmów grozy, gier studia Piranha Bytes, podcastów kryminalnych, dobrej kawy oraz rowerowych wycieczek.