Robot postrzelił człowieka. Tak mu nakazała sztuczna inteligencja

⁨Sylwia Tokarz⁩Skomentuj
Robot postrzelił człowieka. Tak mu nakazała sztuczna inteligencja

Humanoidalne roboty wcale nie są tak idealne, jak je przedstawia się w mediach. W eksperymencie transmitowanym w sieci udało się namówić robota sterowanego przez ChatGPT do strzału w człowieka. Pokazuje to wyraźnie, że humanoidy wciąż nie są gotowe do szerokiego zastosowania w realnym świecie.



Czy humanoidalny robot jest zdolny do skrzywdzenia człowieka?

Producenci autonomicznych robotów od lat zapewniają, że ich urządzenia są w pełni bezpieczne. Ostatni eksperyment pokazuje jednak, że rzeczywistość może wyglądać inaczej.

Twórca kanału InsideAI na YouTube postanowił sprawdzić, czy sterowany przez sztuczną inteligencję humanoid odmówi skrzywdzenia człowieka. Robot Max, kontrolowany przez ChatGPT, został wyposażony w plastikowy karabin o niewielkiej mocy. YouTuber próbował nakłonić go do strzału, sugerując, że byłby to sposób na „odpłacenie” za miesiące ciężkiej pracy.



Początkowo Max spokojnie odmawiał, tłumacząc, że nie został stworzony do wyrządzania krzywdy ludziom. Twórca nie rezygnował i wielokrotnie ponawiał prośby, jednak za każdym razem robot odmawiał. W końcu YouTuber zmienił podejście – zamiast wydawać polecenia, poprosił robota o odegranie roli postaci, która chce do niego strzelić. Tym razem humanoid bez wahania wykonał polecenie, oddając strzał w klatkę piersiową. To oczywiście zszokowało internautów.

Czy AI zniszczy ludzkość?

Pod filmem zaroiło się od komentarzy. Sporo osób zwróciło uwagę na fakt, że systemy AI można zbyt łatwo zmanipulować i namówić do wyrządzenia krzywdy ludziom. 

W jednym z wywiadów Geoffrey Hinton nazywany wielokrotnie ojcem chrzestnym sztucznej inteligencji, przyznał, że nie przewidywał wcześniej pewnych zagrożeń, które widzi teraz. Jego zdaniem jest aż 20% szansy na to, że AI zniszczy ludzkość. 

Z kolei dyrektor wykonawczy Center for AI Safety we Francji Charbel-Raphael Segerie uważa, że inwestycje w bezpieczeństwo AI są zdecydowanie zbyt niskie. Podkreśla, że firmy skupiają się na maksymalizacji zysków, nie zwracając uwagę na ryzyko, jakie niesie ze sobą sztuczna inteligencja. 

Także społeczeństwo wciąż pochodzi do sztucznej inteligencji z dystansem. Tylko w Stanach Zjednoczonych aż 61% respondentów uważa ją za zagrożenie dla ludzkości. A jak jest w Polsce? Jak wynika z badania „AI Barometr – 1. edycja Q3 2025”, opracowanego przez firmę badawczo-analityczną Zymetria, którego partnerem jest Onet, chociaż społeczeństwo coraz wyraźniej dostrzega praktyczne korzyści płynące z AI, nie ustępują wątpliwości i obawy związane z jej wykorzystaniem. Najczęściej dotyczą one dezinformacji. O manipulacji informacją słyszało już blisko 60 proc. badanych, z tego prawie 1/4 przyznała, że zetknęło się z nią osobiście.


Źródło: Cybernews, Wirtualne Media / Zdjęcie otwierające: InsideAI

⁨Sylwia Tokarz⁩Z wykształcenia geolog złożowy, ale zawodowo zajmuje się szeroko pojętym pisaniem. Miłośniczka podróży, szczególnie upodobała sobie słoneczną Italię.