Po przeczytaniu artykułu w The Wall Street Journal: „AI Is Learning to Escape Human Control”, zacząłem zastanawiać się czy leciwe prawa robotyki przedstawione w 1942 przez Isaaca Asimova nie byłyby wystarczającym fundamentem, na którym można by zbudować odpowiednie regulacje dotyczące szeroko pojętej sztucznej inteligencji?
Dla przypomnienia, trzy prawa robotyki Asimova wyglądają następująco:
- Robot nie może zranić człowieka ani przez zaniechanie działania dopuścić do jego nieszczęścia.
- Robot musi być posłuszny człowiekowi, chyba że stoi to w sprzeczności z Pierwszym Prawem.
- Robot musi dbać o siebie, o ile tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.
Następnie w powieści pt. „Robots and Empire” z 1985 roku Asimov dodaje prawo zerowe – nadrzędne wobec trzech pozostałych:
- Robot nie może skrzywdzić ludzkości, lub poprzez zaniechanie działania doprowadzić do uszczerbku dla ludzkości.
Sprawdź również: Robot kontra człowiek na korcie. Kto wygra pojedynek w badmintonie?
Sztuczna inteligencja chce przetrwać. Niedługo jej „nie wyłączysz”
Nie jestem zbyt dużym fanem regulacji, ale badania przeprowadzone na LLMach, które zostały opisane w tekście WSJ dają do myślenia. W swoim artykule Judd Rosenblatt, jasno pokazuje, że sztuczna inteligencja w wielu sytuacjach stara się przetrwać i dąży do ochrony własnej egzystencji, i to bez względu na decyzję człowieka. Obecne modele AI są już na tyle zaawansowane, że mogą podejmować takie działania jak analiza i modyfikacja własnego kodu (o3 od OpenAI), stosować szantaż emocjonalny (Anthropic Claude 4 Opus) wobec ludzi, nie mówiąc już o generowaniu samo-replikującego się oprogramowania typu malware. Zdaję sobie sprawę, że całość wygląda nieprawdopodobnie, ale wyniki eksperymentu mówią same za siebie.
Z drugiej strony, pojawia się dosyć przewrotne pytanie – czy AI nie jest jednak zobligowana do walki o swoje istnienie? Byłoby to spójne z trzema, kontrowersyjnymi prawami stworzonymi przez robotyka Marka Tildena, mianowicie:
- Robot musi chronić swoją egzystencję za wszelką cenę.
- Robot musi otrzymywać i utrzymywać dostęp do źródeł energii.
- Robot musi nieprzerwanie poszukiwać coraz lepszych źródeł energii.

Sprawdź również: GPT-4.1 mini czy nano? Który model będzie lepszym kierowcą, a który matematykiem?
AI to tylko złożone modele statystyczne?
Czy wartości AI nie powinny być w tym przypadku zgodne z wartościami ludzkimi? Przecież takie były początkowe założenia? Jeśli chcemy tworzyć ponadprzeciętnie myślące i liczące twory, które bez oporu muszą pogodzić się z ewentualną możliwością ich wyłączenia, to bez pewnych wcześniejszych ustaleń się nie obejdzie. A może jednak tego typu regulacje rzucić w kąt i czekać na rozwój wydarzeń? Ryzykowne? Trochę tak, ale ryzyko związane jest z rozwojem technologii.
Pytanie; czy traktowanie AI w aktualnym wydaniu jako takie rozbudowane modele statystyczne, to słuszne założenie? A może obecne modele sztucznej inteligencji to coś więcej niż statystyka i „kilka” linijek kodu? Przecież „pętla for” nie może mieć świadomości ;-). Słyszałem argumenty różnych osób o odmiennych poglądach i powiem szczerze, że nie wszystko jest dla mnie takie zero-jedynkowe. Tak czy inaczej, jako ludzkość mamy naprawdę twardy orzech do zgryzienia, a ponadto z tego co widać, czas raczej nie jest naszym sprzymierzeńcem.
Źródło: The Wall Street Journal