Czy sztuczna inteligencja powoli dąży do ochrony własnej egzystencji?

Marek LubasSkomentuj
Czy sztuczna inteligencja powoli dąży do ochrony własnej egzystencji?

Po przeczytaniu artykułu w The Wall Street Journal: „AI Is Learning to Escape Human Control”, zacząłem zastanawiać się czy leciwe prawa robotyki przedstawione w 1942 przez Isaaca Asimova nie byłyby wystarczającym fundamentem, na którym można by zbudować odpowiednie regulacje dotyczące szeroko pojętej sztucznej inteligencji?



Dla przypomnienia, trzy prawa robotyki Asimova wyglądają następująco:

  1. Robot nie może zranić człowieka ani przez zaniechanie działania dopuścić do jego nieszczęścia.
  2. Robot musi być posłuszny człowiekowi, chyba że stoi to w sprzeczności z Pierwszym Prawem.
  3. Robot musi dbać o siebie, o ile tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.

Następnie w powieści pt. „Robots and Empire” z 1985 roku Asimov dodaje prawo zerowenadrzędne wobec trzech pozostałych:



  • Robot nie może skrzywdzić ludzkości, lub poprzez zaniechanie działania doprowadzić do uszczerbku dla ludzkości.

    Sprawdź również: Robot kontra człowiek na korcie. Kto wygra pojedynek w badmintonie?

    Sztuczna inteligencja chce przetrwać. Niedługo jej „nie wyłączysz”

    Nie jestem zbyt dużym fanem regulacji, ale badania przeprowadzone na LLMach, które zostały opisane w tekście WSJ dają do myślenia. W swoim artykule Judd Rosenblatt, jasno pokazuje, że sztuczna inteligencja w wielu sytuacjach stara się przetrwać i dąży do ochrony własnej egzystencji, i to bez względu na decyzję człowieka. Obecne modele AI są już na tyle zaawansowane, że mogą podejmować takie działania jak analiza i modyfikacja własnego kodu (o3 od OpenAI), stosować szantaż emocjonalny (Anthropic Claude 4 Opus) wobec ludzi, nie mówiąc już o generowaniu samo-replikującego się oprogramowania typu malware. Zdaję sobie sprawę, że całość wygląda nieprawdopodobnie, ale wyniki eksperymentu mówią same za siebie.

    Z drugiej strony, pojawia się dosyć przewrotne pytanie – czy AI nie jest jednak zobligowana do walki o swoje istnienie? Byłoby to spójne z trzema, kontrowersyjnymi prawami stworzonymi przez robotyka Marka Tildena, mianowicie:

    1. Robot musi chronić swoją egzystencję za wszelką cenę.
    2. Robot musi otrzymywać i utrzymywać dostęp do źródeł energii.
    3. Robot musi nieprzerwanie poszukiwać coraz lepszych źródeł energii.

    Sprawdź również: GPT-4.1 mini czy nano? Który model będzie lepszym kierowcą, a który matematykiem?

    AI to tylko złożone modele statystyczne?

    Czy wartości AI nie powinny być w tym przypadku zgodne z wartościami ludzkimi? Przecież takie były początkowe założenia? Jeśli chcemy tworzyć ponadprzeciętnie myślące i liczące twory, które bez oporu muszą pogodzić się z ewentualną możliwością ich wyłączenia, to bez pewnych wcześniejszych ustaleń się nie obejdzie. A może jednak tego typu regulacje rzucić w kąt i czekać na rozwój wydarzeń? Ryzykowne? Trochę tak, ale ryzyko związane jest z rozwojem technologii.


    Pytanie; czy traktowanie AI w aktualnym wydaniu jako takie rozbudowane modele statystyczne, to słuszne założenie? A może obecne modele sztucznej inteligencji to coś więcej niż statystyka i „kilka” linijek kodu? Przecież „pętla for” nie może mieć świadomości ;-). Słyszałem argumenty różnych osób o odmiennych poglądach i powiem szczerze, że nie wszystko jest dla mnie takie zero-jedynkowe. Tak czy inaczej, jako ludzkość mamy naprawdę twardy orzech do zgryzienia, a ponadto z tego co widać, czas raczej nie jest naszym sprzymierzeńcem.

    Źródło: The Wall Street Journal

    Marek LubasSport, kosmos, podróże, retro.