Naukowcy: kontrolowanie sztucznej inteligencji przyszłości nie będzie możliwe

Maksym SłomskiSkomentuj
Naukowcy: kontrolowanie sztucznej inteligencji przyszłości nie będzie możliwe
Ten, kto oglądał Terminatora, ten wie, jak ludzkość może skończyć, gdy sztuczna inteligencja stanie się, cóż, zbyt inteligentna. Taka wizja była jednak obrazowana nie tylko w filmach, ale również w głowach naukowców, którzy od wielu lat próbują przewidzieć, czy w przyszłości będziemy w stanie kontrolować systemy sztucznej inteligencji określane jako „superinteligentne”. Co ciekawe, uczeni właśnie wydali w tej kwestii werdykt. Otóż, odpowiedź na powyższe pytanie brzmi: zdecydowanie nie.

Czarny scenariusz

Dlaczego powyższa odpowiedź brzmi właśnie tak? Głównie dlatego, że zdaniem badaczy, by móc kontrolować superinteligentną sztuczną inteligencję, której możliwości wykraczałyby daleko poza ludzkie zrozumienie, musielibyśmy wcześniej stworzyć symulację takiej sztucznej inteligencji i ją przeanalizować. Problem w tym, że jako nie jesteśmy w stanie jej zrozumieć, nie możemy takiej symulacji stworzyć.

Jak sugerują autorzy najnowszej pracy naukowej poświęconej omawianemu tematowi, opublikowanej w czasopiśmie Journal of Artificial Intelligence Research, nie możemy zabronić superinteligentnej sztucznej inteligencji krzywdzenia ludzi, skoro nie możemy pojąć, jakie scenariusze ta wymyśli. Gdy system komputerowy działa na poziomie przekraczającym możliwości programistów, nie można ustalić jej limitów.

„Superinteligencja stanowi zasadniczo inny problem niż te, które zwykle badane są pod hasłem ‘etyki robotów’.”, piszą naukowcy. „To dlatego, że superinteligencja jest wielopłaszczyznowa, a zatem potencjalnie zdolna do mobilizowania przeróżnych zasobów w celu osiągania celów, których ludzie nie są w stanie zrozumieć, a co dopiero kontrolować.”

Problem stopu

Rozumowanie badaczy ma związek z tak zwanym „problemem stopu” – zagadnieniem algorytmicznym, które jako pierwszy przedstawił Alan Turing, w 1936 roku. To odpowiada, dla danego algorytmu, czy realizujący go program zatrzyma się i zrealizuje swoje zadanie (w skończonym czasie), czy też będzie bezskutecznie próbował dokonać tego w nieskończoność. Jak Turing udowodnił, chociaż w przypadku niektórych programów da się przewidzieć, w przypadku większości, która kiedykolwiek zostanie napisana, logicznie nie jest to możliwe. 

sztuczna-inteligencja-2

Zdaniem uczonych z Max Planck Institute for Human Development w Berlinie nie będziemy w stanie kontrolować superinteligentnej sztucznej inteligencji. | Źródło: Pixabay/Computerizer

Każdy program napisany po to, by powstrzymał sztuczną inteligencję przed skrzywdzeniem ludzi i zniszczeniem cywilizacji zatrzyma się lub nie – matematycznie nie jest możliwe, abyśmy mieli pewność, który scenariusz dojdzie do skutku. To oznacza, że nie będziemy w stanie superinteligentnej sztucznej inteligencji kontrolować.

„W efekcie algorytm powstrzymujący jest bezużyteczny.”, powiedział Iyad Rahwan z Max Planck Institute for Human Development w Berlinie.

Zdaniem niektórych uczonych alternatywą do uczenia sztucznej inteligencji etyki oraz zwyczajnego instruowania jej, by ta nie niszczyła świata, jest ograniczenie możliwości superinteligentnej sztucznej inteligencji. To miałoby się odbyć na przykład poprzez odcięcie jej od części Internetu czy niektórych sieci. Autorzy nowego badania odrzucają jednak nawet ten pomysł, sugerując, że ograniczyłoby to zasięg sztucznej inteligencji. Ich zdaniem tworzenie sztucznej inteligencji w celu rozwiązywania problemów, których sami nie jesteśmy w stanie rozwiązać tylko po to, by jej w tym celu nie wykorzystywać, nie ma sensu.

Kolejne niepokojące wnioski

Co istotne, tworząc coraz to lepsze sztuczne inteligencje, możemy nawet nie wiedzieć, w którym momencie opracujemy superinteligentną sztuczną inteligencję, której nie będziemy mogli kontrolować. Oznacza to, że powinniśmy zacząć poważnie rozmyślać nad tym, w jakim kierunku ta dziedzina nauki zmierza.

„Superinteligentna maszyna, która ma władzę nad światem, brzmi jak science-fiction.”, stwierdził Manuel Celebrian z Max Planck Institute for Human Development. „Ale już istnieją maszyny, które wykonują pewne ważne zadania niezależnie, a programiści nie rozumieją w pełni, jak się tego nauczyły. Należy zatem zadać pytanie, czy w pewnym momencie takie maszyny mogą stać się niemożliwe do kontrolowania i niebezpieczne dla ludzkości.”

Cóż, mam nadzieję, że scenariusz rodem z Buntu Maszyn nigdy nie nastąpi. Istnieje jednak szansa, że tak właśnie się stanie.

Źródło: Towarzystwo Maxa Plancka, fot. tyt. Pixabay/Tumisu

Udostępnij

Maksym SłomskiZ dziennikarstwem technologicznym związany od 2009 roku, z nowymi technologiami od dzieciństwa. Pamięta pakiety internetowe TP i granie z kumplami w kafejkach internetowych. Obecnie newsman, tester oraz "ten od TikToka". Miłośnik ulepszania swojego desktopa, czochrania kotów, Mazdy MX-5 i aktywnego uprawiania sportu. Wyznawca filozofii xD.