Jeden z pionierów AI ostrzega: sztuczna inteligencja zagrozi ludzkości

Aleksander PiskorzSkomentuj
Jeden z pionierów AI ostrzega: sztuczna inteligencja zagrozi ludzkości

Do sieci przedostaje się coraz większa liczba głosów od ekspertów, którzy zajmują się od lat sztuczną inteligencją. O ile w przypadku marcowej petycji podpisanej przez 1000 osób, w tym samego Elona Muska można było mówić o małym “happeningu”, tak w przypadku postaci takiej, jak Geoffrey Hinton – sprawa wygląda już nieco bardziej poważnie.

Hinton na łamach New York TImesa, w bardzo ciekawym wywiadzie potwierdził, iż po dekadzie pracy w Google, zajmując się w tym czasie sztuczną inteligencją, opuszcza amerykańskiego giganta i w końcu może swobodnie wypowiadać się na temat ryzyka związanego z szybkim rozwojem AI, modeli LLM i tym podobnych.

Kiedy myślę o tym, co w rozmowie z Cadem Metzem przekazał Hinton, to wydaje mi się, że to nie sztuczna inteligencja i algorytmy, a same korporacje wykorzystujące AI będą groźniejsze dla ludzkości.

Fala spamu, fałszywek i śmieci

Obecnie, coraz więcej osób wyraża obawy, iż korporacje technologiczne pędzą w dość niebezpiecznym kierunku, rozwijając produkty opierające się na generatywnej sztucznej inteligencji. Istnieje obawa, że wprowadzają coś niebezpiecznego, co może służyć dezinformacji, a nawet zagrażać miejscom pracy i w dłuższej perspektywie – ludzkości.

Dr Hinton martwi się, że Internet zostanie zasypany fałszywymi zdjęciami, filmami i tekstami, a przeciętny człowiek nie będzie w stanie rozróżnić, co jest prawdziwe, a co fałszywe. Hinton obawia się także, że w krótkiej perspektywie, modele AI mogą dynamicznie wpłynąć na rynek pracy na całym świecie – likwidując stanowiska opierające się na wykonywaniu dość rutynowych zadań. W dłuższej perspektywie Hinton twierdzi, iż przyszłe wersje modeli sztucznej inteligencji będą w stanie samodzielnie pisać kod oraz go wykonywać.

Co z tym zrobić? Najlepszym rozwiązaniem, według Hintona, jest współpraca czołowych naukowców na świecie w celu opracowania sposobów kontroli nad technologią generatywnej sztucznej inteligencji. W wywiadzie dla NYT, Hinton porównał obecny rozwój AI do projektu Roberta Oppenheimera, który kierował pracami nad budową bomby atomowej. Trzeba przyznać, że to dość mocne oświadczenie.

Google wchłania DeepMind – niejako łamiąc zasady

W 2014 roku, gdy Google kupiło DeepMind za 400 milionów funtów, współzałożyciel DeepMind, Demis Hassabis, otrzymał obietnicę od Larry’ego Page’a, że jego start-up będzie chroniony przed presją zarabiania pieniędzy, aby skupić się na jednym celu: stworzeniu oprogramowania komputerowego równającego się lub przewyższającego ludzką inteligencję. I to częściowo się udało – fajnym przykładem jest ten film o grze w Go, w którym DeepMind pokazywało swoje możliwości.

Kilka dni temu The Financial Times donosił, iż Google postanowiło złamać zasady. Sundar PIchai poinformował, iż DeepMind oficjalnie połączy się z zespołem Google Brain, tworząc projekt “Google DeepMind” – całości dalej ma przewodzić Demis Hassabis. Eksperci odczytują takie posunięcie jako chęć przyspieszenia prac przez Google nad generatywną sztuczną inteligencją oraz potrzebą dogonienia konkurencji – chociażby w postaci Microsoftu. O tym, jak bardzo Google “poci się” w kwestii rozwoju swoich modeli AI pisałem dla Was niedawno w tym tekście. Czy jednak obietnica Larry’ego Page’a przetrwała próbę czasu? Niedawno Sundar Pichai, dyrektor generalny Alphabet, ogłosił, że DeepMind połączy się z Google Brain, tworząc nową jednostkę „Google DeepMind” pod przewodnictwem Hassabisa.

Czy to oznacza, że niezależność DeepMind została poświęcona na rzecz większej władzy i wpływów nad przyszłością sztucznej inteligencji? Czy połączenie tych dwóch światów przyniesie korzyści dla sztucznej inteligencji? Naukowcy z tych dwóch zespołów są odpowiedzialni za liczne przełomowe odkrycia w dziedzinie AI. DeepMind stworzył AlphaFold, które przewiduje kształt prawie każdego znanego białka, podczas gdy Google Brain opracował transformator, technikę AI będącą podstawą nowej generacji produktów generatywnych, takich jak ChatGPT czy Google Bard.

Google twierdzi, że ma setki osób pracujących nad odpowiedzialnym AI w całym przedsiębiorstwie. Sundar Pichai twierdzi, że najbardziej „kluczowy i strategiczny” projekt AI będzie polegał na budowie serii „potężnych, multimodalnych modeli AI” podobnych do GPT-4, które zasilają część wyszukiwarki Bing firmy Microsoft, czy LamDA, modelu Google, który napędza chatbota Bard.

Tylko czas pokaże, jakie rezultaty przyniesie połączenie Google DeepMind.

Co dalej?

W miarę jak AI staje się coraz bardziej zaawansowane, pojawiają się obawy związane z wykorzystaniem AI w systemach uzbrojenia, co może prowadzić do eskalacji konfliktów i niekontrolowanego użycia siły. Ponadto, szybki rozwój AI może doprowadzić do masowej utraty miejsc pracy, zwłaszcza w zawodach o charakterze powtarzalnym i rutynowym.

W dziedzinie informacji istnieje ryzyko tworzenia i rozpowszechniania fake newsów oraz innych form dezinformacji przez AI, co zwiększa ryzyko wprowadzenia społeczeństwa w błąd i manipulowania opinią publiczną. Kwestie prywatności również budzą niepokój, gdyż algorytmy może być wykorzystywane do inwigilacji i analizy danych osobowych. W przypadku AI podejmującego decyzje wpływające na życie ludzi, trudno będzie określić odpowiedzialność w przypadku błędów, szczególnie gdy systemy są skomplikowane i trudne do zrozumienia. Wreszcie, rozwój AI może prowadzić do wzrostu nierówności społecznych i ekonomicznych, gdy korzyści przyniesione przez technologię będą dostępne tylko dla nielicznych.

Pytań jest dużo, odpowiedzi mało. Martwi jednak fakt, że coraz większa liczba ekspertów zaczyna wypowiadać się negatywnie na temat rozwoju AI.

Pytanie – czy faktycznie mamy się już zacząć bać?

zdj. otwierające – Unsplash.com

Udostępnij

Aleksander PiskorzDziennikarz technologiczny - od niemal dekady publikujący w największych polskich mediach traktujących o nowych technologiach. Autor newslettera tech-pigułka. Obecnie zajmuje się wszystkim co związane z szeroko pojętym contentem i content marketingiem Jako konsultant pomaga również budować marki osobiste i cyfrowe produkty w branży technologicznej. Entuzjasta sztucznej inteligencji. W trybie offline fan roweru szosowego, kawy specialty i dobrej czekolady.