Zespół Google DeepMind oficjalnie stworzył „konstytucję robotów”

Aleksander PiskorzSkomentuj
Zespół Google DeepMind oficjalnie stworzył „konstytucję robotów”

Zespół DeepMind ds. robotyki zaprezentował trzy nowe rozwiązania mające na celu zwiększenie zdolności decyzyjnych robotów w nieprzewidywalnych środowiskach. Jedna z tych innowacji obejmuje system gromadzenia danych szkoleniowych, zwany „Konstytucją Robotów”, który zapewnia, że asystent biurowy robota może pobrać papier do drukarki bez wyrządzania krzywdy jakimkolwiek ludzkim współpracownikom na swojej drodze.

System gromadzenia danych Google, znany jako AutoRT, wykorzystuje połączenie wizualnego modelu językowego i dużego modelu językowego, aby zrozumieć otoczenie, dostosować się do nieznanych ustawień i wybrać odpowiednie zadania. Zainspirowana „Trzema prawami robotyki” Isaaca Asimova, Konstytucja Robota składa się z serii podpowiedzi zorientowanych na bezpieczeństwo, które prowadzą LLM do unikania zadań z udziałem ludzi, zwierząt, ostrych przedmiotów, a nawet urządzeń elektrycznych.

Aby jeszcze bardziej zwiększyć bezpieczeństwo, DeepMind zaprogramował roboty tak, aby zatrzymywały się automatycznie, jeśli obciążenie ich stawów przekroczy określony próg. Dodatkowo zastosowano fizyczny wyłącznik awaryjny, umożliwiający operatorom dezaktywację robotów w razie potrzeby. W ciągu siedmiu miesięcy Google wdrożyło flotę 53 robotów AutoRT w czterech różnych budynkach biurowych, przeprowadzając ponad 77 000 prób.

Animated GIF - Find & Share on GIPHY
Niektóre funkcje robotów projektowanych przez Google

Niektóre roboty w badaniu opierały się na z góry określonym skrypcie, podczas gdy inne działały niezależnie przy użyciu modelu uczenia się Google Robotic Transformer AI, znanego jako RT-2. W konkretnym przykładzie wspomnianym w poście, wizualny model językowy AutoRT obserwował blat z gąbką, ściereczką, torebką chipsów i serwetką. Następnie model uczenia się języka robota zasugerował zadania, takie jak umieszczenie serwetki na blacie i otwarcie torby z frytkami. Proces ten był powtarzany dla każdego zadania, a roboty były wyposażone w kamerę, ramię robota i mobilną bazę.

We wpisie na blogu Google wyjaśniono, że VLM pomógł robotowi zrozumieć otoczenie i zidentyfikować obiekty, podczas gdy LLM działał jako decydent, wybierając odpowiednie zadania do wykonania przez robota. Ponadto DeepMind wprowadził SARA-RT, architekturę sieci neuronowej, która zwiększa dokładność i szybkość Robotic Transformer RT-2.

Roboty nie opanowały jeszcze sztuki samodzielnego serwowania drinków i puchatych poduszek, ale system taki jak AutoRT może utorować im drogę do przyszłego sukcesu. Chociaż wycieranie stołu jest konkretnym zadaniem fizycznym, z którym roboty mogą sobie poradzić, bardziej złożone zadania są wciąż odległym celem.

źródło: Google / fot. Google

Udostępnij

Aleksander PiskorzDziennikarz technologiczny - od niemal dekady publikujący w największych polskich mediach traktujących o nowych technologiach. Autor newslettera tech-pigułka. Obecnie zajmuje się wszystkim co związane z szeroko pojętym contentem i content marketingiem Jako konsultant pomaga również budować marki osobiste i cyfrowe produkty w branży technologicznej. Entuzjasta sztucznej inteligencji. W trybie offline fan roweru szosowego, kawy specialty i dobrej czekolady.