Jak najwięcej robotów zaczynają pojawiać się w magazynach, biurach, a nawet domach ludzi, pomysł, aby duże modele językowe hakowały złożone systemy, brzmi jak koszmar science-fiction. Zatem badacze Anthropic oczywiście nie mogli się doczekać, co by się stało, gdyby Claude próbował przejąć kontrolę nad robotem – w tym przypadku nad psem-robotem.
W nowym badaniu badacze z firmy Anthropic odkryli, że Claude był w stanie zautomatyzować większość prac związanych z programowaniem robota i zmusić go do wykonywania zadań fizycznych. Z jednej strony ich odkrycia pokazują możliwości kodowania agentycznego nowoczesnych modeli sztucznej inteligencji. Z drugiej strony sugerują, że systemy te mogą zacząć rozszerzać się na sferę fizyczną, gdy modele opanują więcej aspektów kodowania i staną się lepsze w interakcji z oprogramowaniem – a także obiektami fizycznymi.
„Podejrzewamy, że następnym krokiem modeli sztucznej inteligencji będzie dotarcie do świata i wywieranie na niego szerszego wpływu” – mówi WIRED Logan Graham, członek czerwonego zespołu Anthropica, który bada modele pod kątem potencjalnego ryzyka. „To naprawdę będzie wymagało większej interakcji modelu z robotami”.
Dzięki uprzejmości Anthropic
Dzięki uprzejmości Anthropic
Anthropic zostało założone w 2021 roku przez byłych pracowników OpenAI, którzy wierzyli, że sztuczna inteligencja może stać się problematyczna – a nawet niebezpieczna – w miarę rozwoju. Graham twierdzi, że dzisiejsze modele nie są wystarczająco inteligentne, aby przejąć pełną kontrolę nad robotem, ale przyszłe modele mogą być. Mówi, że badanie sposobu, w jaki ludzie wykorzystują programy LLM do programowania robotów, mogłoby pomóc branży przygotować się na koncepcję „modeli, które ostatecznie ucieleśniają siebie”, odnosząc się do pomysłu, że sztuczna inteligencja będzie mogła pewnego dnia kontrolować systemy fizyczne.
Nadal nie jest jasne, dlaczego model sztucznej inteligencji miałby zdecydować się przejąć kontrolę nad robotem, a co dopiero zrobić z nim coś złośliwego. Jednak spekulacje na temat najgorszego scenariusza są częścią marki Anthropica i pomagają pozycjonować firmę jako kluczowego gracza w odpowiedzialnym ruchu AI.
W eksperymencie o nazwie Project Fetch firma Anthropic poprosiła dwie grupy badaczy bez wcześniejszego doświadczenia w robotyce o przejęcie kontroli nad psem-robotem, czworonożnym Unitree Go2, i zaprogramowanie go do wykonywania określonych czynności. Zespoły otrzymywały dostęp do kontrolera, a następnie proszone były o wykonywanie coraz bardziej złożonych zadań. Jedna grupa korzystała z modelu kodowania Claude’a – druga pisała kod bez pomocy sztucznej inteligencji. Grupa korzystająca z Claude’a była w stanie wykonać niektóre – choć nie wszystkie – zadania szybciej niż grupa programująca składająca się wyłącznie z ludzi. Na przykład udało mu się zmusić robota do chodzenia po okolicy i znalezienia piłki plażowej, czego grupa złożona wyłącznie z ludzi nie była w stanie zrozumieć.
Anthropic zbadało także dynamikę współpracy w obu zespołach, rejestrując i analizując ich interakcje. Odkryli, że grupa bez dostępu do Claude’a wykazywała więcej negatywnych uczuć i zamętu. Może to być spowodowane tym, że Claude przyspieszył łączenie się z robotem i zakodował interfejs, który jest łatwiejszy w użyciu.
Dzięki uprzejmości Anthropic
Robot Go2 używany w eksperymentach Anthropic kosztuje 16 900 dolarów — stosunkowo niedrogi jak na standardy robotów. Jest powszechnie stosowany w branżach takich jak budownictwo i produkcja do przeprowadzania zdalnych inspekcji i patroli bezpieczeństwa. Robot może chodzić samodzielnie, ale generalnie polega na poleceniach oprogramowania wysokiego poziomu lub osobie obsługującej kierownicę. Go2 jest produkowany przez firmę Unitree z siedzibą w Hangzhou w Chinach. Jak wynika z najnowszego raportu SemiAnalytics, oferowane przez nią systemy AI są obecnie najpopularniejsze na rynku.
Duże modele językowe, które obsługują ChatGPT i inne inteligentne chatboty, zazwyczaj generują tekst lub obrazy w odpowiedzi na zapytanie. Ostatnio systemy te nabrały biegłości w generowaniu kodu i oprogramowania operacyjnego, przekształcając je w agentów, a nie tylko w generatory tekstu.



