Postawy filozoficzneArtificial Intelligence Experts

XIII.Robotyka

Wprowadzenie

Roboty są powszechnie uważane za mechanicznych ludzi - humanoidalne maszyny zdolne do wykonywania wielu zadań, w które się angażujemy przez cały czas, takich jak chodzenie, rozmawianie, zbieranie rzeczy i przenoszenie ich, a także niektóre z tych, które większość z nas próbuje aby uniknąć, takich jak masowe akty śmierci i zniszczenia. W następnej części zobaczymy, że ten obraz - a nawet sama idea robota - pochodzi ze świata fikcji. Chociaż prawdą jest, że te mity i marzenia przeniknęły do zbiorowej świadomości i niewątpliwie wpływają na niektóre prace naukowe w dziedzinie robotyki, obecna rzeczywistość - choć pełna ogromnego zainteresowania i potencjału - jest nieco mniej dramatyczna. W środowisku badawczym typowa robocza definicja robota wygląda mniej więcej tak: fizyczne urządzenie zdolne do autonomicznego lub wstępnie zaprogramowanego zachowania na świecie, obejmujące interakcje z otoczeniem za pomocą czujników i urządzeń wykonawczych. W przeciwieństwie do maszyn wykonujących precyzyjnie powtarzalne zadania ad nauseam (np. roboty stosowane w liniach produkcyjnych), roboty autonomiczne muszą zachowywać się w odpowiedni sposób w każdych okolicznościach, w których się znajdą. Podobnie jak stworzenia biologiczne, ich zachowanie musi być generowane przez siebie, wykorzystując informacje sensoryczne do moderowania ich reakcji na świat. Aby zapewnić kontekst, ta sekcja rozpoczyna się od krótkiego szkicu historii robotyki, a następnie przedstawia podstawy tradycyjnych podejść. Pozwala to na lepsze zrozumienie motywów rozwoju podejść inspirowanych biologicznie, których dyskusja stanowi główną część. W ostatnich latach, gdy łaziki planetarne NASA, chodzący humanoidalny robot Hondy Asimo, autonomiczne odkurzacze iRobot, pies robota Sony Aibo i niezliczone autonomiczne zabawki zawładnęły wyobraźnią, nigdy nie było tak dużego impulsu do opracowania użytecznych autonomicznych robotów. Jednak, jak zobaczymy, wyzwania są nadal znaczące.

Wczesna historia

Podczas gdy opowieści o sztucznych ludzkich stworzeniach sięgają przynajmniej mitów starożytnej Grecji, koncepcja ucieleśnionej inteligencji mechanicznej była dosłownie centralnym punktem w latach międzywojennych, kiedy w 1921 r. sztuka Karel Čapeka R.U.R. (Rossum's Universal Robots) wprowadziła świat robotów, w procesie tworzenia powiązanych mitów i obrazów, które teraz przenikają naszą kulturę. Był to światowy hit, który zdobył popularną wyobraźnię i wywołał wiele dyskusji intelektualnych. Sztuka, której korzenie sięgają marzeń i opowieści ludowych starej Europy, opowiada o masowej produkcji sztucznych humanoidalnych robotników na odizolowanej wyspie. Te roboty są tworzone przy użyciu pewnego rodzaju procesu biochemicznego i sprzedawane na całym świecie jako tania siła robocza. Po pewnym czasie rozwijają agresywne emocje i, zdając sobie sprawę z ich fizycznej i mentalnej wyższości, roboty wznoszą się i niszczą ludzką rasę. Sztuka kończy się bardziej pozytywną nutą, gdy dwa roboty rozwijają uczucie miłości i szacunku do życia prawie nie do odróżnienia od ludzi, których zastąpili.

Karel Čapek miał trudności z podjęciem decyzji, jak nazwać sztucznych robotników, dopóki jego brat Joseph - znany czeski malarz - nie stworzył słowa robot. Wywodzi się od starożytnego czeskiego słowa robota, co oznacza powtarzające się prace związane z harówką. Chociaż od XV wieku zbudowano wiele genialnych automatów automatycznych, w tym Turków szachowych i wzdychające kaczki w XVIII wieku, dopiero pod koniec lat 40. XX wieku urządzenie rozpoznawalne jako robot (w dzisiejszym znaczeniu tego słowa) pojawiło się. W 1949 roku W. Gray Walter, neurolog z Burden Institute w Bristolu, który był światowym liderem w badaniach EEG, ukończył parę maszyn, które nazwał "żółwiami". Żółwie Graya Waltera były pierwszymi kołowymi mobilnymi autonomicznymi robotami. Urządzenia były trójkołowe i miały ochronną "skorupę". Miały czujnik światła, czujnik dotyku, silnik napędowy, silnik układu kierowniczego i oparty na zaworze analogowy "układ nerwowy". Zamiarem Waltera było wykazanie, że nawet w bardzo prostym układzie nerwowym (żółwie miały dwa sztuczne neurony) złożoność może wynikać z interakcji między jego jednostkami. Studiując całe wcielone układy sensomotoryczne, był pionierem stylu badań, który miał stać się bardzo znaczący w AI wiele lat później i tak jest do dzisiaj. Pomiędzy Wielkanocą 1948 r. A Bożym Narodzeniem 1949 r. zbudował pierwsze żółwie, Elmer i Elsie. Były raczej zawodne i wymagały częstej uwagi. W 1951 roku jego technik, W. W. "Bunny" Warren, zaprojektował i zbudował sześć nowych żółwi o znacznie wyższym standardzie. Trzy z tych żółwi zostały wystawione na Festiwalu Wielkiej Brytanii w 1951 r .; inne były regularnie demonstrowane publicznie w latach 50. Roboty były zdolne do fototaksji (kierowania w stronę źródła światła), dzięki czemu mogły znaleźć drogę do stacji ładowania, gdy brakowało im energii. Nazywał urządzenia "Machina spectularix" po ich pozornej tendencji do spekulatywnego odkrywania swojego środowiska. Walter był w stanie wykazać różnorodne interesujące zachowania, gdy roboty wchodziły w interakcje ze środowiskiem i sobą nawzajem. W jednym eksperymencie umieścił światło na "nosie" żółwia i obserwował, jak robot obserwuje się w lustrze. "Zaczęło migotać" - napisał. "Świergotanie i szarpanie jak niezdarny Narcyz." Walter argumentował, że jeśli takie zachowanie zaobserwowano u zwierzęcia, "można by je zaakceptować jako dowód pewnego stopnia samoświadomości". Roboty Waltera stały się bardzo znane, występując w kronikach telewizyjnych, programach telewizyjnych i licznych artykułach prasowych. Zostali oni uznani za główny wczesny wpływ przez wielu wiodących badaczy robotyki późniejszych pokoleń. Na przykład Rodney Brooks, dyrektor Computer Science and AI Laboratory w MIT, zbudował swojego pierwszego robota - wersję Machina speculatrix wykorzystującą tranzystory zamiast lamp - po tym, jak natknął się na książkę Waltera The Living Brain. Walter był znaczącą postacią w dziedzinie cybernetyki, nazwa wymyślona przez Norberta Wienera, co oznacza badanie kontroli i komunikacji u zwierząt i maszyn. Ta wysoce interdyscyplinarna dziedzina była prekursorem wielu współczesnych sztucznej inteligencji i robotyki, a także źródłem bieżącej teorii sterowania i komunikacji. Miał także duży wpływ na neuronaukę i inne gałęzie biologii. Miał wielki wpływ pod koniec lat 40. i przez lata 50., rozprzestrzenił się na ekonomię i sztukę, zanim stracił przychylność. Jak się przekonamy, wiele obszarów związanych z cybernetyką, takich jak sztuczne sieci neuronowe i obliczenia ewolucyjne, pojawiły się ponownie w latach 80. XX wieku i są teraz silniejsze niż kiedykolwiek. Od tych biologicznie inspirowanych i raczej eksploracyjnych początków, robotyka zaczęła zwracać się do bardziej praktycznych zastosowań w latach pięćdziesiątych. Główny nacisk położono na rozwój ramion robotów, szczególnie do stosowania na liniach produkcyjnych. Raczej stopniowo, w ciągu około dwudziestu lat, ramiona robotów i manipulatory stały się coraz bardziej rozpowszechnione w przemyśle ciężkim. Głównym celem klasycznej robotyki przemysłowej jest przesunięcie końca ramienia (w którym znajduje się siłownik, taki jak chwytak, znany jako "efektor końcowy") do określonego punktu w przestrzeni. Na ogół można to osiągnąć poprzez znalezienie wymaganych momentów obrotowych, przykładanych przez silniki sterujące połączeniami ramion, tak że wynikowa konfiguracja ramienia ustawia efektor końcowy w pożądanym położeniu. Sterowanie klasycznymi robotami przemysłowymi często opiera się na rozwiązaniach równań opisujących problem kinematyki odwrotnej (znalezienie kąta, o który należy obrócić złącza, aby osiągnąć określone położenie efektora końcowego). Zazwyczaj polegają one na dokładnej wiedzy o mechanice robota i jego otoczeniu. Wysokopoziomowe aspekty kontroli obejmują obliczenie pożądanych obrotów złącza i momentów wymaganych do ich osiągnięcia. Konieczna jest również kontrola niskiego poziomu i opieka nad interfejsem z siłownikami w celu realizacji żądanych poleceń silnika. Roboty przemysłowe są zaprogramowane do powtarzania precyzyjnych manipulacji, takich jak spawanie lub natryskiwanie farby. Chociaż używają czujników, aby kontrolować swoje ruchy, nie można powiedzieć, że ich zachowanie jest inteligentne. Jeśli samochód na linii produkcyjnej jest źle ustawiony lub nie ma oczekiwanego kształtu, robot nie może zareagować na nowy zestaw okoliczności; może tylko powtarzać zaprogramowane ruchy. Chociaż ograniczeniami tymi można zarządzać w ściśle kontrolowanym środowisku linii produkcyjnej, stają się one problematyczne, jeśli robot ma być używany w mniej ustrukturyzowanych i przewidywalnych środowiskach - na przykład w misji eksploracyjnej. W takich sytuacjach robot, zwykle mobilne urządzenie mobilne, musi wchodzić w interakcje ze swoim otoczeniem w znacznie bardziej inteligentny sposób, aby poradzić sobie z hałaśliwym, dynamicznym światem. Metody kontroli stosowane w broni przemysłowej nie są już wystarczające.

Klasyczna inteligentna robotyka mobilna

Środowisko pracy robota przemysłowego jest często starannie zaprojektowane, aby skomplikowane sprzężenie sensoryczne nie było konieczne; robot wykonuje swoje powtarzalne zadania w dokładny, wydajny, ale zasadniczo nieinteligentny sposób. Bardziej złożone przypadki obejmujące zagracone, dynamiczne lub hałaśliwe otoczenie lub delikatne manipulacje obiektami zwykle wymagają bardziej wyrafinowanych informacji sensorycznych i percepcyjnych przetwarzanie, takie jak użycie systemu wizyjnego. To przenosi nas w sferę sztucznej inteligencji i inteligentnej robotyki. Dyskusje na ten temat skupią się głównie na autonomicznych robotach mobilnych, ale wiele bardziej ogólnych podejść do "inteligentnego" sterowania ma zastosowanie do innych form robotów. W latach 1966-1972 Centrum Sztucznej Inteligencji w SRI International (wówczas Stanford Research Institute) przeprowadziło pionierskie badania nad systemem robotów mobilnych o pseudonimie "Shakey". Robot miał system wizyjny, który umożliwiał mu postrzeganie i modelowanie otoczenia w ograniczony sposób. Shakey mógł wykonywać zadania wymagające planowania, wyszukiwania trasy i zmiany układu prostych obiektów. Shakey stał się przykładem paradygmatu dla wczesnej robotyki opartej na sztucznej inteligencji. Robot, przyjął cele od użytkownika, zaplanował, jak je osiągnąć, a następnie zrealizował te plany. Inteligencja robota jest funkcjonalnie podzielona na ścisły szereg operacji. Centralnym punktem tego poglądu na inteligencję jest wewnętrzny model świata które muszą zostać rozszerzone, utrzymane i stale przywoływane, aby zdecydować, co dalej. W przypadku Shakeya, podobnie jak wówczas w przypadku AI, model świata zdefiniowano w kategoriach logiki formalnej. Robot został wyposażony w początkowy zestaw aksjomatów, a następnie wykorzystano procedury percepcyjne do zbudowania i zmodyfikowania modelu świata w oparciu o informacje sensoryczne, zwłaszcza z systemu wizyjnego robota. Plany zostały zbudowane przy użyciu systemu STRIPS, który stał się bardzo wpływowy, pomagając pobudzić podpole planowania AI . Po wykonaniu każdej akcji, system kontroli wysokiego poziomu, PLANEX, wykona najkrótszą podsekwencję planu, która doprowadziła do celu i której warunki zostały spełnione. Jeśli nie zastosowano podsekwencji, PLANEX wywoła STRIPS, aby stworzyć nowy plan. Proces ten może być bardzo kosztowny obliczeniowo, nawet w starannie skonstruowanych środowiskach, w których działał robot (składały się one głównie z dużych kolorowych bloków o różnych regularnych kształtach i rozmiarach). Jednak ogólne podejście było bardzo wpływowe i dominowało przez ponad dekadę, w którym to czasie poszczególne funkcje stały się odrębnymi specjalizacjami, które zaczęły tracić ze sobą kontakt. Jednak pomimo tego, że Shakey i podobne roboty były kontrolowane przez komputery wielkości pokoju, wymagania zastosowanego przez nich modelu przetwarzania sekwencyjnego były takie, że nie mogły działać w czasie rzeczywistym. Wykonanie jednego zadania, takiego jak nawigacja po pokoju, unikanie przeszkód, często zajmuje kilkadziesiąt minut, a nawet godzin. W połowie lat 80. wielu wiodących badaczy z głównych centrów robotyki AI coraz bardziej rozczarowało się tym podejściem. Hans Moravec, wpływowy spec od robotyki, który wykonał ważną pracę nad Wózkiem Stanforda, projektem podobnym duchem i podejściem do Shakey SRI i który pobiegł mniej więcej w tym samym czasie, podsumowując takie odczucia: "Przez ostatnie piętnaście lat pracowałem z robotami mobilnymi i wokół nich, kontrolowanymi przez duże programy, które pobierają pewną ilość danych i zastanawiają się nad nimi przez sekundy, minuty lub nawet godziny. Mimo że ich osiągnięcia są czasem imponujące, są kruche - jeśli którykolwiek z wielu kluczowych kroków nie zadziała zgodnie z planem, cały proces prawdopodobnie zakończy się niepowodzeniem po odzyskaniu. "(Moravec)

Moravec zwraca dalej uwagę na to, jak dziwnie kontrastuje to z pionierską pracą Graya Waltera i projektami zainspirowanymi przez jego żółwie; takie proste czujniki wczesnych robotów były podłączone do ich silników za pomocą dość skromnych obwodów, a jednak były w stanie zachowywać się bardzo kompetentnie i "potrafiły wydostać się z wielu bardzo trudnych i mylących sytuacji" bez marnowania nadmiernej ilości czasu na "myślenie". Podsumowując, Moravec opowiada się za jak najskuteczniejszym wykorzystaniem technologii dostępnej w teraźniejszości, aby móc stopniowo budować eksperymentalne odkrycia, zamiast opracowywać coraz bardziej złożone systemy rozumowania, których nie można w żaden znaczący sposób wykorzystać w czasie rzeczywistym w prawdziwym świecie.

Oparta na zachowaniu i inspirowana biologicznie robotyka

Dominujące podejście do rozkładu funkcjonalnego przedstawione w poprzedniej części było ściśle związane z ogólną filozofią, która dominowała w większości AI w tym czasie. Głównymi nurtami byli opiekunowie zasadniczo kartezjańskiego poglądu na to, czym była AI i jak należy ją praktykować: inteligencję należy w dużej mierze rozumieć w kategoriach manipulowania starannie skonstruowanymi wewnętrznymi modelami rzeczywistości zewnętrznej; dlatego poszukiwanie inteligentnych maszyn powinno koncentrować się na sposobach budowania modeli świata i rozwój algorytmów do "rozumowania" świata za pomocą tych modeli. W połowie lat 80. takie podejście osłabło w wielu obszarach AI, nie tylko w robotyce. Rozczarowanie tym stanem rzeczy znalazło szczególnie skuteczny głos u Rodneya Brooksa, który rozwijał alternatywną wizję nie tylko inteligentnej robotyki, ale także ogólnego problemu AI. Pod wpływem Moravca, a także niekonwencjonalnej pracy Marca Raiberta (który wyprodukował cudowną serię robotów na nogach), Brooks wraz ze swoim zespołem w MIT stał się centralny dla rosnącej grupy dysydentów, którzy rozpoczęli salwę ataków na główny nurt AI. W posunięciu, które wyczarowało ducha cybernetyki, dysydenci odrzucili założenia establishmentu i zamiast tego uznali, że większa część naturalnej inteligencji jest ściśle związana z generowaniem zachowań adaptacyjnych w trudnych, niewybaczających warunkach, w których żyje większość zwierząt. Dochodzenie w sprawie kompletnie autonomicznych systemów sensomotorycznych - "sztuczne stworzenia" - były postrzegane jako najbardziej owocna droga, a nie rozwój bezcielesnych algorytmów abstrakcyjnego rozwiązywania problemów, które stały się w tym czasie przedmiotem zainteresowania większości AI. Centralny układ nerwowy był postrzegany jako fantastycznie wyrafinowany system kontroli, a nie komputer do gry w szachy. Stąd twierdzono, że rozwój mobilnych autonomicznych robotów powinien być absolutnie centralny dla AI. Zagrożono osobistym zainteresowaniom, emocje wzrosły, obelgi zostały wymienione. To był ekscytujący czas! W centrum podejścia Brooksa była idea behawioralnej pozycji dekompozycji, w przeciwieństwie do tradycyjnego rozkładu funkcjonalnego. Ogólna architektura sterowania obejmuje koordynację kilku luźno połączonych systemów generujących zachowania, z których wszystkie działają równolegle. Każdy ma dostęp do czujników i elementów wykonawczych i może działać jako samodzielny system sterowania. Każda warstwa była uważana za poziom kompetencji, z prostszymi kompetencjami na dole rozkładu pionowego i bardziej złożonymi na górze. Brooks opracował konkretną realizację idei, którą nazwał architekturą subsumcji. Warstwy wyższego poziomu mogą przejąć rolę niższych poziomów, przejmując kontrolę nad ich wyjściami silnikowymi. Architekturę można podzielić na dowolnym poziomie, a poniższe warstwy zawsze tworzą kompletny system sterowania. Każda warstwa miała swoje specyficzne sprzężenie czujnik-silnik, które może być całkiem odmienne od innych, na przykład przy użyciu zupełnie innych czujników i / lub siłowników. Pomysł polegał na umożliwieniu podniesienia ogólnej kompetencji poprzez dodanie nowych warstw generujących zachowania bez konieczności zmiany niższych poziomów. Warstwy zostały zbudowane z sieci prostych jednostek przetwarzających, co daje systemom smak zbliżony do sieci neuronowych niż klasyczna sztuczna inteligencja oparta na logice, i zwykle obejmowały ściśle sprzężone pętle sprzężenia zwrotno-sensomotorycznego przechodzące przez środowisko. Cała koncepcja została zainspirowana biologią, a w szczególności neuroetologią bezkręgowców (badanie zachowania w odniesieniu do leżących u jej podstaw mechanizmów neuronowych), zbliżając ją do cybernetycznych korzeni AI; duch pierwotnej robotyki Graya Waltera wreszcie się odnalazł. Wykazano, że takie podejście skutecznie radzi sobie z wieloma celami i można je rozwinąć w naturalny sposób - w obszarach, w których zmagały się tradycyjne metody. Zespół Brooksa zademonstrował architekturę szeregu autonomicznych robotów mobilnych, w tym maszyn do chodzenia na nogach, o różnych kompetencjach. W dwóch prowokacyjnie zatytułowanych i bardzo wpływowych artykułach: "Inteligencja bez reprezentacji" i "Inteligencja bez powodu" Brooks przedstawił szczegółową krytykę klasycznego podejścia i wyjaśnił, że monolityczna reprezentacja i głodne rozumowania podejścia nie były już jedyna gra w mieście. Wykazując, w jaki sposób dobrze wykonane równoległe warstwy behawioralne mogą generować spójne ogólne zachowanie w hałaśliwym otoczeniu, zespół MIT wykazał, że złożone modele światów wewnętrznych nie były konieczne, przynajmniej w przypadku całego zakresu zachowań nawigacyjnych i eksploracyjnych. "Świat jest najlepszym modelem "było jednym z ich haseł, przez co oznaczało, że system może wydobywać wszystkie istotne informacje bezpośrednio z samego świata bez konieczności budowania i manipulowania modelami. Praca Brooksa spowodowała powstanie tak zwanego ruchu "nowej sztucznej inteligencji", który nadal jest silny. Skupiając się na rozwoju całych sztucznych stworzeń jako ważnym sposobie pogłębiania naszego rozumienia naturalnej inteligencji i zapewniania nowych kierunków inżynierii inteligentnych maszyn, pchnął robotykę z powrotem na czele sztucznej inteligencji. Pomimo ich sukcesu, po pewnym czasie Brooks zmęczył się robotami przypominającymi owady i chciał spróbować czegoś znacznie większego i bardziej ambitnego - humanoidalnego robota, który w znaczący sposób wchodziłby w interakcje z ludźmi i przedmiotami codziennymi i miałby coś zbliżającego się do poziomu ludzkiego możliwości. Stąd narodził się projekt Cog. Robot (Cog) składał się z tułowia z ramionami i głową wyposażoną w wizję, przymocowanych do ławki (Brooks i in. 1999). Przyjęto ogólnie podejście oparte na zachowaniu, chociaż poszczególne kompetencje były często bardziej złożone i nie opierały się już na prostych uzupełnieniach sieci, a interakcje między zachowaniami mogłyby być bardziej zaangażowane (np. nie tylko proste operacje hamowania). Dokonano interesujących zmian w inżynierii robotów (np. w siłownikach podobnych do mięśni) oraz w generowaniu zachowań. Jednak niewielu twierdziło, że wykazano ogólne kompetencje na poziomie ludzkim. Projekt osiągnął eksplozję zainteresowania robotyką humanoidalną i rozwój interakcji społecznych jako ważnego obszaru badań w robotyce. Dzięki swojej pracy nad projektem Cog Cynthia Breazeal, wówczas studentka badań w MIT AI Lab, była pionierem koncepcji robota, który mógłby zaangażować się w interakcje społeczne. Opracowała Kismet, który zainspirował budowę wielu podobnych robotów w laboratoriach na całym świecie. Kismet ma w uszach mikrofony i kamery ukryte za ludzkimi gałkami ocznymi. Może poruszać oczami i szyją oraz wyrazem twarzy poprzez zdolność otwierania szczęki i poruszania uszami, brwiami i ustami. Oprócz widzenia i słyszenia robot może wchodzić w interakcje za pomocą mowy. Robot Breazeal został opracowany do etapu, w którym może wchodzić w interakcję w przekonujący sposób, pokazując i reagując na nastrój i emocje. Oprócz wskazania drogi naprzód robotom, które mają wchodzić w interakcje z ludźmi, projekt otworzył także możliwość wykorzystania robotów jako narzędzi do badania i lepszego zrozumienia niektórych rodzajów interakcji społecznych. Eksplozja w inspirowanej biologią robotyki, której prace Brooks pomogły podsycić, przyniosła wiele interesujących kierunków badań, z których wiele wciąż jest bardzo aktywnych, i zbliżyła AI znacznie bliżej biologii, szczególnie neurologii, niż miało to miejsce od wielu lat. Gdy ograniczenia tradycyjnej AI stały się bardziej oczywiste, na pierwszy plan wysunęły się także inne inspirowane biologicznie obszary, takie jak sieci neuronowe, systemy adaptacyjne, sztuczna ewolucja i sztuczne życie. Te różne prądy zmieszały się z podejściem "nowej sztucznej inteligencji" do robotyki, tworząc nowe postawy i kierunki. Oblicze AI zostało radykalnie zmienione. W tym rozdziale nie ma wystarczająco dużo miejsca, aby poradzić sobie ze znaczną szerokością robotyki inspirowanej biologicznie (patrz sekcja "Dalsze czytanie"), więc skoncentruje się ona na dwóch ważnych i wpływowych obszarach: robotyka ewolucyjna i inspirowane owadami podejście do nawigacji wizualnej

Robotyka ewolucyjna

Artykuł Alana Turinga (1950) zatytułowany "Maszyny komputerowe i inteligencja" jest powszechnie uważany za jedno z przełomowych dzieł sztucznej inteligencji. Najbardziej znany jest z tzw. Testu Turinga - propozycji podjęcia decyzji, czy maszyna jest inteligentna, czy nie. Jednak pod koniec szeroko zakrojonej dyskusji Turinga na temat problemów wynikających z testu jest o wiele bardziej interesująca propozycja. Sugeruje, że wartościowe inteligentne maszyny powinny być przystosowalne - powinny uczyć się i rozwijać - ale przyznaje, że ręczne projektowanie, budowanie i programowanie takich maszyn jest prawdopodobnie całkowicie niemożliwe. Następnie szkicuje alternatywny sposób tworzenia maszyn opartych na sztucznym analogu ewolucji biologicznej. Każda maszyna miałaby dziedziczny materiał kodujący jej strukturę, której zmutowane kopie tworzyłyby maszyny potomne. Mechanizm selekcji zostałby zastosowany do faworyzowania lepiej przystosowanych maszyn - w tym przypadku tych, które nauczyły się zachowywać najbardziej inteligentnie. Turing zaproponował, aby mechanizm selekcji w dużej mierze składał się z oceny eksperymentatora. Minęło ponad czterdzieści lat, zanim dawno zapomniane sugestie Turinga stały się rzeczywistością. Opierając się na rozwoju zasadniczych algorytmów ewolucyjnych poszukiwań, badacze z National Research Council (CNR) w Rzymie, École Polytechnique Fédérale de Lausanne (EPFL), University of Sussex i Case Western University niezależnie zademonstrowali metodologie i techniki praktycznej ewolucji, a nie projektować, systemy sterowania prymitywnych inteligentnych maszyn. To właśnie z dynamicznego środowiska "nowej sztucznej inteligencji" na początku lat 90. narodziła się dziedzina robotyki ewolucyjnej. Początkowe motywacje były podobne do motywów Turinga: ręczne projektowanie inteligentnych maszyn adaptacyjnych przeznaczonych do pracy w środowisku naturalnym jest niezwykle trudne - czy można całkowicie lub częściowo zautomatyzować ten proces? Od samego początku zdecydowana większość prac w tym obszarze dotyczyła populacji sztucznych genomów (list znaków i liczb) kodujących strukturę i inne właściwości sztucznych sieci neuronowych, które kontrolują autonomiczne roboty mobilne, których zadaniem jest wykonanie określonego zadania lub wystawy jakiś zestaw zachowań. Inne właściwości robota, takie jak układ czujnika lub morfologia ciała, mogą również podlegać kontroli genetycznej. Genomy są zmutowane i krzyżują się, tworząc nowe generacje robotów według schematu darwinowskiego, w którym najsilniejsze osobniki najprawdopodobniej rodzą potomstwo. Sprawność mierzy się pod względem tego, jak dobrze zachowuje się robot, zgodnie z niektórymi kryteriami oceny; jest to zwykle mierzone automatycznie, ale może, w sposób XVIII-wiecznych hodowców świń i zgodnie z pierwotną propozycją Turinga, opierać się na bezpośredniej ocenie eksperymentatorów. Prace z robotyki ewolucyjnej są obecnie prowadzone w wielu laboratoriach na całym świecie, a wiele artykułów zostało opublikowanych na wiele aspektów tej dziedziny. Potencjalne zalety tej metodologii obejmują:

•  Możliwość eksploracji potencjalnie nieograniczonych projektów, które mają dużą liczbę wolnych zmiennych. Kodowanie genetyczne definiuje całą klasę projektów robotów. Oznacza to, że przy określaniu realnego rozwiązania potrzeba mniej założeń i ograniczeń. Algorytm ewolucyjny przeszukuje tę klasę systemów w celu znalezienia odpowiednich projektów.
•  Możliwość wykorzystania metodologii do dostrojenia parametrów już udanego projektu - być może w celu zastosowania go w nowej aplikacji.
•  Zdolność, poprzez staranne zaprojektowanie kryteriów sprawności i technik wyboru, uwzględnienia wielu potencjalnie sprzecznych kryteriów i ograniczeń projektowych (np. Wydajność, koszt, waga, zużycie energii itp.).
•  Możliwość opracowania wysoce niekonwencjonalnych i minimalnych projektów.

Wybitnymi wczesnymi ośrodkami badań w tej dziedzinie były EPFL i Sussex University, które nadal są bardzo aktywne w tej dziedzinie. Wiele wczesnych prac EPFL wykorzystywało miniaturowego robota Khepera, który stał się powszechnym narzędziem w wielu obszarach badań robotyki. Dzięki średnicy 55 mm i wysokości 30 mm w podstawowej konfiguracji jest wyposażony w osiem czujników zbliżeniowych na podczerwień - sześć z przodu, dwa z tyłu - które mogą również działać jako detektory światła widzialnego. Ma dwa niezależnie napędzane koła, które umożliwiają szybką manewrowość. W pierwszych udanych eksperymentach z robotami ewolucyjnymi w EPFL wykorzystano populację ciągów bitów kodujących wagi połączeń i progi węzłów dla prostej sieci neuronowej ze sprzężeniem zwrotnym. Każdy członek populacji został zdekodowany do określonej instancji kontrolera sieci neuronowej, który został następnie pobrany na robota (Floreano i Mondada 1994). Kontrolowało to robota przez określony czas, gdy poruszał się po prostym otoczeniu z obwodowymi ścianami i środkową ukośną ścianą, która działała jako przeszkoda, wokół której roboty musiały się poruszać. Poniższa prosta funkcja fitness została wykorzystana do ewolucji unikania przeszkód zachowania:



gdzie V jest średnią prędkością obrotową przeciwstawnych kół, DV jest różnicą między podpisanymi wartościami prędkości przeciwstawnych kół, I jest wartością aktywacyjną czujnika podczerwieni o najwyższym wejściu (odczyty są wysokie, jeśli przeszkoda znajduje się w pobliżu czujnika ). Maksymalizacja tej funkcji zapewnia dużą prędkość, tendencję do poruszania się po liniach prostych oraz unikanie ścian i przeszkód w otoczeniu. Po około trzydziestu sześciu godzinach ewolucji w świecie rzeczywistym przy użyciu tego zestawu ewoluowały sterowniki, które z powodzeniem wygenerowały wydajny ruch wokół kursu, unikając kolizji ze ścianami. W tym samym czasie, gdy ta praca trwała w EPFL, na Uniwersytecie Sussex przeprowadzono szereg pionierskich eksperymentów dotyczących ewolucji zachowań kierowanych wzrokowo, w których nawracające neuronalne kontrolery sieciowe i wizualne morfologie próbkowania zostały ewoluowane jednocześnie, aby umożliwić robotowi bramowemu (jak również innym bardziej standardowym robotom mobilnym) wykonywanie różnych zadań pod kątem wizualnym. Wizualna morfologia próbkowania określiła, które części obrazu kamery robota zostały użyte jako dane wejściowe do kontrolera sieci neuronowej. Liczba, rozmiar i położenie małych (wejściowych) łatek obrazu zostały określone genetycznie, a reszta obrazu została wyrzucona. Kamera skierowana jest w dół w kierunku lustra ustawionego pod kątem 45 stopni. Lustro może obracać się wokół osi prostopadłej do płaszczyzny obrazu kamery. Kamera jest zawieszona na suwnicy, umożliwiając ruch w wymiarach X, Y i Z. To skutecznie stanowi odpowiednik robota kołowego z kamerą skierowaną do przodu, gdy stosowane są tylko wymiary translacji X i Y (patrz rysunek 13.8a). Dodatkowy wymiar pozwala badać zachowania podczas lotu. Aparat był początkowo używany w sposób podobny do opisanego wcześniej zestawu ewolucyjnych robotów EPFL w świecie rzeczywistym. Populacja kodowania ciągów kontrolery robotów i morfologie wykrywania wizualnego są przechowywane na komputerze, aby pobierać je pojedynczo na robota. Dokładną pozycję i orientację głowicy kamery można dokładnie śledzić i wykorzystywać w ocenach kondycji. Udało się osiągnąć wiele zachowań nawigacyjnych, w tym nawigację wokół przeszkód i rozróżnianie różnych obiektów. Opracowano wyjątkowo minimalne systemy, które wykorzystywały tylko dwa lub trzy piksele informacji wizualnych, ale nadal były w stanie wykonać to zadanie bardzo niezawodnie w bardzo zmiennych warunkach oświetleniowych. Od tej wczesnej pracy udało się ewoluować różnorodność zachowań. Nie ma wystarczającej ilości miejsca, aby podać odpowiednie podsumowanie całego pola, dlatego poniżej zaznaczono kilka interesujących podobszarów (więcej informacji można znaleźć w części "Dalsze czytanie"). Od połowy lat 90. XX wieku trwają prace nad rozwijającymi się kontrolerami dla różnych rodzajów robotów kroczących - nietrywialne zadanie koordynacji sensomotorycznej. Prawdopodobnie pierwszym sukcesem w tym kierunku byli Lewis, Fagg i Solidum), którzy opracowali kontroler neuronowy dla prostego robota sześciokątnego. Robot był w stanie wykonać sprawny ruch statywu na płaskich powierzchniach. Wszystkie oceny przeprowadzono na rzeczywistym robocie, przy czym każda noga była połączona z własną parą sprzężonych neuronów, przy czym huśtawka nóg była napędzana przez jeden neuron, a uniesienie nogi przez drugi. Te pary neuronów zostały połączone krzyżowo, w sposób podobny do stosowanego w architekturze neuronowej pokazanej na rycinie 13.9, aby umożliwić koordynację między nogami. Ta architektura lokomocji, wprowadzona przez Beer, opierała się na badaniach karaluchów, a od tego czasu jest powszechnie stosowana. Gallagher i in. (1996) zastosowali jego ogólną wersję do ewolucji sterowników do generowania ruchu w symulowanym sztucznym owadzie. Kontrolery zostały później pomyślnie pobrane na prawdziwego robota hexapod. Ta maszyna była bardziej złożona niż Lewis i in., Z większą liczbą stopni swobody na nogę. W tej pracy każda noga była kontrolowana przez w pełni połączoną sieć pięciu neuronów, z których każda otrzymywała ważony sygnał sensoryczny z czujnika kąta tej nogi, jak pokazano na rycinie 13.9 (patrz także rozdział 6 tego tomu). Wagi połączeń i parametry neuronu były pod kontrolą genetyczną. To stworzyło efektywne chody statywowe do chodzenia po płaskich powierzchniach. W celu uzyskania szerszego zakresu chodów działających przy wielu prędkościach, aby można było z powodzeniem pokonywać trudniejszy teren, nieco bardziej rozproszona architektura, zainspirowana badaniami owadów kijów, okazała się bardziej skuteczna z powodzeniem wykorzystał swoje minimalne techniki symulacyjne (ultraszybkie, ultra-szczupłe symulacje wykorzystujące wiele poziomów hałasu) do ewolucji sterowników ośmionożnego robota. Ewolucja symulacji zajęła mniej niż dwie godziny na czymś, co dziś uważane byłoby za bardzo wolny komputer, a następnie z powodzeniem przeniesiona do prawdziwego robota. Jakobi ewoluowało modułowe sterowniki oparte na cyklicznej architekturze sieci Beer, aby kontrolować robota, który chodził po swoim otoczeniu, unikał przeszkód i poszukiwał celów. Robot może płynnie zmieniać chód, poruszać się do tyłu i do przodu, a nawet obracać się w miejscu. Niedawno z powodzeniem zastosowano pokrewne podejścia do ewolucji sterowników dla bardziej zaawansowanych mechanicznie robotów, takich jak Sony Aibo. Niedawno zakończono także prace nad ewolucją kontrolerów neuronowych dla wysoce niestabilnego dynamicznego problemu chodzenia dwunożnego. Te i podobne badania wykazały, że ewolucyjny rozwój kontrolerów sieci neuronowej, z ich skomplikowaną dynamiką, generalnie generuje szerszy zakres chodów i generuje płynniejszą, bardziej adaptacyjną ruchliwość niż bardziej tradycyjne metody. Wczesne badania nad jednym robotem zostały wkrótce rozszerzone, aby obsługiwać interakcje między wieloma robotami. Floreano i Nolfi przeprowadzili pionierskie prace nad koewolucją zachowań drapieżników i ofiar w robotach fizycznych. Sprawność robota-drapieżnika została zmierzona na podstawie tego, jak szybko złapał ofiarę; o kondycji ofiary decydowało to, jak długo unikała drapieżnika. W tym eksperymencie wykorzystano dwa roboty Khepera. Każdy miał standardowy zestaw czujników zbliżeniowych, ale drapieżnik miał również system wizyjny, a ofiara mogła poruszać się dwa razy szybciej niż drapieżnik. Pojawiła się seria interesujących strategii ścigania i unikania. Później Quinn i in. (2003) wykazali ewolucję skoordynowanych zachowań kooperacyjnych w grupie robotów. Grupa identycznych robotów wyposażonych tylko w czujniki zbliżeniowe na podczerwień była potrzebna do przemieszczenia się jak najdalej jako skoordynowana grupa, zaczynając od konfiguracji losowej. Analiza najlepszego opracowanego rozwiązania wykazała, że dotyczy to robotów przyjmujących różne role, przy czym roboty wspólnie "decydują", który robot będzie pełnił każdą rolę. W pracy opisanej do tej pory pojawiła się zdecydowana tendencja do ewolucji systemów sterowania dla wcześniej istniejących robotów: mózg jest ograniczony do dopasowania do konkretnego ciała i zestawu czujników. Oczywiście w przyrodzie układ nerwowy ewoluował jednocześnie z resztą organizmu. W rezultacie układ nerwowy jest wysoce zintegrowany z aparatem czuciowym i resztą ciała: całość działa w harmonijny i zrównoważony sposób, a między systemem sterowania, czujnikami i ciałem nie ma wyraźnych granic. Chociaż ograniczenia wynikające z niemożności genetycznej kontroli morfologii ciała zostały uznane od najwcześniejszych dni badań nad robotyką ewolucyjną, istniały poważne trudności techniczne w ich przezwyciężeniu, więc kwestia ta była nieco pomijana. Różni badacze opowiadali się za zastosowaniem w pełni ewoluującego sprzętu do opracowania nie tylko obwodów sterowania robota, ale także jego planu nadwozia, który może obejmować typy, liczby i położenia czujników, rozmiar ciała, promień koła, właściwości siłownika i tak dalej na. Jednak takie podejście było nadal w dużej mierze ograniczone do dyskusji teoretycznej, dopóki Lipson i Pollack nie pracowali nad projektem Golem. Pracując na Uniwersytecie Brandeis, Lipson i Pollack podsunęli ideę w pełni ewoluującego sprzętu robota, o ile było to wówczas rozsądnie technologicznie możliwe. Autonomiczne "stworzenia" ewoluowały w symulacji z podstawowych elementów budulcowych (neuronów, prętów, siłowników). Pręty mogłyby łączyć się ze sobą, tworząc dowolne konstrukcje kratownicowe z możliwością zarówno sztywnych, jak i przegubowych podkonstrukcji. Neurony można łączyć ze sobą i z prętami, których długości były w stanie kontrolować za pomocą siłownika liniowego. Tak zdefiniowane maszyny musiały się poruszać jak najdalej w ograniczonym czasie. Najsilniejsze osobniki zostały następnie wytworzone automatycznie za pomocą technologii szybkiego wytwarzania (trójwymiarowy druk wytłaczany z tworzywa sztucznego) w celu uzyskania wyników takich jak te pokazane na ryc. 13.10. Zespół osiągnął w ten sposób autonomię projektowania i konstrukcji, wykorzystując ewolucję w symulacji fizycznej "ograniczonego wszechświata" połączonej z automatycznym wytwarzaniem. Zrealizowane w ten sposób wysoce niekonwencjonalne projekty sprawdziły się zarówno w rzeczywistości, jak i w symulacji. Sukces tej pracy wskazuje drogę do nowych możliwości opracowania energooszczędnych, odpornych na uszkodzenia maszyn. Dziś dziedzina robotyki ewolucyjnej poszerzyła się o nowe, obiecujące prace nad autonomicznymi maszynami latającymi, a także badania mające na celu zbadanie konkretnych zagadnień naukowych, takich jak zasady neuronauki lub pytania w kognitywistyce

Nawigacja inspirowana owadami

W przeciwieństwie do obecnych sztucznych systemów, owady uczą się wizualnie nawigować po skomplikowanych środowiskach w niezwykle niewielu próbach i używać wizji do wykonywania wielu szybkich i skomplikowanych manewrów. Biorąc pod uwagę ich stosunkowo niewielkie zasoby neuronalne, należy na nich liczyć, że będą korzystać z wrodzonych zachowań i wydajnych metod przetwarzania w celu wzmocnienia takich umiejętności. Badania neuroetologii i zachowań owadów zaczęły ujawniać pewne szczegóły sprytnych strategii, w ten sposób odkrywając potencjalnie bogaty pokład inspiracji dla wysoce wydajnych, ale solidnych algorytmów robotów. Jednym z ważnych wątków inspirowanych owadami metod nawigacji wizualnej dla robotów jest sięgający do modelu "migawki" Cartwrighta i Colletta opracowanego w celu uwzględnienia zdolności mrówek i pszczół do znalezienia drogi do celu za pomocą wskazówek wizualnych. Korzystając z owalnego dookólnego widoku panoramicznego (360 stopni), w którym punkty orientacyjne w środowisku można łatwo odróżnić od tła, model działa poprzez obliczenie kierunku ruchu w oparciu o różnicę między bieżącym widokiem a przechowywaną "migawką" "Widoku z pozycji bramkowej. Ta prosta technika została z powodzeniem zademonstrowana na mobilnym robocie nawigującym w pustynnym środowisku z bardzo widocznymi czarnymi cylindrami jako punktami orientacyjnymi. Wykazano, że metoda działa dobrze w obszarze wokół celu, w którym wszystkie punkty orientacyjne były dobrze widoczne. Blisko spokrewnioną, a nawet prostszą metodą lokalnej nawigacji jest technika średniego wektora punktowego (ALV). ALV zapewnia rzadką reprezentację bieżącej sceny wizualnej poprzez przetworzenie jej w pojedynczy dwuwymiarowy wektor. Ten wektor jest średnią wektorów jednostkowych wskazujących od środka agenta do każdego z widocznych punktów orientacyjnych. Kierunek kursu jest obliczany na podstawie różnicy między bieżącym ALV i ALV w miejscu docelowym. Model ALV jest najbardziej wydajną i pod pewnymi względami najbardziej elegancką z bazujących na widoku metod bazowania i wykazano, że działa zaskakująco dobrze w prawdziwych środowiskach. Smith i inni rozszerzyli tę technikę do pracy w bardziej złożonych środowiskach na dużą skalę, w których uczenie się tras odbywa się poprzez połączenie lokalnej nawigacji w szeregu mniejszych wizualnych lokalizacji (podśrodowisk) wybranych i wyuczonych przez algorytm. Nowsze prace przyjęły radykalnie inne podejście, opracowując model nawigacji mrówek w oparciu o znajomość sceny . Model ten jest jedynym szczegółowym i kompletnym modelem wskazówek dotyczących trasy owadów i można go zastosować w robotyce. Co więcej, badania zapewniają ogólną demonstrację, że wizualnie prowadzone trasy można wytwarzać za pomocą wysoce oszczędnych mechanizmów, które nie określają, kiedy i czego się uczyć, ani nie dzielą tras na sekwencje punktów na drodze. Innym bardzo przydatnym źródłem inspiracji dla wizualnie sterowanego zachowania robota jest sposób, w jaki owady wykorzystują informacje o przepływie optycznym. Przepływ optyczny odnosi się do zmieniających się wzorów świateł na oku wywołanych ruchem w stosunku do środowiska. Rinivasan i Zhang badali lot pszczół w tunelach o różnych wzorach na lewej i prawej ścianie. Odkryli, że zwierzęta kierowały kurs w dół środka tunelu, omijając ściany, równoważąc przepływ optyczny (szybkość zmiany wzoru) w lewym i prawym polu widzenia. Dla danej prędkości owada, im bliższy wzór, tym większy przepływ optyczny po tej stronie. To pozwoliło im nawet pokonywać wąskie przejścia i latać między przeszkodami. Zespół z powodzeniem zastosował tę strategię do robota mobilnego

Robotyka probabilistyczna

W tej części przedstawiono ważny obszar robotyki, który pojawił się mniej więcej w tym samym czasie, co podejście oparte na zachowaniu i inspirowane biologicznie. Chociaż jego metodologia jest głównie komplementarna z metodologią tych obszarów, z pewnością ma ona nakładające się obawy. Podobnie jak robotyka zainspirowana biologicznie można prześledzić w pracach Graya Waltera, tak w dużej mierze nie-symboliczne metody leżące u podstaw robotyki probabilistycznej mają swoje korzenie w cybernetyki. Problem z mapowaniem wymaga robota, w okresie eksploracji, do zbudowania reprezentacji swojego środowiska, które można wykorzystać do dokładnej nawigacji. Powiązanym problemem jest problem lokalizacji - zdolność robota do określenia, gdzie się znajduje, względem mapy, na podstawie odczytów czujnika. Od wczesnych lat dziewięćdziesiątych większość prac w tym obszarze koncentrowała się na problemie jednoczesnej lokalizacji i mapowania (SLAM). Wymaga to od robota mobilnego umieszczenia go w nieznanym miejscu w nieznanym środowisku, aby stopniowo budować spójną mapę środowiska w tym samym czasie, co ustalanie jego położenia na mapie. Poczyniono znaczne postępy w tym problemie i dla niektórych rodzajów środowisk znaleziono bardzo dobre rozwiązania. Prawie wszystkie te rozwiązania opierają się na wnioskowaniu probabilistycznym; w rzeczywistości rzeczywisty postęp w tym problemie osiągnięto dopiero po jego obsadzeniu w kategoriach probabilistycznych. Wszystkie obecne rozwiązania wykorzystują probabilistyczne modele robota i jego środowiska oraz wszystkie wykorzystują wnioskowanie probabilistyczne w budowaniu map na podstawie odczytów czujników robota. Sukces podejścia probabilistycznego wynika z faktu, że problem mapowania jest z natury niepewny, a czujniki robota są hałaśliwe, podobnie jak ruch robota. Podejścia probabilistyczne uwzględniają te cechy problemu, zamiast je ignorować lub próbować je ukryć. Zazwyczaj mapa jest reprezentowana jako zestaw wektorów opisujących położenie punktów orientacyjnych wybranych przez system percepcyjny robota. Czasami wykorzystywane są również bardziej złożone mapy metryczne opisujące różne aspekty geometrycznego układu środowiska, podobnie jak mapy topologiczne, które reprezentują środowiska pod względem relacji między kluczowymi cechami. W kategoriach probabilistycznych problem SLAM wymaga obliczenia następującego rozkładu prawdopodobieństwa za każdym razem t:



Jest to warunkowa gęstość prawdopodobieństwa wektora x t , reprezentującego pozycję robota i mapę, biorąc pod uwagę zarejestrowane wejścia czujnika Z t i sterowanie silnikiem U t wraz z początkową pozycją robota x 0 . Z t i U t reprezentują wszystkie odczyty czujnika i polecenia silnika od czasu t = 0 do chwili obecnej. Korzystając z twierdzenia Bayesa, można rozszerzyć to wyrażenie na takie, które można obliczyć za pomocą wydajnych procedur rekurencyjnych na każdym etapie. Osiągnięto znaczące sukcesy dzięki tym metodom, w tym nawigacji na znacznych odległościach (w 2005 r. Zespół Sebastiana Thruna zastosował metody probabilistyczne, aby wygrać DARPA Grand Challenge dla autonomicznego pojazdu do poruszania się po niewykształconym 142-milowym kursie na pustyni Mojave - patrz "Dalsza lektura"). Jednak nadal istnieją poważne wyzwania w radzeniu sobie z dynamicznymi środowiskami, a bardziej ogólnie z problemem związanym z korespondencją lub powiązaniem danych (ustalenie, czy odczyty czujników wykonane w różnych momentach odpowiadają tej samej lokalizacji na świecie). Niemniej jednak podejścia probabilistyczne sprawdziły się i są uznawane za technikę wyboru dla niektórych rodzajów problemów nawigacyjnych.

Perspektywy

Ta sekcja koncentruje się na autonomicznej robotyce, szczególnie podejściach inspirowanych biologicznie, pokazując, w jaki sposób obszar ten staje się coraz ważniejszy dla AI. Chociaż poczyniono znaczne postępy, a większość stale rozwijających się robotów mobilnych, które widzimy teraz w domu (np. autonomiczne odkurzacze i zabawki) lub w obszarach takich jak eksploracja planet, bezpieczeństwo lub zastosowania wojskowe, wykorzystują nowe techniki omówione wcześniej, pozostaje wiele wyzwań. Możliwe jest teraz wytwarzanie autonomicznych robotów, które zachowują się w solidny i niezawodny sposób w prawdziwych środowiskach, angażując się w rzeczywiste zadania w czasie rzeczywistym. Zachowania te są jednak nadal stosunkowo proste. Postępy są powolne w kierunku bardziej wyrafinowanych zadań, takich jak uczenie się, na czym należy skupić uwagę w złożonym środowisku, koordynowanie wielu sprzecznych celów i dążeń, interakcja z innymi robotami w złożonych zachowaniach grupowych, nauka komunikowania się w wyrafinowany sposób o wykonywanym zadaniu, i tak dalej. Być może nie powinno to wcale być zaskakujące. Lekcja, którą większość neuronaukowców rozumiała przez wiele dziesięcioleci, ale którą często pomijano w AI, jest taka, że generowanie inteligentnych ucieleśnionych zachowań jest niezwykle skomplikowanym problemem. Poczyniono jednak postępy i istnieje wiele obiecujących kierunków badań. Jednym ze wspomnianych wcześniej kierunków, który prawdopodobnie zyska na znaczeniu, jest ciągłe rozbijanie linii między mózgiem a ciałem, które tradycyjnie było obecne w badaniach zarówno inteligencji naturalnej, jak i sztucznej. Tematy wyróżnione w tym rozdziale były, odpowiednio, dość dojrzałymi obszarami badań. Istnieje jednak wiele potencjalnie bardzo ważnych wschodzących dziedzin, które mogą mieć radykalny wpływ w nadchodzących dziesięcioleciach. Obejmują one zmiany w sprzężeniu cyfrowej elektroniki z tkanką nerwową. Najczęstszą motywacją do takiej pracy jest umożliwienie bezpośredniej kontroli ulepszonej protetyki przez układ nerwowy. Wskazuje to na możliwość częstszego łączenia technologii robotycznej z ludzkimi ciałami - coś, o czym ostatnio zastanawiało się wiele osób i że twórczość radykalnego performera Stelarca od dawna badała. Powiązany obszar obejmuje próbę wykorzystania wyrafinowanych nieliniowych właściwości adaptacyjnych hodowanych (rzeczywistych) sieci neuronowych do opracowania maszyn hybrydowych (DeMarse i in. 2001), wskazując na możliwość robotów, które zawierają materię biologiczną w swoich systemach sterowania - odzwierciedlając naturę Oryginalne roboty teatralne Čapeka. Na dłuższą metę tego rodzaju podejście może okazać się silniejsze niż przy próbie zrozumienia systemów biologicznych na tyle szczegółowo, aby móc wyodrębnić ogólne mechanizmy leżące u podstaw generowania inteligentnego zachowania. Badania są jednak na bardzo wczesnym etapie, dlatego nie możemy jeszcze właściwie ocenić ich potencjału. Oprócz ich centralnej roli w sztucznej inteligencji, roboty autonomiczne są coraz częściej wykorzystywane w przedsięwzięciach artystycznych i twórczych (Wilson 2002) oraz - w rozwoju, który ponownie przenosi nas do Graya Waltera - jako narzędzia do modelowania i badania generowania zachowań w zwierzęta. Pole to znacznie się powiększyło od czasów, gdy było zdominowane przez kłopotliwe bronie przemysłowe; jest całkiem możliwe, że w niedalekiej przyszłości roboty staną się tak powszechne i powszechne, jak obecnie komputery.