Postawy filozoficzneArtificial Intelligence Experts

III.Wyzwania Filooficzne

Kartezjusz rzekł, że nasz rozum jest "instrumentem uniwersalnym". Ponieważ uważał, że jakikolwiek mechanizm musi mieć jakiś szczególny cel i że żaden zbiór mechanizmów specjalnego przeznaczenia nie może być wystarczająco duży, aby objąć wszystko, co może zrobić powód, doszedł do wniosku, że żaden mechanizm nie może zainicjować ludzkiego rozumu. Tomasz z Akwinu również argumentował, że intelekt nie był zapewniony przez organ materialny. Uważał, że wywołany chorobą gorzki humor może zakłócać naszą słodycz smakową lub każdy inny smak niż gorzki. Analogicznie myślał, że gdyby nasze intelekty były materialne, nie mogliby wiedzieć o rzeczach materialnych o różnych naturach. Większość współczesnych filozofów zaakceptowałaby, że nasza inteligencja jest dostarczana przez nasze materialne mózgi, i dlatego nie byłaby skłonna kwestionować możliwości sztucznie inteligentnych urządzeń ze względu na ich materialność. Pytania i problemy dotyczące sztucznej inteligencji, które pozostały, można podzielić na te, które są w dużej mierze niezależne od konkretnych podejść do sztucznej inteligencji, oraz te, które wynikają z bardziej szczegółowych pomysłów na temat sztucznie wykonalnych architektur poznawczych. Zaczniemy od bardziej ogólnych kwestii.

Pytania ogólne

Terminy wstępne

Niektóre zadania byłyby ogólnie uzgodnione, że wymagają inteligencji do ich wykonania - na przykład znalezienie ilorazu 231 podzielonego przez 42. Można powiedzieć, że urządzenie ma sztuczną inteligencję na wypadek, gdybyśmy mogli go użyć do wykonania zadania, które wymagałoby inteligencji przy wykonaniu przez człowieka. Będę nazywał posiadanie inteligencji w tym sensie "inteligencją zadaniową". Kalkulatory mogą być wykorzystane do znalezienia ilorazu 231 podzielonego przez 42, więc oczywiście nawet kalkulatory mają inteligencję zadaniową. Sztuczna inteligencja zadań nie jest kontrowersyjna; nawet Tomasz z Akwinu ani Kartezjusz nie mieliby powodu, by sprzeciwić się inteligencji zadań. Musimy jednak zauważyć, że kalkulatory nie wiedzą, jakie są odpowiedzi na problemy arytmetyczne, ani nie wiedzą, że wykonują arytmetykę. Jest zatem jasne, że nie jesteśmy uprawnieni do przechodzenia od posiadania inteligencji zadaniowej do większych roszczeń dotyczących inteligencji rzeczy, której możemy użyć do wykonania zadania. Zamierzonym przeciwieństwem inteligencji zadań jest "inteligencja rzeczy". Jeśli urządzenie ma sztuczną inteligencję rzeczy, następnie - urządzenie - jest inteligentne. Kontrowersyjne współczesne pytania dotyczą możliwości sztucznej inteligencji rzeczy i różnych podejść do jej projektowania. Możemy rozróżnić dwa gatunki inteligencji rzeczy, zapożyczając terminologię ze stacji benzynowej. Powiedzmy, że urządzenie ma zaawansowaną, sztuczną inteligencję rzeczy (lub "premium AI"), jeśli ma swoją inteligencję w sposób, który jest pouczający o tym, jak ludzie mają swoją inteligencję rzeczy. Jeśli urządzenie ma swoją inteligencję w sposób, który nie jest pouczający o tym, jak ludzie mają swoją inteligencję, powiedzmy, że ma ona zwykłą, sztuczną inteligencję rzeczową (lub "zwykłą AI"). Należy zauważyć, że zwykła benzyna to prawdziwa benzyna; podobnie, zwykła sztuczna inteligencja to prawdziwa inteligencja. Zgodne z tymi definicjami może się okazać, że nie ma prawdziwej różnicy między AI zwykłą a premium; to znaczy, może się okazać, że jedynym sposobem na dostarczenie inteligencji rzeczy w urządzeniu jest dostarczenie jej w sposób, który byłby pouczający o tym, jak mamy inteligencję. Ale nie jest to z góry przesądzone, dlatego potrzebujemy obu terminów. Searle ) wprowadził rozróżnienie między silną AI a słabą AI. Silna sztuczna inteligencja to teza, że "właściwie zaprogramowany komputer to naprawdę umysł, w tym sensie, że o komputerach posiadających odpowiednie programy można dosłownie powiedzieć, że rozumieją i mają inne stany poznawcze" . Słaba sztuczna inteligencja twierdzi tylko, że komputery stanowią użyteczne narzędzie do rygorystycznego formułowania i testowania hipotez dotyczących umysłu. Rozróżnienie Searle'a pozwoliło mu z łatwością skupić się na argumentach, które my zobaczymy później, były skierowane tylko przeciwko silnej tezie AI. Ale dla bardziej ogólnych celów potrzebujemy właśnie wprowadzonych dalszych rozróżnień. Rozróżnienie regularne / premium pozwala nam rozpoznać dwie możliwości w silnej AI. Rozróżnienie między zadaniami i rzeczami pozwala nam zgodzić się z większością pisarzy, którzy liczą się w pracach w badaniach nad sztuczną inteligencją, przy jednoczesnym uznaniu, że wyzwania filozoficzne są zasadniczo skierowane na twierdzenia, że samo urządzenie może być naprawdę inteligentne lub mieć własne stany poznawcze. Ponieważ nie ma prawdziwego problemu z możliwością inteligencji zadania, niekwalifikowane wystąpienia "inteligencji" w dalszej części zawsze będą oznaczały "inteligencję rzeczy".

Test Turinga

Jeśli przypuszczamy, że możliwe jest sztuczne inteligentne urządzenie, powstaje pytanie, skąd możemy wiedzieć, kiedy udało się je wyprodukować. Chociaż Alan Turing zasugerował, aby zastąpić takie pytania pytaniami dotyczącymi wydajności w jego "grze naśladownictwa", jego propozycja była często traktowana jako test, którego "przejście" wykazałoby, że urządzenie posiada inteligencję. W swojej standardowej interpretacji Test Turinga (jak jest powszechnie znany) składa się z szeregu prób, w których osoba przesłuchująca wchodzi w interakcję zarówno z maszyną, jak i człowiekiem, a po pewnym określonym czasie wydaje wyrok: "X to człowiek, Y to maszyna" lub "Y to człowiek, X to maszyna". Przykłady Turinga (od analizy poezji po problemy arytmetyczne) pokazują, że przesłuchujący sądzą, że rozumieją swoje zadanie polegające na prawidłowej identyfikacji i że powinni mieć jak najszerszą swobodę w pytaniu. Jedynym ograniczeniem, jakie nałożył na wymaganą wydajność, było pokazanie jej za pomocą teletypu. 50-procentowy wskaźnik powodzenia deklaracji osób przesłuchujących oznaczałby, że nie uczyli się niczego na podstawie porównywania odpowiedzi ludzkich i maszynowych z ich sondami, a zbliżone do nich wskaźniki prawdopodobnie liczyłyby się jako "zaliczenie" testu Turinga. Pod warunkiem uzgodnienia, że rozmowa wymaga szerokiego wykorzystania naszej inteligencji, można wysunąć argument, że udane urządzenia (urządzenia, które "przechodzą") ćwiczą inteligencję. Taka umiejętność byłaby odporna na klasyfikację jako zwykłą inteligencję zadań, ponieważ zakres dopuszczalnych sond jest tak szeroki. Co ciekawe, to dzięki zdolności konwersacyjnej Kartezjusz przewidział, że artefakty nigdy nie będą w stanie osiągnąć. W przeciwieństwie do tego Turing ) dokonał słynnej prognozy, że do 2000 roku istniały będą urządzenia, dla których osoby przesłuchujące nie byłyby lepsze niż 70 procent poprawne po pięciu minutach zadawania pytań. Tę nieudaną prognozę należy oczywiście odróżnić od poglądu, że dobre wykonanie testu Turinga pokazałoby, że urządzenie posiadało inteligencję, gdyby takie osiągnięcie rzeczywiście zostało osiągnięte. Od 1990 roku coroczny konkurs o Nagrodę Loebnera miał na celu pobudzenie pracy do tego celu. Udoskonalono alternatywne interpretacje opisu jego procedury przez Turinga i zgłoszono kilka sugestii dotyczących jego ulepszenia. W czasopiśmie Minds and Machines opublikowano w 2000 r. numery z pięćdziesiątej rocznicy, które zawierają omówienie kilku z tych interpretacji i sugestii. Ned Block opisał maszynę, która wydaje się podważać akceptację testu Turinga. Pracownicy zaczynają od wyszczególnienia wszystkich gambitów, od których może rozpocząć śledczy. Te otwieracze są ułożone alfabetycznie i dla każdego z nich odpowiedź jest skomponowana dla maszyny w taki sposób, że połączenie mechanizmu otwierającego przesłuchuhące i odpowiedzi maszyny jest prawdopodobne jako rozmowa ludzka. Następnie pracownicy sporządzają listę i alfabetycznie wszystkie możliwe następne sondy według osób przesłuchujących. (Ponieważ przesłuchujący mogą zmieniać temat, kiedy tylko zechcą, późniejsze sondy będą obejmować prawie wszystkie wcześniejsze). Ponownie, odpowiedzi są tak skomponowane, że każda kombinacja serii otwieracz + odpowiedź + dalsza sonda + odpowiedź jest możliwa jako rozmowa ludzka. Pracownicy kontynuują w ten sposób, dopóki nie zostaną osiągnięte rozmowy o z góry określonej skończonej długości. Podczas próby testu Turinga maszyna po prostu znajduje sondy przesłuchującego w kolejności alfabetycznej , wyświetla listę i zwraca zapisane odpowiedzi. Argumentem wynikającym z tego opisu jest to, że maszyna Blocka przejdzie test Turinga, ale najwyraźniej nie jest inteligentna. (To tylko konserwowanie i zwykłe urządzenie do wyszukiwania i nie ma więcej inteligencji niż system czytnika kodów kreskowych w sklepie spożywczym.) Dlatego test Turinga nie jest dobrym testem dla inteligencji. Mający inne zdanie co do tego argumentu mogą przyznać, że logiczna możliwość maszyny Blocka (inaczej Blockhead) uniemożliwia wykorzystanie testu Turinga jako definicji inteligencji. Mogą jednak nadal twierdzić, że ogrom przestrzeni możliwych sond sprawia, że prawdopodobieństwo faktycznego istnienia maszyny Blocka zanika, a w konsekwencji procedura Turinga może nadal być wysoce skutecznym testem inteligencji

Cel, świadomość i celowość

Zachowanie inteligentne jest celowe; implikuje jakiś cel, nawet jeśli tylko udzielenie prawidłowej odpowiedzi na pytanie. Trudno wyobrazić sobie, że akcja ma sens, chyba że wcześniej czy później przyjemne lub nieprzyjemne doznania cielesne, emocje, transport religijny, uniesienie lub depresja zależą od tego działania. Prawdopodobnie żaden z terminów odnoszących się do takich stanów nie może być w pełni zrozumiany przez istoty, które nie mogą być w żadnym z nich. Te stany są jednak stanami świadomymi. Można zatem uznać, że sztuczna inteligencja wymagałaby sztucznej świadomości. Ponieważ większość podejść do AI nie ma na celu wytworzenia świadomości, można wątpić, że typowe podejścia do AI mogą naprawdę odnieść sukces. Większość badaczy AI byłaby jednak usatysfakcjonowana, gdyby mogli udzielić odpowiednich odpowiedzi na cele*, gdzie cele* są dokładnie takie same, z wyjątkiem tego, że nie obejmują świadomości. Oznacza to, że cele* funkcjonują jako stany celu w odniesieniu do działań, które mogą być organizowane. Celem* maszyny do gry w szachy jest wygrać, a sukces według tego standardu najprawdopodobniej będzie liczony jako sukces zadania AI, nawet jeśli nikt nie podejrzewa, że maszyna czuje radość po wygranej lub smutek gdy przegrywa. Gdyby zakres zadań, do których miałyby zastosowanie podobne uwagi, byłby wystarczająco szeroki i zróżnicowany, inteligencja rzeczowa byłaby prawdopodobnie osiągnięta. Na przykład robot, który mógłby robić zakupy w sklepie spożywczym, w tym oddzielać dojrzałe od niedojrzałych owoców, dostosowywać się do zmian w rozkładach jazdy autobusów, opóźnień związanych z pogodą itd., byłby prawdopodobnie uważany za sztucznie (rzeczowo) inteligentny, bez żadnych przypuszczeń, że ma świadomy gust lub poczucie satysfakcji z dobrze wykonanej pracy. Głębsza linia argumentów utrzymuje, że myśli mogą dotyczyć rzeczy tylko wtedy, gdy są produktami ewolucyjnej historii, w której przetrwanie funkcjonuje jako naturalnie zapewniony cel (Dretske 1995). Ponieważ robotom brakuje wymaganego rodzaju historii ewolucyjnej, można stwierdzić, że ich "myśli" tak naprawdę nie mogą dotyczyć niczego. Kontrowersyjne jest jednak to, czy taka historia jest wymagana dla prawdziwej intencjonalności (przybliżenia). I nawet gdyby uzgodniono, że jest to wymagane, wielu myślicieli z przyjemnością zadowoli się celowością*, to znaczy, że odniesie sukces w dostarczaniu sztucznej inteligencji każdemu robotowi, który nie tylko dobrze mówi, ale także dostosowuje swoje działania do jego słów podczas angażowania się w rzeczywiste obiekty i procesy w czasie rzeczywistym. Posiadanie intencjonalności (a nawet celowości*) sugeruje posiadanie wewnętrznych stanów lub zdarzeń, które reprezentują ziemskie przedmioty i ich właściwości. Przekonamy się, że pytania dotyczące reprezentacji i ich wykorzystania odgrywają ważną rolę w wielu wyzwaniach dla AI. Kolejne wątpliwości dotyczące celowości maszyn i inteligencji robotów zostały podniesione przez Searle′a. Jego zdaniem obliczenia nie są nieodłączne od żadnego systemu fizycznego; zamiast tego jest "krewnym obserwatora", to znaczy wyznaczonym przez posiadaczy prawdziwej intencjonalności, takich jak my. Możemy na przykład postrzegać włącznik światła jako komputer, przypisując 0 do "Wył.", 1 do "Wł." I uznając każdy ruch przełącznika za przyjmujący 0 lub 1 jako wejście i dając odpowiednio 1 lub 0 jako wyjście . Dzięki odpowiedniemu doborowi zadań możemy uznać każdy wystarczająco złożony system za obliczanie wszystkiego, co lubimy. Ponieważ, jak to ujął Searle, składnia nie jest nieodłączna od fizyki, żadne fizyczne zestawienie stanów robota nie mogłoby stwierdzić, że którykolwiek z nich dotyczy niczego, nawet gdybyśmy mogli wybrać zadanie, które uczyniłoby robota użytecznym dla nas. Dysydenci z punktu widzenia Searle′a twierdzą w skrócie, że możemy osiągnąć nieobowiązkowe przypisanie znaczeń zachowaniom lingwistycznym i pozajęzykowym robota, pod warunkiem, że robot jest wystarczająco złożony i kompetentny; uwzględniamy relacje przyczynowe między jego stanem a otoczeniem zewnętrznym; oraz że dodatkowo uwzględniamy jego zachowanie w warunkach alternatywnych. Sukces w tej linii wspierałby przypisywanie inteligencji rzeczy do takiego urządzenia. Przydatne dalsze dyskusje na ten nieco techniczny problem można znaleźć u Chalmersa) i Piccininiego.

Mechanizm a racjonalność

Inteligencja godna tej nazwy powinna przybliżać racjonalność. Czasami uznawano, że racjonalność jest w konflikcie z mechanizmem. Jeśli naprawdę istnieje taki konflikt, sztuczna inteligencja nie będzie możliwa. Domniemany konflikt polega na tym, że racjonalność jest normatywna, a przyczynowość taka jak w urządzeniach takich jak komputery i roboty nie jest. Aby wyjaśnić: bycie racjonalnym wymaga postępowania zgodnie z normami prawidłowego wnioskowania, w tym przypadków dedukcyjnych (np. przyjmowanie modus ponens i odrzucanie potwierdzania wynikających) i przypadków indukcyjnych (np. wnioskowanie o wysokim prawdopodobieństwie z wysokiej częstotliwości w obserwowanych próbkach lub stosowanie zasady całkowity dowód). Ale mechaniczna przyczyna jako taka nie przestrzega norm logicznych; tak łatwo jest sprawić, aby urządzenie wydrukowało 2 + 2 = 5, jak i sprawić, by wygenerowało prawidłowe oświadczenie. Alternatywne sformułowanie tego samego punktu idzie w ten sposób. Istnienie racjonalne można scharakteryzować jako dostosowujące swoje przekonania w świetle dowodów, ponieważ dowody te są rozumiane jako istotne dla przekonania. Ale komputery i roboty zmieniają swoje stany wewnętrzne tylko ze względu na swoje wejścia i okablowanie. Dlatego żadnej z ich zmian stanu nie można uznać za przejaw racjonalności. W odpowiedzi na to wyzwanie zwolennicy sztucznej inteligencji mogą przyznać, że klasa sztucznych urządzeń zawiera wiele przykładów, które nie szanują racjonalności. Inni członkowie klasy mogą być jednak skonstruowani w taki sposób, aby ich operacje mechanistyczne działały równolegle z prawidłowymi zasadami wnioskowania. Operacje mechanistyczne to zmiany lub serie zmian w układach fizycznych, które przebiegają zgodnie z prawami naturalnymi. Układy mechaniczne - np. mechanizmy wahadła zegarowego - są paradygmatycznie mechanistyczne, ale układy elektryczne, układy neuronowe itp. są mechanistyczne, nie będąc mechanicznymi. Zwolennicy sztucznej inteligencji mogą utrzymywać, że ewolucja zaprojektowała nasze mózgi właśnie w ten sposób - to znaczy, że nasze mózgi są mechanizmami neuronowymi, które są uporządkowane tak, aby ograniczyć nasze przekonania według logicznych zasad. To, że taki projekt jest możliwy, ilustrują urządzenia tak proste jak kalkulatory, które wyraźnie działają mechanistycznie, a także wyraźnie przestrzegają zasad arytmetyki. Z tego punktu widzenia problemem sztucznej inteligencji jest znalezienie wzorów, których mechanistyczne operacje równolegle stosują zasady logiczne w szerokim zakresie przypadków. (Dla AI nie jest wymagana doskonała racjonalność, ponieważ ogólnie przyznaje się, że istoty ludzkie są inteligentne, ale nie idealnie racjonalne). Urządzenia wskazane właśnie tego rodzaju mogą nie mieć zmian stanu spowodowanych relacjami logicznymi lub dowodowymi; ale zostanie uznane, że równie dobrze jest, jeśli projekt uzupełnia swój zestaw przekonań tylko w przypadkach, w których zachodzi właściwa relacja logiczna lub dowodowa. Na poparcie tej koncepcji można argumentować, że tak musi być z ludźmi. Relacje logiczne i dowodowe są bytami abstrakcyjnymi, a zatem nie mogą być przyczyną konkretnych zdarzeń. Tylko urządzenia, których projekty ograniczają zdarzenia w sobie, aby były zgodne z zasadami logicznymi i dowodowymi, mogą mieć przyczyny zmian zgodne z tymi zasadami. Wolną wolę często kojarzy się z racjonalnością, a to powiązanie może stanowić wyzwanie dla AI. Roboty, bez względu na to, jak wyrafinowane, podlegałyby deterministycznym prawom, a zatem niektórzy twierdzą, że brakuje im racjonalności, ponieważ zgodnie z jedną tradycją systemy deterministyczne nie mają wolnej woli. Oczywiście takie stanowisko byłoby niezgodne z uznaniem ludzkiej inteligencji za całkowicie wytłumaczalną w odniesieniu do aktywności naszych materialnych mózgów. Istnieje jednak długoletnia tradycja "zgodna", zgodnie z którą wolna wola nie stoi w sprzeczności z mechanizmem deterministycznym.. Mówiąc ogólnie, tradycja ta ma wolną wolę, by być obecną, gdy procesy rozumowania mają normalny wpływ na zachowanie. Pozbawienie wolności nastąpi tylko wtedy, gdy procesy rozumowania (takie jak wyprowadzanie konsekwencji działań) zostaną zakłócone przez uszkodzenie, obejście lub unieważnienie przez brutalną siłę. Wydaje się, że to rozróżnienie między procesami rozumowania, które działają normalnie, a procesami rozumowania zakłócanymi na różne sposoby które dotyczą operacji robotów. Zatem jeśli tradycjonalistyczną tradycję można podtrzymać na niezależnych podstawach, podejrzenie konfliktu między robotyczną inteligencją a wolną wolą może zostać wyeliminowane.

Argumenty gödlowskie

Gödel udowodnił wynik matematyczny, który czasami utrzymywał, że implikuje ograniczenie inteligencji maszynowej. Aby zrozumieć wiarygodność tego poglądu, możemy zacząć od wyobrażenia sobie leczenia arytmetyki wzorowanego na traktowaniu geometrii przez Euklidesa. Oznacza to, że możemy sobie wyobrazić system zaczynający się od niektórych aksjomatów, które (biorąc pod uwagę standardowy schemat interpretacji znaków w systemie) dotyczą dodawania i mnożenia. Na przykład jednym z aksjomatów może być wzór, którego standardowa interpretacja to "Liczba n jest taka, że dla dowolnej liczby m n razy m równa się m". Dalszy rozwój systemu składałby się wówczas ze wzorów wyprowadzonych z aksjomatów, których standardowymi interpretacjami byłyby wyrażenia arytmetyczne. Gödel zajmował się systemami formalnymi, to znaczy systemami, w których można zdefiniować dowód w kategoriach wyraźnych reguł dodawania formuł do systemu. Przykładem takiej reguły jest to, że jeśli instrukcje p i p → q są już twierdzeniami systemu, to q można dodać do listy twierdzeń. Intuicyjnie wydaje się, że dwie pożądane właściwości w formalnym systemie arytmetycznym są pożądane. Po pierwsze, powinno być spójne; oznacza to, że nasz system nie powinien zawierać dowodów na dwie formuły, których standardowe interpretacje są sprzeczne wzajemnie. Po drugie, chcielibyśmy, aby nasz system był kompletny; to znaczy chcielibyśmy mieć taki system, aby dla każdego prawdziwego wyrażenia arytmetycznego istniała formuła dająca się wyprowadzić w systemie, którego standardową interpretacją jest to wyrażenie. Niesamowity wynik Gödela polegał na tym, że żaden formalny system arytmetyczny nie może być spójny i kompletny. Aby streścić długą i trudną historię, Gödel pokazał, w jaki sposób każdej formule proponowanego systemu formalnego dla arytmetyki można przypisać unikalną liczbę (jej "liczbę Gödela"). Następnie wykazał, że każdy system, który przewidywał pewną część arytmetyki, może być wykorzystany do konstruowania formuł, których standardowa interpretacja mówi, że formuła o liczbie Gödela N nie jest twierdzeniem tego systemu. Wreszcie był w stanie wykazać, że każdy system, który przewidywałby tę część arytmetyki, zawierałby pewną formułę (nazwijmy to G (g), zdanie Gödela dla systemu), którego interpretacja brzmiała: "Formuła z liczbą Gödela N nie da się udowodnić w "s", a którego liczba Gödela wynosiła N. Gdyby ten wzór był możliwy do udowodnienia w s, wówczas formuły standardowo interpretowalne jako "G(s) jest możliwy do udowodnienia", a "G(s) nie jest możliwy do udowodnienia" byłyby możliwe do uzyskania, i system byłby niespójny. Jeśli jednak G(s) nie jest możliwe do udowodnienia w systemie, wówczas to, co mówi, jest prawdziwym wyrażeniem arytmetycznym, którego nie można uzyskać w systemie, a zatem system jest niekompletny. Argument oparty na tym wyniku rozpoczyna się od obserwacji, że każdy mechanizm może być reprezentowany jako system formalny, w którym wyniki mechanizmu odpowiadają twierdzeniom tego systemu formalnego. A zatem, ponieważ wszystkie formalne systemy muszą być niespójne lub niekompletne dla arytmetyki, każdy mechanizm musi albo wytwarzać niespójne wyniki, albo nie być w stanie przedstawić wszystkich prawd arytmetyki. W szczególności mechanizm nie byłby w stanie wygenerować G(s), gdzie "s" jest systemem formalnym reprezentującym ten mechanizm. Jednak niektórzy myśliciele argumentowali, że wykorzystując idee zawarte w metodzie Gödela w celu udowodnienia swojego twierdzenia, ludzcy matematycy mogliby zrozumieć prawdę o dowolnej twierdzeniu arytmetycznym, w tym zdanie Gödela o jakiejkolwiek formalnej system, który można zaproponować jako reprezentujący ich zdolności poznawcze. I mogliby to zrobić bez zaprzeczania sobie. Jeśli jest to słuszne, ludzkie zdolności poznawcze przewyższają możliwości każdego możliwego mechanizmu. Wielu filozofów skrytykowało różne aspekty tej próby zastosowania dzieła Gödela. Kluczowy punkt niezgody zaczyna się od spostrzeżenia, że domniemane ograniczenie zdolności mechanizmów wymaga wykazania, że istnieje coś, co możemy zrobić, ale maszyny nie. Jednak zarówno mechanizm reprezentowany przez system, jak i my (jeśli przestudiujemy pracę Gödela) możemy to udowodnić

1.Jeśli s jest spójne, to nie może udowodnić G(s).
Ale ani my, ani mechanizm reprezentowany przez s nie możemy tego udowodnić
2 s nie może udowodnić G (s).

Oczywiście, jeśli ludzcy matematycy mogliby udowodnić, że są konsekwentni, mogliby argumentować, że zastąpienie siebie przez "s" umożliwiłoby im wyprowadzenie (2). Doprowadziłoby to do sprzeczności (ponieważ G(s) mówi, że s nie mogą udowodnić G(s)), a zatem byliby w stanie odrzucić przypuszczenie, że można je zastąpić "s". Ponieważ w tym argumencie s może być dowolnym mechanizmem, wynikałoby z tego, że ludzcy matematycy zawsze mogliby słusznie odrzucić przypuszczenie, że są one równoważne z mechanizmem. Jednak ta linia obrony opiera się na założeniu, że ludzcy matematycy mogą okazać się konsekwentni. Nie jest oczywiste, że można to zrobić. Ponadto kolejnym rezultatem Gödela jest to, że jeśli system formalny jest spójny, nie może zawierać dowodu, że tak jest. Jeśli nie możemy udowodnić, że jesteśmy konsekwentni, pozostaje otwarte, że (1) da się udowodnić zarówno przez maszyny, jak i przez nas, i (2) nie da się udowodnić przez żadne; różnica w tym, co jest możliwe dla nas, a co dla maszyn, nie zostanie pokazana.

Klasyczne podejście do AI

Jeżeli uważa się, że istnieją wątpliwości co do możliwości inteligencji maszynowej, powstaje pytanie, w jaki sposób można uzyskać inteligencję maszynową. Rozważymy trzy wiodące podejścia do tego pytania. Klasyczne podejście do AI (aka GOFAI, czyli Good Old-Fashioned Artificial Intelligence, po Haugelanda) rozwinęło się na podstawie czynników omówionych w poprzednich sekcjach. Zasady logiczne (lub reguły) mają zastosowanie do zdań i, ogólnie rzecz biorąc, zależą od warunków i wewnętrznej struktury tych zdań. (Na przykład zaakceptowanie "Wszystkie nietoperze są ssakami, wszystkie ssaki są ciepłokrwistymi, dlatego wszystkie nietoperze są ciepłokrwiste" zależy od docenienia siły "wszystkich" oraz tożsamości i kolejności podmiotu oraz predykatów występujących w tych stwierdzenia.) Wydaje się zatem naturalne, aby rozumieć inteligencję (naturalną lub sztuczną) jako obejmującą stany, które odpowiadają terminom i strukturom terminów oraz regułom działania na tych terminach i strukturach. I reguły wydają się bardzo naturalnie zawarte w programach - w rzeczywistości postać "Jeśli warunek X jest spełniony, zrób Y, w przeciwnym razie z Z" można opisać jako regułę dla Y, jeśli X, i Z, jeśli nie X. Kontynuując tę koncepcję, jeden może traktować wprowadzane dane jako (ustrukturyzowane) przedstawienie faktów, a programy jako sposoby ucieleśnienia zasad manipulacji takimi przedstawieniami. Klasyczne podejście do sztucznej inteligencji napotkało wiele dobrze znanych wyzwań, które teraz rozważymy.

Chiński Pokój Searle′a

Schank i Abelson powiązali rozumienie ze scenariuszami, na które składa się zgromadzona wiedza na temat struktury konkretnych sytuacji - na przykład jedzenie w restauracji lub pójście na przedstawienie teatralne. Krótka uwaga lub historia może wywoływać scenariusz, a wiedza zawarta w skrypcie może być następnie wykorzystana do ustalenia oczekiwań i odpowiedzi. Schank i Abelson twierdzili, że zdobywamy wiele skryptów i że "większość zrozumienia opiera się na skryptach". Prace Schanka i Abelsona stanowiły tło dla słynnego artykułu Johna Searle′a. Searle wyobrażał sobie siebie w pokoju zawierającym skrypty w języku chińskim, opowiadania w języku chińskim oraz program (w języku angielskim), który zezwalał na operacje na chińskich znakach wyłącznie ze względu na ich kształty (tj. nie zapewniono ani tłumaczeń, ani sposobów ich tłumaczenia). Searle wyobrażał sobie otrzymywanie pytań napisanych po chińsku i uruchamianie programu. Czasami program nakazał kopiowanie kształtu na kartce papieru, a ich seria została ostatecznie przekazana rodzimym użytkownikom języka chińskiego poza pokojem. Searle pozwolił, aby odpowiedzi te były tak dobre (z punktu widzenia pytających), jak się chce, aby ludzie z zewnątrz mieli wszelkie powody, by sądzić, że coś w pokoju rozumie pytania. Ale w rzeczywistości Searle nie znał chińskiego i nic nie rozumiał; z jego punktu widzenia nie było to nic więcej niż identyfikacja zawijasów i zawijasów w różnych pozycjach i sekwencjach oraz okazjonalne kopiowanie kształtów na papier wyjściowy. Jeśli zostanie przekazany artykuł w języku chińskim: "Krzycz, jeśli chcesz hamburgera", Searle może rozdać chińską gazetę "Tak, chciałbym hamburgera", ale nie miałby powodu krzyczeć, nawet jeśli był bardzo głodny. Argument Searle′a przyznaje możliwość pewnego rodzaju osiągnięcia, i wygodnie będzie mieć termin na to osiągnięcie. W tym celu wprowadzam termin "elastyczność" w następujący sposób.

X ma elastyczność = dfX może odpowiednio reagować na szeroki zakres nowych okoliczności

"Odpowiedni", "szeroki zakres" i "nowość" nie są precyzyjnymi terminami, ale nie są oczywiście mniej precyzyjne niż "inteligencja" i wydaje się, że zdefiniowana elastyczność obejmuje przynajmniej część tego, czego można oczekiwać od czegokolwiek, co podobno ma inteligencję. Searle charakterystycznie zaprzecza programom nie elastyczność, ale zrozumienie, a jednym ze sposobów wyrażenia jego wniosku jest to, że elastyczność można osiągnąć bez zrozumienia. Innym jest to, że formalne manipulowanie symbolami (tj. manipulowanie symbolami wyłącznie na podstawie ich kształtów) jest nieodpowiednie do zadania polegającego na zapewnieniu zrozumienia. Zwykła biegłość syntaktyczna, jakkolwiek właściwa i szeroka, nie może zapewnić treści semantycznej (znaczenia; zrozumienia). Demonstracja elastyczności nie jest zatem demonstracją inteligencji, jeśli "inteligencja" wymaga zrozumienia. Formalne manipulowanie symbolami jest dokładnie tym, co robią komputery, więc to, co robią komputery, nie jest wystarczające do zapewnienia zrozumienia. Mogą zawierać słowa, które my, rozumiejący, możemy zebrać na temat rzeczy na świecie; ale dla nich nie ma intencjonalności - to znaczy, że ich symbole są tylko kształtami i nie dotyczą w ogóle niczego. Searle rozważył szereg zastrzeżeń do swojego argumentu. Najważniejszym z nich jest odpowiedź systemowa. Możemy myśleć o odpowiedzi systemowej jako twierdzeniu o tym, gdzie narysować właściwą najkrótszą granicę osoby rozumiejącej; mianowicie, ma być narysowany wokół całego systemu, gdzie cały system obejmuje nie tylko człowieka wewnątrz, ale także program i skrypty. To całe osoby rozumieją historie i pytania, a nie ich centra językowe czy płaty czołowe. Podobnie, jak mówi ,odpowiedź systemowa, nie ma znaczenia, że pewna część systemu (tj. człowiek w chińskim pokoju) nie jest osobą rozumiejącą; jest to cały chiński pokój, któremu należy przypisać zrozumienie. Odpowiedź Searle′a na odpowiedź systemową polegała na wyobrażeniu sobie, że zapamiętuje program i skrypty oraz wykonuje program, sprawdzając jego pamięć. Efektem internalizacji programu i skryptów w pamięci jest to, że granica systemu jest teraz taka sama jak granica ciała Searle′a. Jednak, jak argumentował Searle, nadal nie zrozumiałby słowa po chińsku, nawet jeśli wyniki jego niesamowitego programu mentalnego byłyby napisane produktami, które rodzimi użytkownicy języka chińskiego uważali za nienaganną poprawność. Chińska instrukcja "Krzycz, jeśli chcesz hamburgera" nadal nie dawałaby Searle′owi powodu, by krzyczeć, nawet jeśli napisał po chińsku: "Tak, chciałbym hamburgera". Kolejną ważną odpowiedzią, którą Searle rozważał, jest odpowiedź robota. Ta odpowiedź stanowi istotną koncesję na argument Searle′a, a mianowicie, że zwykły komputer nie rozumie, bez względu na to, jak dobre są jego ustne odpowiedzi. Ale to mówi, że gdyby wyjścia komputera zostały wykorzystane do napędzania robota, w taki sposób, aby działania pasowały do słów, cały robot zrozumiałby. W takim przypadku istniałyby analogie percepcji i działania, które łączyłyby słowa z przedmiotami i sytuacjami na świecie. Na przykład komputer, który odpowiedział na pytanie "Co powinieneś zrobić, jeśli poczujesz zapach dymu?" , "Wyjdź z pokoju" może jej w ogóle nie zrozumieć. Załóżmy jednak, że robot ma czujnik dymu i załóżmy, że jego zdolność do generowania dobrej odpowiedzi jest powiązana z mechanizmami transdukcji, które również zmuszają go do opuszczenia pomieszczenia, gdy jego czujnik dymu jest stymulowany. Taki robot ,można wtedy powiedzieć ,nie tylko o dobrej grze, ale także o zrozumieniu tego, co mówi. Prawdopodobieństwo tej sugestii staje się tym silniejsze, im szerszy jest zakres nowych odpowiedzi, którym towarzyszą odpowiednie działania, jakie sobie wyobrażamy. Searle odpowiedział na odpowiedź robota, aby wyobrazić sobie scenariusz, w którym przebywa on w chińskim pokoju, w którym znajduje się robot. On postępuje tak jak poprzednio; ale teraz, bez wiedzy, wiadomości, które przekazuje z Chińskiego Pokoju, napędza nie tylko mowę robota, ale także jego właściwe działania. Searle zauważył, że w tym scenariuszu nadal nie zrozumiałby żadnego słowa, które przetwarza, i stwierdza, że robot, którym (nieświadomie) kontroluje, nie ma zamiaru. Niestety, pomimo poświęcenia części temu, co nazywa "odpowiedzią łączoną", Searle tak naprawdę nie odnosi się do rezultatów zebrania odpowiedzi systemowej i odpowiedzi robota. Ta kombinacja pozwala na zastrzeżenie, że istotną granicą dla osoby rozumiejącej w przypadku robota nie jest człowiek w środku, ale cały robot. Co więcej, internalizujący ruch Searle w odpowiedzi na odpowiedź systemową nie zadziała tutaj; robotyczny analog internalizacji skryptów i programu wymagałby internalizacji mechanizmów, które sterują odpowiednimi działaniami. Na przykład robot, który jest uruchamiany przez programy Searle, może nie tylko dać słowny komunikat "Gdy baterie są rozładowane, najlepiej jest przejść do najbliższej ładowarki", ale także przejść do najbliższej ładowarki, gdy baterie są rozładowane. Brak wyraźnego rozważenia tej możliwości przez Searle'a pozostawia otwarty argument na zarzut, że chociaż miał rację, że komputery nie rozumieją, nie wykazał, że odpowiednio zorganizowane roboty nie mogą zrozumieć tego, co mówią. Pytanie, co trzeba zrobić, aby nadać sztucznie wytworzonym słowom prawdziwą treść semantyczną, zostało omówione przez innych, w szczególności przez Harnada pod frazą "problem uziemienia symbolu".

Praca Dreyfusa

Hubert Dreyfus podniósł wpływową serię powiązanych wyzwań dla klasycznego podejścia do sztucznej inteligencji. Możemy zacząć je rozumieć, wracając do naszego przykładu kalkulatorów. Prawdą jest, że takie urządzenia zawierają zasady arytmetyczne; jednak prawdopodobnie nie są (rzeczowo) inteligentne. Inteligencja wymagała odkrycia zasad arytmetycznych, a kalkulatory w ogóle nie rozpoczęły tego projektu. Można je uznać za zwykłe narzędzia, w których przechowujemy pewien produkt naszej inteligencji, i jako takie nie rzucają światła na to, czego potrzeba, aby być inteligentnym. Bardziej złożone urządzenia mogą przechowywać bardziej imponujące produkty naszej inteligencji, ale wnioski, które należy wyciągnąć, są zasadniczo takie same. Inteligencja wymaga umiejętności ustalenia, jakie reguły zastosować - i kiedy można je zastosować - a maszyny, które przechowują reguły, nie zaczynają tego robić, bez względu na to, jak przydatne mogą być jako narzędzia. Wyzwanie to można pogłębić, zauważając, że inteligencja przejawia się w zdolności rozpoznawania tego, co jest istotne dla każdego zadania. Ale ogólnie rzecz biorąc, znaczenie zależy od wszystkich funkcji obecnych (lub nieobecnych!) w danej sytuacji. Zatem uzyskanie uznania znaczenia poprzez zastosowanie reguł do reprezentacji cech wydaje się wymagać wyczerpujących zestawów reguł, które mają zastosowanie do każdej sytuacji awaryjnej. Z jednej strony ten projekt nie wydaje się możliwy do zrealizowania. Z drugiej strony, jeśli można by to przeprowadzić, byłoby prawdopodobne, aby sprzeciwić się temu, że inteligencja nie została wcielona w powstałe urządzenie, które w najlepszym wypadku byłoby repozytorium wyników naszej inteligencji. Problem dostosowania się do aktualnych zadań nazywany jest czasem "problemem ramy". Problem ten jest czasami uważany za jedynie empiryczny, to znaczy problem do rozwiązania poprzez znalezienie odpowiedniego kompromisu między ograniczeniami zakresu przypadków, w których program może być zastosowany (co może zmniejszyć rozmiar przestrzeni, które należy wyszukać odpowiednie dane lub operacje) oraz złożoność programu niezbędna do odpowiedniego radzenia sobie z zamierzoną przestrzenią problemową. Wyzwanie filozoficzne stanowi dodatek do trudności empirycznych (które są znaczne); sugeruje, że cała idea zbliżania się do inteligencji poprzez reprezentacje i reguły nigdy nie może zapewnić urządzenia wykazującego prawdziwą inteligencję. I oferuje wyjaśnienie trudności wielokrotnie napotykanych podczas prób "skalowania" eleganckich rozwiązań stosunkowo prostych problemów, aby można je było zastosować do złożonych problemów w świecie rzeczywistym. Wyjaśnienie jest takie, że wydajność implikuje ograniczenie wielkości przestrzeni wyszukiwania, ale sukces w zapewnieniu elastyczności wymaga umożliwienia potencjalnego dostępu do dowolnej części danych. Nie jest oczywiste, w jaki sposób można rozwiązać napięcie między tymi dwoma żądaniami w przypadku rzeczywistych problemów, w których wiele funkcji może mieć znaczenie dla udanego radzenia sobie. Ze względów praktycznych problemami tymi można zaradzić dzięki postępowi sprzętowemu w zakresie wielkości pamięci i szybkości przetwarzania. Jednak im więcej rozwiązań opiera się na tych środkach, tym bardziej prawdopodobne staje się, że musi istnieć alternatywne podejście do inteligencji; ponieważ chociaż pojemność pamięci naszego mózgu jest duża, jego szybkość przetwarzania na poziomie poszczególnych elementów jest powolna (około 100 kroków przetwarzania na sekundę w porównaniu do milionów w przypadku komputerów). W terminologii przedstawionej powyżej bardziej klasyczne podejścia do AI opierają się na poprawie wydajności postępów sprzętowych, tym bardziej wygląda na to, że przyniosą co najwyżej normalną sztuczną inteligencję. Ta refleksja sugeruje, że celowanie w sztuczną inteligencję premium może być przydatne, nawet w praktycznych zastosowaniach, i skłoniło wielu członków społeczności AI do poszukiwania bardziej inspirowanych biologicznie podejść Łączność

Urządzenia łączące (równoległe procesory rozproszone, sztuczne sieci neuronowe) zazwyczaj składają się z jednostek, których wyjście do innych jednostek jest funkcją sumy ważonych danych wejściowych, które otrzymują od innych jednostek. Ważony sygnał wejściowy do jednostki B jest wyjściową jednostką rzutującą A pomnożoną przez wagę połączenia (dodatnią lub ujemną) między jednostką A i jednostką B. Sieci jednostek charakteryzują się częściowo wzorami połączeń. Zbadano wiele takich wzorców, w tym sieci ściśle "wyprzedzające" i sieci z połączeniami bocznymi ("bocznymi") i cyklicznymi (sprzężenie zwrotne). Urządzenia łączące charakteryzują się ponadto zasadą znajdowania zestawu wag połączeń, które dają wzorce na jednostkach wyjściowych, które są odpowiednie dla każdego wzorca na jednostkach wejściowych. W wielu przypadkach różnice między rzeczywistymi wyjściami i poprawnymi wyjściami dla wzorców w zestawie treningowym są wykorzystywane do generowania sygnału błędu, który z kolei jest wykorzystywany do przyrostowego dostosowania ciężarów. Po wielu takich cyklach regulacji prawidłowe są pary wzorców wejścia-wyjścia ,zostaną osiągnięte. Urządzenia łączące mają kilka właściwości, które wzbudziły zainteresowanie. Na przykład uogólniają, w tym sensie, że po przeszkoleniu nowatorski wzorzec wejściowy, który jest podobny do wzorca szkoleniowego P1, wygeneruje wyjście, które jest podobne do wyjścia dla P1. Ich "wspomnienia" są "adresowalne pod względem treści" - to znaczy wzorzec wejściowy wraz z istniejącym zestawem wag bezpośrednio wytwarza dane wyjściowe i nie ma procesu "wyszukiwania" istotnych informacji do relacji przepływów międzygałęziowych. Rozkładają się z wdziękiem - to znaczy, że uszkodzenie niektórych jednostek sieci nie niszczy natychmiast relacji między wejściem a wyjściem. Zamiast tego istnieje zasięg, w którym obrażenia stopniowo pogarszają uogólnienie, ale nie są całkowicie bezużyteczne.

Wyniki podobne do reguł bez reguł?

Wymienione właściwości wzbudziły zainteresowanie, ponieważ przypominają nasze własne właściwości psychologiczne, a tym samym sugerują, że badania łącznikowe mogą zapewnić pewien wgląd w sztuczną inteligencję premium. Ta sugestia jest obecna w przypadku kolejnej i nieco kontrowersyjnej właściwości niektórych urządzeń łączących; mianowicie wydają się być w stanie zapewnić podobne do reguł relacje między wzorcami wejściowymi i wyjściowymi bez odpowiednich wewnętrznych reprezentacji reguł. Na przykład wydaje się, że kiedy dzieci uczą się, jak formować czas przeszły w języku angielskim, uczą się zasady, która ma zastosowanie do większości czasowników: "dodaj" -ed "." Jednak w szeroko dyskutowanym eksperymencie Rumelhart i McClelland wyszkolili urządzenie łączące do kojarzenia fonetycznych reprezentacji czasowników z fonetycznymi reprezentacjami ich czasów przeszłych. Uwzględniono zarówno czasowniki regularne, jak i nieregularne, a wyniki szkolenia uogólniły się dość dobrze dla obu. Wystąpiło nawet odtworzenie wpływu interferencji na czasy przeszłe dla czasowników nieregularnych, które obserwuje się u dzieci i które zwykle przypisuje się ich nadmiernemu stosowaniu reguły dla czasów przeszłych czasowników regularnych. Ale szkolenie było po prostu połączeniem obecnych i przeszłych reprezentacji fonetycznych. Można opisać wyniki w kategoriach reguł, ale nie było reprezentacji reguł w systemie, który wygenerował wyniki. Jednak ten eksperyment został skrytykowany z kilku powodów. Najbardziej uogólniona z tych uwag dotyczy stopnia, w jakim oczywiste sukces w zapewnianiu wyników podobnych do reguł bez wyraźnych zasad zależy od konkretnych cech przebiegu szkolenia. Jeśli wyniki podobne do reguł okażą się zależeć od cech zestawu treningowego, które nie są powszechne w ludzkim doświadczeniu, ich znaczenie dla możliwości premium AI byłoby znacznie osłabione.

Systematyczność

Fodor i Pylyshyn podnieśli linię krytyki związkowej opartej na ich koncepcji systematyczności. Języków naturalnych uczy się w systemach zdań. Na przykład, jeśli można zrozumieć i zastosować "John kocha Marię", można również zrozumieć i zastosować "Mary kocha Johna", "Tom kocha Jane" i tak dalej. Systematyczność można łatwo wyjaśnić w kategoriach zasad, które mają zastosowanie do ustrukturyzowanych reprezentacji - na przykład znaczenie "X kocha Y" jest takie, że pierwszy wymieniony element uwielbia drugi wymieniony element. Ale jeśli zdania i znaczenia są jedynie powiązane w przeszkolonej sieci, nie ma powodu, aby oczekiwać systematyczności. Łącznicy mogą odpowiedzieć, że istnieją pewne rodzaje sieci, które przyniosą systematyczność. Ten rodzaj odpowiedzi rodzi jednak pytanie, czy atrakcyjne właściwości sieci łączących się naprawdę przyczyniają się do naszego zrozumienia tego, w jaki sposób wytwarzana jest inteligencja, czy też, jak sugeruje Fodor, sieci łączące są w stanie jedynie zaimplementować klasyczną architekturę - w którym to przypadku tak naprawdę to drugie wyjaśnia, w jaki sposób udaje nam się być inteligentnym. Jeśli jest to słuszne, inteligencja premium mogłaby w zasadzie zostać zaimplementowana w urządzeniu niepołączeniowym.

Realizm psychologiczny

Można oczywiście rozróżnić pytania "Czy urządzenia łączące kroczą drogą prowadzącą do sztucznej inteligencji premium?" oraz "Czy można używać urządzeń łączących w celu zapewnienia regularnej sztucznej inteligencji?" Odpowiedź przecząca na pierwszą byłaby zgodna z możliwością robota napędzanego przez mózg w stylu połączenia, który reaguje elastycznie na przeszkody i wykazuje stałą tendencja do osiągania stanów docelowych. Jednak niektóre inspiracje do łączenia się wywodzą się z pomysłu, że ponieważ nasz mózg prawdopodobnie czyni nas inteligentnymi, zainspirowane mózgiem urządzenie powinno być również w stanie zapewnić doskonałą sztuczną inteligencję. W zakresie, w jakim istnieją wątpliwości, czy urządzenia łączące udaje się uchwycić sposób, w jaki pracujemy, inspiracja ta jest osłabiona, a alternatywne poparcie dla prawdopodobieństwa zapewnienia im nawet regularnej sztucznej inteligencji jest dość wymagane. Jedna z wątpliwości tego rodzaju dotyczy zastosowania sygnałów błędów (różnic między prawidłową mocą wyjściową a rzeczywistą mocą wyjściową jednostki lub zestawu jednostek) w celu znalezienia zestawu wag, które będą przydatne w danym celu. Istnieje algorytm (powszechnie znany jako propagacja wsteczna), który można wykazać jako skuteczny i który jest często wykorzystywany w badaniach łączników. Niestety, nie jest jasne, w jaki sposób mózg może zastosować ten algorytm do regulacji połączeń synaptycznych między neuronami. Alternatywnym podejściem do korekty wagi jest nauka wzmacniania. Podstawową ideą uczenia się przez wzmacnianie jest to, że nikt nie musi znać prawidłowych rozwiązań problemu, jakie działania należy podjąć; wybory działania mogą być kształtowane przez (pozytywną lub negatywną) wartość konsekwencji dla agenta działań ostatnio podjęte. Wydaje się oczywiste, że możemy się uczyć w ten sposób, a bardzo obiecującą sugestią jest zaprojektowanie urządzeń, które mogą uczyć się również przez wzmocnienie. Jednak ci, którzy wzięli sobie do serca krytykę GOFAI Dreyfusa, mogą mieć analogiczne wątpliwości co do uczenia się wzmacniającego. Prace w tej dziedzinie koncentrują się obecnie na drobnych problemach i nie jest jasne, czy wyniki można zwiększyć, aby sprostać złożoności świata rzeczywistego. Zachowania można dobrze zdefiniować i łatwo rozróżnić. Jednak inteligencja (zwykła lub premium) prawdopodobnie będzie musiała poradzić sobie z działaniami, których właściwa klasyfikacja zależy od okoliczności - na przykład to samo zachowanie podczas biegania może uciekać lub ścigać, w zależności od tego, czy drapieżnik stoi za biegaczem, czy ofiarą jest Przed tym. Być może praca nad problemami, które pozwalają na łatwą klasyfikację działań, omija niezbędny element inteligencji; mianowicie uczenie się jak okoliczności wpływają na znaczenie zachowania. Kolejnym problemem w ocenie bieżącej pracy nad uczeniem się przez wzmocnienie jest to, że wiele schematów wymaga aktualizacji wartości, nie tylko działań, ale stanów, które są częścią sekwencji stanów prowadzących do działań. Istnieją algorytmy pozwalające to zrobić, ale wymagają one znacznych obliczeń i nie jest oczywiste, w jaki sposób można je wykonać w mózgu. To nie jest problem dla zwykłej sztucznej inteligencji. Jednak w zakresie, w jakim badania nad uczeniem się wzmacniającym pomijają wiarygodny związek z premium AI, traci poparcie dla argumentu, że skoro my, ludzie, uczymy się wzmacniania, (regularne) sztuczna inteligencja będzie możliwa do osiągnięcia dzięki (obecnemu) podejściu do uczenia się wzmacniającego.

Reprezentacja

Atrakcyjne właściwości łącznika zależą od zastosowania reprezentacji rozproszonych; to znaczy reprezentacje, które zależą od wzorca aktywacji w więcej niż jednej jednostce. "Wiedza" na temat urządzenia łączącego jest także rozłożona na ciężary jego połączeń. Wyniki zależą od połączonych efektów wielu wag, a każda waga przyczynia się do wielu wyników. Rozproszony charakter przedstawień i "wiedza" w urządzeniach łączących się prowadzi do dwóch rodzajów pytań. Ramsey, Stich i Garon zauważyli, że rozproszony charakter "wiedzy" sieci utrudnia dostrzeżenie, w jaki sposób sieć łącząca może modelować pozornie oczywistą prawdę, że ludzie mogą działać z jednego powodu, a nie innego, nawet gdy mają przekonania i pragnienia odpowiadające dwóm lub więcej przyczynom tego działania. Jeśli bowiem odpowiednie przekonania są przechowywane w jednej sieci, połączenia uziemiające oba mogłyby przyczynić się do dowolnego wyniku. Można oczywiście twierdzić, że różne przekonania są przechowywane w różnych sieciach; ale stosowanie tej strategii ogólnie oznaczałoby rezygnację z domniemanych zalet sieci łączących. Związkowcy mogą jednak odpowiedzieć, że rozróżnienie między przyczynami może być odpowiednio dokonane poprzez uwzględnienie wszelkich różnic, które dają nam podstawy do przypuszczenia, że działanie zostało zrobione z jednego, a nie drugiego powodu, z dwóch dobrych powodów. Na przykład może być tak, że tylko jedna z dwóch możliwych danych wejściowych była obecna (lub istotna) przy danej okazji. Jeśli to I1 powoduje O, przyczyną, która idzie wraz z I1, może być przyczyna wyjścia, nawet jeśli sieć dałaby O, gdyby wejście I2 było obecne (lub bardziej znaczące). Kontrowersyjne jest jednak to, czy analogie tej strategii można podać we wszystkich odpowiednich przypadkach. Drugi, szeroko dyskutowany problem dotyczy przetwarzania reprezentacji w systemy łączące. Istnieje kilka genialnych schematów tworzenia i przechowywania informacji w urządzeniach łączących. Ale jeśli przechowywane reprezentacje muszą zostać zdekodowane (tj. odzyskane i przedstawione osobno) w celu wykorzystania ich w przetwarzaniu użytecznym poznawczo, wówczas idea, że łączność tworzy charakterystyczny wkład w nasze rozumienie poznania budzi pewne wątpliwości. W genialnym eksperymencie ,Chalmers wykazał, że reprezentacje łączników można przetwarzać bez dekodowania. Ten eksperyment obejmował dwie sieci. Pierwsza sieć została przeszkolona do tworzenia skompresowanej reprezentacji zdań z aktywnym głosem i zdań z pasywnym głosem oraz do dekodowania tych reprezentacji do oryginalnych pełnych zdań. Druga sieć została przeszkolona do przekształcania skompresowanych reprezentacji zdań z aktywnym głosem na skompresowane reprezentacje ich pasywnych odpowiedników głosu. Kiedy te ostatnie skompresowane reprezentacje zostały zdekodowane przez pierwszą sieć, wynikiem był prawidłowy odpowiednik głosu pasywnego odpowiadającego na zdania aktywnego głosu. Co najciekawsze, ten sam wynik uzyskano dla skompresowanych reprezentacji, które nigdy nie były prezentowane drugiej sieci podczas jej fazy szkolenia. W efekcie, druga sieć była w stanie zastosować to, czego się "nauczyła" na temat relacji głos aktywny / pasywny do nowych (tj. niewidzialnych) przypadków; i była w stanie to zrobić bez uprzedniego odkodowania skompresowanych reprezentacji aktywnego głosu. Jednak, jak wyraźnie zauważył Chalmers, wynik ten nie był psychologicznie realistyczny. Zestaw treningowy stanowił ponad połowę całego zestawu przypadków, a wszystkie zdania miały tę samą prostą formę (podmiot, czasownik, obiekt). Tak więc, chociaż eksperyment Chalmersa dostarcza dowodów na istnienie możliwości przydatnego przetwarzania bez dekodowania, pozostaje otwarte pytanie, czy można znaleźć psychologicznie realistyczne przykłady. Z szerokiej perspektywy GOFAI i łączność potwierdzają tę inteligencję obejmuje przetwarzanie oświadczeń. Ich spór dotyczy charakteru tego przetwarzania, a biorąc pod uwagę trudności w obu podejściach, być może nie dziwi fakt, że podejrzenie padło na samą ideę reprezentacji.

Teoria układów dynamicznych

Teoria systemów dynamicznych (DST) postrzega poznanie jako zależne od ciągłej interakcji czynnika poznawczego z jego otoczeniem. Inteligentne działanie nie powstaje z racji tego, że najpierw reprezentuje środowisko, a następnie wykonuje procesy na tej reprezentacji. Zamiast tego wkład środowiskowy bezpośrednio napędza działania, które reagują z powrotem na środowisko, co skutkuje nowymi wkładami i nowymi reakcjami. Inteligencja wynika z projektu, który może wykorzystywać informacje obecne w środowisku bez uprzedniego przekształcenia tych informacji w wewnętrzną reprezentację. Kluczową cechą układów dynamicznych jest ich stosunek do czasu. Jeśli urządzenie działa w oparciu o reprezentacje, jego operacje mogą się różnić w czasie, z zastrzeżeniem tylko tego, że reprezentacja akcji musi zostać dostarczona na czas, aby akcja była użyteczna. Jeśli przetwarzanie urządzenia jest ściśle powiązane z zewnętrznymi danymi wejściowymi, a nie ich reprezentacjami, to czas procesu zależy od czasu nadejścia tych danych wejściowych, a przebieg czasowy nie jest arbitralny. Idee te zostały zilustrowane poprzez rozważenieregulatora Watta . To urządzenie łączy wrzeciono z wałem napędowym silnika parowego. Wrzeciono obsługuje parę obciążników, które obracają się wraz z wrzecionem i które są zamontowane w taki sposób, że zmieniają swoją wysokość, ponieważ wahania prędkości obrotowej silnika zmieniają odległość od osi wrzeciona. Ramiona podtrzymujące obciążniki są mechanicznie połączone z zaworem, który zmienia ciśnienie pary w kierunku odwrotnym do wysokości obciążników. Wynikiem tego ustawienia jest utrzymanie prędkości obrotowej silnika w wąskim zakresie, nawet przy zmiennym obciążeniu wału napędowego. Van Gelder zasugerował, że jeśli staramy się zrozumieć poznanie, regulator Watta jest lepszą inspiracją niż komputery. Kluczowym punktem kontrastu jest to, że system powiązań gubernatora wykonuje swoją użyteczną funkcję bez żadnej części, która stosuje reguły do reprezentacji. Prędkość wału napędowego jest mechanicznie sprzężona z regulatorem, który z kolei jest mechanicznie sprzężony z zaworem. Rezultatem jest układ dynamiczny, który nie wymaga obliczenia odpowiedniego stanu zaworu na podstawie zapisu prędkości wału napędowego. Przykłady robotów Brooksa są bardziej złożone niż regulator Watta, ale inspiracja - widoczna w jego tytule "Inteligencja bez reprezentacji" - jest taka sama. Brooks uważa nawigację za istotny problem, który został rozwiązany w czasie ewolucji przed rozwinięciem zdolności do wykonywania wyraźnych obliczeń. Jego praca sugeruje, że najlepiej zrozumiemy inteligencję, konstruując urządzenia, które dynamicznie łączą dane wejściowe z działaniami, to znaczy urządzenia, które zawsze podlegają ograniczeniom podobnym do tych, które były obecne w trakcie ewolucji. Brooks zdecydowanie odrzuca wszelkie koncepcje, w których istnieje podział pracy między urządzeniami, które ucieleśniają inteligencję, a urządzeniami, które przekształcają powstały wynik w działania. Problemy z transdukcją sygnałów sensorycznych do reprezentacji komputerowych i reprezentacji komputerowych do wyjść silnikowych są w najlepszym razie ogromne (a w najgorszym trudne do rozwiązania). Takie podejście należy zatem porzucić na rzecz urządzeń, w których na każdym etapie wbudowane jest wejście sensoryczne do podłączenia wyjściowego silnika. (W celu uzyskania dalszych informacji na temat DST i powiązanych podejść

Pytania do DST Pogarszanie reprezentacji naturalnie skupia uwagę na tym, co należy liczyć jako "reprezentacja". Najsłabsza interpretacja tego terminu przyrównałaby go do "śledzenia" - to znaczy wysokiej korelacji między wystąpieniami stanów systemu, które są uważane za reprezentacje, a obecnością obiektów lub właściwości, które uważa się za reprezentowane. Znacznie bogatsza koncepcja "reprezentacji" wymaga modelu wewnętrznego, który można wykorzystać do przewidywania przyszłych stanów na podstawie obecnych danych wejściowych. Wydaje się jasne, że systemy dynamiczne mogą działać bez reprezentacji w tym silniejszym znaczeniu. Nie jest to jednak takie jasne , że urządzenia tego rodzaju występujące w teorii układów dynamicznych rezygnują z "reprezentacji" w sensie zwykłego śledzenia. Na przykład wysokość obciążników w regulatorze Watta może być uznana za reprezentującą prędkość wału napędowego. Kolejne pytanie dotyczy zakresu, w jakim teoria systemów dynamicznych oferuje charakterystyczne wyjaśnienie poznania, a nie wyróżniający rodzaj opisu tego, co robią systemy poznawcze. Aby zilustrować: Zależność między wysokością ciężarów w regulatorze Watt a prędkością silnika można elegancko opisać za pomocą równań różniczkowych. Możemy jednak nadal pytać, jak działa urządzenie, i możemy udzielić odpowiedzi, wskazując wrzeciono, zawór, wał napędowy i mechaniczne połączenia między nimi. Jeśli to rozróżnienie między opisem a mechanizmem wyjaśniającym można zastosować do systemów poznawczych, to wkład teorii systemów dynamicznych, chociaż cenny na poziomie opisowym, może nie zapewnić radykalnego odejścia na poziomie wyjaśniania poznania. Wreszcie problem teorii systemów dynamicznych wynika z obserwacji, że wiele przypadków inteligentnego działania opiera się w dużej mierze na pamięci. Wydaje się, że użycie pamięci wymaga reprezentacji, a reprezentacje te muszą mieć wpływ na zachowanie niezależnie od czasu, w którym utworzono reprezentację pamięci. Badania kontrolerów robotów pracujących bez pamięci wykazały zaskakujące zdolności do rozwiązywania problemów; nie jest jednak prawdopodobne, że pojawią się urządzenia, które będą powszechnie akceptowane jako wykazujące inteligencję (rzecz), ale nie będą polegać na pamięci. Z pewnością może być możliwe, że reprezentacje pamięci mogą zostać włączone do DST (jak sugeruje van Gelder). Nie jest jednak jasne, w jaki sposób można to zrobić bez powrotu do wcześniej omówionych pytań dotyczących sposobu przetwarzania reprezentacji w celu uzyskania inteligentnych wyników.