Postawy filozoficzneArtificial Intelligence Experts

II.Podstawy Filozoficzne

Wiele pracy w dziedzinie sztucznej inteligencji opiera się na pojęciach i teoriach opracowanych przez filozofów i logików. Ta część przedstawia tę fundamentalną pracę, analizując różne koncepcje sztucznej inteligencji, filozoficzne marzenie o mechanizowaniu ludzkiego rozumowania, koncepcyjne korzenie sztucznej inteligencji oraz główne teorie umysłu, które leżą u podstaw różnych aspektów badań nad AI.

Co to jest AI?

To samo jest głębokim pytaniem filozoficznym a próby systematycznej odpowiedzi na nie leżą w podstawach AI jako bogatego tematu do analizy i debaty. Niemniej jednak można podać tymczasową odpowiedź: AI to dziedzina poświęcona budowaniu artefaktów zdolnych do wyświetlania, w kontrolowanym, dobrze zrozumiałym otoczeniu i przez dłuższy czas, zachowań, które uważamy za inteligentne, lub bardziej ogólnie, zachowań, kiedy uważamy, że jesteśmy w centrum tego, co to znaczy mieć umysł. Oczywiście odpowiedź ta rodzi dalsze pytania, a mianowicie, co dokładnie stanowi inteligentne zachowanie, co to znaczy mieć umysł i jak ludzie rzeczywiście potrafią zachowywać się inteligentnie. Ostatnie pytanie jest empiryczne; odpowiedzią jest psychologia i kognitywistyka. Jest to jednak szczególnie istotne, ponieważ jakikolwiek wgląd w ludzką myśl może pomóc nam zbudować maszyny, które działają podobnie. Rzeczywiście, jak się okaże w tym artykule, sztuczna inteligencja i kognitywistyka rozwinęły się wzdłuż równoległych i ściśle powiązanych ścieżek; ich historie nie mogą być opowiadane osobno. Drugie pytanie, które zadaje pytanie, co jest znakiem mentalności, ma charakter filozoficzny. Sztuczna inteligencja postawiła na to pilną potrzebę i odwrotnie, przekonamy się, że staranne filozoficzne rozważenie tego pytania wpłynęło na przebieg samej sztucznej inteligencji. Wreszcie, pierwsze wyzwanie, polegające na precyzyjnym określeniu, co należy liczyć jako zachowanie inteligentne, tradycyjnie zostało spełnione poprzez zaproponowanie określonych testów behawioralnych, których udane przejście oznaczałoby obecność inteligencji. Najbardziej znanym z nich jest tak zwane Test Turinga (TT), wprowadzony przez Turinga (1950). W TT kobieta i komputer są zamaskowani w zamkniętych pokojach, a sędzia, nieświadomy, który z dwóch pokoi zawiera, jakiego uczestnika, zadaje im obu pytania pocztą elektroniczną (w rzeczywistości za pomocą teletekstu, aby użyć pierwotnego terminu). Jeżeli na podstawie odpowiedzi, które otrzymałeś, sędzia nie może zrobić nic lepszego niż 50/50, wydając werdykt, który pokój mieści danego gracza, mówimy, że komputer, o którym mowa, przeszedł TT. Według Turinga komputer zdolny do przejścia TT powinien zostać uznany za maszynę myślącą. Jego twierdzenie było kontrowersyjne, choć wydaje się niezaprzeczalne, że zachowanie językowe tego rodzaju, jakie jest wymagane przez TT, jest rutynowo uważane za rdzeń ludzkiego poznania. Część kontrowersji wynika z bezwstydnych założeń behawioralnych testu. Eksperyment myślowy "Ciotka Bertha" Blocka (1981) miał na celu podważenie tych założeń, argumentując, że nie tylko zachowanie organizmu determinuje jego inteligencję. Musimy również rozważyć, w jaki sposób organizm osiąga inteligencję. Oznacza to, że należy wziąć pod uwagę wewnętrzną organizację funkcjonalną systemu. Był to kluczowy punkt funkcjonalizmu, kolejny główny filozoficzny nurt sztucznej inteligencji, do którego powrócimy później. Kolejną krytyką TT jest to, że jest nierealistyczna i mogła nawet utrudniać postęp AI w zakresie, w jakim dotyczy bezcielesnej inteligencji. Jak zobaczymy, wielu myślicieli doszło do wniosku, że bezcielesne artefakty z inteligencją na poziomie ludzkim są marzeniem z nieba, praktycznie niemożliwym do zbudowania, jeśli wręcz absurdalnym koncepcyjnie. W związku z tym Harnad (1991) podkreśla, że wymagana jest zdolność sensomotoryczna w przypadku artefaktów, które oznaczałyby sukces AI, i proponuje Total TT (TTT) jako ulepszenie w stosunku do TT. Podczas gdy w TT bezcielesny program komputerowy mógłby, przynajmniej w zasadzie, przejść, osoby przechodzące przez TTT muszą być robotami zdolnymi do działania w środowisku fizycznym w sposób nie do odróżnienia od zachowań manifestowanych przez wcielone osoby ludzkie poruszające się po świecie fizycznym. Kiedy AI definiuje się jako pole poświęcone artefaktom inżynieryjnym, które mogą przejść testy TT, TTT i różne inne testy, można śmiało powiedzieć, że mamy do czynienia ze słabą AI. Innymi słowy, słaba sztuczna inteligencja ma na celu budowanie maszyn, które działają inteligentnie, nie zajmując stanowiska, czy maszyny są rzeczywiście inteligentne. Istnieje inna odpowiedź na pytanie "Co to jest AI?": AI to dziedzina poświęcona budowaniu osób, kropka. Ta marka AI to tak zwana silna AI, ambitna forma dziedziny trafnie podsumowana przez Haugelanda:

"Podstawowym celem [badań nad sztuczną inteligencją] nie jest jedynie naśladowanie inteligencji lub wytworzenie jakiegoś sprytnego podróbki. Ani trochę. AI chce tylko oryginalnego artykułu: maszyn z umysłami, w pełnym i dosłownym sensie. To nie jest science fiction, ale prawdziwa nauka, oparta na tak głębokiej, jak odważnej koncepcji teoretycznej: mianowicie sami jesteśmy komputerami." (Haugeland 1985)

Ta "teoretyczna koncepcja" ludzkiego umysłu jako komputera posłużyła jako podstawa do tej pory badań nad silną AI. Stało się znane jako obliczeniowa teoria umysłu; omówimy to szczegółowo wkrótce. Z drugiej strony inżynieria sztucznej inteligencji, która sama opiera się na filozofii, tak jak w przypadku ciągłej próby mechanizacji rozumowania, omówionej w następnym rozdziale, może być realizowana w służbie zarówno słabej, jak i silnej sztucznej inteligencji.

Filozoficzna sztuczna inteligencja: przykład mechanizacji rozumowania

"Nie byłoby nierozsądne opisywanie klasycznej kognitywistyki jako rozszerzonej próby zastosowania metod teorii dowodu do modelowania myśli." (Fodor i Pylyshyn 1988)

Ta sekcja poświęcona jest dyskusji na temat obszaru, który służy jako przykład sztucznej inteligencji związanej z filozofią (w przeciwieństwie do filozofii sztucznej inteligencji). Jest to dziedzina, którą każdy student filozofii i sztucznej inteligencji powinien znać przede wszystkim. Wynika to częściowo z tego, że inne problemy w AI o charakterze przynajmniej częściowo filozoficznym są ściśle związane z próbą zmechanizowania rozumowania na poziomie ludzkim. Arystoteles uważał racjonalność za istotną cechę ludzkiego umysłu. Myśl dedukcyjna, wyrażona w sylogizmach, była znakiem rozpoznawczym takiej racjonalności, a także podstawowym instrumentem intelektualnym (organonem) całej nauki. Być może najgłębszym wkładem Arystotelesa w sztuczną inteligencję była idea formalizmu. Pojęcie, że pewne wzorce myślenia są ważne ze względu na ich składniową formę, niezależnie od treści, było niezwykle potężną innowacją i właśnie to pozostaje w centrum współczesnej obliczeniowej teorii umysłu (Pylyshyn 1989) i tego, co nazwaliśmy silną AI. Biorąc pod uwagę znaczenie, jakie historycznie przywiązywano do dedukcji w filozofii (poczynając od Arystotelesa i kontynuując Euklidesa, a następnie Bacona, Hobbesa, Leibniza i innych), sama idea inteligentnej maszyny była często równoznaczna z maszyną, która może wykonać wnioskowanie logiczne: takie, które może poprawnie wyciągać wnioski z przesłanek. Zautomatyzowane dowodzenie twierdzeń (ATP), jak wiadomo obecnie na tym polu, było zatem integralną częścią sztucznej inteligencji od samego początku, chociaż, jak zobaczymy, jego znaczenie było przedmiotem gorących dyskusji, szczególnie w ostatnich dziesięcioleciach. Mówiąc ogólnie, problem mechanizacji dedukcji obejmuje co najmniej trzy różne warstwy. W kolejności rosnących trudności mamy: Sprawdzanie dowodu: Biorąc pod uwagę dedukcję D, która ma na celu wyciągnięcie wniosku P z kilku przesłanek P1,… Pn, zdecyduj, czy D jest poprawne, czy nie. Odkrycie dowodu: Biorąc pod uwagę szereg przesłanek P1,…, Pn i domniemany wniosek P, zdecyduj, czy P wywodzi się logicznie z przesłanek, a jeśli tak, to formalnie je wyprowadza. Generowanie przypuszczeń: Biorąc pod uwagę szereg przesłanek P1,…, Pn, wygeneruj "interesujący" wniosek P, który prawdopodobnie będzie logicznie wynikał z przesłanek. Z technicznego punktu widzenia pierwszy problem jest najłatwiejszy. W przypadku logiki predykatowej z równością problem sprawdzania poprawności danej dedukcji jest nie tylko rozwiązywalny algorytmicznie, ale również skutecznie. Niemniej jednak problem jest obciążony interesującymi kwestiami filozoficznymi i technicznymi, a jego znaczenie dla sztucznej inteligencji zostało zrealizowane wcześnie przez McCarthy′ego (1962), który napisał, że "sprawdzanie dowodów matematycznych jest potencjalnie jednym z najbardziej interesujących i przydatnych zastosowań automatycznych komputerów". Drugi problem jest znacznie trudniejszy. Wczesne wyniki w teorii funkcji rekurencyjnych (Church 1936; Turing 1936) ustaliły, że nie ma maszyny Turinga, która decydowałaby o tym, czy dowolna formuła logiki pierwszego rzędu jest prawidłowa (taka była Entscheidungsproblem Hilberta). Dlatego z tezy Churcha wynika, że problem jest algorytmicznie nierozwiązywalny - nie ma ogólnej metody mechanicznej, która zawsze podejmie właściwą decyzję w określonym czasie. Jednak ludzie nie mają też gwarancji, że zawsze rozwiążą problem (i rzeczywiście często tego nie robią). W związku z tym sztuczna inteligencja może szukać konserwatywnych aproksymacji, które sprawdzają się w praktyce: programy, które udzielają poprawnej odpowiedzi tak często, jak to możliwe, a poza tym w ogóle nie udzielają odpowiedzi (albo wyraźnie zawodzą, albo trwają w nieskończoność, dopóki ich nie zatrzymamy). Problem ten został rozwiązany wcześnie w przypadku słabszych formalizmów z pozornie obiecującymi wynikami: teoretyk logiki (LT) Newella, Simona i Shawa, zaprezentowany na inauguracyjnej konferencji AI w Dartmouth w 1956 r., Udowodnił trzydzieści osiem spośród pięćdziesięciu dwóch propozycji - logiczne twierdzenia Principia Mathematica. Inne znaczące wczesne wysiłki obejmowały wdrożenie arytmetyki Presburger′a przez Martina Davisa w 1954 r. W Princeton′s Institute for Advanced Studies (Davis 2001), procedurę Davisa-Putnama (Davis i Putnam 1960), której odmiany są dziś stosowane w wielu dowodach opartych na satysfakcji oraz imponujący system logiki pierwszego rzędu zbudowany przez Wanga (1960). Należy zauważyć, że podczas gdy LT zaprojektowano celowo, aby symulować ludzkie rozumowanie i procesy rozwiązywania problemów, autorzy tych innych systemów wierzyli, że naśladowanie ludzkich procesów jest niepotrzebnie ograniczające i że lepsze wyniki można osiągnąć, eliminując wiarygodność poznawczą. Był to wczesny przejaw napięcia, które wciąż odczuwa się w terenie i które równolegle odróżnia silne i słabe formy AI: AI jako nauka, szczególnie jako badanie myśli ludzkiej, a AI jako inżynieria - konstrukcja inteligentna systemy, których działanie nie musi przypominać wewnętrznego funkcjonowania ludzkiego poznania. Odkrycie przez Robinsona metody unifikacji i rozwiązania (Robinson 1965) znacznie przyczyniło się do rozwoju tej dziedziny. Obecnie większość automatycznych dowodów twierdzeń opiera się na rozdzielczości. Inne znaczące formalizmy obejmują tabele semantyczne i logikę równościową (Robinson i Voronkov 2001). Mimo że w ciągu ostatnich dziesięciu lat poczyniono imponujące postępy, najbardziej wyrafinowane ATP są dziś kruche i czasami nie radzą sobie z problemami, które byłyby trywialne dla studentów. Trzeci problem, związany z generowaniem przypuszczeń, jest najtrudniejszy, ale jednocześnie najciekawszy. W końcu przypuszczenia nie spadają z nieba. Przedstawieni z całą masą informacji ludzie - szczególnie matematycy - regularnie wymyślają ciekawe przypuszczenia, a następnie próbują je udowodnić, często z powodzeniem. Ten proces odkrywania (wraz z nową koncepcją formacji) jest jednym z najbardziej twórczych działań ludzkiego intelektu. Sama trudność w symulacji obliczeniowej tej kreatywności jest z pewnością głównym powodem, dla którego sztuczna inteligencja poczyniła tutaj niewielkie postępy. Ale innym powodem jest to, że przez większą część poprzedniego stulecia (a tak naprawdę począwszy od Frege w dziewiętnastym wieku) logicy i filozofowie zajmowali się prawie wyłącznie uzasadnieniem, a nie odkryciem. Odnosiło się to nie tylko do rozumowania dedukcyjnego, ale także do rozumowania indukcyjnego, a nawet do ogólnej teorii naukowej (Reichenbach 1938). Powszechnie uważano, że proces odkrywania powinien być badany przez psychologów, a nie filozofów i logików. Co ciekawe, nie było tak przed Frege. Filozofowie, tacy jak Ksrtezjusz (1988), Bacon (2002), Mill (1874) i Peirce (1960), próbowali racjonalnie zbadać proces odkrywania i sformułować zasady kierowania nim. Począwszy od Hansona (1958) w nauce i Lakatosa (1976) w matematyce (ten drugi był pod silnym wpływem Pólyi (1945)), filozofowie zaczęli ponownie podkreślać odkrycie. Badacze AI próbowali również modelować odkrycie obliczeniowo, zarówno w nauce (Langley i in. 1987), jak i w matematyce (Lenat 1976, 1983), i ta linia pracy doprowadziła do innowacji w uczeniu maszynowym w AI, takich jak programowanie genetyczne (Koza 1992 ) i programowanie logiki indukcyjnej (Muggleton 1992). Jednak sukcesy były ograniczone, a fundamentalne obiekcje filozoficzne wobec algorytmicznego traktowania odkryć i kreatywności w ogóle - na przykład takie, jakie wysunęli Hempel (1985) - pozostają surowe. Głównym problemem jest pozornie holistyczny charakter wyższych procesów poznawczych, takich jak kreatywne rozumowanie, oraz trudność sformułowania rygorystycznej charakterystyki istotności. Bez precyzyjnego pojęcia istotności, które jest podatne na implementację obliczeniową, wydaje się, że nie ma nadziei na postęp w zakresie problemu generowania wniosków lub innych podobnych problemów, w tym generowania koncepcji i tworzenia hipotez uprowadzających. W obliczu stosunkowo niewielkich postępów w trudnych problemach z rozumowaniem oraz pod wpływem różnych krytyków symbolicznej sztucznej inteligencji, niektórzy badacze AI rozpoczęli poważne ataki na formalną logikę, krytykując ją jako zbyt sztywny system, który nie zapewnia dobrego modelu wybitnie elastycznych mechanizmów ludzkie rozumowanie. W związku z tym starali się odwrócić uwagę i wysiłki tej dziedziny od rygorystycznego wnioskowania dedukcyjnego i indukcyjnego, kierując je zamiast tego na "rozsądne rozumowanie". Wiele pracy poświęcono opracowaniu formalnych systemów modelowania rozumowania opartego na zdrowym rozsądku (Davis i Morgenstern 2004). Jednak krytycy twierdzą, że takie wysiłki nie trafiają w sedno. Na przykład Winograd pisze, że
"… Minsky obwinia za brak powodzenia w wyjaśnianiu zwykłego rozumowania sztywność logiki i nie stawia bardziej fundamentalnych pytań o naturę wszystkich symbolicznych reprezentacji i formalnych (choć być może nielogicznych) systemów zasad manipulowania nimi. Istnieją podstawowe ograniczenia tego, co można zrobić za pomocą manipulacji symbolami, niezależnie od tego, ile "różnych, przydatnych sposobów łączenia ze sobą" wymyśla jeden. Redukcja umysłu do zdekontekstualizowanych fragmentów jest ostatecznie niemożliwa i myląca." (Winograd 1990, s. 172)

Jak zobaczymy w dalszej części, podobną krytykę wypowiedzieli Dreyfus (1992) i inni, którzy argumentowali, że manipulacja symbolami nie może uwzględniać tak podstawowych ludzkich cech, jak intuicja, osąd i wyobraźnia, z których wszystkie mogą odgrywać kluczową rolę wnioskowanie i ogólne rozwiązywanie problemów; a ludzkiemu rozumowaniu nigdy nie dorówna żaden dekontekstualizowany i niepoznany (lub "nienasycony") system, który działa poprzez formalne reprezentowanie i manipulowanie informacjami symbolicznymi.

Historyczne i koncepcyjne korzenie AI

AI oficjalnie rozpoczęło się w 1956 r., Zainicjowane przez małą, ale obecnie znaną letnią konferencję w Dartmouth College w Hanover, New Hampshire. (Pięćdziesięciolecie obchodów tej konferencji, AI @ 50, odbyło się w lipcu 2006 r. W Dartmouth, a pięciu oryginalnych uczestników wróciło) Uczestniczyło w nim dziesięciu myślicieli, w tym John McCarthy (który pracował w Dartmouth w 1956 r.), Claude Shannon, Marvin Minsky, Arthur Samuel, Trenchard Moore (najwyraźniej najmłodszy uczestnik i samotny notatnik na oryginalnej konferencji), Ray Solomonoff, Oliver Selfridge, Allen Newell i Herbert Simon. Z miejsca, w którym stoimy teraz, kilka lat po nowym tysiącleciu, konferencja w Dartmouth jest niezapomniana z wielu powodów, w tym z tej pary: (1) stworzono tam termin "sztuczna inteligencja" (który od dawna jest mocno zakorzeniony, mimo że ten dzień nie jest lubiany przez niektórych uczestników, np. Moorea); (2) Newell i Simon ujawnili program - Logic Theoreist (LT) - uznany przez uczestników konferencji (i rzeczywiście przez prawie wszystkich, którzy dowiedzieli się o tym wkrótce po wydarzeniu w Dartmouth), jako niezwykłe osiągnięcie. LT, jak wspomnieliśmy, był w stanie udowodnić elementarne twierdzenia w rachunku zdań i był uważany za niezwykły krok w kierunku renderowania rozumowania na poziomie ludzkim w konkretnych obliczeniach. Jednak z punktu widzenia filozofii ani konferencja w 1956 r.,ani wspomniany artykuł Turing Mind z 1950 r. nie są bliskie wyznaczenia początku AI. Hobbes spodziewał się już silnej sztucznej inteligencji już w XVII wieku, kiedy słynie ogłosił, że "ratyfikacja jest obliczeniem". Mniej więcej w tej samej erze Leibniz marzył o "rachunku uniwersalnym", w którym wszystkie spory można rozstrzygać za pomocą kalkulacji rote. I Kartezjusz rozważał już coś w rodzaju testu Turinga na długo przed Turingiem, choć przyjmował raczej pesymistyczne spojrzenie na sprawę w być może nieco głupkowaty sposób:

"Gdyby. były maszyny, które były podobne do naszego ciała i naśladując nasze działania, o ile było to moralnie możliwe, zawsze powinniśmy mieć dwa bardzo pewne testy, za pomocą których uznamy, że mimo wszystko nie byli prawdziwymi ludźmi. Po pierwsze, nigdy nie używali mowy ani innych znaków, tak jak my, kiedy zapisujemy nasze myśli na korzyść innych. Możemy bowiem łatwo zrozumieć konstytuowanie się maszyny, aby mogła ona wypowiadać słowa, a nawet emitować pewne reakcje na działanie cielesnego rodzaju… Ale nigdy nie zdarza się, aby układała swoją mowę na różne sposoby, aby odpowiednio odpowiedzieć na wszystko można to powiedzieć w jego obecności, jak może to uczynić nawet najniższy typ człowieka. Druga różnica polega na tym ,że chociaż maszyny potrafią wykonywać pewne rzeczy tak dobrze, jak być może lepiej niż ktokolwiek z nas, nieomylnie brakuje im innych, przez co możemy odkryć, że nie działali na podstawie wiedzy, a jedynie na podstawie dyspozycji organów. " (Kartezjusz)

Ale chociaż ceremonalną inauguracją AI była konferencja Dartmouth w 1956 r. i podczas gdy filozofowie zastanawiali się nad maszynami i inteligencją od stuleci, najważniejsze koncepcyjne początki AI można znaleźć na przecięciu dwóch najważniejszych wydarzeń intelektualnych XX wieku:

•  "rewolucja poznawcza", która rozpoczęła się w połowie lat pięćdziesiątych i która obaliła behawioryzm i zrehabilitowała psychologię mentalistyczną;

•  teorię obliczalności, która została opracowana w ciągu ostatnich kilku dekad przez pionierów, takich jak Turing, Church, Kleene i Gödel.

Znaczenie każdego z nich dla AI zostanie pokrótce omówione poniżej. Rewolucja poznawcza jest zazwyczaj kojarzona z twórczością George'a Millera i Noama Chomsky'ego w latach 50. XX wieku, w szczególności z jej słynną recenzją teorii języka Skinnera (Chomsky 1996). Przewidywali go w latach 40. XX wieku McCulloch i Pitts (1943) oraz inni pionierzy cybernetyki, którzy już wskazywali na podobieństwa między ludzką myślą a przetwarzaniem informacji, a także na wyniki eksperymentów uzyskane przez psychologów takich jak Tolman (1948), który, badając nawigację labiryntów przez szczury, przedstawił dowody na istnienie "map poznawczych". Szczególnie wpływowy był słynny argument Chomsky′ego "ubóstwa bodźców", w którym skuteczność i szybkość przyswajania języka w dzieciństwie nie można tłumaczyć wyłącznie odwołaniem do skąpych danych, na które dzieci są narażone we wczesnych latach; raczej wymuszają postulat wrodzonych reguł mentalnych i reprezentacji, które kodują kompetencje językowe. Mocne argumenty przemawiające za istnieniem wyobrażeń mentalnych zostały również poczynione przez eksperymentalne ustalenia dotyczące pamięci, takie jak wyniki Sperlinga (1960), które wskazały, że ludzie zwykle przechowują więcej informacji, niż mogą zgłosić. Pamięć w końcu stanowi chyba najjaśniejszy przypadek reprezentacji mentalnej; absurdem wydaje się zaprzeczanie, że ludzie przechowują informacje, to znaczy, że mamy jakąś wewnętrzną reprezentację informacji, taką jak rok naszego urodzenia lub nazwiska naszych rodziców. Jest to bardzo sensowne, aż do trywialności, podobnie jak twierdzenie, że ludzie rutynowo mówią tak, jakby naprawdę mieli przekonania, nadzieje, pragnienia i tak dalej; i faktycznie większość behawioryzmistów nie zaprzeczyłaby tym twierdzeniom. To, czego zaprzeczali, to teoretyczna zasadność wyjaśniania ludzkich zachowań poprzez umieszczanie nieobserwowalnych bytów mentalnych (takich jak wspomnienia) lub że celowa terminologia ma jakiekolwiek miejsce w nauce o umyśle. Zasadniczo doktryna pozytywistyczna, behawioryzm nie ufał czegokolwiek, czego nie można było bezpośrednio zaobserwować, i ogólnie wykazywał niechęć do teorii. Był to dominujący paradygmat w psychologii przez większość XX wieku, aż do połowy lat 50. XX wieku, aż w końcu został zdetronizowany przez nowe podejście "poznawcze".

Obliczeniowe teorie umysłu i problem treści mentalnych

Po podjęciu pierwszych kroków i otwartej akceptacji mentalnej w naukowej teorii o umyśle "komputerowej metafory" - z którą flirtowali już badacze tacy jak Newell i Simon - stała się dojrzała do eksplozji. W końcu komputery były znane z przechowywania danych strukturalnych w pamięci i rozwiązywania problemów poprzez systematyczne manipulowanie tymi danymi, poprzez wykonywanie odpowiednich instrukcji. Być może podobny model mógłby wyjaśnić - i ostatecznie pomóc w powieleniu - ludzkiej myśli. Rzeczywiście postulowanie wyobrażeń mentalnych samo w sobie nie posunąłby się daleko, gdyby ich skuteczności przyczynowej nie można było wyjaśnić w sposób mechanistyczny i systematyczny. Zgoda, że ustrukturyzowane reprezentacje mentalne są niezbędne do poznania wyższego rzędu; ale w jaki sposób takie reprezentacje powodują racjonalne myślenie i działanie? Teorię obliczeń zapisano właśnie w celu zaspokojenia tej ważnej potrzeby teoretycznej. Rezultat stał się znany jako obliczeniowa teoria umysłu (w skrócie CTM), doktryna nierozerwalnie związana z silną AI. Pierwszą podstawową ideą CTM jest wyjaśnienie umyślnych stanów mentalnych poprzez obrót obliczeniowy analizy Russella (1940) zdań celowych, takich jak "Tom uważa, że 7 jest liczbą pierwszą" jako postaw zdań, które obejmują postawę psychologiczną A (w tym przypadek wiary) w stronę zdania P (w tym przypadku, że 7 jest liczbą pierwszą). Mówiąc dokładniej, bycie w stanie mentalnym związanym z postawą A i twierdzeniem P oznacza bycie w pewnym związku RA z mentalną reprezentacją MP o znaczeniu P. Mówiąc prościej, przekonanie, że 7 jest liczbą pierwszą ma mentalną reprezentację w "polu przekonań", co oznacza, że 7 jest liczbą pierwszą. Sama reprezentacja jest symboliczna. Oznacza to, że "pudełko przekonań" zawiera symboliczny symbol, którego znaczenie (lub "treść") jest takie, że 7 jest liczbą pierwszą. Zatem reprezentacje mentalne mają zarówno składnię, jak i semantykę, podobnie jak zdania z języków naturalnych. Stanowią "język myśli", że tak powiem, lub mentale. Ale tylko ich składnia-składnia ostatecznie sprowadza się do kształtu fizycznego - to sprawia, że są sprawnie przyczynowo-skutkowe. Jest to wiarygodna historia, ponieważ, jak wykazały prace logiczne i obliczeniowe, istnieją czysto syntaktyczne przekształcenia struktur symbolicznych, które są jednak wrażliwe na semantykę. Dowody dedukcyjne stanowią prawdopodobnie najlepszy przykład: manipulując formułami wyłącznie na podstawie ich właściwości składniowych, można wyodrębnić z nich inne formuły, które wynikają z nich logicznie. Składnia może zatem odzwierciedlać semantykę lub, jak to ujął Haugeland (1985), "jeśli zajmiesz się składnią, semantyka sama się zajmie". Na tym modelu proces mentalny jest sekwencją symboliki reprezentacji mentalnych, które wyrażać treść zdań odpowiednich myśli. Przyczyny i skutki każdej mentalnej reprezentacji, co ona może faktycznie zrobić, są określone przez jej składnię "w sposób, w jaki geometria klucza określa, które zamki otworzą" (Fodor 1987). Cały proces jest koordynowany przez algorytm, zestaw instrukcji, które określają, w jaki sposób reprezentacje odnoszą sukcesy w całym ciągu myśli. To druga podstawowa idea CTM. Umysł jest zatem postrzegany jako "silnik syntaktyczny" napędzający silnik semantyczny i przynajmniej w zasadzie jego działanie można powielić na komputerze. Naturalnym rozszerzeniem CTM jest funkcjonalizm maszyny Turinga, który został po raz pierwszy przyjęty przez Putnama (1960) w wpływowym artykule, który pomógł popchnąć rewolucję poznawczą do przodu (przynajmniej w kręgach filozoficznych), podważyć behawioryzm i kształtować perspektywy silna AI. Funkcjonalizm w ogólności to z grubsza idea, że istoty stanu psychicznego nie można znaleźć w biologii mózgu (lub w fizyce, która zabezpiecza sprzęt jego centralnej jednostki przetwarzania, w przypadku maszyny), ale raczej w roli, jaką państwo odgrywa w życiu psychicznym (lub obliczeniach), a zwłaszcza w relacjach przyczynowych że ma to wpływ na bodźce (dane wejściowe), zachowanie (wyniki) i inne stany mentalne (obliczeniowe). W szczególności funkcjonalizm maszyny Turinga polega na tym, że umysł jest w istocie gigantyczną maszyną Turinga, której działanie jest określone przez zestaw instrukcji, które nakazują, że jeśli umysł jest w określonym stanie s i otrzymuje określony sygnał wejściowy x, przejście jest wykonane do stanu s ? i emitowane jest wyjście y. Najpopularniejsze i najmniej wiarygodne wersje funkcjonalizmu maszyny Turinga umożliwiają przejścia probabilistyczne. Również ściśle związana z CTM (a właściwie silniejsza od niej) jest hipoteza fizycznego systemu symboli (PSSH) wysunięta przez Newella i Simona (1976). Zgodnie z nim fizyczny system symboli "ma niezbędne i wystarczające środki do ogólnego inteligentnego działania" (1976), przy czym fizyczny system symboli to "maszyna, która z upływem czasu wytwarza ewoluujący zbiór struktur symboli" - struktura symbolu będąca zbiór symboli "powiązanych w jakiś sposób (np. jeden token obok siebie)" i podlegających różnym operacjom syntaktycznym, w szczególności "tworzeniu, modyfikacji, reprodukcji i zniszczeniu". Newell i Simon uważali, że maszyny wykonują listę -procesowe programy odmiany LISP jako prototypowe przykłady fizycznych systemów symboli. Podczas gdy istniały różne wewnętrzne nieporozumienia (np. Dotyczące kwestii nienawiści), w jakiejś formie lub innym funkcjonalizmie CTM, PSSH i Turingmachine razem luźno charakteryzują "klasyczną" lub "symboliczną" AI lub to, co Haugeland (1985) nazwano GOFAI ("dobra, staromodna sztuczna inteligencja"). Wszystkie trzy zostały uznane za merytoryczne tezy empiryczne, funkcjonalizm CTM i Turingmachine o ludzkim umyśle i PSSH o inteligencji w ogóle (również GOFAI został wyraźnie scharakteryzowany przez Haugelanda jako empiryczna doktryna kognitywistyki). Wyznaczają parametry i cele większości badań nad sztuczną inteligencją przez co najmniej pierwsze trzy dekady w tej dziedzinie i nadal wywierają dominujący wpływ, chociaż, jak zobaczymy, nie są już jedyną grą w mieście, ponieważ ponieśli znaczną część niepowodzenia w wyniku silnych ataków, które rozwinęły poważne problemy koncepcyjne i empiryczne w podejściu GOFAI. Według CTM złożone myśli są reprezentowane przez złożone struktury symboliczne w taki sam sposób, jak w językach naturalnych i logice formalnej złożone zdania są rekurencyjnie tworzone z prostszych elementów. Zatem mentalna reprezentacja złożonej myśli, takiej jak "Wszyscy ludzie są śmiertelni", zawiera komponentowe reprezentacje mentalne dla pojęć takich jak "śmiertelni" i "ludzie", a także "wszyscy" i "są". Te elementy są w jakiś sposób połączone ( i ostatecznie nauka powinna być w stanie wyjaśnić szczegóły tego, jak takie symboliczne operacje są przeprowadzane w mózgu), aby stworzyć złożoną myśl, której treść jest taka, że wszyscy ludzie są śmiertelni. W ten sposób złożone myśli zyskują na znaczeniu poprzez łączenie znaczeń ich składników. Otóż historia kompozytorska tego rodzaju - zależna od semantyki kompozytorskiej bronionej przez Frege'a i Tarskiego - jest realna tylko wtedy, gdy istnieje spis prymitywów, które można wykorzystać jako ostateczne elementy składowe bardziej złożonych reprezentacji. Zasadnicze pytanie dla CTM, który ma bezpośrednią analogię w AI, brzmi: w jaki sposób te prymitywy nabierają znaczenia. Mówiąc dokładniej, pytanie brzmi: w jaki sposób mentale prymitywne w naszych mózgach (lub w centralnej jednostce przetwarzania robota) radzą sobie z obiektami i stanami rzeczy poza naszymi mózgami - obiektami, które mogą nawet nie istnieć, i stanami rzeczy, których nawet nie można uzyskać. Jest to również określane jako problem uziemienia symbolu (Harnad 1990). To nie jest tylko filozoficzna łamigłówka o ludzkim umyśle, a nawet protosukademicka kwestia psychologii. Ma to bezpośrednie implikacje inżynierskie dla sztucznej inteligencji, ponieważ wiarygodna odpowiedź na to pytanie może przełożyć się na metodologię budowy robota, która potencjalnie zapobiega niektórym z najbardziej druzgocących zastrzeżeń wobec WZT (zostaną one omówione w następnym rozdziale). Taki robot "pomyślałby", wykonując obliczenia na formalnych strukturach symbolicznych (jak to zapewne robimy, zgodnie z CTM), ale mimo to byłby wystarczająco uziemiony w prawdziwym świecie, aby można było powiedzieć, że osiągnął on ponad symboliczne zrozumienie (tak jak my) . Oczywiście nie da się zasugerować, że ewolucja obdarzyła nas wszystkimi właściwymi prymitywnymi symbolami, posiadającymi wszystkie właściwe znaczenia, ponieważ ewolucja nie mogła przewidzieć takich rzeczy, jak termostaty lub satelity. W odpowiedzi wyjaśniono wiele teorii, wszystkie mieszczące się pod hasłem "naturalizującej treści", "naturalizującej semantyki" lub "naturalizującej intencjonalności". Celem jest dostarczenie fizycznego opisu tego, w jaki sposób mentalne tokeny symboli w naszych głowach potrafią mówić o rzeczach, które są dla nas zewnętrzne (lub, niezależnie od CTM, w jaki sposób stany mentalne mogą osiągnąć sens). Innymi słowy, typ poszukiwanego konta jest redukcyjny i materialistyczny; należy to wyrazić w nie zamierzonym słownictwie czystej fizyki. W dalszej części omówimy pokrótce trzy najbardziej znaczące próby zapewnienia naturalizowanych relacji o znaczeniu: teorie informacyjne, teorie ewolucyjne i semantykę ról koncepcyjnych. Istotą teorii informacyjnych jest pojęcie kowariancji. Chodzi o to, że jeśli ilość x zmienia się systematycznie z wielkością y, to x przenosi informacje o y. Prędkościomierz samochodu zmienia się systematycznie wraz z prędkością samochodu, a tym samym przenosi informacje o nim. W związku z tym możemy postrzegać prędkościomierz jako celowy system, ponieważ jego odczyty dotyczą prędkości samochodu. Podobnie mówimy, że dym "oznacza" ogień, ponieważ dym niesie informacje o ogniu. Jest to sens słowa "oznacza", które Grice nazwał znaczeniem naturalnym, zapowiedzią teorii semantyki informacyjnej. Ponownie, ponieważ dym i ogień są nomologicznie kowariantne, możemy powiedzieć, że jedno dotyczy drugiego. Mamy zatem początek naturalizowanego traktowania znaczeń, które traktują intencjonalność jako wspólne zjawisko naturalne, a nie jako zjawisko szczególnie mentalne. Jeśli chodzi o semantykę mentalistyczną, głównym wglądem w teorie - nieco uproszczone - jest to, że znaczenie symbolu zależy od tego, z jakimi symbolami tego systemu systematycznie (nomologicznie) powiązane. Jeśli w określonym mózgu pojawia się symbol określonego mentale H, za każdym razem, gdy pojawia się przed nami koń, to H przenosi informacje o koniach, a zatem oznacza konia. Teorie ewolucyjne utrzymują z grubsza, że stany intencjonalne są adaptacjami, podobnie jak wątróbki i kciuki są adaptacjami, a treść (znaczenie) stanu intencjonalnego jest funkcją, dla której został wybrany, to znaczy celem, dla którego służy. Podobnie jak wszystkie teorie adaptacjonistyczne, również to jest podatne na zarzuty panglossianizmu (Gould i Lewontin 1979). Niemniej jednak podstawowa historia nie jest niewiarygodna, powiedzmy, ze względu na przekonania, że w pobliżu znajduje się drapieżnik lub że istnieje potrzeba zdobycia i zjedzenia bananów pojawiających się w polu widzenia. Treść takiego przekonania byłaby czymś w rodzaju "pod tym drzewem jest tygrys", co prawdopodobnie byłaby funkcją, dla której takie przekonania zostały wybrane (w celu skorelowania z tygrysami pod drzewami), i treść takiego pragnienia brzmiałoby: "Chcę tam zjeść te banany", co znów byłoby zbieżne z celem tych pragnień (zdobywaniem pożywienia i przetrwaniem). Semantyka konceptualno-rolowa (CRS) nawiązuje do słynnej teorii znaczenia "wykorzystania" Wittgensteina, zgodnie z którą znaczenie elementu językowego (wyrażenie, zdanie itp.) Jest sposobem, w jaki element ten jest używany przez osoby mówiące język. Główną tezą CRS jest to, że znaczenie mentalnego symbolu S jest ustalone przez rolę, jaką S odgrywa w życiu poznawczym, a zwłaszcza przez relacje, jakie ma on z innymi symbolami, postrzeganiem i działaniem. Jest więc bardzo podobny do funkcjonalizmu dotyczącego stanów mentalnych. Logiczne elementy łączące, takie jak i zapewniające standardowe ilustracje dla teorii użycia znaczenia lingwistycznego, a także znaczenia symbolu mentalnego równoważnego i będącej rolą, jaką odgrywa on w naszych głowach, na przykład zestaw wnioskowania mentalnego, w którym uczestniczy. Teoria ma znaczące podobieństwa do semantyki operacyjnej języków programowania w teoretycznej informatyce. W kognitywistyce CRS jest znany jako semantyka proceduralna. Był głównie popierany przez Johnsona-Lairda (1977), a krytykowany przez Fodora. Związana jest z tym cała kwestia eksternalizmu. CRS ma znaczenie symboliczne i jest całkowicie wewnętrzną materią, zależną tylko od relacji, jakie ma z innymi symbolami i stanami (w tym stanami percepcyjnymi i behawioralnymi). Ale najwyraźniej sens ma coś więcej. Przynajmniej na pierwszy rzut oka znaczenie wydaje się łączyć symbole ze światem, a nie tylko z innymi symbolami. Znaczenie terminu pies musi mieć coś wspólnego z jego odniesieniem, to znaczy z rzeczywistymi psami, a znaczenie Arystotelesa musi mieć związek z faktycznym Arystotelesem. Bardziej zaawansowane wyzwania zewnętrzne przedstawili Putnam i Burge, argumentując odpowiednio, że znaczenie jest funkcją ogólnego środowiska fizycznego i społecznego, w którym jest osadzone. W odpowiedzi opracowano tak zwane dwuskładnikowe CRS, próbując rozróżnić wąską i szeroką treść mentalną. Wąskie znaczenie jest "w głowie" i nie zależy od otaczających okoliczności, podczas gdy szerokie znaczenie zależy od odniesienia i ma warunki prawdy. Rozrósł się cały przemysł wokół tego rozróżnienia i nie mamy tu miejsca, aby się w nim zagłębić. Nawiasem mówiąc, to właśnie brak związku między mentalesem a światem (lub między symbolami komputera a światem) był głównym sprzeciwem Fodora (1978), gdy argumentował przeciwko "semantyce proceduralnej" w stylu AI, zalecanej przez Johnsona-Dziedzica. Ten ostatni napisał, że "sztuczne języki, które są używane do przekazywania programów instrukcji komputerom, mają zarówno składnię, jak i semantykę. Ich składnia składa się z reguł pisania dobrze sformatowanych programów, które komputer może interpretować i wykonywać. Ich semantyka składa się z procedur, które komputer ma wykonać "(Johnson-Laird 1977). W ważnej krytyce artykułu Johnsona-Lairda, który w pewien sposób zapowiedział argument Searle Chinese Room, Fodor zaprotestował:

"Modele komputerowe w ogóle nie dostarczają teorii semantycznej, jeśli to, co rozumiesz przez teorię semantyczną, jest relacją relacji między językiem a światem. W szczególności, semantyka proceduralna nie wypiera semantyki klasycznej, tylko nasuwa pytania klasyczni semantycy postanowili odpowiedzieć

maszyna może skompilować "Czy Lucy przyniosła deser?" i nie ma mglistego pojęcia, że zdanie pyta o to, czy Lucy przyniosła deser "
(Fodor 1978)

Zagadnienia filozoficzne

Trzy główne krytyki filozoficzne silnej AI, które pomogły zmienić bieg społeczności AI i wskazały nowe kierunki badań, są następujące:

1. Krytyka Huberta Dreyfusa;
2. Krytyka Blocka dotycząca funkcjonalizmu maszyn poprzez chińskie eksperymenty myślowe mózgu; i
3. Eksperyment myślowy w chińskim pokoju Searle.

Wszystkie trzy ukazały się w odległości dziesięciu lat od siebie. Przed nimi było kilka innych filozoficznych krytyk silnej AI, a od tego czasu pojawiły się inne. Ale te trzy wywołały najwięcej dyskusji i wywarły największy wpływ. Krytyka Dreyfusa była pierwsza (Dreyfus 1972). Było to połączenie argumentów empirycznych i filozoficznych. Empirycznie, jego głównym zarzutem było to, że badacze AI po prostu nie dostarczyli towarów. Pomimo wyjątkowo optymistycznych i często imponujących wczesnych prognoz, nie udało im się zbudować inteligentnych systemów ogólnego przeznaczenia. Ta krytyka została ogólnie odrzucona jako nieważna i niesprawiedliwa: nieważna, ponieważ w najlepszym wypadku pokazała, że AI jeszcze się nie udało, a nie, że nigdy się nie uda; i niesprawiedliwe, ponieważ AI była bardzo młodą dziedziną, i nie można było oczekiwać rewolucyjnych przełomów technologicznych w dziedzinie w powijakach, pomimo zbyt entuzjastycznych zapowiedzi niektórych z jej pionierów. Filozoficznie Dreyfus argumentował, że nasza zdolność rozumienia świata i innych ludzi jest nie deklaratywnym rodzajem umiejętności know-how, które nie są podatne na kodyfikację propozycji w stylu GOFAI. Jest nieartykułowany, przedkoncepcyjny i ma niezbędny wymiar fenomenologiczny, którego żaden system oparty na regułach nie może uchwycić. Dreyfus podkreślił także znaczenie takich zdolności, jak wyobraźnia, tolerancja dwuznaczności i stosowanie metafory, a także zjawisk, takich jak prążkowa świadomość i percepcja gestalt, z których wszystkie były - i nadal są odporne na leczenie obliczeniowe. Co najważniejsze, naszym zdaniem Dreyfus podkreślił znaczenie znaczenia, podkreślając zdolność ludzi do odróżnienia tego, co istotne, od tego, co nieistotne, i do bez wysiłku czerpania z odpowiednich aspektów ich doświadczenia i wiedzy zgodnie z wymogami ich obecnej sytuacji, ponieważ wymagane przez ich ciągłe zaangażowanie w świat. Słusznie uważał, że przekazanie tej samej zdolności komputerowi cyfrowemu będzie główną przeszkodą dla AI - co nazwał problemem "kontekstu holistycznego". Problem istotności pozostaje naszym zdaniem kluczowym wyzwaniem technicznym dla sztucznej inteligencji, zarówno silnej, jak i słabej, a także dla obliczeniowej kognitywistyki. Twierdzenie, że ludzie nie zajmują się codziennymi czynnościami, przestrzegając zasad, wskazuje na obawy, które powtarzały się w przypadku silnej sztucznej inteligencji i CTM, a nawet ogólnych teorii mentalistycznych, takich jak językoznawstwo generatywne Chomsky'ego, i zasługuje na krótką dyskusję tutaj, zanim przejdź do eksperymentu myślowego Blocka. Sprzeciw został sformułowany pod różnymi postaciami przez wielu filozofów, od Wittgensteina i Quine′a po Dreyfusa, Searle′a i innych. Ma to związek z tak zwaną rzeczywistością psychologiczną opartych na regułach wyjaśnień poznania, a zwłaszcza z komputerowymi symulacjami procesów umysłowych. Problem polega na rozróżnieniu między opisem a przyczyną, a także między przewidywaniem a wyjaśnieniem. Zbiór reguł (a tym bardziej program komputerowy) może odpowiednio opisywać zjawisko poznawcze, ponieważ reguły mogą stanowić weryfikacyjny model rażących prawidłowości obserwacyjnych związanych z tym zjawiskiem. Mogą pasować do wszystkich dostępnych danych eksperymentalnych i dokonywać właściwych prognoz. Ale to nie znaczy, że tak naprawdę jest zakodowana reprezentacja reguł (lub programu) w naszych głowach, która jest przyczynowo związana z produkcją tego zjawiska. Zestaw reguł gramatycznych R może na przykład poprawnie opisywać pewne ograniczenia w angielskiej składni, ale to nie znaczy, że anglojęzyczni mają kodowanie R w swoich mózgach, co powoduje, że wytwarzają mowę zgodnie z R. Więc nawet jeśli R może poprawnie przewidzieć zachowanie, niekoniecznie to wyjaśnia. To rozróżnienie jest również znane w terminologii Pylyshyn (1991) jako różnica między regułami jawnymi i niejawnymi. Domniemane reguły opisują jedynie prawidłowości behawioralne, podczas gdy reguły jawne zakodowały reprezentacje, prawdopodobnie w naszych mózgach, które odgrywają przyczynową rolę w wytwarzaniu prawidłowości. Problem rzeczywistości psychologicznej rodzi poważne problemy epistemologiczne. Jakie dowody liczyłyby się jako uzasadnienie twierdzenia, że niektóre reguły są wyraźnie zakodowane w naszych mózgach? Jak odróżnić różne zestawy reguł lub różne programy komputerowe, które są jednak opisowo równoważne? Jakie części modelu komputerowego należy przypisać znaczeniu psychologicznemu, a które należy zignorować? Ci, którzy są przychylni argumentom Quine′'a dotyczącym radykalnej nieokreśloności dotykającej naukę języka, prawdopodobnie będą mieli podobne wątpliwości co do obliczeniowego podejścia do kognitywistyki i stwierdzą, że powyższe trudności są nie do pokonania. (Chociaż nie jest konieczne przyjmowanie argumentów nieokreśloności Quine′'a ani jego behawioryzmu, aby dojść do takich wniosków.) Chomsky uważa takie obawy za przejawy empirycznych uprzedzeń wobec ludzkiego umysłu i głęboko zakorzenionego, ale nieuzasadnionego dualizmu metodologicznego, który zakłada wyraźne rozróżnienie między królestwem fizycznym a mentalnym. Dla niego powyższe problemy epistemologiczne są niczym więcej niż zwykłym problemem indukcyjnego niedookreślenia, który regularnie spotyka się z wszystkimi naukami. Obliczeniowi naukowcy kognitywni, tacy jak Newell, Pylyshyn i inni, odpowiedzieli bardziej konkretnie, opracowując pojęcie różnych poziomów opisu systemu. Niemniej jednak nadal istnieją poważne problemy związane z obliczeniowym modelowaniem poznawczym i wielu nadal uważa, że trudności epistemologiczne, przed którymi stoi takie modelowanie, nie wynikają ze zwykłego problemu niedookreślenia występującego w naukach fizycznych, ale z zasadniczo innego rodzaju problemu, który jest znacznie trudniejszy.

Druga wpływowa krytyka skierowana była konkretnie przeciwko funkcjonalizmowi maszyny. Została ona dostarczony przez Blocka (1978) w formie eksperymentu myślowego, który prosi nas, abyśmy wyobrazili sobie całą populację Chin symulującą ludzki umysł przez godzinę. Obywatele Chin są zaopatrzeni w dwukierunkowe radia, które łączą ich ze sobą we właściwy sposób. Możemy myśleć o poszczególnych obywatelach Chin jako neuronach lub jakichkolwiek elementach mózgu, które uważamy za atomowe. Ludzie są również połączeni drogą radiową ze sztucznym ciałem, z którego mogą odbierać bodźce sensoryczne i do którego mogą dostarczać sygnały wyjściowe do generowania zachowań fizycznych, takich jak podniesienie ręki. Zgodnie z funkcjonalizmem maszyny należałoby dojść do wniosku, że jeśli Chińczycy wiernie zasymulują prawidłową tabelę przejścia, to dzięki temu, że są odpowiednio powiązani ze sobą oraz z wejściami i wyjściami, w rzeczywistości byliby świadomi. Ale to wydaje się nam sprzeczne z intuicją, jeśli nie oczywistym absurdem. Powstały układ może być izomorficzny dla mózgu, na pewnym poziomie opisu, ale wydaje się, że nie zawiera żadnych wrażeń, bólów, swędzeń ani przekonań i pragnień w tej sprawie. Z podobnych powodów wynika, że żaden czysto obliczeniowy system sztucznej inteligencji nigdy nie miałby prawdziwego umysłu. Niektórzy funkcjonaliści zdecydowali się ugryźć kulę i przyznać, że "mózg Chin" (lub odpowiednio zaprogramowany robot) faktycznie posiadałby prawdziwą treść umysłową, kredując nasze przeciwne intuicje szowinizmowi mózgu, naszą skłonność do traktowania jedynie neurologicznego wetware jako zdolnego do podtrzymywanie życia psychicznego. Ale trudno to przełknąć, a eksperyment myślowy przekonał wielu, że nieskrępowany funkcjonalizm jest zbyt liberalny i musi zostać porzucony lub znacznie ograniczony.

Trzeci przełomowy filozoficzny atak na silną sztuczną inteligencję został przeprowadzony przez Searle (1980) wraz ze jego słynnym obecnie argumentem Chinese Room (CRA). Agencja ratingowa wywołała olbrzymią ilość dyskusji i kontrowersji, a tutaj przedstawimy jedynie pobieżną jej recenzję; CRA opiera się na eksperymencie myślowym, w którym sam Searle występuje w roli głównej. On jest w pokoju; na zewnątrz pokoju są rodzimi użytkownicy języka chińskiego, którzy nie wiedzą, że Searle jest w środku. Searle-in-room, podobnie jak Searle-in-real-life, nie zna żadnego chińskiego, ale biegle posługuje się językiem angielskim. Chińscy mówcy wysyłają karty do pokoju przez gniazdo; na tych kartach są napisane pytania w języku chińskim. Pokój, dzięki uprzejmości tajnej pracy Searle, zwraca karty rodzimym użytkownikom języka chińskiego jako dane wyjściowe. Rezultat Searle'a jest uzyskiwany poprzez zapoznanie się z instrukcją: ta książka jest tabelą przeglądową, która mówi mu, co produkować w Chinach na podstawie tego, co jest wysyłane. Aby Searle, Chińczycy to tylko garść - używając języka Searle - squiggle-squoggles. Istota tej argumentacji jest raczej prosta: Searle-in-the-room ma być wszystkim, czym może być komputer, a ponieważ nie rozumie chińskiego, żaden komputer nie byłby w stanie tego zrozumieć. Searle bezmyślnie porusza się w kółko i, zgodnie z argumentem, że zasadniczo wszystkie komputery tak robią.

Searle podał różne bardziej ogólne formy argumentu. Na przykład podsumowuje argument jako taki, w którym z przesłanek

1. Składnia nie jest wystarczająca dla semantyki.

2. Programy komputerowe są całkowicie zdefiniowane przez ich formalną lub składniową strukturę.

3. Umysły mają treści mentalne; w szczególności mają treść semantyczną.

ma to nastąpić
"Żaden program komputerowy sam w sobie nie wystarcza, aby dać systemowi umysł. Krótko mówiąc, programy nie są umysłami i same w sobie nie są wystarczające do posiadania umysłów." (Na podstawie Searle 1984)

Wiele odpowiedzi udzielono agencji ratingowej, zarówno w jej pierwotnym wcieleniu, jak i w formie ogólnej wyrażonej powyżej; być może dwa najbardziej popularne to odpowiedź systemu i odpowiedź robota. Pierwszy opiera się na twierdzeniu, że chociaż Searle-in-the-room nie rozumie chińskiego, ogólny system, który obejmuje go jako właściwą część, tak. Oznacza to, że podważa się założenie, że Searlein-the-room jest wszystkim, czym może być komputer. Ten ostatni zarzut opiera się na twierdzeniu, że chociaż Searle-in-the-room nie rozumie chińskiego, ten niedobór wynika z faktu, że Searle nie jest przyczynowo połączony ze środowiskiem zewnętrznym we właściwy sposób. Twierdzenie jest takie, że w prawdziwym robocie sens byłby budowany na podstawie transakcji przyczynowych robota ze światem rzeczywistym. Tak więc, chociaż Searle może w pewnym sensie funkcjonować w pokoju jak komputer, nie działa on jako pełnoprawny robot, a silna sztuczna inteligencja dąży do budowania ludzi jako pełnoprawnych robotów. Searle udzielił odpowiedzi na te odpowiedzi i kontrowersje trwają. Niezależnie od opinii na temat agencji ratingowej argument ten miał niezaprzeczalnie ogromny wpływ na tę dziedzinę. W tym samym czasie, gdy toczyły się takie krytyki filozoficzne, zaczęły pojawiać się poważne problemy techniczne z klasyczną sztuczną inteligencją. Jednym z nich był problem z ramą. Do tej pory termin stał się dość niejasny. Czasami jest to rozumiane jako wspomniany wcześniej problem trafności (jak stwierdzić, czy dana informacja może być istotna w danej sytuacji); czasami rozumie się, że oznacza pozorną trudność obliczeniową holistycznych procesów myślowych; a czasami jest to nawet źle rozumiane jako ogólna etykieta nieosiągalności symbolicznej sztucznej inteligencji. Być może najszerszy i najmniej niedokładny odczyt tego jest następujący: chodzi o określenie warunków, w których przekonanie powinno zostać zaktualizowane po podjęciu działania. W swoim pierwotnym wcieleniu problem był bardziej techniczny i wąski i pojawiał się w kontekście konkretnego zadania w określonych ramach: rozumowania o działaniu w rachunku sytuacji. Ten ostatni jest formalnym systemem opartym na logice pierwszego rzędu, służącym do reprezentowania i uzasadniania działań, czasu i zmiany. Jego podstawowym pojęciem jest płynność, która jest właściwością, której wartość może zmieniać się w czasie, na przykład temperatura w pomieszczeniu lub położenie poruszającego się obiektu. Płyny są reifikowane, a zatem można je skwantyfikować. Co ważne, logiczne właściwości świata same w sobie są traktowane jako płynne. Taki płynny zdania może wskazywać, czy obiekt znajduje się na lewo od innego obiektu, czy też światło w pokoju jest włączone. Świat w dowolnym momencie można wyczerpująco opisać za pomocą zestawu wzorów określających wartości wszystkich płynności w tym punkcie; mówi się, że taki opis reprezentuje stan świata w tym momencie. Działania są również potwierdzane. Każde działanie ma zestaw warunków wstępnych i efektów, które są opisane w kategoriach płynności. Jeżeli warunki wstępne działania są spełnione w danym stanie, wówczas działanie może zostać przeprowadzone i spowoduje, że nowy stan spełni efekty działania. Zaczynając od stanu początkowego, który prawdopodobnie reprezentuje świat, gdy robot wchodzi w niego po raz pierwszy, możliwe jest wiele różnych sekwencji stanów w zależności od różnych możliwych działań. Aby wykluczyć dziwaczne modele, w których na przykład działanie ma niezwiązane z nim działania, musimy wyraźnie określić brak efektów każdego działania za pomocą tak zwanych "aksjomatów ramek". Podczas gdy zwięzłe sposoby określania aksjomatów ramek mają opracowane, złożoność obliczeniowa wnioskowania z nimi pozostaje wyzwaniem. Przedstawiono kilka innych proponowanych rozwiązań, od opisu po różne formalizacje reprezentowania i uzasadniania działań i zmian. Warto zauważyć, że żadne z proponowanych do tej pory rozwiązań nie zbliżyło się do skuteczności, z jaką małe dzieci uzasadniają swoje działania. Sugerowano, że ludzie nie mają problemu z rozumowaniem na temat braku efektów działań, ponieważ przyjmują za pewnik, że działanie nie wpływa na nic, chyba że mają dowody przeciwne. Jednak prawdziwy problem, na który filozofowie tacy jak Fodor potknęli się: czy możemy stwierdzić, czy jakaś informacja stanowi "dowód przeciwny"? Istnieją co najmniej dwie osobne kwestie. Najpierw musimy być w stanie ustalić, czy dana informacja jest potencjalnie istotna dla niektórych naszych przekonań. To znowu problem trafności. Po drugie, musimy być w stanie ustalić, czy informacje fałszują wiarę. Są to zarówno problemy inżynierskie dla GOFAI, jak i ogólne problemy filozoficzne. Na froncie inżynieryjnym zbudowanie symbolicznego systemu, który osiąga rozsądny werdykt, nie jest trudne, gdy zostaną zidentyfikowane odpowiednie wierzenia. Główną trudnością praktyczną jest szybkie zorientowanie się w odpowiednich informacjach. Wielu uważa, że jest mało prawdopodobne, aby jakikolwiek system manipulujący symbolami mógł pokonać tę trudność.

Łączność i systemy dynamiczne

Problemy koncepcyjne i inżynierskie, takie jak powyższe, w połączeniu z rozczarowaniem, które nastąpiły po krótkim okresie podekscytowania systemami eksperckimi i wielkim projektem piątej generacji zapoczątkowanym w Japonii w latach 80., pomogły utorować drogę do sprzeciwu wobec podejść GOFAI , zarówno w AI, jak i w kognitywistyce. W dużej mierze ten luz przejawił się w bardzo szybkim wstąpieniu do związku w latach osiemdziesiątych. Łączność istniała co najmniej od lat 40. XX wieku (fundamenty położyli McCulloch i Pitts (1943)), ale dopiero w latach 80. zaczęła pojawiać się jako poważna alternatywa dla GOFAI, głównie dzięki staraniom Rumelharta, McClellanda oraz PDP Research Group (1986). Podstawowym narzędziem konceptualnym i inżynieryjnym łączników jest sieć neuronowa. Sieć neuronowa składa się z wielu węzłów (lub "jednostek") przypominających neurony mózgu. Każdy węzeł odbiera szereg sygnałów wejściowych i dostarcza sygnał wyjściowy. Węzły są połączone ze sobą, dzięki czemu wyjście jednego węzła staje się wejściem do innej ody. Wartości wejściowe i wyjściowe są zwykle reprezentowane przez liczby rzeczywiste. Połączenia mają przypisane wagi, które są również reprezentowane przez liczby rzeczywiste. Intuicyjnie waga połączenia reprezentuje wpływ, jaki jeden węzeł ma na wynik innego. Wyjście każdego węzła jest prostą liniową funkcją danych wejściowych; typowo obliczana jest ważona suma wartości wejściowych, a wynik 1 lub 0 jest wytwarzany w zależności od tego, czy suma przekracza określony próg. Jeśli wyjście ma wartość 1, mówi się, że węzeł został aktywowany lub strzelił; w przeciwnym razie jest hamowany. Niektóre jednostki są oznaczone jako węzły wejściowe i wyjściowe całej sieci; zazwyczaj jest tylko jeden węzeł wyjściowy. Sieci neuronowe są zdolne do pewnego rodzaju uczenia się; można je wyszkolić do obliczania - lub przybliżania - funkcji celu. Istnieją algorytmy uczenia się ogólnego przeznaczenia, takie jak propagacja wsteczna, która, zaczynając od losowych wag, wielokrotnie wystawia sieć na różne dane wejściowe w zestawie szkoleniowym i dostosowuje wagi, aby przybliżyć wynik do prawidłowej wartości. Skonstruowano sieci neuronowe, które dobrze sobie radzą z różnymi nietrywialnymi zadaniami poznawczymi, takimi jak uczenie się czasu przeszłego angielskich czasowników lub syntezowanie mowy z tekstu pisanego. Sieci neuronowe mają wiele niezwykłych cech, które odróżniają je od systemów GOFAI. Jednym z nich jest brak centralnej jednostki przetwarzania lub jakichkolwiek wyraźnie zakodowanych instrukcji, które określają zachowanie systemu. Istnieją tylko pojedyncze węzły, a pojedynczy węzeł ma tylko niewielką ilość całkowicie lokalnych informacji: wartości wejściowe, które otrzymuje od swoich sąsiadów. Dzięki tej ogromnej lokalizacji i wzajemnym połączeniom sieci neuronowe są w stanie z wdziękiem ulec degradacji, co oznacza, że jeśli niektóre części sieci zostaną uszkodzone, sieć jako całość będzie nadal działać, a spadek wydajności będzie mniej więcej proporcjonalny do ilości uszkodzić. Natomiast systemy manipulowania symbolami są zwykle kruche; niewielkie odchylenie od zaprogramowanego przebiegu zdarzeń może prowadzić do katastrofalnej awarii. Taka kruchość jest nietypowa dla ludzkiej inteligencji. Podobnie jak działanie sieci neuronowych, ludzkie poznanie będzie cierpieć ciągłą i pełną wdzięku degradację w niesprzyjających warunkach, zamiast gwałtownej ogólnej awarii. Po drugie, reprezentacja jest rozproszona, ponieważ informacje nie są kodowane przez konkretne struktury symboliczne; raczej informacja jest zasadniczo reprezentowana jako wzorzec aktywności nad całą sieć: odpalanie różnych węzłów. A ogólna "wiedza" zakodowana przez sieć neuronową zasadniczo leży w wadze różnych połączeń; jest sub-symboliczny i wysoce rozproszony. Ważnym następstwem rozproszonej reprezentacji jest to, że sieci neuronowe w końcu omijają dokuczliwe pytanie dotyczące treści, które powstaje w przypadku klasycznego WZT. Pytanie o to, jak atomowym symbolom udaje się zdobyć ich znaczenie nie powstaje - ponieważ nie ma atomowych symboli. Te interesujące cechy sieci neuronowych, w połączeniu z faktem, że wydają się bardziej prawdopodobne biologicznie niż komputery cyfrowe, nadal spodobają się wielu naukowcom kognitywnym i inżynierom sztucznej inteligencji, a intensywne badania w tej dziedzinie są nadal aktualne, chociaż jak dotąd było stosunkowo mało wybitnych osiągnięć. Problem zdrowego rozsądku pojawia się jednak w innej konfiguracji sieci neuronowych. Inteligencja wykazywana przez (nadzorowaną) sieć neuronową jest wstępnie wbudowana w system przez modelującego człowieka, który trenuje sieć. Ale to nie wystarczy, aby wystarczająco ograniczyć przestrzeń możliwych hipotez, aby wykluczyć uogólnienia, które są uzasadnione z perspektywy danych szkoleniowych, ale nieudolne i nieodpowiednie z ludzkiej perspektywy. Istnieją legiony opowiadań o sieciach neuronowych, które po intensywnym treningu wymyśliły uogólnienia, które nauczyły się odróżniać cechy całkowicie nieistotne dla ludzkiego modelarza (w istocie cechy, których modelarz nawet nie zauważył). Co więcej, jeśli chodzi o moc obliczeniową, wszystko, co można zrobić za pomocą sieci neuronowych, może być wykonane przez maszyny Turinga, a zatem, zgodnie z tezą Churcha, sieci neuronowe nic nie mogą zrobić, czego nie można zrobić, powiedzmy, za pomocą programów LISP. Oznacza to, że nawet gdyby mózgi okazały się gigantycznymi sieciami neuronowymi, w zasadzie możliwe byłoby ich symulowanie z idealną precyzją przy użyciu klasycznych technik GOFAI. Wynika z tego na przykład, że istnieją systemy oparte na regułach, które mogą przejść Test Turinga, nawet jeśli systemy te są tak niezwykle rozległe i niewygodne, że ich zbudowanie jest praktycznie niemożliwe. (Chociaż, gdyby mózgi okazały się niczym innym jak sieciami neuronowymi, z pewnością udowodniłoby to, że system nie musi wdrożyć symbolicznie zakodowanej teorii domeny w celu uzyskania kompetencji w tej dziedzinie.) inne kwestie związane z pytaniem, czy sieci neuronowe kiedykolwiek zdołają osiągnąć ogólną inteligencję, w tym słynna debata systematyczności, która została zapoczątkowana przez Fodora i Pylyshyna (1988) i nadal trwa, ale nie zajmiemy się nimi tutaj. Blisko związane z łącznością jest podejście dynamiczne do inteligencji (Port i van Gelder 1995). Podejście to opiera się na ogólnej teorii nieliniowych układów dynamicznych, postrzegając umysł jako ciągły układ dynamiczny - zasadniczo zbiór zmiennych, których wartości ewoluują jednocześnie w czasie. Ewolucja systemu jest zazwyczaj opisywana przez zestaw praw, zwykle wyrażanych przez równania różniczkowe lub różniczkowe. Stan układu w danym momencie jest opisany przez wartości zmiennych w tym momencie. Wartości zmiennych w kolejnych momentach (tj. Dynamiczna trajektoria układu przez przestrzeń wszystkich możliwych stanów) są określone przez stan obecny i prawa dynamiczne. Teoria systemów dynamicznych jest jednak wykorzystywana do prowadzenia czystej kognitywistyki, a nie AI. Oznacza to, że zapewnia zestaw zasobów pojęciowych do rozumienia poznania i modelowania jego aspektów jako układów dynamicznych, ale nie do budowania systemów inteligentnych. W związku z tym nie będziemy mieli wiele do powiedzenia na ten temat. Niemniej jednak zwolennicy podejścia dynamicznego do poznania zwykle podkreślają znaczenie czasu, kontekstu, interakcji, ucieleśnienia i środowiska, a zatem są naturalnymi sprzymierzeńcami umiejscowionej i osadzonej AI, do której przechodzimy następnie

AI od dołu: inteligencja umiejscowiona

Gdy rozczarowanie GOFAI zaczęło się utrzymywać w latach 80. XX wieku, badacze AI, tacy jak Rod Brooks z MIT, doszli do wniosku, że systemy oparte na szczegółowych symbolicznych reprezentacjach świata, wypiekane z wyprzedzeniem przez inżynierów, oraz generowanie akcji dzięki szczegółowemu logicznemu planowaniu były niewykonalne, łamliwe i niewiarygodne poznawczo. Zachęcali do przejścia od zadań symbolicznych wyższego rzędu, takich jak rozumowanie dedukcyjne, do niższych, pozornie "prostych" zadań percepcyjnych i motorycznych, takich jak wykrywanie, poruszanie się, obracanie, chwytanie, omijanie przeszkód i tak dalej. Utrzymywali oni, że tylko w pełni wcieleni agenci zdolni do sprawnego wykonywania tych zadań mogą być naprawdę zatwierdzeni jako sztuczni agenci, i że tylko pełne wcielenie ma jakiekolwiek nadzieje na właściwe "uziemienie" sztucznego agenta w prawdziwym świecie. GOFAI albo całkowicie zignorował, albo zminimalizował znaczenie takich działań. Zdolności percepcyjne i motoryczne były postrzegane jako zwykłe "przetworniki", przydatne peryferyjnie i istotne tylko w takim stopniu, w jakim dostarczały symboliczne reprezentacje świata do centralnych procesów myślowych lub wdrażały efektory, aby przełożyć wyniki takich procesów na ruchy ciała. Zdaniem zwolenników GOFAI z pewnością tym, co odróżnia ludzi od owadów, jest zdolność do racjonalnego myślenia. Brooks i jego współpracownicy argumentowali, że możliwości organizmu nie są trywialne - w rzeczywistości GOFAI okazał się nieudolny w systemach budowlanych, które je posiadały. Co więcej, utrzymywali, że badanie takich zdolności może dać nam cenny wgląd w to, w jaki sposób z nich wyłania się poznanie wyższego rzędu. Język i zdolność do symbolicznego myślenia pojawiły się bardzo niedawno w historii ludzkości, co sugeruje, że ewolucja włożyła większość wysiłku w budowanie naszych układów sensorycznych i motorycznych. Kiedy zrozumiemy pozornie proste i przyziemne działanie takich systemów, łamigłówka inteligencji może zacząć się rozpuszczać. Język i rozumowanie staną się proste, gdy tylko będziemy wiedzieć, jak zbudować robota, który z powodzeniem porusza się w świecie fizycznym, ponieważ według Brooksa "głównego elementu intelektu robota" nie można znaleźć w rozumowaniu, ale raczej w "dynamice interakcji robota i jego środowiska. "Zasadniczo program badawczy AI realizowany przez Brooksa i jego zwolenników, który stał się znany jako sztuczna inteligencja usytuowana, oznaczał" patrzenie na prostsze zwierzęta jako oddolny model budowania inteligencji "(Brooks 1991). Aby pożyczyć zdanie od historyków, była to w pewnym sensie sztuczna inteligencja "od dołu". Kluczowym punktem stwierdzonym przez Brooksa i jego zespół było to, że skomplikowane symboliczne przedstawienia świata nie są konieczne do rozwiązania szerokiej gamy problemów. Wiele problemów można skuteczniej rozwiązać, eliminując reprezentacje i wykorzystując strukturę otaczającego środowiska. Pomysł został utrwalony w sloganie "Świat jest jego najlepszą reprezentacją". Ciągłe wykrywanie i interakcja ze światem w zamkniętej pętli sprzężenia zwrotnego była uważane za znacznie bardziej obiecujące podejście niż budowanie jego statycznego symbolicznego "modelu" (opisanego powiedzmy jako stan w rachunku sytuacji) i uzasadnienie tego. Brooks i jego zespół zademonstrowali swoje podejście, budując robota o imieniu Herbert, którego zadaniem było wędrowanie po korytarzach laboratorium MIT AI Lab w celu zidentyfikowania i pozbywania się pustych puszek po napojach. Herbert został zbudowany na tak zwanej architekturze subsumpcji, składającej się z szeregu niezależnych modułów, z których każdy specjalizuje się w wykonywaniu określonego zadania, takiego jak przejście do przodu. W dowolnym momencie moduł może zostać aktywowany lub stłumiony w zależności od bodźców dynamicznie odbieranych przez Herberta. Cały system opierał się na niewielkiej lub żadnej reprezentacji wewnętrznej i symbolicznej manipulacji, ale zdołał zachować zaskakująco solidne zachowanie. Odwracając uwagę od wewnętrznych reprezentacji i procesów w kierunku zewnętrznych zachowań i ciągłej interakcji ze środowiskiem, praca Brooksa i innych badaczy zajmujących sztuczną inteligencję położoną oznaczała odwrócenie kierunku od rewolucji poznawczej i powrót do behawioryzmu. Rzeczywiście, niektórzy mówili o "kontrrewolucji" w sztucznej inteligencji i naukach kognitywnych. Uważamy, że takie roszczenia są przesadzone; większość badaczy z tych dziedzin nie chce zrzec się naukowej zasadności reprezentacji w wyjaśnianiu umysłu lub ich przydatności jako narzędzi inżynieryjnych. Naszym zdaniem nie powinny. Uwagi teoretyków sytuacji zostały dobrze przyjęte, a AI jako całość zwraca teraz znacznie większą uwagę na kontekst środowiskowy i ucieleśnienie. To pozytywny rozwój i tendencja ta prawdopodobnie się utrzyma. Ale istnienie reprezentacji mentalnych wydaje się teraz niezaprzeczalne jak zawsze. Ludzie mogą po prostu zamknąć oczy, zamknąć uszy i zastanowić się nad możliwymi skutkami swoich działań, dziesiątą liczbą pierwszą, logicznymi konsekwencjami swoich przekonań, strukturą naszego układu słonecznego lub cząsteczkami wody, jednorożcami i tak dalej. na. Założenie, że takie "klasyczne" myślenie stanie się proste, gdy zrozumiemy, w jaki sposób wiążemy sznurowadła, jest wątpliwe i zostało zakwestionowane. Warto zauważyć, że pojawienie się teorii sytuacyjnych w sztucznej inteligencji i naukach kognitywnych zostało już odzwierciedlone - lub odtąd - odzwierciedlone przez podobne ruchy w kilku obszarach filozofii. Na przykład w filozofii języka zwrot w języku zwykłym, który zaczął się w Oksfordzie w latach 50. XX wieku, przede wszystkim jako reakcja na logiczny pozytywizm, może być postrzegany jako prekursor reakcji behawioralnej przeciwko kognitywizmowi. W szczególności teoria mowy i aktu zapoczątkowana przez Austina, a następnie podjęta przez Strawsona, Searle i innych, jako pierwsza podkreśliła, że kluczową jednostką znaczenia językowego nie było zdanie abstrakcyjne, lecz wypowiedź, w ten sposób odwracając uwagę od odizolował byt teoretyczny (zdanie) od konkretnego aktu przeprowadzanego przez prawdziwych ludzi w czasie rzeczywistym. Trend ten utrzymał się i umocnił, szczególnie jak widać w późniejszym rozwoju pragmatyki i rosnące uznanie rozległej i bardzo zawiłej zależności znaczenia od czynników deictycznych i innych czynników kontekstowych. Z grubsza podobne zmiany miały miejsce w filozofii nauki i matematyki, ponownie w dużej mierze jako reakcja na pozytywizm. W nauce filozofowie tacy jak Thomas Kuhn i Joseph Agassi podkreślili, że abstrakcyjne systemy uzasadnienia (zasadniczo logika indukcyjna i dedukcyjna) są słabymi modelami praktyki naukowej, która jest przede wszystkim działalnością człowieka, która jest wysoce uzależniona od interakcji społecznych i kulturowych oraz czynniki polityczne. W matematyce filozofowie, tacy jak Lakatos (1976) i konstruktywiści społeczni, tacy jak Barnes i Bloor (1982), rozpoczęli energiczne ataki na "euklidesizm", formalny styl robienia matematyki, w którym pozornie niewątpliwy zestaw aksjomatów stanowi podstawę i dedukcję konsekwencje są następnie kumulowane i monotoniczne. Twierdzono, że ten styl jest zbyt zgrabny, aby odzwierciedlać "prawdziwą" matematykę. W rzeczywistości całkowicie pomijał proces robienia matematyki (właściwie wymyślania wyników), dynamiczne i żywe aspekty tej dziedziny. Nie twierdzimy, że wszystkie te wątki musiały na siebie wpływać, ani że w którymkolwiek z nich było coś nieubłaganego. Niemniej jednak istnienie pewnych istotnych wspólnych punktów odniesienia i leżących u ich podstaw podobieństw jest niezaprzeczalne. Istnieje ogólna tendencja do odchodzenia od statyki w kierunku dynamiki, od abstrakcji i dekontekstualizacji do konkretnych i związanych z kontekstem, od uzasadnienia do odkrycia, od odizolowanej kontemplacji do interakcji społecznych i od myślenia do działania. Dominującym i powtarzającym się tematem było przekonanie, że prawdziwego zrozumienia nigdy nie uda się osiągnąć, biorąc coś dynamicznego i ewoluującego, reaktywnego, plastycznego, elastycznego, nieformalnego, wysoce dopracowanego, teksturowanego, kolorowego i otwartego; i modelowanie tego przez coś statycznego, rygorystycznego, nieugiętego i nieelastycznego - to w istocie poprzez zastąpienie czegoś żywego czymś, co martwe. Omawiane trendy nie są niezwiązane z rosnącym znaczeniem nauk społecznych, antropologii kulturowej, badań feministycznych itp., Aw dużej mierze konflikt między GOFAI a położoną AI można postrzegać jako odbicie niesławnych wojen naukowych, starcie między tradycyjną "obiektywistyczną" metafizyką a konstruktywizmem społecznym, a ostatnio, w przypadku kognitywistyki, wojny racjonalności, w których teoretycy sytuacyjni kwestionują "ekologiczną zasadność" klasycznych kognitywistycznych eksperymentów laboratoryjnych i psychologii oraz wzywają do większy nacisk na etologię, ważność ekologiczną i "rzeczywiste" zachowanie przejawiane w "prawdziwym" świecie (w przeciwieństwie do rzekomo sztucznych i bardzo ograniczonych warunków laboratoryjnych). Nasze uwagi tutaj nie mają być komentarzem do wojen naukowych, lecz jedynie próbą zapewnienia szerszego kontekstu dla zrozumienia reakcji przeciwko GOFAI i pojawieniu się sytuacyjnego podejścia do sztucznej inteligencji i badania umysłu.

Przyszłość AI

Jeśli przewidywania z przeszłości są jakimś wskaźnikiem, jedyną rzeczą, którą wiemy dzisiaj o jutrzejszej nauce i technologii, jest to, że będzie ona radykalnie różnić się od tego, co przewidujemy. Prawdopodobnie w przypadku sztucznej inteligencji możemy dzisiaj wiedzieć, że postęp będzie znacznie wolniejszy niż większość się spodziewa. W końcu na konferencji inauguracyjnej w Dartmouth College w 1956 roku Herb Simon przewidział, że myślące maszyny zdolne do dopasowania do ludzkiego umysłu są "tuż za rogiem". Jak się okazało, nowy wiek nadejdzie bez jednej maszyny zdolnej do rozmowy nawet na poziomie małego dziecka. Jeśli chodzi o budowanie maszyn zdolnych do wyświetlania inteligencji na poziomie ludzkim, Kartezjusz, a nie Turing, wydaje się dziś lepszym prorokiem. To nie powstrzymało ludzi od dalszego wydawania niezwykle optymistycznych prognoz. Na przykład Moravec (1999) oświadczył, że ponieważ prędkość sprzętu komputerowego podwaja się co osiemnaście miesięcy (zgodnie z prawem Moore'a, które najwyraźniej obowiązywało w przeszłości), roboty "czwartej generacji" wkrótce pod każdym względem przewyższą ludzi , od prowadzenia firm po pisanie powieści. Roboty te, jak głosi historia, będą ewoluować do tak wysokich poziomów poznawczych, że będziemy im stawać tak, jak stoją dziś przed nami organizmy jednokomórkowe. Moravec w żadnym wypadku nie jest Pollyannaish. Wielu innych w AI równie szybko przewiduje taką samą sensacyjną przyszłość. W rzeczywistości, podczas obchodów pięćdziesiątej rocznicy w Dartmouth konferencji AI w 1956 roku na uniwersytecie, gospodarz i filozof Jim Moor zadał pytanie "Czy sztuczna inteligencja na poziomie ludzkim zostanie osiągnięta w ciągu następnych 50 lat?" Pięciu myślicieli, którzy wzięli udział w pierwotnej konferencji : John McCarthy, Marvin Minsky, Oliver Selfridge, Ray Solomonoff i Trenchard Moore. McCarthy i Minsky wyrazili stanowcze, bez wahania twierdzenia, a Solomonoff wydawał się sugerować, że sztuczna inteligencja stanowiła jeden promyk nadziei w obliczu faktu, że nasz gatunek wydaje się być skłonny do samozniszczenia. (Odpowiedź Selfridge'a była nieco tajemnicza. Moore odpowiedział stanowczo, jednoznacznie przecząco i oświadczył, że kiedy jego komputer będzie wystarczająco inteligentny, aby rozmawiać z nim na temat problemów matematycznych, może potraktować to przedsięwzięcie poważniej.) Pytanie Moora nie dotyczy tylko naukowcy i inżynierowie; jest to również pytanie dla filozofów. Dzieje się tak z dwóch powodów: (1) badania i rozwój mające na celu potwierdzenie twierdzącej odpowiedzi muszą obejmować filozofię z powodów przedstawionych powyżej; (2) filozofowie mogą być w stanie przedstawić argumenty, które ostatecznie odpowiedzą na pytanie Moora. Jeśli którakolwiek z silnych krytyk AI, o której mówiliśmy, jest zasadniczo poprawna, wówczas oczywiście AI nie zdoła wyprodukować maszyn posiadających zdolności umysłowe osób. W każdym razie czas mija, i odpowie.