Postawy filozoficzneArtificial Intelligence Experts

IV.GOFAI

Wprowadzenie

Good Old-Fashioned AI - w skrócie GOFAI - to etykieta używana do oznaczania klasycznej, symbolicznej AI. Określenie "AI" jest czasami używane tylko dla oznaczenia GOFAI, ale jest to błąd. AI obejmuje również inne podejścia, takie jak koneksjonimz, programowanie ewolucyjne oraz robotyka usytuowana i ewolucyjna. Rzeczywiście, większość pracy w sztucznym życiu (A-Life) mieści się w szeroko pojętej AI, pomimo tendencji A-Lifers do dystansowania się od niej. Tutaj jednak zajmujemy się tylko symboliczną AI. Zarówno AI technologiczna, jak i psychologiczna wykorzystują pełny zakres metodologii AI, w tym GOFAI. Ale kierują nimi różne motywacje. Celem tego pierwszego jest zbudowanie użytecznych systemów komputerowych, wykonywanie zadań lub pomaganie im w wykonywaniu zadań, które ludzie chcą wykonywać. Celem tego drugiego - który można również nazwać psychologią obliczeniową - jest rozwijanie wyjaśniających teorii umysłu. Czasami (zgodnie z "silną" sztuczną inteligencją) ma ona również na celu zbudowanie systemów komputerowych, które same w sobie są naprawdę inteligentne. W związku z tym, psychologiczna sztuczna inteligencja jest bardziej prawdopodobna do postawienia pytań dotyczących filozofii umysłu.

Zarys GOFAI

Metodologia GOFAI wykorzystuje zaprogramowane instrukcje działające na formalnych reprezentacjach symbolicznych. Jest dobrze dostosowany do binarnej, seryjnej natury komputera cyfrowego von Neumann. Od połowy lat 50. do połowy lat 80. było to dominujące (choć nie jedyne) podejście w AI. Funkcjonalizm w filozofii umysłu został opracowany z myślą o tych programach i / lub abstrakcyjnych maszynach Turinga. Symbol GOFAI jest elementem w języku formalnym (języku programowania) Podobnie jak symbole matematyczne lub logiczne, symbole GOFAI - i programy z nich złożone - mogą być traktowane jako struktury czysto formalne (bez znaczenia). W praktyce są one jednak zwykle interpretowane przez użytkownika w kategoriach określonych treści semantycznych: słownych, numerycznych, wizualnych, słuchowych i tak dalej. Symbole atomowe można łączyć w celu utworzenia złożonych symboli, zgodnie z określonymi formalnymi zasadami manipulacji symbolami. To, co dzieje się po uruchomieniu programu GOFAI, polega na tym, że różnego rodzaju symbole, o różnej strukturze, są budowane, przechowywane, wyszukiwane, porównywane i przekształcane. Krótko mówiąc, obliczenia GOFAI obejmują budowę i transformację symbolicznych struktur danych. Kluczowymi pojęciami kształtującymi programy GOFAI są heurystyczne wyszukiwanie i planowanie. Te ściśle powiązane idee zostały wprowadzone w latach 50. XX wieku. Nadal są one kluczowe dla dzisiejszej pracy GOFAI. Problemem lub zadaniem GOFAI jest reprezentowanie jako przestrzeń wyszukiwania: zbiór możliwości (określony przez skończony zestaw reguł generatywnych), w których leży rozwiązanie - i w których należy je znaleźć. Przykłady obejmują zestaw legalnych ruchów w szachach lub dozwolonych ciągów słów, z uwzględnieniem określonej gramatyki i słownictwa. Określone lokalizacje w przestrzeni wyszukiwania nie muszą być uprzednio szczegółowe, ale mogą zostać wygenerowane przez program. W wielu przypadkach systematyczne przeszukiwanie "brutalnej siły" w przestrzeni jest niepraktyczne, ponieważ istnieje zbyt wiele możliwości, by rozważyć je indywidualnie. Co więcej, często nie ma całkowicie niezawodnej zasady wyboru wszystkich (i tylko) "obiecujących" kandydatów. Jeśli tak, w wyszukiwaniu należy kierować się heurystykami: praktyczne zasady, które zwykle są pomocne w prowadzeniu programu w kierunku rozwiązania, z dala od ślepych zaułków, ale które nie gwarantują rozwiązania problemu. (Porównaj "Chroń swoją królową" w szachach: jest to bardzo przydatna heurystyka, ale czasami wskazane jest poświęcenie swojej królowej.) Planning to technika GOFAI, w której problem jest analizowany przez program jako hierarchiczna struktura celów, podrzędnych celów, i podzadania. W przypadku paradygmatu ostateczny cel jest określony na początku, a zadaniem programu jest zmniejszenie różnic między stanem bieżącym a stanem celu, dopóki takie różnice nie pozostaną zniesione. (Ogólny pogląd, że celowe zachowanie jest zakorzenione w zmniejszaniu różnic, został odziedziczony po cybernetyce, połowie wieku badań nad systemami sprzężenia zwrotnego, takich jak homeostaza biologiczna i pociski kierowane; ale cybernetyka nie określiła ustrukturyzowanych reprezentacji stanów celów.) Program jest udostępniany przed uruchomieniem z kilkoma możliwymi różnicami, listą działań (operatorów), które mogą wyeliminować różne różnice, listami wymagań wstępnych, które muszą być spełnione, aby użyć określonego operatora, oraz heurystyka dla porządkowania działań, gdy w obecnych okolicznościach możliwe jest więcej niż jedno działanie. Rzeczywiście, większość "inteligencji" dotyczy wyborów działań, operatorów i heurystyki określonych przez programistę. Jeśli program, gdy zostanie uruchomiony, zdecyduje, że określony operator jest potrzebny do osiągnięcia bieżącego celu, może być konieczne skonfigurowanie nowego podzadania, aby spełnić odpowiednie warunki wstępne. Ten proces można powtórzyć nieskończenie wiele poziomów hierarchicznych. W wielu przypadkach bardzo szczegółowe planowanie można pozostawić do momentu wykonania, aby - do pewnego momentu - można było rozwiązać nieprzewidziane czynniki. W najwcześniejszych badaniach GOFAI hierarchia celów była jasno określona i "z góry". Innymi słowy, program koncentrowałby się na jednym celu w danym momencie i przełączałby się na inny tylko wtedy, gdy (1) konieczne było ustanowienie nowego celu cząstkowego, aby go osiągnąć, lub (2) pierwotny cel został osiągnięty - w którym to przypadku program "wyskoczy" do następnego poziomu bramkowego lub wyjdzie, jeśli najwyższy poziom został osiągnięty. Późniejsza metodologia sztucznej inteligencji włączyła hierarchię celów w duży zestaw logicznie niezależnych reguł Warunek-Działanie . (Poszczególne reguły nazwano "produkcjami", więc zbudowane z nich programy nazywano systemami produkcyjnymi). Warunek i działanie w regule mogły być pojedynczym przedmiotem lub łącznikiem (lub rozłączeniem) kilku - a nawet wielu - różnych przedmiotów. Na przykład jedna z zasad w programie do rozwiązywania problemów z kodowaniem alfabetycznym, takich jak "DONALD + GERALD = ROBERT", brzmi następująco: "JEŻELI obecnym celem jest ocena zestawu liter, NASTĘPNIE znajdź jedną z liter (za pomocą reguły produkcji o nazwie FINDLETTER) ORAZ wyznaczyć (nowy) cel jej oceny. " To, co wcześniej było przedstawiane jako osobne listy heurystyk, działań i warunków wstępnych, zostało teraz milcząco włączone do produkcji. Zatem Warunek może zawierać specyfikację, że taki i taki cel został już ustawiony. Podobnie akcja może obejmować element ustanawiający nowy cel lub cel cząstkowy. Zapewniono techniki rozwiązywania konfliktów, aby radzić sobie z przypadkami, w których jednocześnie spełniono więcej niż jeden warunek. Na przykład Warunek określający dłuższą, bardziej integralną koniunkcję będzie miał pierwszeństwo przed tą, która określa tylko pojedynczą koniunkcję. Zaletą tego ogólnego podejścia było to, że można w dowolnym momencie dodać nową regułę (pod warunkiem, że jest ona zgodna z istniejącym zestawem reguł), bez konieczności przepisywania złożonej procedury hierarchicznej. Ponadto ta metodologia umożliwiła przerwanie: natychmiastowe zmiany celu, promowane przez nagłe zmiany w środowisku lub w innym miejscu w trakcie działania programu. Dzięki temu wyszukiwanie GOFAI stało się mniej nieelastyczne i "jednomyślne" niż na początku. Opracowanie systemów eksperckich - na przykład do diagnozy medycznej lub porady w zakresie poszukiwań geologicznych - w dużej mierze zależało od systemów produkcyjnych. Ogólnie rzecz biorąc, system ekspercki to program, który reprezentuje wiedzę ludzkiego eksperta jako zbiór zasad IF-THEN, i który można wykorzystać do udzielania porad osobom niebędących ekspertami w tej dziedzinie i będących zaniepokojonymi. Na przykład reguła diagnozy medycznej może brzmieć: "JEŻELI objawy te zostaną zaobserwowane u pacjenta ORAZ pacjent jest dorosłym mężczyzną, NASTĘPNIE wnioskuj, że ta bakteria jest odpowiedzialna, ORAZ polecam ten lek, podany w tej dawce dla tej długości czas, jak leczenie. " Badacze systemów eksperckich wprowadzili techniki wnioskowania dotyczące "łączenia w przód" i "łączenia w tył" w systemach produkcyjnych. Pierwsza z nich jest wykorzystywana oddolnie do generowania wniosków z danych. Ta ostatnia jest używana od góry w celu znalezienia dowodów na przypuszczenie i / lub wyjaśnienia porady udzielonej już przez program użytkownikowi, poprzez podsumowanie wcześniej uruchomionych reguł. Zasadniczo przetwarzanie "oddolne" rozpoczyna się od zbioru różnych danych i próbuje je w jakiś sposób zrozumieć - być może za pomocą technik GOFAI (takich jak systemy produkcyjne), a może za pomocą połączenia PDP (równoległe przetwarzanie rozproszone) lub innych formy samoorganizacji. Natomiast przetwarzanie "z góry na dół" rozpoczyna się od jakiegoś celu lub struktury wysokiego poziomu i wykorzystuje to do interpretacji - a czasem do zmiany - danych wejściowych na niższych poziomach. Na przykład program wizualny GOFAI wyszukujący kostki może zdecydować o "halucynacji" brakującego narożnika wejścia pokazującego niepełny rysunek kostki. Jak mogą sugerować pojęcia wyszukiwania, planowania i heurystyki, programy GOFAI często symulują świadome rozważania ludzkiej myśli na wysokim poziomie. Wynika to częściowo z tego, że mogą one przedstawiać propozycje o określonej treści semantycznej, a częściowo dlatego, że mogą obejmować odgórne procesy kontroli wykonawczej i samokontroli. Nawet gdy modelują nieświadome procesy, zwykle przedstawiają je jako podobne w naturze do świadomych rozważań. Na przykład rozpoznawanie wizualne w GOFAI jest często uważane za analogiczne do rozwiązywania problemów w logice. A logiczne rozwiązywanie problemów, a fortiori, jest postrzegane jako logika od samego początku. Jednak zastosowana logika jest różna. Może to być rachunek zdań, wyrażony prostymi bramkami logicznymi realizującymi podstawowe operacje logiczne lub hierarchicznymi planistami, takimi jak te naszkicowane powyżej. Częściej jest to logika predykatów . W takim przypadku może tak być uzupełnione różnymi logikami modalnymi lub specjalnymi metodami przeznaczonymi do zwalczania wybuchu kombinatorycznego - takimi jak dowodzenie twierdzenia o rozdzielczości. Lub może to być system produkcyjny, którego pary Warunek-Działanie oparte są na logice reguł IF-THEN (po 1943 r.). Korzenie logiki GOFAI zapewniają zarówno mocne i słabe strony. Kolejną odmianą GOFAI jest programowanie ewolucyjne. Mówiąc dokładniej, programowanie ewolucyjne zostało początkowo opracowane w ramach GOFAI i często jest używane w kontekście GOFAI - chociaż może być również wykorzystywane do ewolucji sieci łączności. Tutaj tak zwane "algorytmy genetyczne" wprowadzają losowe zmiany w zasadach programu, inspirowane procesami mutacji punktowych i krzyżowania w biologii. (W mutacji punktowej pojedynczy element w łańcuchu symboli, który koduje ule, jest zmieniany, dzięki czemu ABCDE może dać ABFDE; w zwrotnicy zestaw sąsiednich jednostek na jednym ciągu reguł - porównywalny do sąsiednich genów na chromosomie - jest zamieniany dla zestawu sąsiednich jednostek na innym ciągu, tak aby ABCDEFGH i PQRSTUVW dały ABCSTUFGH i PQRDEFUVW.) W każdym "pokoleniu" jeden lub dwa z bardziej udanych nowo wyklutych programów są wybierane jako rodzice (bezpłciowi lub seksualni) dla następnego pokolenia. Zazwyczaj wybór odbywa się automatycznie za pomocą predefiniowanej funkcji fitness; ale człowiek może to zrobić interaktywnie. Tam, gdzie problem jest wystarczająco dobrze poznany, aby można było automatycznie rozpoznać nieznaczną poprawę wydajności, ta metodologia umożliwia optymalizację zadania zaniepokojony. Na przykład, jeśli ktoś chce programu, który posortuje listę liczb w porządku rosnącym lub uporządkuje nazwy w kolejności alfabetycznej, wówczas podejście ewolucyjne będzie w stanie znaleźć najbardziej wydajny algorytm, podczas gdy ludzki programista może tego nie zrobić.

Mocne i słabe strony GOFAI

Głównymi atutami GOFAI są jego zdolności do modelowania hierarchii i porządku sekwencyjnego, aby umożliwić precyzję w rozwiązywaniu problemów i reprezentować określone treści zdań. Każda z tych cech została zilustrowana w pionierskim programie SHRDLU , który zwrócił uwagę wielu psychologów i filozofów wcześniej nieznających sztucznej inteligencji. W przeciwieństwie do prostych dopasowań słów kluczowych, które go poprzedzały, SHRDLU mógł przeanalizować zdania o znacznej złożoności, takie jak: "Ile jaj chciałbyś użyć w cieście, gdybyś nie dowiedział się, że przepis matki jest zły?" Uczestnicząc w "rozmowie", parser SHRDLU był ściśle zintegrowany z analizą semantyczną, rozwiązywaniem problemów i wiedzą światową. Na przykład, aby zdecydować o nawiązaniu do frazy "piramida" człowieka, zapytałby siebie, czy na scenie jest więcej niż jedna piramida, a jeśli tak, to czy w rozmowie wspomniano już o jakiejś konkretnej piramidzie. Ogólnie rzecz biorąc, SHRDLU - podobnie jak dzisiejsze programy GOFAI - może przełączać się między różnymi zadaniami i / lub bazami wiedzy w celu rozwiązania tego, co na pozór wydaje się "jednym" problemem. "Ile jajek…?" przykład ilustruje znaczenie hierarchii i kolejności sekwencyjnej: parsowanie po prostu nie może być wykonane bez prawidłowego ich wykonania. I precyzja jest również kluczowa - jedna litera może czasem mieć ogromną różnicę. (Porównaj telegram mówiący "Our son is dead" z telegrafem "Your son is dead"). Jednak w precyzji można przesadzić. Wczesne programy GOFAI były notorycznie kruche, w tym sensie, że brakujące i / lub sprzeczne dane spowodowałyby bezsensowną reakcję komputera - gdyby nie zatrzymał się całkowicie. (Nawet SHRDLU był mniej potężny, niż się wydawało, ponieważ jego "rozmowa" nie była ciągłą wymianą, ale była połączona ze sobą przezkilka różnych okazji.) Szczególnym przypadkiem kruchości jest problem z ramą . Termin ten jest powszechnie używany do oznaczenia dwóch trudności: po pierwsze, wiedząc, które aspekty sytuacji zostałyby zmienione przez określone działanie, a które nie; po drugie, rozumowanie z niepełną wiedzą, z powodu naszej nieuchronnej niewiedzy o faktach ze świata rzeczywistego i niejasności pojęć w zwykłym języku. Na przykład zagadka, jak osieroceni odkrywcy mogą przekroczyć rzekę w dżungli, może zostać rozwiązana nie (jak można przewidzieć) przez mozolne budowanie tratwy, ale przez nieoczekiwanie ratunek przez helikopter pracującej w pobliżu ekipy filmowej. Robotyści GOFAI próbowali rozróżnić zmienne i niezmienne stany rzeczy w odniesieniu do planowanych działań, ale często analizowano niektóre istotne przypadki. A logika dowodzenia twierdzenia o rozdzielczości - która udowodniła twierdzenia w logice predykatów, pokazując, że ich negacje były niespójne, przy założeniu, że nie-X oznacza X - była tak niewybaczalna, że groziła podważeniem jakiegokolwiek planu lub "zdrowego rozsądku" rozwiązywacza problemów. Opracowano różne typy logiki "niemonotonicznej", w której stwierdzenie można uznać za prawdziwe, dopóki nie zostanie wykazane jako fałszywe. Mimo to te "domyślne założenia" musiały zostać wcześniej określone. (Wymogi problemu z ramą sprzyjały później rozwojowi robotyki ulokowanej . Roboty GOFAI wcześniej planowały swoją wydajność, kierując się odgórnym modelem złożonego świata, który musiał być mozolnie aktualizowany, gdyby świat nagle się zmienił oraz z założeń dotyczących tego, co by się stało, gdyby podjęto takie lub inne działania. Natomiast roboty znajdujące się w terenie nie polegały na modelach świata wewnętrznego. Zamiast tego pracowały oddolnie, reagując bezpośrednio, w prosty "refleksyjny sposób" na konkretne wskazówki środowiskowe, ilekroć zdarzyło im się ich spotkać; gdyby świat nagle się zmienił, nowe istotne odpowiedzi byłyby oczywiście wywoływane). Niektórzy krytycy GOFAI wydają się wierzyć, że nierozerwalna kruchość jest niezbędna, ale tak nie jest. Istnieje kilka sposobów, dzięki którym program GOFAI może do pewnego stopnia zapobiec nieodwracalnym wnioskom, które mogą okazać się fałszywe. Specjalne środki antycypacyjne, których wspomniane powyżej domyślne założenia są szczególnym przypadkiem, oraz różnorodne interakcje tymczasowe (tj. prowizoryczne) reprezentacje, zostały opracowane w celu zmniejszenia kruchości systemów GOFAI. I, jak widzieliśmy, zidentyfikowano techniki rozwiązywania konfliktów, które umożliwiają programowi wybór pomiędzy dwoma (lub więcej) indywidualnie dozwolonymi działaniami. Prawdą jest jednak, że symboliczne programy AI są zwykle kruche. Nie pokazują "naturalnie" tego, co nazywa się wdzięczną degradacją - w której niedoskonałości danych prowadzą do proporcjonalnie niedoskonałej, ale często akceptowalnej wydajności. Główną zaletą systemów łączących PDP jest to, że mają tę właściwość po prostu ze względu na sposób działania: nie musi być specjalnie wbudowany. Jawność ma również swoje wady. Jeśli ktoś chce, aby program GOFAI się czegoś nauczył, musi podać cechy tego "czegoś". Często nie jest to możliwe. Na przykład możesz chcieć nauczyć program rozpoznawania kotów. Ale czy potrafisz zdefiniować "kota"? Czy potrafisz nawet zidentyfikować i wymienić odpowiednie cechy widoczne na zdjęciach kilkunastu kotów? Programy GOFAI mogą czasem nauczyć się nowych koncepcji, na przykład: bardziej skutecznej metody diagnozowania określonej choroby. Ale cechy definiujące te pojęcia muszą zostać wcześniej wyraźnie określone, nawet jeśli są one tylko zawarte w dłuższej liście funkcji. Nie jest tak (choć często się uważa), że programy GOFAI zawsze działają odgórnie, a nie oddolnie. Często jednak wiążą się z niektórymi centralnymi organami wykonawczymi lub kontrolą wysokiego szczebla. Jest to mniej oczywiste w systemach produkcyjnych, w których hierarchia sterowania nie jest jawna i gdzie przerwania mogą skierować uwagę systemu na inny obszar. Jednak zdolność do modelowania hierarchii często prowadzi w praktyce do modelowania zjawisk hierarchicznych - takich jak złożone planowanie lub język naturalny. Z biegiem lat stało się coraz bardziej jasne, że niektóre formy inteligencji (zarówno w obrębie jednostek, jak i grup) nie obejmują żadnego organu centralnego. Przeciwnie, inteligencja i kontrola są rozproszone w całym systemie. W takich przypadkach tradycyjne podejście GOFAI musi zostać zmienione, a nawet całkowicie porzucone. Modyfikacja zachodzi na przykład wtedy, gdy zaprogramowanych jest wiele w dużej mierze autonomicznych systemów ("agentów"), których zbiorowe zachowanie wynika z ich licznych interakcji, a nie z jakiegoś kierownictwa wysokiego szczebla. Agenci mogą być wirtualnymi "softbotami" lub robotami fizycznymi, a ich interakcje mogą obejmować komunikację, negocjacje, współpracę, licytację, a nawet negocjacje. Porzucenie występuje na przykład, gdy zamiast GOFAI stosuje się łączność PDP. W tym przypadku istotne jest to, że - oprócz unikania narzucania odgórnego centralnego kontrolera - metodologia PDP pozwala uniknąć innych słabości GOFAI. Przede wszystkim PDP unika kruchości, która zagraża symbolicznemu podejściu. Zamiast wydedukować jasny wniosek za pomocą środków logicznych, program PDP przechodzi w stan równowagi, w którym jednocześnie spełniona jest większość (potencjalnie sprzecznych) ograniczeń. Można zatem dopuścić ,do pewnego stopnia, skażone i / lub częściowo brakujące dane. Innymi słowy, tolerancja szumów i uzupełnianie wzorów, które są problematyczne dla GOFAI, wynikają "naturalnie" z projektowania sieci PDP. Na przykład, "niechlujny" lub niekompletny rysunek / zdjęcie sześcianu zostanie rozpoznany przez system PDP jako reprezentujący sześcian, nawet jeśli programista nie oczekiwał bałaganu i / lub niekompletności, jeszcze mniej celowo oczekiwanej. Podobnie wzorce (koncepcje), które nie są dostępne dla osób uczących się GOFAI i które nie były podejrzane przez ludzi, którzy zbudowali system, można nauczyć się na przykładzie. (Dlatego właśnie PDP stosuje się w systemach eksperckich, które identyfikują subtelne wzorce informacji finansowych, takie jak ruchy na giełdzie). Jednak PDP nie jest panaceum. Brakuje mu kluczowych atutów GOFAI w modelowaniu wielopoziomowej hierarchii, porządku sekwencyjnego i wnioskowania między konkretnymi treściami zdań. Co więcej, nie nadaje się do zadań, w których wymagana jest absolutna precyzja, a nie pełna wdzięku degradacja. Rzeczywiście, większość badań łącznikowych z ostatnich dwudziestu lat dążyła do zdobycia tych mocnych stron - jak dotąd, z ograniczonym powodzeniem. Dlatego niektórzy badacze stosują systemy "hybrydowe", w których GOFAI jest połączony z łącznikiem PDP. Jednym z przykładów takiego podejścia jest model działania i błędy działania, opracowane przez Donalda Normana i Timothy Shallice, odpowiednio psychologa poznawczego i neurologa klinicznego, oraz współpracujących z nimi badaczy AI. W skrócie, ten "nadzorujący system uwagi" wykorzystuje połączenie do modelowania percepcyjnego rozpoznawania i skojarzonej pamięci / przypominania, a GOFAI do modelowania świadomego wyboru i planowania. Oba te aspekty są kluczowe dla (znacznego) działania człowieka i - według niektórych wiodących ekspertów AI - również dla udanej robotyki . Ponieważ oba aspekty są kluczowe, wynika z tego, że robotyka usytuowana nie zawsze mogą być zastąpione GOFAI. Nadzieja wyrażona przez Rodneya Brooksa, że AI może być w pełni umiejscowiona, a GOFAI porzucone, jest iluzoryczna. Prawdą jest, że "bezpośrednia" reakcja na środowisko może zapewnić zaskakujący porządek w zachowaniu. Ta kwestia została podniesiona w latach 60-tych XX wieku przez jednego z arcykapłanów GOFAI w odniesieniu do ścieżki mrówki na zagraconym gruncie. Lokomocja owadów może być poddana modelowaniu czysto sytuacyjnemu, opierając się wyłącznie na wbudowanych reakcjach odruchowych na sygnały środowiskowe. Ale jeśli chodzi o zachowanie na poziomie człowieka, planowanie i reprezentacja wewnętrzna są czasem niezbędne. Prawdą jest również, że "ucieleśnienie" fizycznego robota negocjującego świat materialny oferuje problemy i rozwiązania wykraczające poza te typowe dla "bezcielesnego" GOFAI. Robot jest bowiem rzeczą poruszającą się w prawdziwym świecie, w przeciwieństwie do programu, który jedynie reprezentuje ten świat, więc napotyka fizyczne przeszkody - a także możliwości - które nie pojawiają się w przypadku zaprogramowanej symulacji. Dlatego zasugerowano, aby GOFAI został zastąpiony przez GOFAIR: GOFAI i Robotics . GOFAIR jest podwójnie hybrydowy. Z jednej strony znajduje się znaczna część reakcji robota; z drugiej strony metody łączące są łączone z GOFAI. Ważne jest tutaj, aby utrzymać GOFAI - choć uzupełnione -. Nie jest to zaskakujące, ponieważ mocne i słabe strony GOFAI i PDP, a także klasycznej GOFAI i robotyki lokalizacyjnej są w dużej mierze komplementarne. Motto sztucznej inteligencji zarówno psychologicznej, jak i technologicznej może brzmieć: "Niech rozkwitnie sto kwiatów - a przynajmniej cztery". Te cztery są podejściami GOFAI, koneksjonizmu, umiejscowionej sztucznej inteligencji i systemów dynamicznych (wszystkie z nich czasami wykorzystują obliczenia ewolucyjne).

GOFAI jako filozofia

Kiedy etykieta GOFAI została wymyślona przez filozofa Johna Haugelanda, jego słowo "staromodny" sugerowało, że ten rodzaj AI został zastąpiony. I w pewnym sensie było tak: W związku z rosnącym połączeniem PDP wkrótce zachwyciłoby to filozofów - i także dziennikarzy. Jednak Haugeland najwyraźniej nic o tym nie wiedział, bo w jego książce nawet nie wspomniano o związkach. Jego krytyka GOFAI jako passé opierała się raczej na filozofii fenomenologii, tak jak Hubert Dreyfus sprzed dwudziestu lat. Haugeland argumentował, że dwadzieścia lat krytyki filozoficznej pokazało, że GOFAI jest fałszywa. "Fałszywa", nie tylko niepraktyczna lub ograniczona. Do jego definicji nie wybrano jedynie metodologii sztucznej inteligencji (obliczenia symboliczne). Określono także zobowiązanie do tego, co John Searle nazwał silną sztuczną inteligencją: pogląd, że odpowiednio zaprogramowany komputer byłby naprawdę inteligentny - a co za tym idzie, również emocjonalny i bardzo świadomy. Haugeland uważał, że silna sztuczna inteligencja została obalona na różne sposoby zarówno przez Searle′a, jak i Dreyfusa (a także przez jego własne argumenty). Każdy, kto wciąż to aakceptował, nie tylko się mylił, ale też spóźniał się (tj. był staromodny). Nie jest jasne, czy wszyscy badacze GOFAI są zaangażowani w silną AI. (Według definicji Haugelanda nie wszyscy badacze GOFAI są badaczami GOFAI.) Ale niektórzy z pewnością tak. Na przykład Allen Newell i Herbert Simon wyraźnie określili formę silnej AI w swojej teorii systemów symboli fizycznych lub PSS. Twierdzili, że celowość (tj. znaczenie lub "przybliżenie") osiąga się, zarówno w umysłach, jak i komputerach, poprzez wdrożenie pewnych rodzajów formalnych obliczeń w PSS. Były one postrzegane jako "niezbędny i wystarczający środek do ogólnego inteligentnego działania". Innymi słowy, umysł (lub umysł / mózg) jest PSS. Ich zaangażowanie w silną AI było krystalicznie czyste. Programy AI Newella i Simona określiły formalne systemy obliczeniowe typu zdefiniowanego przez Alana Turinga w 1936 roku. Jako psychologowie byli jednak zainteresowani obliczeniami reagującymi na świat i zdolnymi do kierowania w nim zachowaniem. W przeciwieństwie do samego Turinga zdefiniowali obliczenia w kategoriach przyczynowych. Symbol, jak powiedzieli, to fizyczny wzór o skutkach przyczynowych. Znaczenie symbolu to zestaw zmian, które umożliwia systemowi przetwarzania informacji działanie na lub w odpowiedzi na jakiś obiekt lub proces (na zewnątrz lub wewnątrz samego systemu). Analogicznie pojęcia takie jak reprezentacja, interpretacja, oznaczenie, odniesienie, nazywanie, reprezentowanie i przybliżenie zostały zdefiniowane przyczynowo. Krótko mówiąc, ich teoria semantyczna przedstawiała znaczenie jako obliczeniowe - a obliczenia jako zamierzone. To było ich stwierdzenie o silnej sztucznej inteligencji, którą Searle atakował w swoim słynnym artykule na temat chińskiego pokoju. Na wypadek, gdyby pojawili się czytelnicy, którzy jeszcze nie natknęli się na ten przykład, można to bardzo krótko powiedzieć tutaj. Searle wyobraża sobie, jak siedzi w pokoju bez okien, ze szczeliną, przez którą od czasu do czasu przepuszcza się papierowe kawałki z "zawijasami" . Na stole jest pudełko z fragmentami niosącymi podobne kształty; istnieje też instrukcja, w której mówi się, że jeśli wpuszczony zostanie squiggle, Searle powinien znaleźć blingle-blungle i przekazać je, a może przejść długą sekwencję parowania doodle przed wydaniem jakiegoś kształtu. Doodle, nieznane Searle-in-the-room, jest chińskim pismem, zbiór reguł to program AI służący do odpowiadania na pytania w języku chińskim, a Chińczycy poza pokojem chętnie korzystają z Searle, aby odpowiedzieć na pytania na dany temat. Kluczową kwestią, mówi Searle, jest to, że wszedł do pokoju, nie rozumiejąc chińskiego, i bez względu na to, jak długo tam przebywa, nadal nie zrozumie ani słowa po jego wyjściu. A jego wniosek anty-GOFAI jest taki, że formalne obliczenia samotne (co robi Searle-in-the-room) nie mogą generować znaczenia ani celowości. Jak to ujął, programy mają "całą składnię i brak semantyki". Tak silne AI jest niemożliwe. Główną przesłanką Searle było zdefiniowanie systemów GOFAI w kategoriach abstrakcyjnych (niezinterpretowanych) obliczeń Turinga. Wynika z tego, powiedział, że takie programy są jedynie tasownikami pozbawionych znaczenia kształtów (tj. symboli formalnych). Kształty te można zasadniczo interpretować jako (odwzorowane) wiele różnych działań: matematyka, muzyka, projektowanie pułapek na myszy i tak dalej. Jednak w odniesieniu do samego programu wybór między "znaczeniami" jest arbitralny. Wszelkie znaczenie, jakie wydaje się mieć, pochodzi całkowicie od nas. Więc chociaż nie możemy powstrzymać się od mówienia o komputerach w sposób zamierzony, nie są one "wewnętrznie" uzasadnione, takie jak opisy. Silna AI to iluzja. Jeśli chodzi o "słabą" sztuczną inteligencję (tj. sztuczną inteligencję wykorzystywaną do formułowania, rozwijania i testowania teorii psychologicznych), Searle wątpił, by mózgi generalnie przeprowadzały obliczenia formalne. Jeśli nie, psychologia obliczeniowa oparta na GOFAI nie może nawet zacząć wyjaśniać naszego życia mentalnego - chociaż mogą to zrobić teorie psychologiczne oparte na sztucznej inteligencji łączącej. (Kiedy Searle zdefiniował słabą AI, użył "AI", oznaczając tylko GOFAI; renesans łącznika jeszcze się nie wydarzył.) Ale nawet jeśli nasze mózgi wprowadzają formalne obliczenia, powiedział, argument Chińskiego Pokoju pokazuje, że coś więcej było potrzebne do celowość. I to "coś" było przyczynowymi siłami neuroproteiny. Był to bardzo słaby argument, który większość komentatorów uprzejmie zignorowała; to, w jaki sposób neuroproteina, uważana za substancję biochemiczną, może być ewentualnie uzasadniona, jest tajemnicą filozoficzn. Chinese Room zrodził kwitnący przemysł filozoficzny, którego młyny wciąż wirują wesoło. Wielu czytelników zgodziło się, że argument pustej symboliki Searle′a udowodnił, co udowodnił, podczas gdy tak samo wielu postrzegało go jako zasadniczo błędną. Co więcej, ci, którzy uważali to za niewłaściwe, podawali różne relacje o tym, co było z tym nie tak. To nie jest miejsce na podsumowanie wciąż przedłużającej się debaty. Należy jednak wspomnieć o dwóch kwestiach. Po pierwsze, można argumentować, że Searle atakował człowieka ze słomy. Newell i Simon, a także ich pionierzy GOFAI, Marvin Minsky i John McCarthy, niewątpliwie wierzyli, że systemy AI o pewnej złożoności będą naprawdę inteligentne. Ale wbrew temu, co przypuszczał Searle, nie mieli na myśli wyłącznie abstrakcyjnych, niezinterpretowanych obliczeń Turinga. Większość filozofów przyjmuje za pewnik, że wszystkie obliczenia są obliczeniami Turinga i jako takie są semantycznie puste. Jeśli tak jest, to teoria PSS utrzymuje, że związek przyczynowy uzasadnia interpretację obliczeń po ich wdrożeniu, a nie że bierze udział w definiowaniu obliczeń jako takich. Jednak teoria semantyczna Newella i Simona naszkicowana powyżej sugeruje, że nie dotyczyły one przede wszystkim obliczenia jako niezinterpretowane obliczenia Turinga. (W efekcie ich przyczynowe podejście milcząco oferowało coś, co Searle nazwał "odpowiedzią robota"). Co więcej, inni naukowcy sztucznej inteligencji przedstawili również przyczynowe / celowe rachunki obliczeń, czasami wprost zaprzeczając, że AI dotyczy głównie obliczeń Turinga. Ich definicje są wprawdzie o wiele mniej jasne niż Turinga, a w jednym przypadku również metafizycznie indywidualny. Nie wchodząc w szczegóły tutaj, chodzi o to, że praktykujący naukowcy zajmujący się sztuczną inteligencją nie myślą o obliczeniach tylko tak, jak to zrobił Turing w swoim artykule z 1936 roku. Wynika z tego, że znany atak "cała składnia i brak semantyki" na GOFAI nie jest tak dobrze celowany, jak się zwykle zakłada. Po drugie, niektórzy filozofowie argumentowali, że celowość jest ugruntowana w naszej historii ewolucji. Jeśli tak, to tylko rozwinięte systemy / roboty AI (w tym przykłady oparte na GOFAI) mogą nawet kandydować na posiadanie umyślności. Niektóre znaczenia przypisywane ewolucyjnym robotom nie są "arbitralne", tak jak chciałby to Searle, ale są zakorzenione w ich szczególnej historii ewolucji. Na przykład mini-sieć w "mózgu" robota może być postrzegana jako wykrywacz orientacji, ewoluujący do poruszania się po środowisku zadań . Prawdą jest jednak, że to, czy te znaczenia - choć nie arbitralne - są prawdziwymi znaczeniami, pozostaje kontrowersyjne. Jak wspomniano powyżej, argument pustego programu nie był jedynym powodem, dla którego Haugeland odrzucił GOFAI. Jeszcze ważniejszy w jego oczach (i Dreyfusa) był brak ucieleśnienia programów GOFAI. Ta cecha została oparta na kartezjańskim oddzieleniu umysłu, ciała i świata - z jej obrazem życia mentalnego jako pewnego rodzaju rasy sztafetowej, w której pałeczkę przekazuje szereg analitycznie odrębnych etapów percepcji, myślenia i akcji motorycznej . Ten obraz długo nasycał (najbardziej) eksperymentalną psychologię i neurofizjologię zanim pojawił się GOFAI. Ale GOFAI uczyniło to jeszcze bardziej oczywistym, na przykład w programach analizy scen z lat 60. i 70., które badały "widzenie" jako bezcielesną i quasi-intelektualistyczną materię. Haugeland woli podejście fenomenologiczne, w którym obecność cielesna i działanie w świecie materialnym (i społecznym) są źródłem wszelkiego znaczenia i świadomości. To podejście, z towarzyszącym naciskiem na systemy dynamiczne, zostało wprowadzone do kognitywistyki przez Francisco Varela. Dzisiaj krytyka fenomenologiczna jest znacznie bardziej wpływowa w tej dziedzinie. Martin Heidegger jest teraz bardziej wpływowy, niż Bertrand Russell, którego prace nad logiką (i logistyczną filozofią języka) były tak ważne w tworzeniu symbolicznej sztucznej inteligencji. Ale ci dwaj filozofowie nie mogą się bardziej różnić. W wyniku tej zmiany na morzu GOFAI jest teraz jeszcze bardziej modne niż w czasach świetności PDP. Pod względem zainteresowań filozoficznych działa tylko GOFAI w sprawie robotyki i rozproszonego poznania jest nadal uważane za ważne. To, czy jakikolwiek robot, GOFAI, czy nie, można słusznie powiedzieć, że jest "ucieleśniony", jest bardzo nierozerwalnym pytaniem, do którego nie możemy się tutaj zagłębić. Ale widzieliśmy już, że robot może znajdować się w świecie fizycznym i być przez niego wyzwany w sposób, w jaki nie są to typowe (mózgowe / intelektualne) programy GOFAI. Niektórzy czytelnicy mogą uważać, że stwierdzenie, że GOFAI jest "niemodny", nie idzie wystarczająco daleko. W końcu mody można ożywić - i podziwiać na nowo. Ale wiele osób uważa, że GOFAI na zawsze nie ma przychylności, nie mówiąc już o śmierci. Dlaczego oni tak myślą? I czy mają rację?

Mit niepowodzenia GOFAI

Widzieliśmy, że mocne i słabe strony GOFAI i połączenia, a także GOFAI i robotyki umiejscowionej uzupełniają się. Jednak w opinii publicznej (i niektórych badaczy AI) słabości GOFAI są częściej zauważane niż ich mocne strony. Rzeczywiście wielu komentatorów przyjmuje za pewnik, że GOFAI zawiodło i należy je odpowiednio odpisać. Na przykład Dreyfus, który przewidział niepowodzenie GOFAI około czterdzieści lat temu, teraz uważa się za winnego. Wykład na uniwersytecie w Houston w 1998 r. Zatytułowano "Dlaczego zawiodła symboliczna sztuczna inteligencja", a on już wyraził ten jednoznaczny osąd w formie drukowanej: "Tradycja racjonalistyczna została w końcu poddana testowi empirycznemu i zawiodła". Pogląd ten był tak szeroko rozpowszechniony, że wiele osób uważa go obecnie za frazes. Z pewnością GOFAI nie doczekał się tak wczesnego szumu medialnego. Na przykład nie potwierdzono prognozy Simona z lat 50., że zapewni ona mistrza świata w 1967 r. (Niepokoje Deep Blue w sprawie Gary′ego Kasparowa wydarzyły się trzydzieści lat później dzięki specjalnym układom umożliwiającym spojrzenie w przód o osiem ruchów). Wiele innych wczesnych prognoz, takich jak prawie bezbłędne tłumaczenie maszynowe, również nie zostało potwierdzonych. Nowsze przykłady szumu GOFAI obejmują pewne prognozy dotyczące robotycznego mistrza świata w piłce nożnej do 2050 roku. Moim zdaniem takie obietnice nie zostaną spełnione przez setki lat, jeśli w ogóle. Ale to nie oznacza "niepowodzenia". Sukcesu tej dziedziny nie należy oceniać, koncentrując się na jej najbardziej ekstrawaganckich obietnicach - zwłaszcza, że wielu badaczy AI, zarówno przeszłych, jak i obecnych, nie podzielało pokładanych w niej szumów. Nie należy go również oceniać pod kątem zaliczenia testu Turinga. To nigdy nie było właściwym kryterium sukcesu w sztucznej inteligencji - ani też nie było tak zaprojektowane przez samego Turinga. Zatem fakt, że nie został przekazany, nie jest ani tu, ani tam. Niemniej jednak wiele osób nadal uważa, że jest to bardzo istotne. Na przykład wykład "porażki" Dreyfusa został otwartym odniesieniem do przewidywania przez Turinga bliskiego podobieństwa człowiek-komputer do 2000 r. Nasza ocena powinna raczej opierać się na tym, czy GOFAI poczynił znaczący postęp w kierunku celów wyrażonych w mniej nieostrożnych momentach. I tutaj musimy przypomnieć różnicę między technologiczną a psychologiczną sztuczną inteligencją. W odniesieniu do GOFAI technologicznego zarzut niepowodzenia jest absurdalny. Sam problem z ramą, choć wprawdzie nierozwiązany (i prawdopodobnie nierozpuszczalny) w ogólnym przypadku, został rozwiązany ze względów praktycznych w wielu różnych kontekstach. Systemy eksperckie zostały opracowane w szerokim zakresie dziedzin. Są one wykorzystywane na przykład do celów komercyjnych, administracyjnych, edukacyjnych, medycznych i wojskowych. Niektóre z nich są w stanie bardzo skomplikowane planowanie, od czasu do czasu nawet do dziesiątek tysięcy kroków. Planowanie GOFAI jest nawet ważne w grach wideo i animacji Hollywood, na przykład, aby zapobiec zderzeniu się bohaterów rzeczywistości wirtualnej. Ponadto upragniona sieć semantyczna - zwykle uważana za futurystyczny projekt informatyczny, a nie sztuczną inteligencję - będzie wymagała postępu w skomputeryzowanych ontologiach, temat zapoczątkowany przez GOFAI McCarthy′ego i Hayesa 1969. Systemy eksperckie, gry VR i wyszukiwarki internetowe, takie jak Google, ilustrują fakt, że w społeczeństwach przemysłowych istnieje wiele niewidocznych aplikacji AI, o których opinia publiczna nawet nie jest świadoma. Zapaleni gracze wideo nie wiedzą, że w ich ulubionym systemie jest planer GOFAI. Pracownicy centrów telefonicznych często oferują porady zaczerpnięte z systemu eksperckiego GOFAI, którego klient nie widzi na drugim końcu linii telefonicznej. Wiele domowych urządzeń, od samochodów po kuchenki, opiera się na wbudowanej technologii GOFAI (i łączniki). Niewidzialność jest tylko jednym z powodów, dla których sukcesy GOFAI są w dużej mierze niezauważalne. Kolejna to niemożność zidentyfikowania. Wiele aspektów sztucznej inteligencji odniosło tak duży sukces, że ludzie (w tym inni informatycy) myślą o nich jedynie jako część głównego nurtu informatyki. Obejmują one techniki komputerowe, które są obecnie uważane za coś oczywistego, takie jak dzielenie czasu, komputery osobiste z oknami i myszami oraz programowanie obiektowe. Ich korzenie w AI są zapomniane. W tym AI jest porównywalne z filozofią. Odważnie zadaje pytania, na które nie ma odpowiedzi, prawie nie do zdobycia - ale kiedy znajdzie wiarygodny sposób na nie udzielenie odpowiedzi, są one ponownie oznaczone jako pytania dotyczące "szanowanej" nauki. Krótko mówiąc, nie można utrzymać opłaty za awarię GOFAI jako technologii. A co z GOFAI jako przedsięwzięciem psychologicznym? Jeśli chodzi o słabą AI, nie ma wątpliwości, ale doprowadziło to do wielu odkryć psychologicznych. Pewne prace oparte na GOFAI doprowadziły z pewnością do tego, co filozof Karl Popper nazwał "obaleniem" pozornie obiecujących "przypuszczeń". Na przykład GOFAI okazało się nieodpowiednie do modelowania wizji niskiego poziomu i radzenia sobie z wieloma częściowo sprzecznymi ograniczeniami. Ale jest to równoznaczne z kursem: dialektyka domysłów / obalenia napędza naukę. Co więcej, psychologia obliczeniowa oparta na GOFAI nie spotkała się tylko z obaleniem. Doprowadziło to do nowych danych psychologicznych i / lub głębszego teoretycznego zrozumienia wielu tematów . Należą do nich emocje, hipnoza i psychopatologia, a także zjawiska poznawcze, takie jak rozumowanie, rozwiązywanie problemów, błędy w działaniu i język. Nawet ważniejsze niż określone dane i teorie, AI w ogóle - w tym GOFAI - sprawiło, że psychologowie docenili wcześniej nieoczekiwaną subtelność i moc obliczeniową ludzkiego umysłu. Poeci i powieściopisarze (a także Zygmunt Freud) od dawna mieli intuicyjne wyczucie tego bogactwa. Ale teoretycy przed obliczeniowi nie mieli pojęcia, w jakim stopniu nie udało się tego uchwycić. Silna AI to inna sprawa. Jak zauważono w poprzedniej sekcji, pierwotna definicja GOFAI zawierała zobowiązanie do silnej sztucznej inteligencji. Istnieją dwa ogólne powody, dla których nie można twierdzić, że GOFAI się powiodło - chociaż to, czy "zawiodło", jest bardziej delikatną oceną. Z jednej strony błędne jest pojęcie (wysunięte na przykład przez Newella i Simona), że obliczenia symboliczne mogą wyjaśnić / wdrożyć wszystkie aspekty inteligencji. Istotne jest także obliczanie połączeń. Widzieliśmy jednak, że GOFAI ma mocne strony, których inne metodologie AI nie mogą jeszcze konkurować i które są bardzo istotne dla niektórych aspektów ludzkich umysłów. Więc jeśli silna AI (interpretowana szeroko, jako twierdzenie, że jakiś system obliczeniowy lub inny może być naprawdę inteligentny) jest poprawna, to GOFAI może stanowić część naprawdę inteligentnego systemu. Z drugiej strony nie jest jasne, czy silna AI jest poprawna. Rzeczywiście, jest on tak kontrowersyjny jak zawsze - zwłaszcza dlatego, że wymagałby naturalistycznego (naukowego) wyjaśnienia intencjonalności lub znaczenia. Ci filozofowie, którzy chcą znaleźć takie wyjaśnienie, nie zgadzają się co do tego, jak to zrobić. Moim zdaniem najbardziej obiecująca próba jest ewolucyjna; ale nawet jej zwolennicy przyznają, że ich stanowisko jest na różne sposoby sprzeczne z intuicją. Co więcej, wielu filozofów - w tym większość zwolenników fenomenologii - argumentuje, że naturalistyczne ujęcie intencjonalności jest zasadniczo niemożliwe. Nawet Hilary Putnam, której filozofia funkcjonalizmu (1960) podsyciła rozwój silnej sztucznej inteligencji opartej na GOFAI, teraz akceptuje wersję tego poglądu - i odpowiednio odnosi się do kognitywistyki jako "science fiction". Podstawowym twierdzeniem antynaturalistycznym jest to, że ludzki język, znaczenie i świadomość są źródłem wszystkich naszych pojęć i całej naszej wiedzy (w tym nauki), tak że same te zjawiska nigdy nie mogłyby być wyjaśnione przez naukę. Z tego punktu widzenia silna sztuczna inteligencja jest zawrotna pod względem filozoficznym. Schizma naturalistyczna / antynaturalistyczna stanowi najgłębszy podział w filozofii. Doprowadziło to do olbrzymich "wojen naukowych", w których nauka została ostro zaatakowana i gorąco broniona. Biorąc pod uwagę jego roszczenie do wyjaśniania zjawisk mentalnych, psychologiczne AI - czy to GOFAI, czy nie - jest pierwszym na linii ognia. Większość naukowców jest realistami: wierzą, że prawdziwy świat istnieje niezależnie od ludzi, z własnymi właściwościami, które stara się opisać duża część ludzkiej myśli, a zwłaszcza nauki. Realiści zazwyczaj oskarżają antynaturalistów o irracjonalność i samozagładę oraz niezdolność do rozliczenia wielu sukcesów nauki. Moim zdaniem realistycy mają rację. Jednak po obu stronach nie ma argumentu powalającego. Na pewno ta filozoficzna bitwa nie zostanie wkrótce rozstrzygnięta. Podsumowując: Uważany za technologię, GOFAI jest ogromnie imponującym, choć w dużej mierze niewidocznym (i dlatego nierozpoznanym) sukcesem. Od systemów eksperckich po Internet, życie codzienne w społeczeństwach przemysłowych byłoby zupełnie inne bez niego. Uważany za psychologię, jest częściowo udany, ale należy go uzupełnić innymi metodologiami sztucznej inteligencji. Rzuciło światło na bardzo szeroki zakres zjawisk psychologicznych, od codziennego poznania (w tym użycie języka) do błędów działania, hipnozy i halucynacji. Uważany za filozofię jest częściowo błędny, a niektórzy (tj. antynaturaliści) powiedzieliby, że zasadniczo jest na niewłaściwym torze. Jeśli jednak ten ostatni ładunek jest poprawny, wszystkie inne formy AI / A-Life - a nawet neuronaukowe wyjaśnienia umysłu - są z nim zgodne. Innymi słowy, ludzie, którzy sprzeciwiają się GOFAI ze względów filozoficznych, często używają argumentów, które - choć nie zawsze zdają sobie z tego sprawę - podają w wątpliwość również uzasadnienie