*

Historia Sztucznej InteligencjiArtificial Intelligence Experts

Infrastruktura lat 60-tych

Rozwój techniczny w latach 60. XX wieku był wspierany (można powiedzieć, że był możliwy) dzięki wsparciu kilku systemów i czynnikom społecznym. Nowe języki komputerowe znacznie ułatwiły budowę systemów AI. Naukowcy z matematyki, kognitywistyki, lingwistyki i czegoś, co wkrótce nazwano by "informatyką", spotkali się na spotkaniach i w nowo powstałych laboratoriach, aby zaatakować problem mechanizacji inteligentnego zachowania. Ponadto, agencje rządowe i firmy doszły do wniosku, że mieli ważny udział w tym nowym przedsiębiorstwie, zapewnił potrzebne wsparcie badawcze

Języki programowania

Newell i Simon byli jednymi z pierwszych, którzy zdali sobie sprawę, że wyspecjalizowany język komputerowy byłby przydatny do manipulowania symbolicznymi wyrażeniami, które były podstawą ich podejścia do mechanizacji inteligencji. Najbardziej elementarnym rodzajem wyrażenia symbolicznego jest lista symboli, takich jak (7; B; 5). Bardziej złożone struktury można skomponować, tworząc listy list symboli i list list listów itd. W moim opisie struktur symboli dla ośmiu puzzli wspomniałem o rodzajach niezbędnych manipulacji. Przypomnij sobie, że pozycja początkowa ósemki była reprezentowana przez wyrażenie

((2; 8; 3); (1; 6; 4); (7; B; 5)):

Potrzebny był język do pisania programów, które mogły wytwarzać wyrażenia reprezentujące pozycje odpowiadające ruchom układanki. Na przykład jeden z ruchów, który można wykonać z pozycji początkowej, jest reprezentowany przez wyrażenie

((2; 8; 3); (1; 6; 4); (B; 7; 5)):

Aby utworzyć to wyrażenie, program musi skopiować wyrażenie pozycji początkowej, a następnie zamienić pierwszy i drugi element trzeciej listy w tym wyrażeniu. Newell, Shaw i Simon postanowili opracować język, w którym można by zaprogramować tego rodzaju manipulacje. Począwszy od około 1954 r. w RAND Corporation, stworzyli serię języków zwanych IPL (dla języka przetwarzania informacji). Opracowano kilka wersji języka. IPL-I nie został faktycznie zaimplementowany, ale służył jako specyfikacja projektu. IPL-II został wdrożony w 1955 roku dla komputera JOHNNIAC firmy RAND Corporation. Późniejsze wersje (poprzez IPL-VI) zostały wdrożone w Carnegie Tech. Języki IPL zostały wykorzystane do zaprogramowania kilku wczesnych programów AI, w tym LT, GPS, NSS (program szachowy Newell, Shaw, Simon) oraz programów napisanych przez studentów Newella i Simona, takich jak Quillian i George Ernst. Po letnim projekcie Dartmouth John McCarthy zaczął również myśleć o używaniu języków do przetwarzania list. Był świadomy zastosowania FLPL (FORTRAN wzmocniony przez niektóre operacje przetwarzania list) w maszynie do potwierdzania twierdzeń geometrii Gelerntera. Ostatecznie jednak McCarthy doszedł do wniosku, że potrzebny jest nowy język, który byłby łatwiejszy w użyciu niż IPL i potężniejszy niż FLPL.

Od jesieni 1958 r. W MIT McCarthy rozpoczął wdrażanie języka programowania, który nazwał LISP (do przetwarzania list). Oparł ją (luźno) na gałęzi matematyki o szczególnym znaczeniu w obliczeniach zwanej teorią funkcji rekurencyjnych. LISP miał kilka podstawowych operacji kopiowania listy, usuwania elementów z listy, dodawania elementu do listy i sprawdzania, czy coś jest elementem listy. Z tych arbitralnie złożonych manipulacji listami mogą być złożone. Ważną cechą LISP było to, że same programy do manipulowania listami były przedstawiane jako listy. Takie programy mogą zatem stanowić elementy innych list i mogą zawierać w nich podprogramy. Program może mieć nawet wbudowaną wersję. Programy, które mogą aktywować swoje wersje w ramach swoich operacji, nazywane są "rekurencyjnymi" i są bardzo przydatny (jeśli jest stosowany z ostrożnością potrzebną do uniknięcia niekończącej się okrągłości). Ponieważ był łatwiejszy w użyciu, LISP wkrótce zastąpił IPL jako podstawowy język badań i zastosowań sztucznej inteligencji. Programy opracowane przez studentów Minsky′ego, Evansa, Raphaela, Bobrowa, Slagle′a i innych, zostały napisane w LISP. (Co ciekawe, Arthur Samuel nie używał języka przetwarzającego listy do pisania swoich programów do gry w warcaby. Raczej heroicznie zaprogramował je w podstawowym języku podstawowych operacji maszynowych, aby działały wydajnie i oszczędnie korzystały z pamięci.) Oprócz rozwijania LISP, McCarthy zaproponował metodę zwaną "dzieleniem czasu", dzięki której jeden komputer mógłby obsługiwać kilku użytkowników jednocześnie {działając tak, jakby każdy użytkownik miał swoją prywatną maszynę. Współpracując początkowo z Edem Fredkinem w Bolt, Beranek i Newman (BBN), a później z innymi, McCarthy opracował system wczesnego dzielenia czasu w MIT przy użyciu komputera DEC PDP-1

Wczesne laboratoria AI

W 1955 r. Newell przeniósł się z RAND Corporation do Carnegie Tech (która stała się Carnegie Mellon University, CMU, w 1967 r.), Aby pracować nad doktoratem gdzie uzyskał dyplom zarządzania przemysłowego u Herba Simona. Po ukończeniu studiów Newell pozostał profesorem w Carnegie, a on i Simon zaczęli doradzać wielu doktorantom. studenci -używają wyrażenia "złożone przetwarzanie informacji (CIP)" do opisania swojej pracy. (Przez kilka lat unikali sobriquet AI). Jesienią 1956 roku Herb Simon dostarczył IBM 650, który był pierwszym używanym komputerem do pracy w CIP. Później użyli IBM 704, a następnie serii maszyn DEC. John McCarthy przeprowadził się z Dartmouth do MIT jesienią 1958 r. Minsky dołączył do MIT rok później. Jak to ujął Minsky, [McCarthy i ja] szliśmy korytarzem i spotkaliśmy Jerry′ego Wiesnera, Zimmermana lub kogoś innego, a on powiedział, jak leci i powiedzieliśmy dobrze, pracujemy nad pomysłami nad sztuczną inteligencję, ale potrzebujemy trochę więcej miejsca i wsparcia dla niektórych doktorantów. Kilka dni później pojawił się w pokoju. . . " "Oom" wkrótce przekształcił się w projekt sztucznej inteligencji MIT. Początkowo grupa korzystała z komputera IBM 704 firmy MIT, który okazał się nie mieć wystarczającej pamięci na pisane programy. Zaczął więc używać DEC PDP-1 należącego do BBN. Dzięki finansowaniu z innego projektu w MIT kupił własny PDP-1, a następnie PDP-6 i PDP-10. Kilku doktorów grupy uczniów wykonali pracę w BBN i pobliskim Lincoln Laboratory, gdzie Oliver Selfridge kontynuował badania nad sztuczną inteligencją {głównie w zakresie rozpoznawania wzorców i uczenia maszynowego. W 1962 r. McCarthy przeprowadził się do Stanford, gdzie rozpoczął projekt sztucznej inteligencji. Seymour Papert, matematyk, który pracował z Jeanem Piagetem, dołączył do Minsky′ego jako współreżyser AI Lab w 1963 roku. W 1965 roku w Stanford McCarthy i współpracownicy stworzyli system dzielenia czasu , zwany Thor, na komputerze PDP-1. Zawierał dwanaście terminali wyświetlaczy Philco, co czyniło go pierwszym zorientowanym na wyświetlanie systemem podziału czasu na świecie. Z pomocą Lestera Earnesta, który przeprowadził się do Stanford z Lincoln Laboratory, McCarthy założył Stanford AI Laboratory (SAIL) w 1965 roku. Rozwijając swoje wyposażenie na terenie kampusu, SAIL przeprowadził się do budynku u podnóża Stanford latem 1966 roku. Przy dodatkowym wsparciu ARPA, laboratorium odebrało komputer DEC PDP-6, a później komputer PDP-10. Oprócz pracy przy AI SAIL był zaangażowany w wiele innych projektów związanych z komputerami, w tym w opracowanie prekursora "okien" komputerowych i wczesną instalację terminali we wszystkich biurach. Od samego początku grupy w CMU, MIT i Stanford należały do liderów badań nad AI. Często absolwenci jednej z tych instytucji stawali się członkami wydziałów jednej z pozostałych. Około 1965 r. na University of Edinburgh w Szkocji powstało kolejne światowej klasy centrum AI. Jego założycielem był Donald Michie, który współpracował z Alanem Turingiem i Jacobem (Jackiem) Goodem w Bletchley Park podczas II wojny światowej. Dyskusje z Turingiem i Goodem o inteligentnych maszynach urzekły Michie. Jak napisał w wywiadzie z października 2002 r.,

"Postanowiłem uczynić inteligencję maszynową moim życiem, gdy tylko takie przedsięwzięcie stanie się możliwe".

Ponieważ urządzenia komputerowe w połowie lat 40. były prymitywne i rzadkie, Michie została genetykiem i biologiem molekularnym. Kontynuując swoje zainteresowanie inteligencją maszynową, niejako z boku, w 1960 r. opracował "zestaw pudełek zapałek i szklanych koralików", które mógł nauczyć się grać w kółko i krzyżyk. Nazwał swoją "maszynę" MENACE, akronim od Matchbox Educationalable Noughts and Crosses Engine. (MENACE zapowiadał pracę nad tym, co obecnie nazywa się "uczenie ze wzmocnieniem".)Podczas rocznej wizyty w Stanford (sponsorowanej przez Office of Naval Research) na początku lat 60), Michie poznała Johna McCarthy&primelego, Bernarda Wdow i innych pracujących w AI . Pracował nad programem do nauki wyważania bieguna na wózku napędzanym silnikiem. W styczniu 1965 r. Michie został dyrektorem pierwszego brytyjskiego laboratorium AI, Experimental Programming Unit, na Uniwersytecie w Edynburgu. Ta grupa miała zostać Departamentem Inteligencji i Percepcji Maszyn w październiku 1966 roku. Michie zwerbował najlepsze talenty komputerowe, w tym Roda Burstalla, Robina Popplestone′a i Johna Collinsa. Ci trzej opracowali język przetwarzania listy o nazwie POP-2, który był językiem używanym do pisania programów AI przez członków Jednostki. Przez wiele lat grupa Michie współpracowała z pobliską grupą University of Edinburgh, Metamathematics Unit pod kierunkiem Bernarda Meltzera. Jednostka Metamatematyki znana jest z pracy Roberta Boyera i J. Strothera Moore′a w mechanizmie dowodzenia twierdzeń oraz Roberta Kowalskiego w opracowywaniu niektórych zasad programowania logicznego. W IBM w Poughkeepsie Nathan Rochester i Herb Gelernter kontynuowali badania nad sztuczną inteligencją krótko po warsztatach w Dartmouth. W wyniku tych badań powstała maszyna dowodząca twierdzeń geometrycznych. Jednak wkrótce potem, zgodnie z książką o rządowym wsparciu badań informatycznych, "pomimo wczesnej działalności Rochestera i innych badaczy IBM, zainteresowanie korporacji sztuczną inteligencją ostygło. Mimo że prace nad komputerowymi warcabami i szachami trwały nadal, raport przygotowany około 1960 r. stanowił silną pozycję przeciwko szerokiemu wsparciu sztucznej inteligencji. Być może IBM chciał podkreślić, w jaki sposób komputery pomagają ludziom wykonywać zadania, a nie jak mogą je zastępować. Pogląd McCarthy′ego na to wszystko jest taki, że "IBM myślał, że sztuczna inteligencja [że maszyny są tak inteligentne jak ludzie] jest szkodliwa dla wizerunku IBM… Może to być związane z jednym z ich innych haseł graficznych, którym było" przetwarzanie danych , nie informatyka. "

Wsparcie badań

Ponieważ systemy obliczeniowe potrzebne do badań nad sztuczną inteligencją stały się większe i droższe, a wraz z powstaniem laboratoriów sztucznej inteligencji konieczne stało się zapewnienie większego wsparcia finansowego niż było to potrzebne w czasach, gdy indywidualni badacze rozpoczęli pracę w terenie. Dwoma głównymi źródłami finansowania na przełomie lat 50. i 60. XX wieku były Biuro Badań Marynarki Wojennej (ONR) i Agencja Zaawansowanych Projektów Badawczych (ARPA), z których każda należała do amerykańskiej instytucji obronnej. ONR powstało wkrótce po zakończeniu II wojny światowej. Jego misja polegała na "planowaniu, wspieraniu i zachęcaniu do badań naukowych w uznaniu ich nadrzędnego znaczenia związanego z utrzymaniem przyszłej siły morskiej i zachowaniem bezpieczeństwa narodowego". Oddział systemów informatycznych został utworzony w połowie lat 50. XX wieku pod kierunkiem Marshalla Yovitsa. Oddział wspierał pracę AI w kilku instytucjach, a także sponsorował konferencje i warsztaty na temat samoorganizujących się systemów, cybernetyki, optycznego rozpoznawania znaków i sztucznej inteligencji. Wszystko to zostało zrobione w oczekiwaniu, że te technologie będą ogólnie przydatne dla marynarki wojennej USA. Utworzenie ARPA było częściowo odpowiedzią na udaną start sowieckiego satelity Sputnik w 1957 roku. Misją ARPA było zapewnienie znaczącej kwoty funduszy na badania w celu zaatakowania problematycznych obszarów ważnych dla obrony USA. Jednym z najważniejszych projektów pod koniec lat 50. było opracowanie stożków nosowych ablacyjnych do pochłaniania i rozpraszania ciepła podczas ponownego wystrzelenia rakiety balistycznej. Biuro ds. Technik przetwarzania informacji (IPTO) zostało utworzone w 1962 r. Pod kierunkiem J. C. R. (Licka) Licklidera. "Lick" (jak go nazywali wszyscy, którzy go znali) był psychoakustą, który pracował najpierw w Lincoln Laboratory i MIT, a później w BBN. Artykuł Licka z 1960 r., "Symbioza komputerowo-ludzka", "zaproponował, aby ludzie i komputery współpracowali przy podejmowaniu decyzji i kontrolowaniu złożonych sytuacji bez rzeczywistej zależności od wcześniej określonych programów". Lick został przekonany, że komputery odegrałyby bardzo ważną rolę w obronie -szczególnie w aplikacjach, w których ludzie i komputery pracowali razem. W ARPA przekazał fundusze MIT na utworzenie projektu MAC (akronim od Machine-Aided Cognition i być może dla Multi-Access Computing lub Man And Computers). [Projekt MAC, początkowo założony w lipcu 1963 r., Później stał się Laboratorium Informatyki (LCS), a jeszcze później przekształcił się w Laboratorium Informatyki i Inteligencji Artystycznej (CSAIL).] Projekt MAC zajął się Sztuką Minsky′ego i McCarthy'′ego Intelligence Project pod jego skrzydłami, a także wspierał rozwój kompatybilnego systemu podziału czasu MIT (CTSS) w ramach Fernando Corbato. (Prace CTSS były odrębne od projektu dzielenia czasu McCarthy.) Fundusze ARPA pomogły w utworzeniu "centrów doskonałości" w informatyce. Oprócz MIT do tych centrów należały Stanford, Carnegie Mellon i SRI. ARPA wspierała także prace informatyczne w RAND Corporation, Systems Development Corporation i BBN, itp. AI była tylko jednym z zainteresowań ARPA. IPTO wspierało również badania, które doprowadziły do graficznych interfejsów użytkownika (i myszy), superkomputerów, sprzętu komputerowego i układów scalonych na bardzo dużą skalę (VLSI) i, być może najbardziej znane, badania, które doprowadziły do Internetu. Według Licklider, budżety " ARPA nie obejmowały nawet AI jako osobnego elementu zamówienia aż do 1968 roku". Ale jeśli chodzi o sztuczną inteligencję, Lick uważał, że Newell i Simon, Minsky i McCarthy powinni otrzymać fundusze na badania wystarczające na wsparcie dużych projektów AI. W odniesieniu do sytuacji w Stanford (i prawdopodobnie także w MIT i CMU) Paul Edwards wyjaśnił, że [F] unding z ARPA był praktycznie automatyczny; Licklider po prostu zapytał McCarthyego, czego chce, a potem dał mu to, co jest nie do pomyślenia dla większości innych agencji rządowych. Licklider pamiętał, że "wydawało mi się oczywiste, że powinien mieć laboratorium wspierane przez ARPA… Napisałem mu wtedy kontrakt" .McCarthy pamięta to wszystko nieco inaczej. Wkrótce po przybyciu do Stanford w 1962 r. Wysłał Lickliderowi propozycję" wykonania sztucznej inteligencji ". McCarthy twierdzi, że Licklider odmówił na początku - zacytował ich bliski związek, gdy McCarthy był w MIT, a Licklider w BBN - ale potem dał mu "małą umowę". Ale być może nie było to tak "małe" w porównaniu z tym, jak wówczas badania były zwykle wspierane (powiedzmy przez National Science Foundation). Les Poważnie twierdzi, że McCarthy "uzyskał wsparcie finansowe dla małej działalności (6 osób) z Agencji Zaawansowanych Projektów Badawczych (ARPA) od 15 czerwca 1963 r. Później ARPA została przemianowana na DARPA (dla Agencji Zaawansowanych Projektów Badawczych Obrony), aby podkreślić swoją rolę w badaniach związanych z obronnością. Projekty i granty DARPA były zwykle znacznie większe niż w przypadku ONR i umożliwiały zakup komputerów i innego sprzętu, a także wsparcie personelu. Nie jest przesadą stwierdzenie, że duża część dzisiejszej infrastruktury komputerowej jest wynikiem wsparcia badań DARPA

Wszystkie przebrania i miejsca do odwiedzenia

W połowie lat 60. AI było dobrze przygotowane do dalszych postępów. Zarumieniony wczesnymi sukcesami, był gotowy na szybki postęp w latach sześćdziesiątych i siedemdziesiątych. Rzeczywiście wiele osób dokonywało entuzjastycznych prognoz. Na przykład w przemówieniu z 1957 roku Herb Simon przewidział, że za dziesięć lat "komputer cyfrowy będzie mistrzem świata w szachach, chyba że reguły zabraniają mu konkurowania". Dokonał również trzech innych prognoz. W ciągu dziesięciu lat komputery komponowały muzykę, dowodziłyby twierdzenia matematycznego i ucieleśniały teorię psychologiczną jako program. Powiedział: "Nie moim celem jest zaskoczenie cię lub zszokowanie&hellip ale najprostszym sposobem, który mogę streścić, jest stwierdzenie, że na świecie są teraz maszyny, które myślą, uczą się i tworzą. Co więcej, ich zdolność do robienia tego rzeczy będą szybko rosły, aż {w widzialnej przyszłości {zakres problemów, z którymi mogą sobie poradzić, będzie współistniał z zasięgiem, do którego zastosowano ludzki umysł. " Później Simon powiedział, że jego prognozy były częścią próby "wyczucia znaczenia komputerów" dla społeczeństwa.

Można argumentować, że prognozy Simona dotyczące komputerów tworzących muzykę i dowodzących matematycznych twierdzeń zostały zrealizowane wkrótce po ich stworzeniu, ale mistrz szachów komputerowych miał się pojawić dopiero czterdzieści lat później. Sądzę, że wciąż daleko nam do osiągnięcia rzeczy "współintensywnych" z tym, co może osiągnąć ludzki umysł. Simon nie był sam optymistą. Według Huberta Dreyfusa, "Marvin Minsky, szef MITs Artificial Intelligence Laboratory, zadeklarował w komunikacie prasowym z 1968 r. do filmu Stanleya Kubricka, 2001: A Space Odyssey, że" za 30 lat powinniśmy mieć maszyny, których inteligencja jest porównywalna z inteligencją człowieka". Trudność w ocenie tego rodzaju prognoz polega na tym, że" inteligencja na poziomie ludzkim "jest wielowymiarowa. W 2000 r. Programy AI osiągały lepsze wyniki niż ludzie w wielu wyczynach intelektualnych, a jeszcze w wielu innych pozostało im wiele do nauczeniaa. Mimo wszystko to, co już zostało osiągnięte, było imponującym początkiem. Być może ważniejsze niż konkretne pokazy inteligentnego zachowania się maszyn, były podstawy techniczne opracowane w latach 50. i 60. XX wieku. Badacze AI mieli teraz środki do reprezentowania wiedzy poprzez kodowanie jej w sieciach, jako formułach logicznych lub w innych strukturach symboli dostosowanych do konkretnych obszarów problemowych. Ponadto zgromadzili doświadczenie w zakresie wyszukiwania heurystycznego i innych technik manipulowania i korzystania z tej wiedzy. Ponadto naukowcy mieli teraz nowe języki programowania, IPL, LISP i POP-2, które ułatwiły pisanie programów do przetwarzania symboli. Uzupełnieniem całej tej technologii przetwarzania symboli były sieci neuronowe i powiązane podejścia statystyczne do rozpoznawania wzorców. Te aktywa techniczne, wraz z organizacyjnymi i finansowymi, stanowiły solidną podstawę do następnego etapu rozwoju AI.