*

Historia Sztucznej InteligencjiArtificial Intelligence Experts

Poszukiwanie trwa

Gdzie będzie dalej przygoda AI? Możemy mieć pojęcie o najbliższej przyszłości po prostu poprzez ekstrapolację obecnych trendów. Prawdopodobnie pojawią się nowe osiągnięcia kamieni milowych. Niewątpliwie elementy technologii AI będą coraz powszechniejsze w naszych domach, samochodach i działaniach, a inteligentne narzędzia specjalistów będą coraz mądrzejsze i liczniejsze. Ale przewidywanie poza tym, dokąd zaprowadzi nas obecny pęd AI, jest problematyczne. Zobaczmy, jak wypadły niektóre wcześniejsze prognozy. Prognozy Simona dotyczące mistrza szachowego w 1957 roku w ciągu dziesięciu lat były zdecydowanie zbyt optymistyczne. W 1973 r. Inżynierowie SRI kierowani przez Oscara Firscheina wielokrotnie pytali kilku "ekspertów" AI o to, kiedy pewne "produkty" zostaną zrealizowane. Mediana i zakresy przewidywanych dat zostały im przekazane, mieli szansę zmodyfikować swoje prognozy i tak dalej, aż wyniki się ustabilizują. (Ten proces prognozowania nazywa się metodą Delphi). "Sługa robotów" i "szofer robotów" nadal wydają się dość odległe, ale inni byli może tylko nieco zbyt optymistyczni. (Cóż, rok 2000 wydawał się być daleko od 1973 roku.) Na tym tle przewidywania sukcesów i porażek waham się, czynić takie, które nie wydają się raczej oczywiste. Tyle że przepowiednie, że pewnego dnia będziemy mieli artefakty stworzone przez człowieka o poziomach inteligencji (we wszystkich jej przejawach) równych i przewyższających ludzki. Dokonuję tej prognozy, ponieważ uważam, że my, ludzie, jesteśmy maszynami (bo czym jeszcze moglibyśmy być?) I że w końcu będziemy w stanie zbudować maszyny, które będą w stanie zrobić wszystko, co w naszej mocy, ponieważ będą istnieć powody ekonomiczne i naukowe za to. Później będę miał więcej do powiedzenia na temat "sztucznej inteligencji na poziomie ludzkim", ale najpierw przyjrzyjmy się niektórym projektom badawczym realizowanym w laboratoriach sztucznej inteligencji na początku tego stulecia, aby sprawdzić, czy dają nam jakieś informacje na temat przyszłość.

W laboratoriach

Prawdopodobnie istnieją obecnie setki laboratoriów - przemysłowych, rządowych i akademickich - które prowadzą badania nad sztuczną inteligencją. Nie potrafiłbym opisać choćby niewielkiej części tego, co się w nich dzieje, a w każdym razie projekty przychodzą i odchodzą. Podobnie jak historyk przekazuje relacje z bieżących wydarzeń prasie i innym mediom, polecam czytelnikom, którzy chcą być na bieżąco z badaniami nad AI, odwiedzanie stron internetowych prowadzonych przez poszczególne laboratoria AI, stowarzyszenia AI, agencje rządowe wspierające badania nad AI i wyspecjalizowane konferencje i warsztaty. Aby pochwalić szerokie spektrum obecnych badań, wspomnę o kilku projektach realizowanych w ciągu pierwszych kilku lat tego stulecia. Oczywiście są to projekty badawcze, więc jest możliwe, ale nie pewne, że niektóre z nich pozostawią swoje ślady na przyszłość.
Systemy specjalistyczne

Budowanie inteligentnych narzędzi do pracy w wyspecjalizowanych obszarach jest nadal dużą częścią badań nad sztuczną inteligencją. Jednak praca nad tymi narzędziami jest coraz mniej skoncentrowana na sztucznej inteligencji i łączy się z dyscyplinami, od których technologii te wysiłki zależą - takimi jak statystyki, inżynieria sterowania, przetwarzanie obrazu i językoznawstwo. Oczywiście nowe techniki wynalezione i zastosowane w budowie nawet najbardziej wyspecjalizowanych systemów niszowych mogą w rzeczywistości znaleźć szerokie zastosowanie w innych obszarach zainteresowania AI.

A. Pobieranie obrazów na podstawie zawartości

Współczesne wyszukiwarki obrazów i filmów, które odpowiadają na zapytania złożone ze słów, np. "Motocykle", robią to, szukając stron internetowych zawierających tekst "motocykl" wraz z plikiem obrazu lub filmu (np. Jpeg, quicktime, lub inny odpowiedni format). Niestety plik obrazu lub wideo w niektórych witrynach pobranych tymi metodami może nawet nie zawierać motocykla. Trwają badania mające na celu oparcie wyszukiwania obrazów i wideo bardziej na treści obrazów niż na samej treści powiązanego tekstu. Jeden z takich projektów został przeprowadzony przez naukowców z Oxford University oraz w Microsoft Corporation. Używając obrazów z publicznej witryny internetowej (Flickr), "zapytanie" polega na obrysowaniu (prostokątem) tej części obrazu, która zawiera poszukiwany obiekt. Ta część obrazu jest następnie konwertowana na reprezentację wektorową, która zachowuje kluczowe cechy obrazu obiektu. Reprezentacje wektorowe obrazów w dużej bazie danych obrazów są analizowane w celu utworzenia "klastrów" podobnych wektorów. Chodzi o to, że każdy klaster jest powiązany z obrazami podobnych obiektów. Reprezentacja wektorowa zapytania jest następnie dopasowywana względem wektorów bazy danych obrazów do klastrów najbardziej podobnych obrazów. Można je następnie uszeregować, a obrazy o wysokiej pozycji z zarysowanymi regionami obiektów są zwracane jako odpowiedzi na zapytanie. Oczywiście, podobnie jak w przypadku każdego procesu wyszukiwania, zwracane będą również fałszywe alarmy, ale w tych przykładach fałszywe alarmy pojawiły się później na liście niż pokazane obrazy odpowiedzi. Autorzy oceniają swoją pracę w następujący sposób:

System zwraca zdjęcia z korpusu zawierające zapytanie o oobiekt, pomimo istotnych różnic w oświetleniu, perspektywie, jakość obrazu i okludery między zapytaniem a pobranym zdjęciem. Uważamy to za krok w kierunku ostatecznego celu budowy systemu pobierania na skalę internetową, który będzie skalowany do miliardów obrazów. Dlatego skoncentrowaliśmy się na algorytmach, które są skalowalne i które naszym zdaniem są łatwe do rozpowszechnienia w klastrze komputerów.

Zdaję sobie sprawę, że potrzebne są dalsze prace w celu znalezienia "skutecznych sposobów uwzględnienia informacji przestrzennej w indeksie [obliczanym przed zapytaniem o obrazy], i przenoszą część ciężaru dopasowywania przestrzennego z etapu rankingu do etapu filtrowania". Inne projekty obejmują pobieranie wideo na podstawie zawartości. Na przykład, gdy użytkownicy przesyłają wideo do YouTube, przesyłają również słowa "oznaczające", aby pomóc je opisać. Przykładowymi słowami znaczników, które mogą być użyte, są plaża, turystyka, piłka nożna, koty, koncerty i tak dalej. Tagowanie wymaga wysiłku, dlatego niektórzy badacze próbują zautomatyzować ten proces przy użyciu statystycznych metod uczenia maszynowego. Z bazy danych już oznakowanych filmów grupa niemieckich naukowców opracowała prototypowy system, który wyodrębnia informacje o obrazie do wykorzystania w sugerowaniu słów oznaczających inne filmy. Systemy takie jak ich mogą ostatecznie zostać wykorzystane do oznaczania dużych nagrań wideo. Po oznaczeniu te ciała mogą być łatwiej wyszukiwane. W związku z tym dwie różne firmy, VideoSurf i Digitalsmiths, ogłosiły produkty, które umożliwiają wersje wyszukiwania opartego na treści. Witryna internetowa VideoSurf twierdzi, że "stosując unikalną kombinację nowej wizji komputerowej i szybkich metod obliczeniowych, VideoSurf nauczył komputery" widzieć "wideo w celu znalezienia zawartości w szybki, wydajny i skalowalny sposób ".

B. Wyszukiwanie w sieci na podstawie znaczeń

Następnie wspomnę o projekcie AI w komercyjnej firmie Powerset. Powerset zaczął jako start-up w San Francisco, rozwijając wyszukiwarkę internetową, która wykorzystuje techniki rozumienia języka naturalnego. (Firma została przejęta przez Microsoft w 2008 roku.) Firma Powerset twierdzi, że jest w stanie znaleźć "artykuły związane ze znaczeniem twojego zapytania. A czasem bezpośrednie odpowiedzi. "Zapytanie może być stwierdzeniem lub pytaniem postawionym w zwykłym języku naturalnym. Następnie do analizy zapytania używa się gramatyki i procesora semantycznego - przekształcając go w reprezentację wyrażającą znaczenie zdania pierwotnego. Ich prototyp wersja jest ograniczona do przeszukiwania artykułów w Wikipedii, które zostały również przetworzone w celu wyodrębnienia znaczeń. Następnie stosowana jest procedura dopasowania w celu zwrócenia artykułów, których znaczenie jest najbardziej związane z zapytaniem. Deweloperzy uważają, że ich technologia przeskoczy poza Wikipedię, aby móc zajmuje się większą ilością stron internetowych Technologia przetwarzania języka naturalnego stosowana przez Powerset opiera się na gramatyce funkcjonalnej leksykalnej opracowanej pierwotnie przez Joana Bresnana i Ronalda Kaplana Kaplan, wcześniej badacz w PARC (Palo Alto Research Center), jest teraz pracownikiem Powerset Oto przykład wyszukiwania Powerset za pomocą strony internetowej. 6 I wpisał zapytanie "Na jaką technologię ma licencję Powerset?" Odpowiedział "Firma licencjonowała technologię języka naturalnego od PARC, dawnego Xerox Palo Alto Research Center …", i odesłała na stronę Wikipedii, z której usunęła odpowiedź, a mianowicie "Powerset (firma)", która jest na stronie. Jeśli techniki wyszukiwania oparte na znaczeniu wzrosną, jak mają nadzieję ludzie Powerset, znacznie poprawi się jakość wyszukiwania w Internecie.

C. Legged Robots

Marc Raibert prowadził badania w Caltech dotyczące chodzenia, biegania i skakania robotów. Kontynuował powiązane badania jako profesor w CMU, a później w MIT. W 1992 r. Założył firmę o nazwie Boston Dynamics, która według strony internetowej "specjalizuje się w robotyce i symulacji człowieka" .Jeden z ich prototypowych produktów nazywa się BigDog, czworonożny robot kroczący, mniej więcej wielkości doga, uważanym za "najbardziej zaawansowanego czworonoga na ziemi. " BigDog jest wyjątkowo stabilny. Potrafi chodzić, biegać i wspinać się w trudnym terenie. Mówi się, że jest w stanie unieść ładunek o wadze 340 funtów. Jest napędzany silnikiem benzynowym napędzającym hydrauliczny układ uruchamiający. Zestaw czujników BigDog obejmuje żyroskop laserowy, system wizyjny stereo, urządzenia do wykrywania pozycji i sił stawów, a także rzeczy wewnętrzne, takie jak temperatura silnika i tak dalej. Ogólną kontrolę zapewnia komputer pokładowy. Projekt BigDog jest wspierany przez DARPA. Według artykułu na temat BigDog, zespół nadal pracuje nad takimi problemami, jak doprowadzenie BigDoga do rozwiązania problemu, jeśli się przewróci i zwiększenie możliwości samodzielnej nawigacji. (Obecnie kieruje nim głównie ludzki operator.) W laboratoriach trwają setki projektów, w których opracowywane są "inteligentne narzędzia" dla setek zawodów. Różnorodność jest niesamowita. Ludzie pracują nad automatyzacją procesu animacji filmowej, genomiki obliczeniowej, chirurgii robotów, inteligencji biznesowej i wielu innych. Większość z nich to systemy, które nazwałbym "niszowymi", skoncentrowanymi na wykonywaniu konkretnych, a nie ogólnych zadań. W następnej części wspomnę o pracach laboratoryjnych mających na celu zbudowanie systemów ogólnego przeznaczenia lub opracowanie technologii, która może być stosowana w szerokim zakresie ustawień.

Systemy o szerokim zastosowaniu

A. Robotyka

Od czasów robotów Shakey badacze AI używali robotów jako platform do opracowywania systemów AI, które łączą wiele aspektów inteligentnego zachowania, a zatem dążą do pewnego rodzaju ogólnej użyteczności. Prace nad systemami robotów ogólnego przeznaczenia zaczęły być modne, a badacze robotyki czasami musieli skupiać się na specjalnych zadaniach, jak na przykład w automatyce przemysłowej. Reagując na niektóre z moich propozycji z lat 70. i 80. XX wieku dotyczących robotów ogólnego przeznaczenia, potencjalni sponsorzy czasami pytają "Dokładnie, co zrobi twój robot?" Moja odpowiedź, że miały one być "ogólnym przeznaczeniem", rzadko spotykały sponsorów konkretne problemy do rozwiązania. Teraz jednak wydaje się, że powraca praca nad robotami, które potrafią robić wiele rzeczy - roboty dziesięciobojowe zamiast robotów z wysokimi przeszkodami lub robotów o skoku o tyczce. Jednym z przykładów jest praca profesora Stanforda, Andrew Ng, z robotem o nazwie STAIR, akronimem nazwy STanford AI Robot. STAIR został zaprojektowany jako rodzaj "faktury ogólnej", to znaczy robota, który może wykonywać wiele czynności, w tym nawigować w domu i biurze, podnosić przedmioty i narzędzia oraz wchodzić w interakcje z nimi, a także inteligentnie rozmawiać z nimi i pomagać ludziom środowiska. Zgodnie ze swoją stroną internetową STAIR integruje "metody zaczerpnięte ze wszystkich obszarów sztucznej inteligencji, w tym uczenia maszynowego, widzenia, nawigacji, manipulacji, planowania, wnioskowania oraz przetwarzania mowy / języka naturalnego. Jest to wyraźny kontrast w stosunku do 30-letniego trendu pracy nad fragmentarycznymi elementami sztucznej inteligencji i będzie motorem badań nad prawdziwie zintegrowaną sztuczną inteligencją. "STAIR uczy się nawet, jak zbierać przedmioty, których nigdy wcześniej nie widział. Korzystanie z uczenia maszynowego metody, system percepcyjny STAIR został wyszkolony w bazie danych zawierającej tysiąc lub więcej zdjęć każdego z wielu wspólnych obiektów, które można zobaczyć w domu lub biurze. Każdy obraz oznaczono odpowiednią pozycją chwytania dla tego konkretnego obiektu. obiekty obejmowały zszywacz (2,001 przykładowych zdjęć), kubek kawy (2,001 przykładowych zdjęć), miskę zbożową (1,001 przykładowych zdjęć) i kilka innych przedmiotów. Zdjęcia szkoleniowe pokazały przedmioty w różnych warunkach oświetleniowych, z różnych pozycji kamery, oraz w różnych orientacjach. (Aby ułatwić zadanie gromadzenia i oznaczania danych treningowych, zastosowano syntetyczne obrazy komputerowe). Po zakończeniu szkolenia STAIR mógł przewidzieć najlepszy punkt chwytania dla kilku nowatorskich przedmioty i opracuj plan prowadzenia ramienia i chwytaka. System przetestowano na dużym zestawie nowych obiektów, których przykładów wcześniej nie widział. Należą do nich \ rolki taśmy izolacyjnej, markery, półprzezroczyste pudełko, dzbanki, scyzoryki, telefony komórkowe, długopisy, klucze, śrubokręty, zszywacze, szczoteczki do zębów, gruba cewka drutu [i] dziwnie ukształtowany klakson. "Przeciętnie STAIR z powodzeniem podniosło te obiekty w 87,8% przypadków (aby zaliczyć je do udanych, "robot musiał chwycić obiekt, podnieść go o około 1 stopę i przytrzymać przez 30 sekund".

Ng oraz jego koledzy i studenci wyobrażają sobie roboty, które byłyby w stanie wykonywać zadania takie jak:

•  pobierz lub dostarcz przedmioty w domu lub w biurze,
•  posprzątaj pokój, w tym zbierając i wyrzucając śmieci oraz korzystając ze zmywarki,
•  przygotowywać posiłki w normalnej kuchni, oraz
•  użyj narzędzi do montażu półki na książki.

Mówi się, że roboty "zrewolucjonizują automatykę domową i biurową i będą miały ważne zastosowania, od asystentów domowych po opiekę nad osobami starszymi". Ng nie jest sam w prowadzeniu tego rodzaju badań robotyki. Zespół składający się z naukowców z Intel Research w Pittsburghu i Robotics Institute na Carnegie Mellon University opracowuje robota o nazwie HERB, akronimu Home Exploring Robotic Butler.Składa się z laserowego dalmierza, mobilnej podstawy Segway RMP, ramienia WAM, dłoni Barretta i dwóch kamer wideo. Według artykułu opisującego HERB może wyszukiwać obiekty, uczyć się nawigacji w zagraconym, dynamicznym środowisku wewnętrznym, rozpoznawać obiekty za pomocą widzenia oraz manipulować drzwiami i innymi ograniczonymi obiektami. Innym przykładem jest DOMO, oparty na zachowaniu, wieloczęściowy robot opracowany przez doktora MIT Aaron Edsinger za wykonanie "użytecznych zadań manipulacyjnych w ludzkich środowiskach". Yaskawa Electric Corporation w Japonii opracowała robota serwisowego, który nazywają SMARTPAL V, do pracy w domu i biurze. Inne japońskie firmy również opracowują roboty domowe. Ten trend w kierunku robotów ogólnego przeznaczenia pomaga w konkursach sponsorowanych przez AAAI, IJCAI i inne grupy. W poprzednich rozdziałach opisałem bardziej wyspecjalizowane systemy robotów przeznaczone do określonych zadań, takich jak gra w piłkę nożną i autonomiczna jazda samochodem. Jednak nawet te są zintegrowanymi systemami, które przyspieszają percepcję sztucznej inteligencji, uczenie się, planowanie i wykonywanie planów, które będą zasadniczo przydatne

B. Inteligentni asystenci

Teraz odejdźmy od robotów, aby rozważyć bezcielesnych "agentów", którzy pomagają ludziom w sposób niewymagający mobilności. Zamiast tego pomagają w bazach danych, komunikacji, dostępie do Internetu i wykonywaniu zadań. Wspomnę o kilku projektach, które są reprezentatywne dla tych, którzy chcą opracować takich agentów. Program PAL programu DARPA był źródłem wsparcia dla niektórych z tych prac. PAL to akronim od spersonalizowanego asystenta, który się uczy. Według strony internetowej programu, misją programu PAL jest radykalna poprawa sposobu, w jaki komputery wspierają ludzi, umożliwiając systemom poznawczym, tj. systemom komputerowym, które potrafią rozumować, uczyć się z doświadczenia, mówić, co robić, wyjaśniać, co mają robią, zastanawiają się nad swoimi doświadczeniami i zdecydowanie reagują na zaskoczenie. Jest to pierwszy szeroko zakrojony program badawczy w dziedzinie systemów poznawczych od czasu Strategic Computing Initiative finansowanej przez DARPA w latach 80. Od tego czasu nastąpił znaczny rozwój technologii potrzebnych do włączenia systemów poznawczych, takich jak maszyna uczenia się, rozumowaniea, percepcji i interakcja multimodalna. Ulepszenia procesorów, pamięci, czujników i sieci ,dramatycznie zmienił także kontekst badań systemów poznawczych. Nadszedł czas, aby zachęcić różne obszary do ponownego spotkania, skupiając się na [sic] częstym problemie aplikacji: spersonalizowanym asystencie, który się uczy. Jeden z systemów opracowywanych pod ogólnym parasolem programu PAL to CALO, skrót od Cognitive Assistant, that Learns and Organies. CALO jest zarządzany przez SRI International i obejmuje ponad trzydziestu uczestników z amerykańskich uniwersytetów i firm. W projekcie biorą udział eksperci w dziedzinie uczenia maszynowego, przetwarzania języka naturalnego, reprezentacji wiedzy, interakcji człowieka z komputerem, elastycznego planowania i badań behawioralnych. Oprogramowanie CALO uczy się, wchodząc w interakcje z użytkownikami i otrzymując od nich porady, i ma na celu pomóc użytkownikom w wojskowych zadaniach decyzyjnych. (Nazwa CALO została zainspirowana łacińskim słowem "calonis", co oznacza "sługa żołnierza"). Dwa z elementów, nad którymi pracowano w ramach projektu CALO, to:

•  Organizuj i przygotowuj informacje (OPI) organizuje informacje użytkownika w celu poprawy podejmowania decyzji i świadomości sytuacyjnej.
•  Project Execution Assistant (PEXA) wykonuje delegowane zadania, przewiduje potrzeby i możliwości oraz zarządza czasem użytkownika i zobowiązania.

Wiele poszczególnych elementów całego systemu CALO stanowi istotny wkład w badania nad inteligentnymi systemami. Jedną z nich jest marginalna architektura prawdopodobieństwa opracowana przez profesora Thomasa Diettericha i Xinlong Bao z Oregon State University. Wykorzystuje ona "Markov Logic", reprezentację łączącą logikę pierwszego rzędu i probabilistyczne modele graficzne, w celu zintegrowania wielu elementów uczenia się w systemie CALO. Kolejnym składnikiem CALO jest interfejs użytkownika i repozytorium wiedzy, zwane IRIS (skrót od Integrate. Relate. Infer. Share). Wersja IRIS została wydana jako aplikacja typu open source. Według strony internetowej "IRIS to semantyczna platforma aplikacji komputerowych, która umożliwia użytkownikom tworzenie" osobistej mapy "w obiektach informacyjnych związanych z biurem. IRIS zawiera platformę uczenia maszynowego, która pomaga zautomatyzować ten proces. Zapewnia" pulpit nawigacyjny " widoki, nawigacja kontekstowa i struktura oparta na relacjach w rozszerzalnym pakiecie aplikacji biurowych, w tym kalendarzu, przeglądarki internetowej i przeglądarki, klienta poczty e-mail i klienta wiadomości błyskawicznych ". Możesz pobrać tę wersję IRIS ze strony internetowej. Teraz przejdźmy przez Atlantyk, gdzie trwa kolejny projekt inteligentnego asystenta. Yorick Wilks (1939 {), profesor na Wydziale Informatyki Uniwersytetu Sheffield w Wielkiej Brytanii, jest koordynatorem projektu o nazwie "COMPANIONS". Jest sponsorowany przez Komisję Europejską i obejmuje uczestników z Europy i Stanów Zjednoczonych. Według strony internetowej projekt ma na celu zmianę naszego sposobu myślenia o relacjach międzyludzkich na komputery i Internet, opracowując wirtualny "towarzysz". Będzie to agent lub "obecność", która pozostanie z użytkownikiem przez długi czas, rozwijając relacje i \ znając "preferencje i życzenia właściciela. Komunikuje się z użytkownikiem przede wszystkim poprzez używanie i rozumienie mowy, ale także używanie innych technologii takie jak ekrany dotykowe i czujniki. Wszechstronni agenci konwersacyjni mogą odegrać pożyteczną rolę dla niektórych osób jako sporadyczne zastępcze interakcje międzyludzkie. Należy jednak pamiętać o ostrzeżeniach, takich jak teodore Roszak i inni, dotyczących ich niewłaściwego i nadużywania. Aaron Sloman z School of Computer Science na Uniwersytecie w Birmingham w Wielkiej Brytanii napisał przemyślany dokument na temat niektórych trudności związanych z budowaniem cyfrowych towarzyszy.

C. Uczenie się przez czytanie

Wszyscy badacze AI zgadzają się, że zarówno zdrowy rozsądek, jak i wiedza specjalistyczna są kluczem do inteligencji. Stosowano różne podejścia do gromadzenia i organizowania tej wiedzy w formie możliwej do wykorzystania przez programy komputerowe. Projekty takie jak Cyc próbują to zrobić, ręcznie kodując miliony małych fragmentów wiedzy jako logiczne zdania. Badania nad uczeniem maszynowym wykazały, że można wykorzystać metody statystyczne do "przekopania" dużych baz danych pod kątem wiedzy. Trzecie podejście polega na tworzeniu programów, które potrafią czytać (i rozumieć) tekst w języku naturalnym. W końcu, jak twierdzą zwolennicy tego podejścia, świat jest pełen wiedzy {w książkach, w wiadomościach i w Internecie. (Oczywiście, jest również pełen nonsensów, ale inteligentne programy mogą ostatecznie być w stanie uwydatnić wiarygodne części.) Jak już widzieliśmy, komputerowe rozumienie tekstu w języku naturalnym wymaga zarówno ogólnej zdrowej rozsądku, jak i podstawowej wiedzy na temat tekstu. Zatem "Uczenie się przez czytanie" (LbR), jak nazywa się to trzecie podejście, opiera się na technologiach reprezentacji wiedzy i rozumowania a także w przetwarzaniu języka naturalnego. Jedną z pierwszych prób wydobycia wiedzy z sieci była grupa kierowana przez profesora Toma M. Mitchella z Carnegie Mellon University. W artykule z 1999 r. zaproponował "automatyczne utworzenie zrozumiałej komputerowo bazy wiedzy, której treść odzwierciedla wiedzę z sieci WWW". Następnie DARPA sfinansował dwuletnie badanie o nazwie "Projekt Mobius" w celu ustalenia możliwości uczenia się poprzez czytanie. W końcowym raporcie z projektu, opisującym budowę i ocenę prototypowego systemu LbR, stwierdzono, że "Uczenie się przez czytanie dało znaczące statystycznie ulepszenia w zakresie umiejętności rozwiązywania problemów [tj. Odpowiedzi na pytania] w zakresie wiedzy docelowej oraz że w wyniku poważnych badań wysiłku, można było poczynić znaczne postępy w ogólnym stosowaniu LbR. " Wydaje się, na podstawie wniosków z raportu z Projektu Mobius. że DARPA wkrótce będzie wspierać więcej badań nad LbR. Kilku badaczy jest teraz zaangażowanych w pracę nad nauką poprzez czytanie i powiązane problemy. Jedną grupą kieruje profesor Oren Etzioni, dyrektor University of Washington's Turing Center. Centrum "KnowItAll Project" opracowało program wyszukiwania o nazwie "TextRunner". Między innymi próbuje wyodrębnić logiczne relacje z tekstu, aby można je było wykorzystać do zapełnienia (lub uzupełnienia) dostępnej komputerowo bazy wiedzy. Przykłady Etzioniego, TextRunner wyodrębnia listę "(Ebay, Founded-by, Pierre-Omidyar)" ze zdania "EBay został pierwotnie założony przez Pierre'a Omidyara." Ta lista jest sposobem na napisanie logicznej relacji z predykatem Założyciel i argumenty Ebay i Pierre-Omidyar. Zestawy logicznych relacji jest wykorzystywany w większości schematów do reprezentowania wiedzy deklaratywnej. Według strony internetowej "TextRunner wyszukuje setki milionów twierdzeń wyodrębnionych z 500 milionów wysokiej jakości Strony internetowe.

W kierunku sztucznej inteligencji na poziomie ludzkim

Oko na nagrodę

W artykule z 1995 r. Zatytułowanym "Eye on the Prize" argumentowano, że badacze AI powinni wkładać więcej wysiłku w opracowywanie ogólnie inteligentnych systemów oprócz pracy nad rodzajami inteligentnych narzędzi, o których wspomniano wcześniej. Zasugerowao, że sztuczna inteligencja powinna skupić się na budowaniu systemów, które nazwano "zwykłymi" - takimi, które mogłyby nauczyć się korzystać z inteligentnych narzędzi, tak jak ludzie potrafią je wykorzystywać. Mówiąc bardziej ogólnie, zawsze wydawało mi się, że głównym celem sztucznej inteligencji - "nagrodą", o którą dążymy, powinno być opracowanie artefaktów, które mogą wykonywać większość rzeczy, które ludzie mogą robić - w szczególności rzeczy, które wymagają "inteligencji. "Systemy te miałyby coś, co niektórzy badacze AI nazywali" inteligencją sztuczną na poziomie ludzkim "(HLAI). HLAI był celem założycieli i wielu innych wczesnych naukowców AI . John McCarthy twierdzi, że pierwsza naukowa dyskusja na temat inteligencji maszynowej na poziomie ludzkim została najwyraźniej przeprowadzona przez Alana Turinga w jego wykładzie w londyńskim Towarzystwie Matematycznym z 20 lutego 1947 r. Turing uczynił mechanizację inteligencji na poziomie ludzkim wyraźnym celem w 1950 r. artykuł zatytułowany "Maszyny komputerowe i inteligencja". Później, we wniosku dotyczącym letnich badań Dartmouth w 1956 r., John McCarthy napisał: "Badanie powinno przebiegać w oparciu o przypuszczenie, że każdy aspekt uczenia się lub jakakolwiek inna cecha inteligencji może w zasadzie być tak precyzyjnie opisane, że można stworzyć maszynę do jego symulacji". "Ogólne rozwiązanie solvera" Newella i Simona (GPS) ,było specjalnie ukierunkowane na HLAI i kontynuowali prace nad problemami zarówno zrozumienia, jak i mechanizacji inteligentnego zachowania. W 1957 r. Simon powiedział, że "na świecie są teraz maszyny, które myślą, uczą się i tworzą. Co więcej, ich zdolność do robienia tych rzeczy będzie gwałtownie rosła, aż -w widzialnej przyszłości -zakres problemów, z którymi mogą sobie poradzić, będzie współistniał z zakresem, do którego zastosowano ludzki umysł. "W swoim artykule z 1961 r." Steps Toward Inteligencja sztuczna "Marvin Minsky napisał:" Jesteśmy u progu epoki, na którą silnie wpływać będą, a być może nawet zdominowane, przez inteligentne maszyny do rozwiązywania problemów ". W artykule z 2003 roku Edward Feigenbaum stwierdził:" Inteligencja obliczeniowa jest oczywistym przeznaczeniem informatyki, cel, miejsce docelowe, granica ostateczna. Bardziej niż jakakolwiek inna dziedzina nauki, nasze koncepcje i metody informatyczne są kluczowe w dążeniu do odkrycia i zrozumienia jednej z największych tajemnic naszego istnienia, natury inteligencji. Przyszłe pokolenia informatyków muszą czerpać inspirację z wyzwań i wielkich wyzwań tej wielkiej misji. "Niektórzy ludzie zauważyli, że HLAI koniecznie implikuje inteligencję na poziomie nadludzkim. W 1965 r. Angielski statystyk (i współpracownik Alana Turinga) I.J. Good napisał: Ultrainteligentną maszynę można zdefiniować jako maszynę, która może znacznie przewyższyć wszelkie intelektualne działania każdego człowieka, jakkolwiek sprytne. Ponieważ projektowanie maszyn jest jedną z tych czynności intelektualnych, ultrainteligentna maszyna mogłaby zaprojektować jeszcze lepsze maszyny; wtedy niewątpliwie byłaby to "eksplozja inteligencji", a inteligencja człowieka byłaby daleko w tyle. Tak więc pierwsza ultrainteligentna maszyna jest ostatnim wynalazkiem, jakiego człowiek kiedykolwiek potrzebował, pod warunkiem, że maszyna jest wystarczająco posłuszna, aby powiedzieć nam, jak ją kontrolować. W 1987 r. Jack Schwartz, kiedyś krytyk sztucznej inteligencji, napisał, że jeśli w ogóle można stworzyć sztuczną inteligencję, nie ma powodu, aby sądzić, że początkowe sukcesy nie mogłyby szybko doprowadzić do budowy sztucznych superinteligencji zdolnych do eksploracji znaczącej matematyki, nauki , lub alternatyw inżynieryjnych w tempie znacznie przekraczającym ludzkie możliwości, lub do generowania planów i działania na nich z równie przytłaczającą prędkością. Ponieważ prawie monopol człowieka na wszystkie wyższe formy inteligencji był jednym z najbardziej podstawowych faktów dotyczących ludzkiej egzystencji w całej historii tej planety, takie wydarzenia z pewnością stworzyłyby nową ekonomię, nową socjologię i nową historię. Pomysł, by maszyny stawały się coraz bardziej inteligentne, zainspirowały Vernora Vinge, matematyka, informatyka i pisarza fantastyki naukowej, aby przewidzieć, że do 2030 r. pojawi się superinteligencja komputerowa. Nazwał to wydarzenie "osobliwością", która jest momentem, w którym tempo postępu technologicznego staje się niewyobrażalnie szybkie. W eseju o osobliwości napisał: "Gdy inteligencja większa niż człowiek napędza postęp, postęp ten będzie znacznie szybszy. W rzeczywistości nie wydaje się, by sam postęp nie wymagał tworzenia jeszcze bardziej inteligentnych bytów - na jeszcze krótszą skalę czasową ". Przewidział dzień, w którym "Duże sieci komputerowe (i ich powiązani użytkownicy) mogą" obudzić się "jako nadludzko inteligentna istota. Wynalazca i badacz sztucznej inteligencji Ray Kurzweil spopularyzował ideę osobliwości w swojej książce "The Singularity Is Near". Opierając się głównie na założeniu, że tempo postępu technologicznego rośnie wykładniczo (i nadal będzie to robić), Kurzweil dokonuje szeregu prognoz dotyczących tego, co technologia będzie produkować w różnych dekadach, poczynając od 2010 roku, a kończąc na "The Singularity" w 2045 roku i później. Niektóre z jego przewidywań wydają się dość dziwaczne, a cała idea osobliwości wywołała wiele szyderstw, ale zostawię to tobie, abyś sam osądził. (Oto jedna przykładowa prognoza:
"Do 2045 r. "Maszyny wchodzą w" niekontrolowaną reakcję "cykli samodoskonalenia, przy czym każda nowa generacja sztucznej inteligencji pojawia się coraz szybciej. Od tego momentu postęp technologiczny jest wybuchowy, pod kontrolą maszyn, a zatem nie może być dokładnie przewidywane. ) pojawią się pod koniec 2009 r. "

Kilku komentatorów o osobliwości napisało artykuły do specjalnego wydania IEEE Spectrum z czerwca 2008 r. W 2004 r. Utworzono Singularity Institute for Artifi cial Intelligence (SIAI) "w celu sprostania temu pilnemu wyzwaniu, zarówno szansie, jak i ryzyku". Jego dyrektor ds. Badań, Ben Goertzel, jest również przewodniczącym organizacji o nazwie "Artificial General Intelligence Research Institute" (AGIRI), której "misją jest wspieranie tworzenia potężnej i etycznie pozytywnej sztucznej inteligencji ogólnej". AGIRI sponsoruje konferencje i warsztaty oraz zarządza niektórymi projektami typu open source. AGIRI używa terminu "sztuczna inteligencja ogólna" (AGI) w pewnym sensie w tym samym znaczeniu, w którym korzystano z HLAI. Według jednej ze stron internetowych "termin ten jest używany do podkreślenia" ogólnej "pożądanej zdolności badanych systemów - w porównaniu z większością głównych prac w zakresie sztucznej inteligencji (AI), które koncentrują się na systemach z bardzo wyspecjalizowane "inteligentne" możliwości ".

Kontrowersje

HLAI (i nie tylko) jest nadal celem wielu badaczy AI, mimo że wciąż możemy być daleko od jego osiągnięcia - cokolwiek to jest. W rzeczywistości istnieją kontrowersje dotyczące tego, czym może być HLAI. Czy osiągniemy to, gdy będziemy mieć programy, które mogą przejść różne testy, takie jak test Turinga? Pat Hayes i Ken Ford z Institute for Human and Machine Cognition w Pensacola na Florydzie są wśród tych, którzy z różnych przyczyn praktycznych i metodologicznych argumentują przeciwko stosowaniu testu Turinga jako miary postępu AI. Zaproponowano inne testy, które można uznać za pomocne w opracowaniu HLAI. Na przykład w artykule z 2005 r. zasugerowano taki, który nazwano "testem zatrudnienia". W tym artykule napisałem, że aby przejść test "programy muszą być w stanie wykonywać zadania normalnie wykonywane przez ludzi. Postęp w kierunku AI na poziomie ludzkim można by następnie zmierzyć za pomocą ułamka tych zadań, które mogą być dopuszczalnie wykonane przez maszyny". Miano na myśli wszelkiego rodzaju prace, za które ludzie otrzymują wynagrodzenie - od wykwalifikowanej i niewykwalifikowanej siły roboczej po kierownictwo i pracę biurową.Osiągnięcie HLAI oznacza (przynajmniej) umiejętność budowania artefaktów, które mogą robić to, za co teraz płacimy ludziom. Hayes i Ford odrzucają samą ideę HLAI jako celu badań AI. Po pierwsze, wskazują na fakt, że programy AI mogą już przewyższać ludzi w wielu obszarach. Tak więc osiągnięcie HLAI może być pod pewnymi względami zbyt skromnym celem. Ponadto, podobnie jak samoloty latają bez naśladowania ptaków, sztuczna inteligencja nie musi próbować naśladować ludzi. Obserwując, że " nie brakuje ludzi, a my mamy już sprawdzone sposoby zarabiania więcej " wyciągnij wniosek, że "ludzkiego poznania nie brakuje "- co sugeruje, jak sądzę, że nie ma potrzeby automatyzacji pełnego zakresu ludzkich zdolności poznawczych. Tak, mimo że mamy już systemy AI, które potrafią robić pewne rzeczy lepiej niż ludzie. róbcie to, wciąż istnieje wiele, wiele ludzkich umiejętności poznawczych, których jeszcze nie wiemy, jak zautomatyzować. Wierzę, że istnieją dwa powody, dla których badacze AI będą nadal starać się automatyzować te umiejętności. Jeden jest ekonomiczny: perspektywa pewnego dnia w stanie raczej zastosować systemy AI niż droższych ludzi (bez względu na to, ilu ludzi może być) będą mieli silną i nieodpartą chęć budowania artefaktów, które mogą robić to, za co teraz płacimy ludziom. Drugi powód jest naukowy: w swoich próbach zrozumienia, jak działa ludzki mózg, ludzie będą nadal budować modele obliczeniowe wielu jego funkcji. Dlatego myślę, że osiągnięcie jakiejś wersji HLAI pozostanie długoterminowym celem AI. Mimo, że HLAI może być trudny do zdefiniowania, są pieniądze, które przewidują, że osiągniemy coś takiego. W 2002 roku Mitchell Kapor postawił zakład na 20 000 $, że "do 2029 roku żaden komputer {ani "inteligentna maszyna" - nie przejdzie testu Turinga". Kapor jest projektantem Lotus 1-2-3, założycielem Lotus Development Corporation i współzałożycielem Electronic Frontier Foundation.

Jak to uzyskać?

Zakładając, że HLAI pozostaje jednym z celów AI, jak to osiągnąć? Czy opracowane do tej pory narzędzia techniczne można wykorzystać i połączyć we właściwy sposób, aby uzyskać inteligencję na poziomie ludzkim? Czy dalsze badania nad uczeniem maszynowym, sieciami neuronowymi, modelami graficznymi, symulowaną ewolucją, reprezentacją wiedzy, rozumowaniem, wyszukiwaniem heurystycznym, przetwarzaniem języka naturalnego, mechanizmami behawioralnymi i percepcją (szczególnie wzrokiem) nieuchronnie doprowadzą do celu? Czy jest też coś zupełnie innego? John McCarthy wymienia dwa podejścia do osiągnięcia HLAI. Jedną z nich jest próba symulacji działania ludzkiego intelektu, ale, jak napisał: "Zrozumienie ludzkiego mózgu wystarczająco dobrze, aby naśladować jego funkcję ... wymaga teoretycznego i eksperymentalnego sukcesu w psychologii i neurofizjologii". Drugim jest pisanie programów, które naśladują ludzkie inteligentne zachowanie, co w dużej mierze próbowali zrobić badacze AI. McCarthy mówi, że "To nie jest kwestia decydowania między nimi, ponieważ każdy powinien ostatecznie odnieść sukces; to raczej rasa" .Ale czy zawodnicy powinni natychmiast dążyć do celu, czy też realizować go etapami? Myślę, że to drugie. W swoim artykule z 1961 r." Steps Toward Art Sztuczna inteligencja ", Marvin Minsky rzekomo pisał "Jestem przekonany, że nie schemat uczenia się lub rozpoznawania wzorców może mieć bardzo ogólną użyteczność, chyba że istnieją przepisy dotyczące rekurencyjnego lub przynajmniej hierarchicznego wykorzystania poprzednich wyników". Równie dobrze mógł uwzględnić, oprócz uczenia się i rozpoznawania wzorców, inne aspekty inteligencji. Dodał, że nie możemy oczekiwać, że system uczenia się poradzi sobie z bardzo trudnymi problemami bez przygotowania go z odpowiednio stopniowaną sekwencją problemów o rosnącym stopniu trudności. Pierwszym problemem musi być ten, który można rozwiązać w rozsądnym czasie przy użyciu początkowych zasobów. Następny musi być w stanie rozwiązać w rozsądnym czasie przy użyciu racjonalnie prostych i dostępnych kombinacji metod opracowanych w pierwszej kolejności i tak dalej. Jedynymi alternatywami dla tego zastosowania odpowiedniej "sekwencji treningowej" są 1) zaawansowane zasoby, podane początkowo, lub 2) fantastyczne procesy eksploracyjne znalezione być może tylko w historii ewolucji organicznej. Myślę, że Minsky miał dokładnie rację. Próbowaliśmy alternatyw "zaawansowanych zasobów, podanych początkowo" i symulujące "ewolucję organiczną". Podejścia te stworzyły inteligentne narzędzia i inne przydatne programy, ale jeszcze nie HLAI. A co z pracą nad stopniowaną sekwencją problemów narastających trudności? Strategia ta została zasugerowana i zasługuje na poważne rozważenie. W swojej pracy z 1950 r. Alan Turing zasugerował, że "Zamiast próbować stworzyć program do symulacji dorosłego umysłu, dlaczego nie raczej starasz się stworzyć taki, który symuluje dziecko? Gdyby następnie poddano go odpowiedniemu wykształceniu, uzyskalibyśmy mózg dorosłego…" ."Odpowiedni kurs edukacji" odpowiadałby wówczas "stopniowej sekwencji problemów Minsky′ego". Podejście etapowe znajduje również odzwierciedlenie w liście możliwości AI, które Rodney Brooks chciałby, aby zostały wdrożone. Zasugerował, że mogły one stanowić "podstawę do pojawienia się, poprzez proces ewolucyjny, wyższych poziomów inteligencji u ludzi". Oto jego lista:

•  możliwości rozpoznawania obiektów przez 2-letnie dziecko,
•  zdolności językowe 4-letniego dziecka,
•  manualna zręczność 6-letniego dziecka, oraz
•  społeczne zrozumienie 8-letniego dziecka.

Brooks wskazuje, że systemy komputerowe jeszcze ich nie mają możliwości. Uważam, że praca w ich kierunku stanowiłaby ważne i być może konieczne kroki w kierunku HLAI. Dzięki nim AI może wdrożyć strategię Turinga polegającą na edukacji maszyn w taki sam sposób, jak edukujemy ludzi. Ale osiągnięcie tych umiejętności będzie bardzo trudne. Myślę, że Brooks miał na myśli ich osiągnięcie, próbując naśladować ludzkie zachowanie {w tym przypadku zachowanie ludzkich dzieci - drugie z podejść zaproponowanych przez McCarthy'ego. Jeśli chodzi o inne podejście, a mianowicie "zrozumienie ludzkiego mózgu na tyle dobrze, aby naśladować jego funkcję", podjęto także prace nad tym problemem. Kilku informatyków próbuje objaśnić mózg pojęciami znanymi ludziom AI. Wspomniałem już o hierarchicznych modelach kory zaproponowanych przez Mumforda, Hintona, Hawkinsa, Deana i ich różnych kolegów. Modele te, bazując na cechach prymitywnych danych sensorycznych pochodzących z szeregu pikseli, i rosnącym coraz bardziej abstrakcyjnym postrzeganiu, są w stanie nauczyć się klasyfikować obrazy niezależnie od rozmiaru, tłumaczenia, i orientacja. Jednak, o ile mi wiadomo, nie wykonano jeszcze żadnej pracy, aby używać tych modeli dla czegoś więcej niż postrzegania. Czy mogą nauczyć się rozumieć, rozumować, planować i wybierać działania? Patrząc z punktu widzenia mojej "architektury potrójnej wieży", zajęli się problemem, w jaki sposób mózg może wdrożyć wieżę percepcji i modelowania, ale jeszcze nie próbowali nic zrobić z tym działaniem wieża. Czy na przykład jeden z tych modeli korowych może sterować robotem? Dharmendra Modha , menedżer obliczeń kognitywnych w IBM Research Center Almaden w San Jose w Kalifornii, jest jednym z tych, którzy stosują podejście "oddolne". W 2007 r. Zespół Modha przeprowadził historyczny eksperyment, w którym skonstruował komputerową symulację modelu kory szczura w skali kory (z 55 milionami neuronów pobudzających i 448 miliardów synaps z plastycznością zależną od częstotliwości impulsów), która mogłaby funkcjonować w warunkach prawie rzeczywistych - czas przy użyciu superkomputera BlueGene z 32 768 procesorami i 8 TB pamięci głównej. Modha jest głównym badaczem projektu DARPA mającego na celu opracowanie "Systemów neuromorficznej adaptacyjnej elektroniki skalowalnej z tworzywa sztucznego" (SyNAPSE) lub, mówiąc wprost, projektu, którego celem jest zbudowanie maszyny naśladującej działanie około 100 milionów neuronów. To dwukrotnie więcej neuronów w mózgu szczura, ale tylko około 0,25% liczby w ludzkim mózgu. Można mieć nadzieję, że podejścia odgórne i oddolne spotkają się gdzieś pośrodku. Wiele wysiłków laboratoryjnych, o których wspomniałem wcześniej, nazwałbym "przyjaznym dla HLAI"; oznacza to, że prawdopodobnie opracują technologię, która będzie potrzebna w systemach HLAI. Jeden z nich, projekt STAIR, pracuje bezpośrednio nad problemem, który postawiłem w 1996 roku, mianowicie:

… wyprodukować factotum robota i typowe narzędzie do załatwiania spraw w budynku biurowym -budynek biurowy, który nie jest specjalnie wyposażony aby pomieścić roboty… Robot musi być w stanie wykonać (lub nauczyć się wykonywać z instrukcją i szkoleniem (ale bez jawnego programowania komputera) każde zadanie, które człowiek może racjonalnie oczekiwać, że będzie w stanie wykonać, biorąc pod uwagę swój zestaw efektor / czujnik robota.



Druga część wyzwania polega na tym, że robot musi pozostać w pracy i działający przez rok bez odesłania do przeprogramowania.

. . .

Nie sądzę, aby konstruktorzy robota mogli wysłać go do budynku biurowego z pakietem programów, które przewidują wszystkie zadania, które można wykonać. Myślę, że robot będzie musiał być w stanie zaplanować i nauczyć się wykonywać niektóre zadania, których mieszkańcy budynku (którzy wiedzą tylko o jego czujnikach i efektorach) mogliby oczekiwać, że będzie w stanie wykonać, ale których programiści nie przewidzieli . Niezależnie od różnych obaw dotyczących stosowności (a nawet definicji) HL AI jako celu, myślę, że rzeczywiście go osiągniemy. Nie przewiduję kiedy, z wyjątkiem tego, że prawdopodobnie będzie to kiedyś w tym stuleciu. Ale co jeśli zrobimy?

Niektóre możliwe konsekwencje HLAI

Załóżmy, że pewnego dnia nadinteligentne maszyny staną się częścią naszego społeczeństwa, aby pomóc nam, zabawiać nas i wykonywać dla nas większość naszej pracy. Prawdopodobnie przyjmą różne formy - humanoidalne i inne odmiany robotów, "obecność" w sieci WWW, oprogramowanie na komputerach domowych i laptopach oraz ewentualnie specjalne implanty wspomagające nasze funkcjonowanie intelektualne. Czy do tego czasu zbudujemy porządek społeczny, który wykluczy te maszyny walczące z nami? Czy możemy nawet określić, co to znaczy dla nich służyć jedynie społecznie akceptowanym celom? Są to obawy, które zaangażowały zarówno informatyków, jak i humanistów. W 1987 Jack Schwartz napisał, że wielu humanistycznych myślicieli… wyraża amorficzny niepokój znacznie szerszej publiczności. Istnieje obawa, że cała tkanka ludzkiego społeczeństwa, która czasami wydaje się przerażająco delikatna, może zostać rozerwana przez niezwykle szybkie zmiany technologiczne zainicjowane przez badania nad AI, gdy zaczyna ona przynosić swoje główne owoce. Na przykład można sobie wyobrazić, że niedoszli dyktatorzy, małe centralnie rozmieszczone oligarchie lub drapieżne narody mogłyby wykorzystać tę technologię do ustanowienia władzy nad społeczeństwem spoczywającej na armiach robotów i siłach policyjnych niezależnych od szerokiego udziału człowieka i całkowicie obojętny na wszystkie tradycyjne ludzkie i ludzkie względy. Nawet odkładając ten koszmar na bok, można obawiać się szeregu bardziej subtelnych szkodliwych skutków, na przykład szybkiego załamania się społeczeństwa ludzkiego w autodestrukcyjny czysty hedonizm, gdy wszystkie presje, a może nawet powody lub możliwości pracy i dążenia zostaną podważone przez obecność niezaprzeczalnie wszechmocnych mechanizmów. Z pewnością pozostające poczucie własnej wyjątkowości człowieka może zostać jeszcze bardziej osłabione i może wydawać się na własne oczy niewiele więcej niż prymitywnym zwierzęciem, zdolnym jedynie do ulotnych przyjemności. Aby zmierzyć się z tymi obawami, Stephen M. Omohundro badacz sztucznej inteligencji, założył Self-Aware Systems, organizację zajmującą się wprowadzaniem mądrości do powstających technologii. "Uważa, że musimy być bardzo ostrożni" przy opracowywaniu systemów sztucznej inteligencji. To dlatego, że będą mieli z założenia różne cele i kierunki. Wśród nich są cele samodoskonalenia i racjonalności. Będą starali się osiągnąć te cele i cele wyznaczone im przez ludzi w najbardziej efektywny możliwy sposób. Aby być maksymalnie skutecznym, będą mieli dyski, aby się zachować i zdobyć zasoby. Te cechy przypominają HAL 9000, robota na statku kosmicznym w książce i filmie 2001: A Space Odyssey. Omohundro chce się upewnić, że w naszych technologiach wykorzystujemy "mądrość", a nie tylko inteligencję. Rozumie przez to budowanie "wartości ludzkich, takich jak dbanie o prawa człowieka i prawa własności oraz współczucie dla innych podmiotów". Uważa, że "absolutnie krytyczne jest, abyśmy budowali je na początku, w przeciwnym razie otrzymamy systemy, które są bardzo potężne, ale nie wspierają naszych wartości". Myślę, że Omohundro porusza ważne obawy, ale aby umieścić swoją wersję mądrości w systemach AI, musimy najpierw zgodzić się co do tego, co rozumiemy przez "ludzkie wartości". Będzie to trudne, biorąc pod uwagę, że nasze różne opinie na temat wartości często prowadzą do wojen. Po wielu latach pracy nad robotyką mobilną profesor Ronald Arkin z Georgia Institute of Technology poświęcił uwagę etycznym problemom związanym z użyciem robotów wojskowych. Jego książka rządząca śmiercionośnym zachowaniem w robotach autonomicznych bada, jak zaprogramować "sztuczne sumienie" w robotach. Twierdzi, że takie roboty mogą zachowywać się w polu walki bardziej etycznie niż ludzie obecnie. Oczywiście wielu ludzi uważa, że nawet bycie na polu bitwy jest nieetyczne - dla ludzi lub robotów. Możliwość HLAI rodzi wiele innych interesujących pytań. Czy będą miały "prawa"? Czy mogą posiadać własność? Czy mogą być uczestnikami postępowania cywilnego lub karnego? Czy byliby w stanie tworzyć literaturę, muzykę i sztukę? Czy będą mieli emocje lub będą w stanie odczuwać ból lub radość? Czy będą świadomi? Czy ludzie przywiązaliby się emocjonalnie do niektórych ich wersje (i odwrotnie)? To są fascynujące pytania i wiele osób o nich pisało. To, czy społeczeństwo przyznaje prawa do inteligentnych artefaktów i inne uprawnienia prawne, zależy od nas, ludzi. W końcu zdecydowaliśmy, że kilku nieludzi (np. Korporacje) mogą mieć określone prawa i obowiązki, a niektórzy ludzie (np. Dzieci) nie będą mieli pewnych praw. Będziemy musieli podjąć podobne decyzje dotyczące inteligentnych artefaktów. Co z kreatywnością? Oto przykład. Emerytowany profesor David Cope z University of California w Santa Cruz opracował zestaw programów, które nazywa "Eksperymentami w inteligencji muzycznej". Programy te analizują styl kompozytora muzycznego, a następnie wykorzystują specjalne procedury "rekombinacji", aby tworzyć całkowicie nowe kompozycje w tym samym stylu. Cope wykorzystał swoje oprogramowanie do tworzenia utworów w stylu setek kompozytorów. Cope twierdzi, że rekombinacja pojawia się wszędzie jako naturalny proces ewolucyjny i twórczy. "Niektóre jej wersje mogą być podstawą wszelkiej kreatywności, czy to w literaturze, w sztuce, czy w muzyce. Marvin Minsky, czerpiąc z wieloletnich badań w sztucznej inteligencji napisał doskonałą książkę o emocjach i innych zjawiskach mentalnych. We wstępie Minsky twierdzi, że "Każdy z naszych głównych "stanów emocjonalnych" wynikają z włączania niektórych [części mózgu] podczas wyłączania niektórych innych {i w ten sposób zmiany niektórych zachowań naszych mózgów". Książka opisuje, co robią niektóre z tych części mózgu, które nazywa" zasobami ", oraz w jaki sposób nakładające się ich klastry włączają się i wyłączają - skutkując nie tylko różnymi stanami emocjonalnymi, ale także "procesami, które nazywamy myśleniem". Książka Minsky′ego zawiera rozdział o świadomości. Twierdzi, że świadomość jest słowem walizkowym, i każdy z nas ma o wiele więcej rzeczy, niż mogłoby to mieć tylko jedną wspólną przyczynę. "Twierdzeniei, że to jest "świadome" czegoś obejmuje dziesiątki czynności umysłowych; takie zbiory są różne w różnych okolicznościach. Co więcej, neurobiologia nie ma jeszcze właściwego naukowego poglądu na to, jak faktycznie działają wszystkie te mentalne czynności. Minsky zgadza się z filozofem Aaronem Slomanem, który cytuje jako pismo. Cała idea [świadomości] opiera się na fundamentalnym nieporozumieniu, że tylko dlatego, że istnieje rzeczownik "świadomość", istnieje coś takiego jak magnetyzm, elektryczność, presja lub temperatura i że warto poszukać korelatów tej rzeczy. Nie będzie jednej rzeczy do skorelowania, ale bardzo duży zbiór bardzo różnych rzeczy. Wierzę, że kiedyś naukowcy zajmujący się sztuczną inteligencją wspomagani przez neuronaukę (i pomagający jej) będą wiedzieli wystarczająco dużo o tym, jak działają "zasoby" mózgu, że będą w stanie budować artefakty, które w przekonujący sposób dowodzą, że są świadome. Kiedy te dni będą musiały wyrazić zgodę na ich roszczenia, tak jak ja zgadzam się z tobą. Jednak jeszcze tego nie zrobiliśmy, więc argument pozostaje otwarty. Informatyk i profesor Yale David Gelernter argumentuje, że "[…] jest wysoce nieprawdopodobne, choć nie niemożliwe, że świadomy umysł zostanie kiedykolwiek zbudowany z oprogramowania". Niemniej jednak uważa, że "nieświadomą symulowaną inteligencję z pewnością można zbudować z oprogramowania - i może być przydatna". [Może być ?!] "Niestety, sztuczna inteligencja, kognitywistyka i filozofia umysłu nie są w pobliżu, jak je zbudować". Uważa, że AI musi to zrobić przekierowując swoje wysiłki na to, co nazywa - "mechanizmem (lub algorytmem) myśli…". Do tego czasu lamentuje że "AI gubi się w lesie. "Stracił? Nie sądzę. Czy mamy długą drogę? prawdopodobnie? Ale nie będziemy wiedzieć, dopóki się tam nie dostaniemy. A dopóki tego nie zrobimy, usłyszymy różne wezwania do "zmiany ostrości" zarówno z wewnątrz, jak i spoza pola. W każdym razie powinniśmy kontynuować wiele różnych podejść, oparte na naszych najlepszych osądach. To jak heurystyczne poszukiwanie celu, który rozpoznamy, kiedy go osiągniemy. W miarę realizacji tego celu, niektóre konsekwencje HLAI będą pojawiać się stopniowo. Po pierwsze, będziemy coraz bardziej uzależniamy się od inteligentnych maszyn. Tak jak uzależniliśmy się od samochodów i innych wynalazków minionego półtora wieku, już teraz społeczeństwo zależy na wiele sposobów od Internetu, wyrafinowanych programów handlowych i aukcyjnych, programów arkuszy kalkulacyjnych, modeli prognozowania pogody i wielu innych technologii związanych z komputerem. Co więcej, inaczej niż w przypadku samochodu i radia, coraz mniej osób rozumie te nowe technologie, co stawia nas już w niepewnej sytuacji, gdy musimy im zaufać. Ponieważ coraz więcej "zadań" wykonuje się za pomocą niedrogich kombinacji sprzętowo-programowych, ludzie, którzy zarabiali na tych pracach, będą musieli znaleźć innych lub ryzykować brakiem pracy. Nie oznacza to, że całkowity produkt krajowy brutto zmniejszy się; w rzeczywistości prawdopodobnie wzrośnie. Społeczeństwo będzie musiało znaleźć sposoby, aby pozwolić swoim członkom cieszyć się po prostu częścią bogactwa, które tworzą maszyny. W rozważanym artykule na ten temat ekonomista Robin Hanson porównuje skutki zastąpienia ludzi przez maszyny maszynami do nieuchronnie podnoszącego się poziomu morza…

z zadaniami, które są najbardziej ludzkie [te, w których ludzie mają przewagę ekonomiczną nad maszynami] na wyższym poziomie. Tutaj znajdziesz obowiązki najlepiej wykonywane przez ludzi, takie jak gotowanie dla smakoszy lub elitarne fryzjerstwo. Następnie istnieje "brzeg", na który składają się zadania, które ludzie i maszyny są w stanie wykonać w równym stopniu, a nawet dalej jest to "ocean" zadań najlepiej wykonywanych przez maszyny. Kiedy maszyny stają się tańsze lub mądrzejsze, lub jedno i drugie, poziom wody podnosi się niejako, a brzeg porusza się w głąb lądu. Ta zmiana morza ma dwa skutki. Po pierwsze, maszyny zastąpią ludzi przejmując nowo zalane zadania. Po drugie, wykonywanie zadań maszynowych lepiej uzupełnia ludzkie czynności, podnosząc wartość ich dobrego wykonywania.

Hanson uważa, że możliwe jest, że "ocean maszynowy" ostatecznie zalałby całą "Ziemię Zadań" i że w konsekwencji "płace spadłyby tak daleko, że większość ludzi nie byłaby w stanie żyć na nich sama mogą działać z innych powodów ". (Oczywiście automatyzacja może tworzyć nowe i wyższe szczyty w Krainie Zadań, spowalniając skutki wschodzącego oceanu.) Niemniej jednak wyobraża sobie, że każda niewielka część znacznie rozszerzonego bogactwa stworzone przez maszyny powinno "pozwolić ludziom żyć wygodnie …."

Podsumowanie

Z tą optymistyczną nutą dochodzę do końca mojej opowieści o poszukiwaniu sztucznej inteligencji - misji, która nie jest jeszcze ukończona. Sztuczna inteligencja badała różne ścieżki, dzięki czemu osiągnęła kilka sukcesów i zgromadziła wiele potężnych narzędzi obliczeniowych. Jednym ze sposobów podsumowania pomysłów i osiągnięć, o których mówiłem, jest podzielenie ich na cztery główne kategorie, a mianowicie: kompletne systemy sztucznej inteligencji (takie, które robią rzeczy), architektury (zasady organizacyjne dla systemów sztucznej inteligencji), procesy (procedury, które faktycznie wykonują pracę ) i reprezentacje (struktury tworzone, modyfikowane i dostępne przez procesy). Nie próbując być kompletnym, wspomnę o niektórych z moich najważniejszych osiągnięć AI w każdej z tych kategorii.

•  Kompletne systemy AI: LT, Heuristic DENDRAL, Shakey, systemy eksperckie (takie jak MYCIN i PROSPECTOR), MSYS, systemy rozpoznawania mowy (takie jak HARPY, DRAGON i HEARSAY II), Czyngis, samochody bez kierowcy (cała ich klasa) , Deep Blue i inne automaty do gier, RAX i CALO.
•  Architektury: Pandemonium, systemy produkcyjne, architektury trzypoziomowe, architektury tablicy, architektury BDI (takie jak PRS), architektury oparte na zachowaniu, SOAR, ACT-R i modele korowe.
•  Procesy: filtry krawędzi i regionowania (w tym Laplaciana Gaussa), aktywacja rozprzestrzeniania, parsowanie, rozdzielczość, A* i jego potomstwo, wyszukiwanie wiązki, algorytm Rete, STRIPS i inne systemy planowania oparte na analizie przypadków, grupowanie (takie jak jako k-średnich i AutoClass), propagacja ograniczeń, reguła Bayesa, algorytmy genetyczne i programowanie genetyczne, metody oparte na GSAT i DPLL, źródła wiedzy (takie jak te stosowane w tablicach i do obliczania obrazów wewnętrznych), backprop, opis, ukryta analiza semantyczna , Q-learning i priorytetowe zamiatanie, filtrowanie cząstek, obliczenia jądra (dla maszyn wektorów nośnych) i maksymalizacja oczekiwań (EM).
•  Reprezentacje: przestrzenie stanów (problemów), wektory, wyrażenia logiczne (w tym reguły IF-THEN), sieci semantyczne, programy (jako struktury danych), tablice, modele graficzne (w tym sieci bayesowskie i HMM), gramatyki, sieci neuronowe, drzewa decyzyjne , skrypty, ramki i rozszerzone sieci przejściowe.

Procesy i reprezentacje, nad którymi pracują, są zwykle ściśle ze sobą powiązane. Na przykład GSAT działa na zestawach zdań (w formie klauzul), źródła wiedzy Blackboard odpowiadają i modyfikują elementy tablicy, a programowanie genetyczne działa na reprezentacjach programu LISP. Kilka dyscyplin przyczyniło się do sukcesów AI. Pierwsi pionierzy sztucznej inteligencji wykorzystali wiele wskazówek, jak postępować - wskazówki z matematyki i logiki, z neuronauki, z językoznawstwa, ze statystyki i teorii prawdopodobieństwa, z inżynierii sterowania, z psychologii i z informatyki. Rzeczywiście, znaczny postęp w dotychczasowych poszukiwaniach sztucznej inteligencji wynika z wykorzystania pomysłów ze wszystkich tych dyscyplin. Nie pojawiła się jeszcze żadna nadrzędna teoria sztucznej inteligencji, i moim zdaniem taka jest mało prawdopodobna. Zadanie będzie kontynuowane. Jakie kombinacje metod AI, wsparte dyscyplinami wspierającymi AI, zostaną zastosowane w inteligentnych systemach przyszłości? Nikt tak naprawdę nie wie, więc będziemy musieli utrzymać je wszystkie na "granica wyszukiwania" AI. . Niektóre z tych opracowanych na początku poszukiwaniu (a teraz być może zapomniane) mogą przydać się w lepszej technologii. Badacze, którzy chcą kontynuować misję, powinni zapoznać się z pełną różnorodnością metod sztucznej inteligencji, jej dyscyplin i (tak) jej historii. Przyszli pisarze bez wątpienia będą kontynuować opowiadanie o misji. Jeden z nich pewnego dnia będzie w stanie poinformować, że jakieś dwa i pół tysiąclecia po zadumach Arystotelesa, teraz mamy narzędzia, które wykonują nasze zadania, "albo na nasze polecenie, albo [sami] dostrzegając potrzebę…"