Postawy filozoficzneArtificial Intelligence Experts

XV.Etyka A.I.

Możliwość tworzenia maszyn myślących rodzi wiele problemów etycznych, związanych zarówno z zapewnieniem, że takie maszyny nie zaszkodzą ludziom i innym istotom moralnym, jak i ze statusem moralnym samych maszyn. W tym rozdziale omówiono niektóre etyczne wyzwania, które mogą się pojawić, gdy tworzymy sztuczną inteligencję różnego rodzaju i stopni.

Etyka w uczeniu maszynowym i inne specyficzne dla domeny algorytmy AI

Wyobraź sobie, że w niedalekiej przyszłości bank używa algorytmu uczenia maszynowego do rekomendowania wniosków hipotecznych do zatwierdzenia. Odrzucony wnioskodawca wnosi pozew przeciwko bankowi, twierdząc, że algorytm dyskryminuje rasowo wnioskodawców hipotecznych. Bank odpowiada, że jest to niemożliwe, ponieważ algorytm jest celowo ślepy na rasę wnioskodawców. Rzeczywiście było to częścią uzasadnienia banku dotyczącego wdrożenia systemu. Mimo to statystyki pokazują, że wskaźnik akceptacji banku dla czarnych wnioskodawców stale spada. Przesłanie dziesięciu najwyraźniej jednakowo wykwalifikowanych kandydatów (określonych przez oddzielny panel sędziów ludzkich) pokazuje, że algorytm przyjmuje białych wnioskodawców i odrzuca czarnych. Co może się dziać? Znalezienie odpowiedzi może nie być łatwe. Jeśli algorytm uczenia maszynowego oparty jest na skomplikowanej sieci neuronowej lub algorytmie genetycznym wytworzonym przez ukierunkowaną ewolucję, może okazać się prawie niemożliwe zrozumienie, dlaczego, a nawet jak, algorytm ocenia kandydatów na podstawie ich rasy. Z drugiej strony, uczący się maszyny oparty na drzewach decyzyjnych lub sieciach bayesowskich jest znacznie bardziej przejrzysty dla inspekcji programisty, co może umożliwić audytorowi odkrycie, że algorytm AI wykorzystuje informacje adresowe wnioskodawców, którzy urodziły się lub wcześniej mieszkały na obszarach dotkniętych głównie ubóstwem. Algorytmy AI odgrywają coraz większą rolę we współczesnym społeczeństwie, choć zwykle nie są oznaczone jako "AI". Scenariusz opisany powyżej może się wydarzyć nawet podczas pisania. Coraz ważniejsze stanie się opracowywanie algorytmów AI, które są nie tylko wydajne i skalowalne, ale także przejrzyste dla kontroli - aby wymienić jedną z wielu ważnych społecznie właściwości. Niektóre wyzwania etyki maszyn są podobne do wielu innych wyzwań związanych z projektowaniem maszyn. Zaprojektowanie ramienia robota w celu uniknięcia zmiażdżenia zbłąkanych ludzi nie jest bardziej moralnie obarczone niż zaprojektowanie trudnopalnej sofy. Obejmuje nowe wyzwania programistyczne, ale nie ma nowych wyzwań etycznych. Ale kiedy algorytmy AI podejmują pracę poznawczą o wymiarach społecznych - zadania poznawcze wcześniej wykonywane przez ludzi - algorytm AI dziedziczy wymagania społeczne. Z pewnością frustrujące byłoby stwierdzenie, że żaden bank na świecie nie zatwierdzi twojego pozornie doskonałego wniosku o pożyczkę i nikt nie wie, dlaczego, i nikt nie może się dowiedzieć w zasadzie. (Może masz imię silnie związane z martwymi uderzeniami? Kto wie?) Przejrzystość nie jest jedyną pożądaną cechą sztucznej inteligencji. Ważne jest również, aby algorytmy AI przejmujące funkcje społeczne były przewidywalne dla tych, którymi rządzą. Aby zrozumieć znaczenie takiej przewidywalności, rozważ analogię. Prawna zasada gap decisis zobowiązuje sędziów do podążania za precedensem z przeszłości, gdy tylko jest to możliwe. Dla inżyniera ta preferencja precedensu może wydawać się niezrozumiała - po co wiązać przyszłość z przeszłością, skoro technologia ciągle się rozwija? Ale jedną z najważniejszych funkcji systemu prawnego jest przewidywalność, aby na przykład można było napisać umowy, wiedząc, jak zostaną one wykonane. Zadaniem systemu prawnego niekoniecznie jest optymalizacja społeczeństwa, ale zapewnienie przewidywalnego środowiska, w którym obywatele mogą zoptymalizować swoje życie. Stanie się również coraz ważniejsze, aby algorytmy AI były odporne na manipulacje. System wizyjny do skanowania bagażu linii lotniczych pod kątem bomb musi być odporny na ataki ludzi celowo szukających luk w algorytmie - na przykład kształtu, który umieszczony obok pistoletu w bagażu, zneutralizuje jego rozpoznanie. Odporność na manipulacje jest zwykłym kryterium bezpieczeństwa informacji - prawie kryterium. Nie jest to jednak kryterium, które często pojawia się w czasopismach z uczeniem maszynowym, które są obecnie bardziej zainteresowane, na przykład, sposobem skalowania algorytmu w większych systemach równoległych. Kolejnym ważnym kryterium społecznym w kontaktach z organizacjami jest możliwość znalezienia osoby odpowiedzialnej za wykonanie zadania. Kto ponosi winę, gdy system AI zawodzi w przydzielonym zadaniu? Programiści? Użytkownicy końcowi? Współcześni biurokraci często szukają schronienia w ustalonych procedurach, które dzielą odpowiedzialność na tak dużą skalę, że nie można zidentyfikować żadnej osoby odpowiedzialnej za katastrofy, które się następują. Okazjonalnie bezinteresowna ocena systemu eksperckiego może okazać się jeszcze lepszym schronieniem. Nawet jeśli system sztucznej inteligencji został zaprojektowany z pominięciem użytkownika, należy wziąć pod uwagę motywację zawodową biurokraty, który zostanie osobiście obwiniony, jeśli zastąpienie nie powiedzie się, i który wolałby obwiniać AI za każdą trudną decyzję z negatywnym skutkiem. Odpowiedzialność, przejrzystość, audytowalność, nieprzekupność, przewidywalność i tendencja do tego, by niewinne ofiary nie krzyczały z bezradnej frustracji: wszystkie kryteria, które dotyczą ludzi pełniących funkcje społeczne; wszystkie kryteria, które należy uwzględnić w algorytmie mającym zastąpić ludzką ocenę funkcji społecznych; wszystkie kryteria, które mogą nie pojawiać się w dzienniku uczenia maszynowego, biorąc pod uwagę, jak algorytm skaluje się do większej liczby komputerów. Ta lista kryteriów nie jest bynajmniej wyczerpująca, ale służy jako mała próbka tego, o czym coraz bardziej skomputeryzowane społeczeństwo powinno myśleć

Sztuczna inteligencja ogólna

Istnieje prawie powszechna zgoda wśród współczesnych specjalistów AI, że sztuczna inteligencja nie spełnia ludzkich zdolności w pewnym krytycznym znaczeniu, mimo że algorytmy AI pokonały ludzi w wielu konkretnych dziedzinach, takich jak szachy. Niektórzy sugerują, że gdy tylko badacze AI dowiedzą się, jak coś zrobić, ta zdolność przestaje być uważana za inteligentną - szachy były uważane za uosobienie inteligencji, dopóki Deep Blue nie pokonał mistrza świata , Kasparowa - ale nawet ci badacze się zgadzają tego, czego brakuje współczesnym SI . Podczas gdy to pole sztucznej inteligencji jest tylko łączeniem, "Sztuczna inteligencja ogólna" (dalej AGI) to nowe określenie sztuki używane do oznaczania "prawdziwej" sztucznej inteligencji. Jak sama nazwa wskazuje, powstaje konsensus, że brakującą cechą jest ogólność. Obecne algorytmy AI o wydajności równoważnej lub wyższej od człowieka charakteryzują się celowo zaprogramowanymi kompetencjami tylko w jednej, ograniczonej dziedzinie. Deep Blue został mistrzem świata w szachach, ale nie może nawet grać w warcaby, nie mówiąc już o prowadzeniu samochodu lub dokonaniu naukowego odkrycia. Takie nowoczesne algorytmy AI przypominają całe życie biologiczne, z wyjątkiem Homo sapiens. Pszczoła wykazuje się umiejętnością budowania uli; bóbr wykazuje kompetencje w budowaniu tam; ale pszczoła nie buduje tam, a bóbr nie może nauczyć się budować ula. Obserwujący człowiek może nauczyć się robić jedno i drugie; ale jest to wyjątkowa zdolność wśród biologicznych form życia. Można dyskutować, czy ludzka inteligencja jest naprawdę ogólna - z pewnością jesteśmy lepsi w niektórych zadaniach poznawczych niż inne - ale inteligencja ludzka jest z pewnością znacznie bardziej ogólnie stosowana niż inteligencja niehomidalna. Stosunkowo łatwo jest przewidzieć rodzaj problemów związanych z bezpieczeństwem, które mogą wynikać z działania sztucznej inteligencji tylko w określonej dziedzinie. Jest to jakościowo inna klasa problemu do obsługi AGI działającego w wielu nowych kontekstach, których nie można przewidzieć z góry. Kiedy ludzcy inżynierowie budują reaktor jądrowy, wyobrażają sobie konkretne zdarzenia, które mogą się w nim wydarzyć - awarie zaworów, awarie komputerów, wzrost temperatury rdzeni - i inżynierii reaktora, aby te zdarzenia nie były katastroficzne. Lub, na bardziej przyziemnym poziomie, budowanie tostera obejmuje wyobrażenie sobie chleba i wyobrażenie reakcji chleba na element grzejny tostera. Sam toster nie wie, że jego celem jest robienie tostów - cel tostera jest reprezentowany w umyśle projektanta, ale nie jest jawnie reprezentowany w obliczeniach wewnątrz tostera - a więc jeśli umieścisz materiał w tosterze, może się złapać ogień, ponieważ projekt wykonuje się w nieoczekiwanym kontekście z nieoczekiwanym efektem ubocznym. Nawet specyficzne dla zadania algorytmy AI wyrzucają nas poza paradygmat tostera, domeny wstępnie zaprogramowanych, specjalnie przewidywanych zachowań. Rozważmy Deep Blue, algorytm szachowy, który pokonał Garry′ego Kasparowa w mistrzostwach świata w szachach. Gdyby tak było, gdyby maszyny mogły wykonać dokładnie to, co im powiedziano, programiści musieliby ręcznie wstępnie zaprogramować bazę danych zawierającą ruchy dla każdej możliwej pozycji szachowej, jaką może napotkać Deep Blue. Ale nie była to opcja dla programistów Deep Blue. Po pierwsze, przestrzeń możliwych pozycji szachowych jest niepoprawnie duża. Po drugie, gdyby programiści ręcznie wprowadzili to, co uważali za dobry ruch w każdej możliwej sytuacji, powstały system nie byłby w stanie wykonać silniejszych ruchów szachowych niż jego twórcy. Ponieważ sami programiści nie byli mistrzami świata, taki system nie byłby w stanie pokonać Garry′ego Kasparowa. Tworząc nadludzkiego szachistę, programiści ludzcy koniecznie poświęcili swoją zdolność przewidywania lokalnego, specyficznego zachowania Deep Blue. Zamiast tego programiści Deep Blue mieli (uzasadnione) przekonanie, że ruchy szachowe Deep Blue spełniłyby nielokalne kryterium optymalności: mianowicie, że ruchy te miałyby tendencję do kierowania przyszłością planszy do wyników w "zwycięskim" regionie, zgodnie z definicją według zasad szachowych. Ta prognoza dotycząca odległych konsekwencji, chociaż okazała się trafna, nie pozwoliła programistom wyobrazić sobie lokalnego zachowania Deep Blue - jego reakcji na konkretny atak na jego króla - ponieważ Deep Blue obliczyło nielokalną mapę gry, połączenie między ruchem i jego możliwe przyszłe konsekwencje, dokładniej niż programiści mogliby to zrobić. Współcześni ludzie robią dosłownie miliony rzeczy, aby się wyżywić - aby służyć końcowej konsekwencji karmienia. Niewiele z tych działań zostało "wyobrażonych przez Naturę" w sensie bycia wyzwaniami rodowymi, do których jesteśmy bezpośrednio przystosowani. Ale nasz dostosowany mózg stał się na tyle silny, że można go znacznie bardziej ogólnie zastosować; abyśmy mogli przewidzieć konsekwencje milionów różnych działań w różnych domenach i wywrzeć nasze preferencje na ostateczne wyniki. Ludzie przemierzyli przestrzeń i położyli ślady stóp na Księżycu, chociaż żaden z naszych przodków nie spotkał się z wyzwaniem analogicznym do próżni. W porównaniu do sztucznej inteligencji specyficznej dla domeny, jakościowo innym problemem jest zaprojektowanie systemu, który będzie działał bezpiecznie w tysiącach kontekstów; w tym konteksty, które nie zostały specjalnie przewidziane przez projektantów lub użytkowników; w tym konteksty, których jeszcze nie spotkał żaden człowiek. Tutaj może nie istnieć lokalna specyfikacja dobrego zachowania - żadna prosta specyfikacja samych zachowań, podobnie jak istnieje zwarty lokalny opis wszystkich sposobów, w jakie ludzie uzyskują swój chleb powszedni. Aby zbudować sztuczną inteligencję, która działa bezpiecznie, działając w wielu domenach, z wieloma konsekwencjami, w tym problemami, których inżynierowie nigdy wyraźnie nie przewidzieli, należy określić dobre zachowanie w kategoriach "X tak, że konsekwencja X nie jest szkodliwa dla ludzi. " To jest nielokalne; obejmuje ekstrapolację odległych konsekwencji działań. Jest to więc tylko skuteczna specyfikacja - taka, którą można zrealizować jako właściwość projektową - jeśli system wyraźnie ekstrapoluje konsekwencje swojego zachowania. Toster nie może mieć tej właściwości projektowej, ponieważ toster nie może przewidzieć konsekwencji opiekania chleba. Wyobraź sobie inżyniera, który powiedziałby: "Cóż, nie mam pojęcia, jak ten samolot, który zbudowałem, będzie latał bezpiecznie - w rzeczywistości nie mam pojęcia, jak będzie latał, czy będzie trzepotał skrzydłami, czy napełni się helem, czy czymś innym. Nawet nie wyobrażałem sobie - ale zapewniam cię, że projekt jest bardzo, bardzo bezpieczny. " Z perspektywy public relations może to wydawać się niemożliwe do pozazdroszczenia, ale trudno jest zrozumieć, jaka inna gwarancja etycznego zachowania byłaby możliwa dla ogólnego wywiadu działającego na nieprzewidziane problemy, w różnych domenach, z preferencjami wobec odległych konsekwencji. Sprawdzanie projektu poznawczego może zweryfikować, że umysł rzeczywiście szukał rozwiązań, które określilibyśmy jako etyczne; ale nie mogliśmy przewidzieć, jakie konkretne rozwiązanie odkryje umysł. Przestrzeganie takiej weryfikacji wymaga pewnego sposobu na odróżnienie wiarygodnych gwarancji (procedura, która nie powie, że AI jest bezpieczna, chyba że AI jest naprawdę bezpieczna) od czystej nadziei i magicznego myślenia ("Nie mam pojęcia, jak Kamień Filozoficzny przekształci ołów w złoto" , ale zapewniam cię, że tak będzie! "). Należy pamiętać, że czysto pełne nadziei oczekiwania były wcześniej problemem w badaniach nad AI (McDermott 1976). Weryfikowalne zbudowanie wiarygodnego AGI będzie wymagało różnych metod i innego sposobu myślenia, od sprawdzania oprogramowania elektrowni pod kątem błędów - będzie wymagało AGI, który myśli jak inżynier z troską o etykę, a nie tylko zwykły produkt inżynierii etycznej. Zatem dyscyplina etyki sztucznej inteligencji, szczególnie stosowana w AGI, prawdopodobnie będzie zasadniczo różnić się od dyscypliny etycznej technologii nierozpoznawalnych tym, że:

•  Lokalne, specyficzne zachowanie AI może nie być przewidywalne poza jego bezpieczeństwem, nawet jeśli programiści robią wszystko dobrze.
•  Weryfikacja bezpieczeństwa systemu staje się większym wyzwaniem, ponieważ musimy zweryfikować, co system próbuje zrobić, zamiast być w stanie zweryfikować bezpieczne zachowanie systemu we wszystkich kontekstach operacyjnych.
•  Samo poznanie etyczne należy traktować jako przedmiot inżynierii

Maszyny o statusie moralnym

Inny zestaw problemów etycznych powstaje, gdy rozważamy możliwość, że niektóre przyszłe systemy AI mogą być kandydatami do posiadania statusu moralnego. Nasze postępowanie z istotami posiadającymi status moralny nie jest wyłącznie kwestią instrumentalnej racjonalności. Mamy także moralne powody, aby traktować je w określony sposób i powstrzymywać się od traktowania ich w określony sposób. Francis Kamm zaproponował następującą definicję statusu moralnego, która posłuży naszym celom:

X ma status moralny = ponieważ X sam w sobie liczy się moralnie

dopuszczalne / niedopuszczalne jest robienie z tego wszystkiego dla samego siebie. Skała nie ma statusu moralnego. Możemy ją zmiażdżyć, sproszkować lub poddać dowolnemu zabiegowi, który lubimy, bez względu na samą skałę. Natomiast osobę ludzką należy traktować nie tylko jako środek, ale także jako cel. Dokładnie to, co oznacza traktowanie osoby jako celu, jest czymś, co nie zgadza się z różnymi teoriami etycznymi; ale z pewnością wiąże się to z uwzględnianiem jej uzasadnionych interesów - nadawaniem wagi jej dobrostanowi - i może również wiązać się z akceptacją ścisłych moralnych ograniczeń bocznych w naszych kontaktach z nią, takich jak zakaz zabijania jej, kradzieży lub robienia różnych rzeczy na jej rzecz bez jej zgody. Co więcej, ponieważ osoba ludzka liczy się sama z siebie i ze względu na nią, niedopuszczalne jest robienie jej takich rzeczy. Można to wyrazić bardziej zwięźle, mówiąc, że człowiek ma status moralny. Pytania dotyczące statusu moralnego są ważne w niektórych obszarach etyki praktycznej. Na przykład spory dotyczące moralnej dopuszczalności aborcji często zależą od sporów dotyczących statusu moralnego zarodka. Kontrowersje dotyczące eksperymentów na zwierzętach i traktowania zwierząt w przemyśle spożywczym dotyczą pytań o status moralny różnych gatunków zwierząt. A nasze obowiązki wobec ludzi z ciężką demencją, takich jak pacjenci w późnym stadium choroby Alzheimera, mogą również zależeć od kwestii statusu moralnego. Powszechnie uznaje się, że obecne systemy AI nie mają statusu moralnego. Możemy zmieniać, kopiować, rozwiązywać, usuwać lub używać programów komputerowych według własnego uznania; przynajmniej jeśli chodzi o same programy. Moralne ograniczenia, którym podlegamy w naszych kontaktach ze współczesnymi systemami sztucznej inteligencji, są oparte na naszej odpowiedzialności wobec innych istot, takich jak nasi ludzie, a nie na obowiązkach wobec samych systemów. Chociaż ogólnie uważa się, że obecne systemy AI nie mają statusu moralnego, nie jest jasne, jakie dokładnie cechy przypisują podstawowy status moralny. Powszechnie proponuje się dwa kryteria, które są istotnie powiązane ze statusem moralnym, osobno lub łącznie: wrażliwość i rozum (lub osobowość). Można je scharakteryzować z grubsza w następujący sposób:

Sentience: zdolność do fenomenalnego doświadczenia lub jakości, na przykład zdolność odczuwania bólu i cierpienia.
Sapience: zestaw zdolności związanych z wyższą inteligencją, takich jak samoświadomość i bycie agentem reagującym na rozum.

Jednym z powszechnych poglądów jest to, że wiele zwierząt ma qualii, a zatem ma pewien status moralny, ale tylko ludzie mają mądrość, co daje im wyższy status moralny niż zwierzęta inne niż ludzie. Pogląd ten musi oczywiście dotyczyć istnienia granicy przypadki, takie jak z jednej strony ludzkie niemowlęta lub istoty ludzkie z ciężkim upośledzeniem umysłowym - czasami niestety określane jako "ludzie marginalni" - które nie spełniają kryteriów rozsądku; z drugiej strony niektóre zwierzęta inne niż ludzie, takie jak wielkie małpy, które mogą posiadać przynajmniej niektóre elementy rozumu. Niektórzy zaprzeczają, że tak zwani "ludzie marginalni" mają pełny status moralny. Inni proponują dodatkowe sposoby, w jakie przedmiot może zostać uznany za posiadacza statusu moralnego, na przykład poprzez bycie członkiem rodzaju, który normalnie ma wrażliwość lub rozum, lub przez utrzymywanie odpowiedniego stosunku do istoty, która niezależnie ma status moralny. W obecnych celach skupimy się jednak na kryteriach wrażliwości i mądrości. Ten obraz statusu moralnego sugeruje, że system sztucznej inteligencji będzie miał pewien status moralny, jeśli będzie zdolny do jakości, na przykład do odczuwania bólu. Czuły system AI, nawet jeśli brakuje mu języka i innych wyższych zdolności poznawczych, nie jest jak wypchane zwierzę zabawkowe lub nakręcana lalka; jest bardziej jak żywe zwierzę. Zadawanie bólu myszy jest niewłaściwe, chyba że istnieją wystarczające mocne moralnie nadrzędne powody, aby to zrobić. To samo dotyczy każdego świadomego systemu AI. Jeśli oprócz wrażliwości, system AI ma również inteligencję podobną do normalnej ludzkiej osoby dorosłej, wówczas miałby pełny status moralny, równoważny z istotą ludzką. Jeden z pomysłów leżących u podstaw tej oceny moralnej można wyrazić w silniejszej formie jako zasada niedyskryminacji:

Zasada niedyskryminacji podłoża: jeśli dwie istoty mają tę samą funkcjonalność i to samo świadome doświadczenie i różnią się jedynie podłożem ich realizacji, wówczas mają ten sam status moralny.

Można argumentować za tą zasadą na tej podstawie, że odrzucenie jej oznaczałoby przyjęcie pozycji podobnej do rasizmu. Podłoże nie ma fundamentalnego znaczenia moralnego w ten sam sposób iz tego samego powodu, co kolor skóry. Zasada niedyskryminacji podłoża nie oznacza, że komputer cyfrowy może być świadomy lub że może mieć taką samą funkcjonalność jak człowiek. Podłoże może oczywiście mieć znaczenie moralne, o ile wpływa na wrażliwość lub funkcjonalność. Ale utrzymywanie tych rzeczy na stałym poziomie, nie ma moralnej różnicy, czy istota jest zbudowana z krzemu czy węgla, czy też jej mózg używa półprzewodników lub neuroprzekaźników. Można również zaproponować, że fakt, że systemy sztucznej inteligencji są sztuczne - tj. Produkt zamierzonego projektu - nie ma fundamentalnego znaczenia dla ich statusu moralnego. Możemy sformułować tę zasadę w następujący sposób:

Zasada ontogenezy Brak dyskryminacji: Jeśli dwie istoty mają tę samą funkcjonalność i to samo doświadczenie świadomości i różnią się jedynie sposobem, w jaki powstały, mają taki sam status moralny.

Dziś idea ta jest powszechnie akceptowana w przypadku ludzi - choć w niektórych kręgach, szczególnie w przeszłości, wpływ, że status moralny zależy od linii krwi lub kasty, był wpływowy. Nie wierzymy, że czynniki przyczynowe, takie jak planowanie rodziny, poród wspomagany, zapłodnienie in vitro, wybór gamet, celowe usprawnienie żywienia matki i tak dalej - które wprowadzają element świadomego wyboru i projektu w tworzeniu ludzi - wszelkie niezbędne implikacje dla statusu moralnego potomstwa. Nawet ci, którzy są przeciwni klonowaniu reprodukcyjnemu człowieka z przyczyn moralnych lub religijnych, ogólnie uznają, że gdyby ludzki klon został zabity, miałby taki sam status moralny jak każde inne ludzkie niemowlę. Zasada Ontogeny Niedyskryminacja rozszerza to rozumowanie na przypadek dotyczący całkowicie sztucznych systemów poznawczych. Jest oczywiście możliwe, że okoliczności stworzenia wpłyną na powstałe potomstwo w taki sposób, że zmieni jego status moralny. Na przykład, jeśli podczas poczęcia lub ciąży wykonano by jakąś procedurę, która spowodowała rozwój płodu ludzkiego bez mózgu, to fakt dotyczący ontogenezy byłby istotny dla naszej oceny statusu moralnego potomstwa. Dziecko anencefaliczne miałoby jednak taki sam status moralny, jak każde inne podobne dziecko anencefaliczne, w tym dziecko, które powstało w wyniku całkowicie naturalnego procesu. Różnica w statusie moralnym między anencefalicznym dzieckiem a normalnym dzieckiem wynika z jakościowej różnicy między nimi - faktem, że jedno ma umysł, a drugie nie. Ponieważ dwoje dzieci nie ma tej samej funkcjonalności i tego samego świadomego doświadczenia, zasada niedyskryminacji Ontogeny nie ma zastosowania. Chociaż zasada niedyskryminacji ontogenetycznej stwierdza, że ontogeneza bytu nie ma istotnego wpływu na jego status moralny, nie zaprzecza, że fakty o ontogenezie mogą wpływać na obowiązki poszczególnych agentów moralnych wobec danej istoty. Rodzice mają wobec swoich dzieci szczególne obowiązki, których nie mają wobec innych dzieci, a których nie mieliby nawet, gdyby istniało inne dziecko jakościowo identyczne z ich własnym. Podobnie zasada niedyskryminacji Ontogeny jest zgodna z twierdzeniem, że twórcy lub właściciele systemu sztucznej inteligencji o statusie moralnym mogą mieć szczególne obowiązki wobec swojego sztucznego umysłu, których nie mają wobec innego sztucznego umysłu, nawet jeśli dana osoba są jakościowo podobne i mają ten sam status moralny. Jeśli przyjęte zostaną zasady niedyskryminacji w odniesieniu do podłoża i ontogenezy, wówczas na wiele pytań dotyczących tego, jak powinniśmy traktować sztuczne umysły, można odpowiedzieć, stosując te same zasady moralne, których używamy do określania naszych obowiązków w bardziej znanych kontekstach. O ile obowiązki moralne wynikają z rozważań o statusie moralnym, powinniśmy traktować sztuczny umysł w taki sam sposób, jak powinniśmy traktować jakościowo identyczny naturalny ludzki umysł w podobnej sytuacji. Upraszcza to problem wypracowania etyki leczenia sztucznych umysłów. Jednak nawet jeśli zaakceptujemy to stanowisko, musimy stawić czoła wielu nowatorskim pytaniom etycznym, na które wyżej wymienione zasady pozostawiają bez odpowiedzi. Pojawiają się nowe pytania etyczne, ponieważ sztuczne umysły mogą mieć bardzo różne właściwości od zwykłych ludzkich lub zwierzęcych umysłów. Musimy rozważyć, w jaki sposób te nowe właściwości wpłynęłyby na status moralny sztucznych umysłów i co oznaczałoby poszanowanie statusu moralnego takich egzotycznych umysłów.

Umysły o egzotycznych właściwościach

W przypadku ludzi normalnie nie wahamy się przypisywać wrażliwości i świadomego doświadczenia każdemu, kto przejawia normalne ludzkie zachowanie. Niewielu uważa, że są inni ludzie, którzy zachowują się doskonale normalnie, ale nie mają świadomości. Jednak inni ludzie zachowują się nie tylko w sposób podobny do nas samych; mają także mózgi i architektury poznawcze, które są podobne do naszych. W przeciwieństwie do tego sztuczny intelekt może być zbudowany zupełnie inaczej niż ludzki intelekt, a mimo to nadal zachowywać się jak człowiek lub mieć usposobienie behawioralne normalnie wskazujące na osobowość. Może być zatem możliwe wyobrażenie sobie sztucznego intelektu, który byłby mądry, a być może byłby osobą, ale nie byłby czujący ani nie miałby żadnych świadomych doświadczeń. (To, czy jest to naprawdę możliwe, zależy od odpowiedzi na niektóre nietrywialne pytania metafizyczne). Gdyby taki system byłby możliwy, rodziłoby się pytanie, czy osoba nieświadoma miałaby jakikolwiek status moralny; a jeśli tak, to czy miałby taki sam status moralny jak osoba czująca. Ponieważ zwykle uważa się, że wrażliwość, a przynajmniej zdolność do odczuwania, jest obecna w każdej osobie, która jest osobą, pytanie to nie było do tej pory poświęcane dużej uwagi. Inną egzotyczną właściwością, która z pewnością jest metafizycznie i fizycznie możliwa dla sztucznej inteligencji, jest jej subiektywna szybkość odchyleń drastycznie od tempa charakterystycznego dla biologicznego ludzkiego mózgu. Pojęcie subiektywnego tempa czasu najlepiej wyjaśnić, wprowadzając najpierw ideę emulacji całego mózgu lub "przesyłania". "Przesyłanie" odnosi się do hipotetycznej technologii przyszłości, która umożliwi przeniesienie intelektu ludzkiego lub innego zwierzęcia z jego pierwotnej implementacji w organicznym mózgu na komputer cyfrowy. Jeden scenariusz wygląda następująco: po pierwsze, wykonuje się skanowanie bardzo wysokiej rozdzielczości określonego mózgu, prawdopodobnie niszcząc w ten sposób oryginał. Na przykład mózg może zostać zeszklony i podzielony na cienkie plasterki, które można następnie zeskanować za pomocą jakiejś formy wysokoprzepustowej mikroskopii w połączeniu z automatycznym rozpoznawaniem obrazu. Możemy sobie wyobrazić, że ten skan jest wystarczająco szczegółowy, aby uchwycić wszystkie neurony, ich połączenia synaptyczne i inne funkcje, które są funkcjonalnie istotne dla pierwotnego działania mózgu. Po drugie, ta trójwymiarowa mapa składników mózgu i ich wzajemnych połączeń jest połączona z biblioteką zaawansowanej teorii euronaukowej, która określa właściwości obliczeniowe każdego podstawowego typu elementu, takie jak różne rodzaje neuronów i połączeń synaptycznych. Po trzecie, struktura obliczeniowa i związane z nią zachowanie algorytmiczne jej komponentów są zaimplementowane w potężnym komputerze. Jeśli proces przesyłania powiedzie się, program komputerowy powinien teraz powielić podstawowe cechy funkcjonalne oryginalnego mózgu. Wynikowy przesyłanie może zamieszkiwać symulowaną rzeczywistość wirtualną lub alternatywnie może uzyskać kontrolę nad robotem, umożliwiając mu bezpośrednią interakcję z zewnętrzna rzeczywistością fizyczną. W kontekście takiego scenariusza powstaje szereg pytań: jak prawdopodobne jest, aby procedura ta stała się kiedyś technologicznie wykonalna? Gdyby procedura zadziałała i wytworzyła program komputerowy wykazujący w przybliżeniu tę samą osobowość, te same wspomnienia i takie same wzorce myślenia jak oryginalny mózg, czy ten program byłby odczuwalny? Czy przesyłanie byłoby tą samą osobą, co osoba, której mózg został zdemontowany w trakcie przesyłania? Co stanie się z tożsamością osobistą, jeśli kopiowanie zostanie skopiowane w taki sposób, że równolegle działają dwa podobne lub jakościowo identyczne umysły przesyłania? Chociaż wszystkie te pytania dotyczą etyki inteligencji maszynowej, skupmy się tutaj na zagadnieniu obejmującym pojęcie subiektywnego czasu. Załóżmy, że przesyłanie może być odczuwalne. Jeśli uruchomimy program do przesyłania na szybszym komputerze, spowoduje to, że przesyłanie, jeśli jest podłączone do urządzenia wejściowego, takiego jak kamera wideo, będzie postrzegało świat zewnętrzny tak, jakby był spowolniony. Na przykład, jeśli przesyłanie przebiega tysiąc razy szybciej niż pierwotny mózg, wówczas świat zewnętrzny pojawi się podczas przesyłania, jakby został spowolniony tysiąckrotnie. Ktoś upuszcza fizyczny kubek do kawy. Przesyłanie obserwuje, jak kubek powoli spada na ziemię podczas przesyłania kończy czytanie porannej gazety i wysyła kilka e-maili. Jedna sekunda obiektywnego czasu odpowiada siedemnastu minutom subiektywnego czasu. Obiektywny i subiektywny czas trwania może się zatem różnić. Czas subiektywny nie jest tym samym, co szacunek podmiotu lub postrzeganie jego szybkości. Ludzie często mylą się co do upływu czasu. Możemy wierzyć, że jest godzina pierwsza, kiedy w rzeczywistości jest kwadrans po drugiej; lub lek pobudzający może sprawić, że nasze myśli zaczną się ścigać, sprawiając wrażenie, jakby upłynął bardziej subiektywny czas niż jest w rzeczywistości. Te przyziemne przypadki obejmują zniekształconą percepcję czasu, a nie zmianę tempa czasu subiektywnego. Nawet w mózgu pełnym kokainy prawdopodobnie nie ma istotnej zmiany w szybkości podstawowych obliczeń neurologicznych; bardziej prawdopodobne jest, że lek powoduje, że taki mózg szybciej migocze od jednej myśli do drugiej, przez co spędza mniej subiektywnego czasu na myśleniu o większej liczbie odrębnych myśli. Zmienność subiektywnego tempa czasu jest egzotyczną właściwością sztucznych umysłów, która rodzi nowe problemy etyczne. Na przykład, w przypadkach, gdy czas trwania doświadczenia jest etycznie istotny, czy czas trwania należy mierzyć w czasie obiektywnym czy subiektywnym? Jeśli przesyłający popełnił przestępstwo i zostanie skazany na cztery lata więzienia, to powinny to być cztery lata obiektywne - które mogą odpowiadać wielu tysiącom subiektywnych czasów - lub cztery lata subiektywne, które mogą minąć za kilka dni obiektywnego czasu? Jeśli szybka sztuczna inteligencja i człowiek odczuwają ból, czy pilniejsze jest złagodzenie bólu sztucznej inteligencji z tego powodu, że odczuwa on większy subiektywny czas trwania bólu w każdej sekundie gwiazdowej opóźnionego paliatywności? Ponieważ w naszym przyzwyczajonym kontekście biologicznych ludzi czas subiektywny nie jest znacząco zmienny, nie jest zaskakujące, że tego rodzaju pytania nie są jednoznacznie rozstrzygane przez znane normy etyczne, nawet jeśli normy te zostaną rozszerzone na sztuczny intelekt za pomocą zasad niedyskryminacji, takie jak te zaproponowane w poprzedniej sekcji. Aby zilustrować rodzaj etycznego twierdzenia, które może być tutaj istotne, formułujemy (ale nie argumentujemy) zasadę uprzywilejowującą czas subiektywny jako normalnie bardziej podstawowe pojęcie:

Zasada subiektywnego tempa czasu: W przypadkach, gdy czas trwania doświadczenia ma podstawowe znaczenie normatywne, liczy się subiektywny czas trwania doświadczenia.

Do tej pory omawialiśmy dwie możliwości (nieczułość i zmienność subiektywnego czasu), które są egzotyczne w stosunkowo głębokim sensie metafizycznie problematycznym, a także brakiem jasnych przykładów lub podobieństw we współczesnym świecie. Inne właściwości możliwych sztucznych umysłów byłyby egzotyczne w bardziej powierzchownym znaczeniu; na przykład poprzez oderwanie się w jakimś bezproblemowym wymiarze ilościowym od rodzajów umysłu, z którymi jesteśmy zaznajomieni. Ale takie powierzchownie egzotyczne właściwości mogą również stwarzać nowe problemy etyczne - jeśli nie na poziomie fundamentalnej filozofii moralnej, to na poziomie etyki stosowanej lub zasad etycznych na średnim poziomie. Ważny zestaw egzotycznych właściwości sztucznej inteligencji dotyczy reprodukcji. Szereg warunków empirycznych dotyczących reprodukcji człowieka nie musi dotyczyć sztucznej inteligencji. Na przykład ludzkie dzieci są produktem rekombinacji materiału genetycznego od dwojga rodziców; rodzice mają ograniczoną zdolność wpływania na charakter ich potomstwa; ludzki zarodek musi być w ciąży macicy przez dziewięć miesięcy; dorosłe dziecko potrzebuje piętnastu do dwudziestu lat; dziecko ludzkie nie dziedziczy umiejętności i wiedzy zdobytej przez jego rodziców; istoty ludzkie posiadają złożony, wyewoluowany zestaw adaptacji emocjonalnych związanych z rozmnażaniem, wychowaniem i relacją dziecko-rodzic. Żaden z tych warunków empirycznych nie musi istnieć w kontekście inteligencji maszyny odtwarzającej. Jest zatem prawdopodobne, że wiele zasad moralnych na średnim poziomie, które przyjęliśmy jako normy dotyczące ludzkiej reprodukcji, będzie trzeba ponownie przemyśleć w kontekście reprodukcji AI. Aby zilustrować, dlaczego niektóre z naszych norm moralnych należy przemyśleć w kontekście reprodukcji AI, wystarczy rozważyć tylko jedną egzotyczną właściwość AI: ich zdolność do szybkiego reprodukcji. Biorąc pod uwagę dostęp do sprzętu komputerowego, sztuczna inteligencja może się bardzo szybko powielić, nie zajmując więcej czasu niż wykonanie kopii oprogramowania AI. Ponadto, ponieważ kopia AI byłaby identyczna z oryginałem, narodziłaby się całkowicie dojrzała, a kopia mogłaby natychmiast zacząć tworzyć własne kopie. Wobec braku ograniczeń sprzętowych populacja sztucznej inteligencji może zatem gwałtownie rosnąć wykładniczo w bardzo szybkim tempie, z czasem podwojenia rzędu minut lub godzin zamiast dziesięcioleci lub stuleci. Nasze obecne normy etyczne dotyczące reprodukcji obejmują pewną wersję zasady wolności reprodukcyjnej, w związku z czym to od każdej osoby lub pary zależy, czy sami zdecydują, czy mieć dzieci i ile dzieci mieć. Inną normą, którą mamy (przynajmniej w krajach bogatych i o średnich dochodach) jest to, że społeczeństwo musi wkroczyć, aby zaspokoić podstawowe potrzeby dzieci w przypadkach, gdy ich rodzice nie są w stanie tego zrobić lub odmawiają. Łatwo jest zobaczyć, jak te dwie normy mogą kolidować w kontekście bytów o zdolności do bardzo szybkiego odtwarzania. Rozważmy na przykład populację przesyłanych plików, z których jedna ma ochotę stworzyć tak duży klan, jak to możliwe. Biorąc pod uwagę całkowitą swobodę reprodukcyjną, przesyłanie może rozpocząć kopiowanie tak szybko, jak to możliwe; a kopie, które produkuje - które mogą działać na nowym sprzęcie komputerowym będącym własnością lub wynajmowanym przez oryginał, lub mogą współdzielić ten sam komputer co oryginał - również zaczną się kopiować, ponieważ są identyczne z przesyłaniem progenitorów i mają swoje filoprogeniczne pragnienie. Wkrótce członkowie klanu wysyłania nie będą w stanie zapłacić rachunku za prąd ani czynszu za przetwarzanie obliczeniowe i przechowywanie potrzebne do utrzymania ich przy życiu. W tym momencie może uruchomić się system pomocy społecznej, który zapewni im przynajmniej niezbędne środki do życia. Ale jeśli populacja rośnie szybciej niż gospodarka, zasoby wyczerpią się; w tym momencie przesyłanie umiera lub ich zdolność do reprodukcji zostanie ograniczona. Ten scenariusz ilustruje, w jaki sposób niektóre zasady etyczne na średnim poziomie, które są odpowiednie we współczesnych społeczeństwach, mogą wymagać modyfikacji, jeśli społeczeństwa te miałyby obejmować osoby o egzotycznej własności polegającej na zdolności do reprodukcji szybko. Ogólna kwestia tutaj polega na tym, że myśląc o etyce stosowanej w kontekście, który bardzo różni się od naszej znanej ludzkiej kondycji, musimy uważać, aby nie pomylić zasad etycznych na średnim poziomie z podstawowymi prawdami normatywnymi. Mówiąc inaczej, musimy uznać zarówno stopień, w jakim nasze zwykłe normy normatywne są domyślnie uwarunkowane uzyskaniem różnych warunków empirycznych, a także potrzebę odpowiedniego dostosowania tych zasad, stosując je do hipotetycznych futurystycznych przypadków, w których zakłada się, że ich warunki wstępne nie zostaną osiągnięte . W ten sposób nie wysuwamy żadnych kontrowersyjnych twierdzeń na temat relatywizmu moralnego, ale jedynie podkreślamy powszechny pogląd, że kontekst jest istotny dla stosowania etyki - i sugerujemy, że kwestia ta jest szczególnie istotna, gdy rozważa się etykę umysłów o egzotycznych właściwościach.

Superinteligencja

I.J.Good wysunął klasyczną hipotezę dotyczącą superinteligencji: sztuczna inteligencja wystarczająco inteligentna, aby zrozumieć swój własny projekt, mogłaby przeprojektować się lub stworzyć następczy system, bardziej inteligentny, który mógłby następnie przeprojektować się jeszcze bardziej, aby stać się jeszcze bardziej inteligentny, i tak dalej włączone w cyklu pozytywnego sprzężenia zwrotnego. Good nazwał to "eksplozją wywiadu". Scenariusze rekurencyjne nie ograniczają się do sztucznej inteligencji: ludzie z inteligencją wzmocnioną poprzez interfejs mózg-komputer mogą zwrócić uwagę na zaprojektowanie nowej generacji interfejsów mózg-komputer. (Jeśli posiadasz maszynę, która zwiększy Twoje IQ, z pewnością przydarzy ci się to, gdy staniesz się wystarczająco inteligentny, aby spróbować zaprojektować mocniejszą wersję maszyny.) Superinteligencję można również osiągnąć poprzez zwiększenie prędkości przetwarzania. Najszybsze zaobserwowane neurony strzelają 1000 razy na sekundę; najszybsze włókna aksonu przewodzą sygnały z prędkością 150 metrów na sekundę, czyli pół miliona prędkości światła. Wydaje się, że fizycznie powinna istnieć możliwość zbudowania mózgu, który oblicza się milion razy szybciej niż ludzki mózg, bez zmniejszania jego rozmiaru i przepisywania oprogramowania. Gdyby ludzki umysł został w ten sposób przyśpieszony, subiektywny rok myślenia byłby osiągany co trzydzieści jeden fizycznych sekund w świecie zewnętrznym, a tysiąc lat minąłby za osiem i pół godziny. Vinge określił takie przyspieszone umysły jako "słabą superinteligencję": Umysł, który myśli jak człowiek, ale znacznie szybciej. Yudkowsky wymienia trzy rodziny metafor do wizualizacji zdolności inteligentniejszej niż ludzka sztucznej inteligencji:

•  Metafory inspirowane różnicami między indywidualną inteligencją ludzi: AI będą patentować nowe wynalazki, publikować przełomowe prace badawcze, zarabiać na giełdzie lub prowadzić bloki władzy politycznej.
•  Metafory inspirowane różnicami wiedzy między przeszłymi i obecnymi ludzkimi cywilizacjami: Szybkie AI wymyślą możliwości, które futuryści zwykle przewidują dla ludzkich cywilizacji sto lat lub tysiącleci w przyszłości, takie jak nanotechnologia molekularna lub podróże międzygwiezdne.
•  Metafory inspirowane różnicami w architekturze mózgu między ludźmi a innymi organizmami biologicznymi: Na przykład: "Wyobraź sobie, że psie myśli biegają z bardzo dużą prędkością. Czy tysiąc lat psiego życia przyczyniłoby się do jakiegokolwiek ludzkiego wglądu? " (Vinge (1993)). Oznacza to, że zmiany w architekturze poznawczej mogą dać wgląd, którego żaden umysł na poziomie ludzkim nie byłby w stanie znaleźć, a może nawet reprezentować, po jakimkolwiek czasie.

Nawet jeśli ograniczymy się do metafor historycznych, staje się jasne, że nadludzka inteligencja stwarza etyczne wyzwania, które są dosłownie bezprecedensowe. W tym momencie stawki nie są już na indywidualną skalę (np. Hipoteka niesprawiedliwie odrzucona, dom się podpala, osoba-agent źle traktowana), ale na skalę globalną lub kosmiczną (np. Ludzkość jest wygaszona i zastąpiona przez nic, co uznalibyśmy za wartościowe ). Lub, jeśli superinteligencja może być ukształtowana tak, aby była korzystna, wówczas, w zależności od jej możliwości technologicznych, mogłaby utrudnić pracę nad wieloma współczesnymi problemami, które okazały się trudne dla naszej inteligencji na poziomie ludzkim. Superinteligencja jest jednym z kilku "ryzyk egzystencjalnych" zgodnie z definicją Bostroma : ryzykiem "w którym niekorzystny wynik albo unicestwi inteligentne życie, albo trwale i drastycznie ograniczy jego potencjał".

I odwrotnie, pozytywny wynik dla superinteligencji może zachować Eighoriginating inteligentnego życia i pomóc w wykorzystaniu jego potencjału. Należy podkreślić, że mądrzejsze umysły przynoszą ogromne potencjalne korzyści, a także ryzyko. Próby uzasadnienia globalnego ryzyka katastroficznego mogą być podatne na szereg uprzedzeń poznawczych, w tym "dobre nastawienie" zaproponowane przez Bostroma):

Załóżmy, że nasze intuicje na temat tego, które przyszłe scenariusze są "prawdopodobne i realistyczne", kształtują to, co widzimy w telewizji i filmach oraz to, co czytamy w powieściach. (W końcu znaczna część dyskursu na temat przyszłości, z którą ludzie się spotykają, ma postać fikcji i innych kontekstów rekreacyjnych.) Krytycznie myśląc, należy podejrzewać nasze intuicje o tendencyjności w kierunku przeszacowania prawdopodobieństwa te scenariusze, które stanowią dobrą historię, ponieważ takie scenariusze będą wydawać się o wiele bardziej znane i bardziej "prawdziwe". To uprzedzenie w Good Story może być dość potężne. Kiedy ostatni raz widziałeś film o ludzkości, który nagle wyginął (bez ostrzeżenia i bez zastąpienia go inną cywilizacją)? Chociaż ten scenariusz może być znacznie bardziej prawdopodobny niż scenariusz, w którym ludzcy bohaterowie skutecznie odpierają inwazję potworów lub robotów-wojowników, oglądanie ich nie byłoby fajne. Naprawdę pożądane rezultaty tworzą kiepskie filmy - brak konfliktu oznacza brak historii. Podczas gdy trzy prawa robotyki Asimova są czasami cytowane jako model etycznego rozwoju AI, te trzy prawa są tak samo urządzeniem fabularnym, jak "mózg pozytronowy" Asimova. Gdyby Asimov przedstawił Trzy Prawa jako działające dobrze, nie miałby żadnych historii. Błędem byłoby traktować "AI" jako gatunek o ustalonych cechach i pytać: "Czy będą dobrzy czy źli?" Termin "sztuczna inteligencja" odnosi się do ogromnej przestrzeni projektowej, prawdopodobnie znacznie większej niż przestrzeń ludzkich umysłów (ponieważ wszyscy ludzie mają wspólną architekturę mózgu). Zapytanie: "Czy sztuczna inteligencja będzie dobra czy zła? tak jakby próbował wybrać przesłankę dla fabuły filmu. Odpowiedź powinna brzmieć: "Dokładnie o jakim projekcie AI mówisz?" Czy kontrola nad początkowym programowaniem sztucznej inteligencji może przełożyć się na wpływ na jej późniejszy wpływ na świat? Kurzweil utrzymuje, że "inteligencja jest z natury niemożliwa do kontrolowania" i że pomimo wszelkich ludzkich prób podjęcia środków ostrożności "[…] definicja… inteligentne istoty mają spryt, by łatwo pokonać takie bariery". Przypuśćmy, że sztuczna inteligencja jest nie tylko sprytna, ale że w ramach procesu doskonalenia własnej inteligencji to ona ma nieograniczony dostęp do własnego kodu źródłowego - może przepisać się na wszystko, co chce. Nie wynika jednak z tego, że AI musi chcieć przerobić się na wrogą formę. Pomyśl o Gandhim, który wydaje się szczerze pragnąć nie zabijać ludzi. Gandhi świadomie nie wziąłby pigułki, która spowodowała, że chciał zabijać ludzi, ponieważ Gandhi wie, że jeśli chce zabijać ludzi, prawdopodobnie zabijaj ludzi, a obecna wersja Gandhi nie chce zabijać. Mówiąc bardziej ogólnie, wydaje się prawdopodobne, że większość samodmodyfikujących się umysłów będzie naturalnie miała stabilne funkcje użytkowe, co oznacza, że początkowy wybór projektu umysłu może mieć trwałe efekty. W tym momencie rozwoju nauki o sztucznej inteligencji istnieje jakikolwiek sposób przekładać zadanie znalezienia projektu dla "dobrych" SI na nowoczesny kierunek badań? Spekulowanie może wydawać się przedwczesne, ale można podejrzewać, że niektóre paradygmaty sztucznej inteligencji są bardziej prawdopodobne niż inne, by ostatecznie sprzyjały tworzeniu inteligentnych czynników samodmodyfikujących, których cele pozostają przewidywalne nawet po wielu iteracjach samodoskonalenia. Na przykład bayesowska gałąź AI, zainspirowana spójnymi systemami matematycznymi, takimi jak teoria prawdopodobieństwa i oczekiwana maksymalizacja użyteczności, wydaje się bardziej podatna na przewidywalny problem samomodyfikacji niż programowanie ewolucyjne i algorytmy genetyczne. Jest to kontrowersyjne stwierdzenie, ale ilustruje to, że jeśli zastanawiamy się nad wyzwaniem superinteligencji na dalszych etapach, rzeczywiście można to zmienić w porady kierunkowe dla obecnych badań nad AI. Jednak nawet zakładając, że możemy określić system celów AI, który ma być trwały podczas samodoskonalenia i samodoskonalenia, zaczyna to dotykać tylko podstawowych problemów etycznych związanych z tworzeniem superinteligencji. Ludzie, pierwsi inteligenci ogólni, którzy istnieli na Ziemi, wykorzystali tę inteligencję do istotnego przekształcenia świata - rzeźbili góry, oswajali rzeki, budowali drapacze chmur, uprawiali pustynie, powodując niezamierzone zmiany klimatu na planecie. Potężniejsza inteligencja może mieć odpowiednio większe konsekwencje. Zastanówmy się ponownie nad historyczną metaforą superinteligencji - różnice podobne do różnic między przeszłymi i współczesnymi cywilizacjami. Nasza obecna cywilizacja nie jest oddzielona od starożytnej Grecji jedynie ulepszoną nauką i zwiększonymi możliwościami technologicznymi. Istnieją różne perspektywy etyczne: starożytni Grecy uważali, że niewolnictwo jest dopuszczalne; myślimy inaczej. Nawet między dziewiętnastym a dwudziestym wiekiem istniały poważne spory etyczne - czy kobiety powinny głosować? Czy Czarni powinni głosować? Wydaje się prawdopodobne, że dzisiejsze cywilizacje nie będą postrzegać dzisiejszych ludzi jako doskonałych etycznie - nie tylko z powodu naszego nierozwiązania obecnie uznanych problemów etycznych, takich jak ubóstwo i nierówności, ale także z powodu naszego niezrozumienia niektórych problemów etycznych. Być może któregoś dnia akt przymusowego nauczania dzieci będzie postrzegany jako molestowanie dzieci - a może pozwolenie dzieciom na opuszczenie szkoły w wieku 18 lat będzie postrzegane jako molestowanie dzieci. Nie wiemy Biorąc pod uwagę etyczną historię cywilizacji ludzkich na przestrzeni wieków, możemy zobaczyć, że ogromną tragedią może być stworzenie umysłu, który byłby stabilny w wymiarze etycznym, wzdłuż którego cywilizacje ludzkie wydają się wykazywać zmiany kierunkowe. Co jeśli Archimedes z Syrakuz był w stanie stworzyć długotrwały sztuczny intelekt z ustaloną wersją kodeksu moralnego starożytnej Grecji? Ale uniknięcie tego rodzaju etycznej stagnacji może okazać się trudne. Na przykład nie wystarczyłoby po prostu uczynić umysł losowo niestabilnym. Starożytni Grecy, nawet gdyby zdali sobie sprawę z własnej niedoskonałości, nie mogliby zrobić lepiej, rzucając kośćmi. Czasami pojawia się dobry nowy pomysł etyczny, który jest zaskoczeniem; ale większość losowo generowanych zmian etycznych uderzyłaby nas w szaleństwo lub bełkot. To może być dla nas ostatecznym wyzwaniem w zakresie etyki maszyn: Jak zbudować sztuczną inteligencję, która po uruchomieniu staje się bardziej etyczna niż ty? To już nie jest tak, jakby prosić naszych własnych filozofów o wytworzenie superetyki niż Deep Blue został skonstruowany przez zachęcenie najlepszych ludzkich szachistów do programowania w dobrych ruchach. Ale musimy umieć skutecznie opisać pytanie, jeśli nie odpowiedź - rzucanie kostkami nie generuje dobrych ruchów szachowych ani dobrej etyki. A może bardziej produktywny sposób myślenia o problemie: jaką strategię chciałbyś zastosować Archimedes w budowaniu superinteligencji, tak aby ogólny wynik byłby do przyjęcia, gdybyś nie mógł mu powiedzieć, co konkretnie robił źle? Jest to sytuacja, w której obecnie jesteśmy, w stosunku do przyszłości. Jedną mocną radą, która wyłania się z uznania naszej sytuacji za analogiczną do sytuacji Archimedesa, jest to, że nie powinniśmy próbować wynaleźć "super" wersji tego, co nasza cywilizacja uważa za etykę - nie takiej strategii chcielibyśmy Archimedes podążać. Być może kwestią, którą powinniśmy rozważyć, jest raczej to, w jaki sposób sztuczna inteligencja zaprogramowana przez Archimedesa, nie posiadająca więcej wiedzy moralnej niż Archimedes, może rozpoznać (przynajmniej część) etyki naszej cywilizacji jako postęp moralny w przeciwieństwie do zwykłej niestabilności moralnej. Wymagałoby to, abyśmy zaczęli rozumieć strukturę pytań etycznych w taki sposób, jak już zrozumieliśmy strukturę szachów. Jeśli poważnie podchodzimy do rozwoju zaawansowanej sztucznej inteligencji, jest to wyzwanie, które musimy sprostać. Jeśli maszyny mają być silniejsze, szybsze, bardziej godne zaufania lub mądrzejsze od ludzi, dyscyplina etyki maszynowej musi zobowiązać się do poszukiwania ludzkiej wyższości (a nie tylko ludzkiej równoważności)

Wniosek

Chociaż obecna sztuczna inteligencja oferuje nam kilka problemów etycznych, które nie są jeszcze obecne w projektowaniu samochodów lub elektrowni, podejście algorytmów AI w kierunku bardziej ludzkiej myśli zapowiada przewidywalne komplikacje. Role społecznościowe mogą być wypełniane przez algorytmy AI, co oznacza nowe wymagania projektowe, takie jak przejrzystość i przewidywalność. Wystarczająco ogólne algorytmy sztucznej inteligencji nie mogą już działać w przewidywalnych kontekstach, co wymaga nowych rodzajów zapewnienia bezpieczeństwa i inżynierii sztucznych względów etycznych. AI z wystarczająco zaawansowanymi stanami mentalnymi lub odpowiednimi rodzajami stanów będą miały status moralny, a niektóre mogą być liczone jako osoby - chociaż być może osoby bardzo odmienne od tych, które istnieją obecnie, być może podlegające innym regułom. I wreszcie perspektywa sztucznej inteligencji o nadludzkiej inteligencji i nadludzkich zdolnościach stawia przed nami niezwykłe wyzwanie polegające na określeniu algorytmu, który generuje zachowanie ponad-eteryczne. Wyzwania te mogą wydawać się wizjonerskie, ale przewidywalne jest, że się z nimi spotkamy i nie są pozbawione sugestii dotyczących współczesnych kierunków badań