Mail:






Bogowie Sztucznej Inteligencji














Słownik Sztucznej Inteligencji



Algorytm
Podejście do rozwiązywania problemów, które pozwala łączyć zarówno techniki formalne, jak i techniki czysto heurystyczne.
Architektura Aalborga
Architektura Aalborga zapewnia metodę obliczania marginesów w reprezentacji drzewa przekonań w sieci przekonań. Obsługuje nowe dane w szybki, elastyczny sposób i jest uważana za architekturę z wyboru do obliczania marginesów faktoryzowanych rozkładów prawdopodobieństwa. Nie pozwala jednak na wycofywanie danych, ponieważ przechowuje tylko bieżące wyniki, a nie wszystkie dane.
Abdukcja
Abdukcja jest formą niemonotonicznej logiki, po raz pierwszy zaproponowanej przez Charlesa Pierce′a w latach 70. XIX wieku. Próbuje kwantyfikować wzorce i sugerować wiarygodne hipotezy dla zestawu obserwacji.
ABEL
ABEL to język modelowania, który obsługuje rozumowanie w oparciu o założenia. Jest obecnie zaimplementowany w MacIntosh Common Lisp i jest dostępny w sieci WWW (WWW).
ABS
Akronim dla Assumption Based System, systemu logicznego wykorzystującego rozumowanie oparte na założeniu.
ABSTRIPS
Program wywodzący się z programu STRIPS został również zaprojektowany w celu rozwiązania problemów związanych z umieszczaniem robotów i ruchami. W przeciwieństwie do STRIPS, porządkuje różnice między bieżącym a docelowym stanem, pracując od najbardziej krytycznej do najmniej krytycznej różnicy.
AC2
AC2 to komercyjny zestaw narzędzi Data Mining, oparty na drzewach klasyfikacyjnych.
Accuracy [Precyzja]
Dokładność systemu uczenia maszynowego jest mierzona jako procent poprawnych prognoz lub klasyfikacji dokonanych przez model w odniesieniu do określonego zestawu danych. Zazwyczaj szacuje się go za pomocą testu lub próbki "trzymającej", innej niż ta zastosowana do skonstruowania modelu. Jego uzupełnieniem, poziomem błędów, jest odsetek niepoprawnych prognoz na tych samych danych.
ACE
ACE to technika oparta na regresji, która szacuje modele addytywne dla wygładzonych atrybutów odpowiedzi. Znalezione transformacje są przydatne w zrozumieniu charakteru problemu, a także w prognozowaniu.
ACORN
ACORN był hybrydowym opartym na regułach systemem bayesowskim służącym do radzenia sobie z pacjentami z bólem w klatce piersiowej na oddziale ratunkowym. Został opracowany i wykorzystany w połowie lat osiemdziesiątych.
Aktywacji Funkcje
Sieci neuronowe uzyskują znaczną część swojej mocy poprzez zastosowanie funkcji aktywacyjnych zamiast funkcji liniowych klasycznych modeli regresji. Zazwyczaj dane wejściowe do węzła w sieciach neuronowych są ważone, a następnie sumowane. Ta suma jest następnie przekazywana przez nieliniową funkcję aktywacyjną. Zazwyczaj funkcje te są funkcjami sigmoidalnymi (zwiększającymi monotonię), takimi jak funkcja logistyczna lub Gaussa, chociaż węzły wyjściowe powinny mieć funkcje aktywacyjne dopasowane do rozkładu zmiennych wyjściowych. Funkcje aktywacyjne są ściśle powiązane z funkcjami połączeń w statystycznych uogólnionych modelach liniowych i zostały intensywnie badane w tym kontekście.
Aktywne uczenie się
Proponowana metoda modyfikacji algorytmów uczenia maszynowego poprzez umożliwienie im określenia regionów testowych w celu zwiększenia ich dokładności. W dowolnym momencie algorytm może wybrać nowy punkt x, obserwować wynik i włączyć nową parę (x, y) do bazy treningowej. Został zastosowany do sieci neuronowych, funkcji prognozowania i funkcji klastrowania.
Act-R
Act-R to zorientowana na cel architektura poznawcza, zorganizowana wokół jednego stosu bramek. Jej pamięć zawiera zarówno deklaratywne elementy pamięci, jak i pamięć proceduralną, która zawiera reguły produkcji. Deklaratywne elementy pamięci mają zarówno wartości aktywacyjne, jak i mocne skojarzenia z innymi elementami.
APACHE III
APACHE to system zaprojektowany do przewidywania ryzyka śmierci osoby w szpitalu. System opiera się na dużym zbiorze danych dotyczących przypadków i wykorzystuje 27 atrybutów do przewidywania wyniku pacjenta. Można go również wykorzystać do oceny efektu proponowanego lub faktycznego planu leczenia.
ADABOOST
ADABOOST to niedawno opracowana metoda ulepszania technik uczenia maszynowego. Może znacznie poprawić wydajność technik klasyfikacji (np. drzew decyzyjnych). Działa poprzez wielokrotne stosowanie metody do danych, ocenę wyników, a następnie ponowne ważenie obserwacji w celu zwiększenia wiarygodności przypadków błędnie zaklasyfikowanych. Ostateczny klasyfikator wykorzystuje wszystkie pośrednie klasyfikatory do sklasyfikowania obserwacji większością głosów poszczególnych klasyfikatorów. Ma również interesującą właściwość, że błąd uogólnienia (tj. błąd w zestawie testowym) może nadal zmniejszać się nawet po tym, jak błąd w zestawie szkoleniowym przestał się zmniejszać lub osiągnął 0.
ADABOOST.MH
ADABOOST.MH jest rozszerzeniem algorytmu ADABOOST, który obsługuje dane wielu klas i etykiety.
Adaptacyjny
Ogólny modifer używany do opisywania systemów, takich jak sieci neuronowe lub inne dynamiczne systemy sterowania, które mogą uczyć się lub adaptować z używanych danych. Adaptacyjna rozmyta pamięć asocjacyjna (AFAM)
Rozmyta pamięć asocjacyjna, którą można dostosować do danych wejściowych zmieniających się w czasie.
ART : Teoria rezonansu adaptacyjnego
Klasa sieci neuronowych opartych na modelach neurofizjologicznych dla neuronów. Zostały one wynalezione przez Stephena Grossberga w 1976 roku. Modele ART wykorzystują ukrytą warstwę idealnych przypadków do przewidywania. Jeśli przypadek wejściowy jest wystarczająco zbliżony do istniejącego przypadku, "rezonuje" z nim; idealny przypadek jest aktualizowany, aby uwzględnić nowy przypadek. W przeciwnym razie dodawany jest nowy przypadek idealny. ART są często przedstawiane jako mające dwie warstwy, nazywane warstwami F1 i F2. Warstwa F1 wykonuje dopasowanie, a warstwa F2 wybiera wynik. Jest to forma analizy skupień.
Adaptacyjna kwantyzacja wektorów
Podejście oparte na sieci neuronowej, które postrzega wektor danych wejściowych jako tworzącą przestrzeń stanu, a sieć jako kwantyzację tych wektorów na mniejszą liczbę idealnych wektorów lub regionów. Gdy sieć "uczy się", dostosowuje lokalizację (i liczbę) tych wektorów do danych.
Addytywne Modele
Technika modelowania, która wykorzystuje ważone sumy liniowe potencjalnie transformowanych zmiennych wejściowych do przewidywania zmiennej wyjściowej, ale nie obejmuje takich terminów, jak produkty krzyżowe, które zależą od więcej niż jednej zmiennej predykcyjnej. Modele addytywne są używane w wielu systemach uczenia maszynowego, takich jak boosting, oraz w uogólnionych modelach addytywnych (GAM).
AVAS : Stabilizacja addytywności i wariancji
AVAS, akronim oznaczający addytywność i stabilizację wariancji, jest modyfikacją techniki ACE dla modeli regresji gładkiej. Dodaje transformację stabilizującą wariancję do techniki ACE, a tym samym eliminuje wiele trudności ACE w oszacowaniu płynnego związku.
ADE Monitor
ADE Monitor to oparty na CLIPS system ekspercki, który monitoruje dane pacjenta pod kątem dowodów, że u pacjenta wystąpiła niepożądana reakcja na lek. System będzie obejmował możliwość modyfikacji przez lekarzy i będzie w stanie powiadomić odpowiednie agencje, gdy będzie to konieczne.
[Adjacency Matrix] Macierz sąsiedztwa
Macierz przylegania jest użytecznym sposobem reprezentacji relacji binarnej w zbiorze skończonym. Jeżeli liczność zbioru A wynosi n, to macierz przylegania dla relacji na A będzie macierzą binarną nxn, z jedną dla elementu i, j-tego, jeśli relacja dotyczy elementu i-tego i j-tego i zero w przeciwnym razie. Szereg algorytmów ścieżki i zamknięcia pośrednio lub jawnie działa na macierzy przyległości. Macierz przylegania jest refleksyjna, jeśli ma macierze wzdłuż głównej przekątnej, i jest symetryczna, jeśli i, j-ty element jest równy j, i-ty element dla wszystkich par i, j w macierzy. Uogólnieniem tego jest ważona macierz przylegania, która zastępuje odpowiednio zera i jedynkę oraz koszty i wykorzystuje tę macierz do obliczania najkrótszej odległości lub ścieżek kosztów minimalnych między elementami.
ART Zaawansowane narzędzie wnioskowania
Advanced Reasoning Tool (ART) to język inżynierii wiedzy oparty na LISP. Jest to system oparty na regułach, ale umożliwia także reprezentację ramek i procedur. Został opracowany przez Inference Corporation. Ten sam skrót (ART) jest także używany w odniesieniu do metod opartych na teorii rezonansu adaptacyjnego.
Advanced Scout
Specjalistyczny system opracowany przez IBM w połowie lat 90. XX wieku, który wykorzystuje techniki Data Mining do organizowania i interpretowania danych z meczów koszykówki. Advice Taker
Program zaproponowany przez J. McCarthy′ego, który miał na celu wykazanie się zdrowym rozsądkiem i zachowaniem, które można poprawić. Program był reprezentowany jako system sentymentalnych i imperatywnych sentencji. Uzasadniał to natychmiastową dedukcją. System ten był prekursorem rachunku sytuacyjnego zaproponowanego przez McCarthy′ego i Hayesa w artykule z 1969 r. W Machine Intelligence.
Agenda Based Systems : Systemy oparte na agendzie
Proces wnioskowania kontrolowany przez agendę lub listę zadań. Rozbija system na wyraźne, modułowe kroki. Każdy z wpisów lub zadań na liście zadań jest konkretnym zadaniem do wykonania podczas procesu rozwiązywania problemów.
Agent_CLIPS
Agent_CLIPS to rozszerzenie CLIPS, które pozwala na tworzenie inteligentnych agentów, którzy mogą komunikować się na jednym komputerze lub w Internecie.
AI-QUIC
AI-QUIC to oparta na regułach aplikacja wykorzystywana przez sekcję ubezpieczeniową American International Group. Eliminuje ręczne zadania związane z ubezpieczaniem i ma na celu szybkie przejście do zmian w zasadach ubezpieczenia
Akaike Information Criteria (AIC)
AIC to oparta na informacji miara służąca do porównywania wielu modeli dla tych samych danych. Zostało to wyprowadzone z rozważenia utraty precyzji w modelu przy podstawianiu opartych na danych oszacowań parametrów modelu na prawidłowe wartości. Równanie tej straty obejmuje stały składnik, zdefiniowany przez prawdziwy model, -2-krotność prawdopodobieństwa danych dla danego modelu plus stała wielokrotność (2) liczby parametrów w modelu. Ponieważ pierwszy termin, obejmujący nieznany prawdziwy model, jest wprowadzany jako stała (dla danego zestawu danych), można go usunąć, pozostawiając dwa znane terminy, które można ocenić. Algebraicznie, AIC jest sumą (ujemnej) miary błędów w modelu i dodatniej kary za liczbę parametrów w modelu. Zwiększenie złożoności modelu poprawi AIC tylko wtedy, gdy dopasowanie (mierzone logarytmicznym prawdopodobieństwem danych) poprawi się bardziej niż koszt dodatkowych parametrów. Zestaw konkurujących modeli można porównać, obliczając ich wartości AIC i wybierając model o najmniejszej
wartości AIC, co implikuje, że model ten jest najbliższy prawdziwemu modelowi. W przeciwieństwie do zwykłych technik statystycznych, pozwala to na porównanie modeli, które nie udostępniaj żadnych wspólnych parametrów.
Aladyn
Pilotażowe uzasadnienie oparte na analizie przypadków (CBR) opracowane i przetestowane w firmie Microsoft w połowie lat 90. Rozwiązano problemy związane z konfiguracją systemu Microsoft Windows NT 3.1, a w drugiej wersji rozwiązano problemy z obsługą programu Microsoft Word na komputerach Macintosh. W testach stwierdzono, że system Aladdin pozwala inżynierom wsparcia udzielać wsparcia w obszarach, w których mieli niewielkie szkolenie lub nie mieli go wcale.
Algorytm
Technika lub metoda, którą można zastosować do rozwiązania niektórych problemów.
Algorytmiczny Rozkład
Rozkład prawdopodobieństwa, którego wartości można określić za pomocą funkcji lub algorytmu, który przyjmuje jako argument konfigurację atrybutów i, opcjonalnie, niektóre parametry. Gdy rozkład jest funkcją matematyczną o "małej" liczbie parametrów, jest często nazywany rozkładem parametrycznym.
ALICE
ALICE to zestaw narzędzi do eksploracji danych oparty na drzewach decyzyjnych. Jest przeznaczony dla użytkowników końcowych i zawiera graficzny interfejs użytkownika.
Allel
Wartość genu. Gen binarny może mieć dwie wartości, 0 lub 1, podczas gdy gen dwubitowy może mieć cztery allele.
Alfa-beta Przycinanie
Algorytm przycinania lub skracania drzewa wyszukiwania. Jest używany przez systemy, które generują drzewa możliwych ruchów lub akcji. Gałąź drzewa jest przycinana, gdy można wykazać, że nie może ona prowadzić do rozwiązania lepszego niż znane dobre rozwiązanie. Podczas generowania drzewa śledzi dwie liczby o nazwach alfa i beta
AM
Sztuczny system matematyczny oparty na wiedzy, napisany w 1976 r. Przez Douglasa Lenata. System został zaprojektowany do generowania interesujących pojęć z matematyki elementarnej.
Ambler
Ambler był autonomicznym robotem zaprojektowanym do eksploracji planet. Był w stanie podróżować po wyjątkowo trudnym terenie. Nosił kilka komputerów pokładowych i był kapłanem planowania swoich ruchów na kilka tysięcy kroków. Ze względu na bardzo duży rozmiar i wagę nigdy nie był wystawiany.
Analogia
Metoda rozumowania lub uczenia się o tym, porównując bieżącą sytuację z innymi sytuacjami, które są w pewnym sensie podobne.
Analityczny Model
W Data Mining: struktura i proces analizy i podsumowywania bazy danych. Niektóre przykłady obejmują model drzew klasyfikacyjnych i regresji (CART) do klasyfikowania nowych obserwacji lub model regresji do przewidywania nowych wartości jednej (zestawu) zmiennych przy innym zestawie.
Ancestral Ordering : Porządkowanie przodków
Ponieważ kierunkowe wykresy acykliczne (DAG) nie zawierają żadnych ukierunkowanych cykli, możliwe jest wygenerowanie liniowego uporządkowania węzłów, tak aby każdy potomek węzła podążał za swoimi przodkami w węźle. Można to wykorzystać w propagowaniu prawdopodobieństwa w sieci.
And-Or wykresy
Wykres zależności między częściami problemu ulegającego rozkładowi.
AND kontra OR w porównaniu z niedeterminizmem
W programach logicznych nie określaj kolejności, w jakiej są oceniane zdania AND i zdania "A, jeśli B". Może to wpłynąć na skuteczność programu w znalezieniu rozwiązania, szczególnie jeśli jedna z gałęzi oceny jest bardzo długa.
Apoptoza
Programowana genetycznie śmierć komórki.
Apple Print Recognizer (APR)
Apple Print Recognizer (APR) to mechanizm rozpoznawania pisma ręcznego dostarczany z systemami eMate i późniejszymi Newton. Wykorzystuje sztuczny klasyfikator sieci neuronowej, modele językowe i słowniki, aby umożliwić systemom rozpoznawanie drukowania i pisma odręcznego. Strumienie uderzeń zostały podzielone na segmenty, a następnie sklasyfikowane przy użyciu klasyfikatora sieci neuronowej. Wektory prawdopodobieństwa wytworzone przez Artificial Neural Network (ANN) zostały następnie wykorzystane w wyszukiwaniu opartym na treści, kierowanym przez modele językowe.
Aproksymacyjna Przestrzeń
W zestawach przybliżonych para zestawu danych i relacja równoważności
arboART
Aglomeracyjna hierarchiczna sieć ART. Prototypowe wektory na każdej warstwie stają się wejściem do następnej warstwy.
Arcing
Techniki łukowe to ogólna klasa technik adaptacyjnego ponownego próbkowania i łączenia w celu poprawy wydajności uczenia maszynowego i technik statystycznych. Dwa najważniejsze przykłady to ADABOOST i workowanie. Ogólnie rzecz biorąc, techniki te iteracyjnie stosują technikę uczenia się, taką jak drzewo decyzyjne, do zestawu treningowego, a następnie ponownie ważą lub ponownie próbkują dane i przywracają technikę uczenia się do danych. To tworzy zbiór zasad uczenia się. Nowe obserwacje są przeprowadzane przez wszystkich członków kolekcji i prognozy lub klasyfikacje są łączone w celu uzyskania połączonego wyniku przez uśrednienie lub przewidywanie reguły większości. Chociaż mniej interpretowalne niż pojedynczy klasyfikator, techniki te mogą dawać wyniki o wiele dokładniejsze niż pojedynczy klasyfikator. Badania wykazały, że mogą wytwarzać minimalne (Bayes) klasyfikatory ryzyka.
ARF
Ogólne rozwiązanie problemu opracowane przez R.R. Fikesa pod koniec lat 60. XX wieku. Połączył metody satysfakcji z ograniczeń i wyszukiwania heurystyczne. Fikes opracowało również REF, język określania problemów z ARF.
ARIS
ARIS to komercyjnie stosowany system AI, który pomaga w przydzielaniu bramek lotniskowych do lotów przylatujących. Wykorzystuje rozumowanie oparte na regułach, propagację ograniczeń i planowanie przestrzenne, aby przypisać bramki lotniskowe i zapewnić decydentom ludzkim ogólny obraz bieżących operacji.
ARPAbet
Kodowanie ASCII zestawu fenomenów języka angielskiego.
Arrat :Szyk
Zindeksowana i uporządkowana kolekcja obiektów (tj. Lista z indeksami). Indeks może być numeryczny (O, 1, 2, 3, ...) lub symboliczny (`Mary ′,` Mike′, `Murray ′, ...). Ten ostatni jest często określany jako "tablice asocjacyjne".
Artificial Intelligence : Sztuczna inteligencja
Ogólnie rzecz biorąc, sztuczna inteligencja to dziedzina zajmująca się opracowywaniem technik pozwalających komputerom działać w sposób, który wydaje się być inteligentnym organizmem, takim jak człowiek. Cele różnią się od słabego końca, gdzie program wydaje się "trochę mądrzejszy", niż można by się spodziewać, do silnego końca, w którym próbą jest stworzenie w pełni świadomej, inteligentnej, komputerowej istoty. Dolny koniec nieustannie rozpada się w ogólne tło komputerowe, w miarę ewolucji oprogramowania i sprzętu.
Artificial Intelligence w medycynie (AIM)
AIM to skrót od Artificial Intelligence in Medicine. Jest uważany za część informatyki medycznej.
ARTMAP
Nadzorowana wersja edukacyjna modelu ART-1. Uczy się określonych wzorców danych binarnych. Istnieją różne nadzorowane algorytmy ART, które są nazywane sufiksem "MAP", jak w Fuzzy ARTMAP. Algorytmy te grupują dane wejściowe i docelowe oraz kojarzą dwa zestawy klastrów. Główną wadą algorytmów ARTMAP jest to, że nie mają one mechanizmu zapobiegającego nadmiernemu dopasowaniu, a zatem nie powinny być używane z hałaśliwymi danymi.
ARTMAP-IC
Ta sieć dodaje rozproszoną prognozę i liczenie instancji kategorii do podstawowego rozmytego ARTMAP.
ART-1 Nazwa oryginalnego modelu Teorii Rezonansu Adaptacyjnego (ART). Może grupować binarne zmienne wejściowe.
ART-2
Analogowa wersja modelu adaptacyjnej teorii rezonansu (ART), która może grupować zmienne wejściowe o wartościach rzeczywistych.
ART-2a
Szybka wersja modelu ART-2.
ART-3
Rozszerzenie ART, które zawiera następnie analog "przekaźników chemicznych" do sterowania procesem wyszukiwania w hierarchicznej strukturze ART.
Assembler
Program konwertujący plik tekstowy zawierający kod języka asemblera na plik zawierający język maszynowy.
Asemblera Język
Język komputerowy, który używa prostych skrótów i symboli w języku maszynowym. Kod komputerowy jest przetwarzany przez asembler, który tłumaczy plik tekstowy na zestaw instrukcji komputerowych. Na przykład instrukcją języka maszynowego, która powoduje, że program przechowuje wartość 3 w lokalizacji 27, może być STO 3 @ 27.
Assertion : Twierdzenie
W bazie wiedzy, systemie logicznym lub ontologii twierdzenie to każde stwierdzenie, które z góry zdefiniowano jako prawdziwe. Może to obejmować takie rzeczy, jak aksjomaty, wartości i ograniczenia.
Association Rule Templates : Szablony reguł asocjacyjnych
Wyszukiwanie reguł asocjacji w dużej bazie danych może wygenerować bardzo dużą liczbę reguł. Reguły te mogą być zbędne, oczywiste i w inny sposób nieinteresujące dla ludzkiego analityka. Potrzebny jest mechanizm do usuwania reguł tego typu i podkreślania reguł, które są interesujące w danym kontekście analitycznym. Jednym z takich mechanizmów jest wykorzystanie szablonów do wykluczenia lub podkreślenia reguł związanych z daną analizą. Te szablony działają jak wyrażenia regularne dla reguł. Elementy szablonów mogą obejmować atrybuty, klasy atrybutów i uogólnienia klas (np. C + lub C * dla jednego lub więcej członków C lub 0 lub więcej członków, jeśli C). Szablony reguł można uogólnić tak, aby zawierały terminy C lub A, aby zabronić określonych atrybutów lub klas atrybutów. Szablon obejmujący zachowałby wszystkie reguły, które do niego pasowały, a szablon restrykcyjny mógłby zostać użyty do odrzucenia pasujących reguł. Zwykle występują problemy, gdy reguła pasuje do wielu szablonów.
Asocjacji Zasady
Reguła asocjacji jest relacją między zbiorem zmiennych binarnych W i pojedynczą zmienną binarną B, tak że gdy W jest prawdą, B jest prawdą z określonym poziomem ufności (prawdopodobieństwa). Stwierdzenie, że zbiór W jest prawdziwy, oznacza, że wszystkie jego składniki są prawdziwe, a także prawdziwe dla B. Reguły asocjacji są jedną z powszechnych technik to eksploracja danych i inne obszary odkrywania wiedzy w bazach danych (KDD). Jako przykład załóżmy, że przeglądasz dane w punkcie sprzedaży.
Jeśli okaże się, że osoba robiąca zakupy we wtorek wieczorem, która kupuje piwo, kupuje również pieluchy około 20 procent czasu, wówczas obowiązuje zasada asocjacji, że {Tuesday, beer}⇒ {diapers} ma pewność co do 0,2. Poparcie dla tej reguły stanowi odsetek przypadków, w których odnotowuje się, że zakup jest dokonywany we wtorek i że obejmuje piwo. Mówiąc bardziej ogólnie, niech R będzie zbiorem m atrybutów binarnych lub elementów, oznaczonych przez I1, I2, ..., Im. Każdy wiersz r w bazie danych może stanowić dane wejściowe do procedury wyszukiwania danych. Dla podzbioru Z atrybutów R wartość Z dla i-tego rzędu, t(Z)i wynosi 1, jeśli wszystkie elementy Z są prawdziwe dla tego wiersza. Rozważ regułę asocjacji W ⇒B, gdzie B jest pojedynczym elementem w R. Jeśli proporcja wszystkich wierszy, dla których zarówno W, jak i B ma wartość > s, i jeśli B jest prawdą, przynajmniej w proporcji g wierszy, w których W s jest prawdą , następnie reguła WB jest regułą asocjacji (s, g), co oznacza, że obsługuje co
najmniej si, a pewność co najmniej g. W tym kontekście klasyczna klauzula "jeśli-to" byłaby regułą (e, 1), prawda byłaby regułą (1,1), a fałsz - regułą (0,0).
Asocjacyjna Pamięć
Klasycznie lokalizacje w pamięci lub w strukturach danych, takich jak tablice, są indeksowane za pomocą indeksu numerycznego rozpoczynającego się od zera lub jednego i zwiększane sekwencyjnie dla każdej nowej lokalizacji. Na przykład na liście osób przechowywanych w tablicy o nazwach osoby lokalizacje będą przechowywane jako osoba [0], osoba [1], osoba [2] i tak dalej. Tablica asocjacyjna pozwala na użycie innych form indeksów, takich jak nazwy lub dowolne ciągi znaków. W powyższym przykładzie indeks może stać się relacją lub dowolnym ciągiem, takim jak numer ubezpieczenia społecznego lub jakąś inną znaczącą wartość. W ten sposób można na przykład wyszukać osobę [′′ matkę ′], aby znaleźć imię matki, oraz osobę ["OldestSister"], aby znaleźć imię najstarszej siostry.
Associative property : Łączność
W logice formalnej operator ma właściwość asocjacyjną, jeśli argumenty w klauzuli lub formule używającej tego operatora można zgrupować bez zmiany wartości formuły. W symbolach, jeśli operator O jest asocjatywny, to aO (b O c) = (a O b) Oc. Dwa typowe przykłady to operator + w regularnym dodawaniu oraz operator "i" w logice logicznej.
ASSOM
Forma sieci Kohonen. Nazwa pochodzi od "Adaptive Subpace SOM".
Assumption Based Reasoning : Uzasadnienie oparte na założeniu
Asumption Based Reasoning to oparte na logice rozszerzenie teorii Dempstera-Shafera, symbolicznej teorii dowodów. Służy do rozwiązywania problemów składających się z niepewnych, niekompletnych lub niespójnych informacji. Zaczyna się od zestawu symboli zdań, z których niektóre są założeniami. Podana hipoteza będzie próbowała znaleźć argumenty lub wyjaśnienia hipotezy. Argumenty wystarczające do wyjaśnienia hipotezy są quasi-poparciem dla hipotezy, podczas gdy argumenty, które nie są sprzeczne z hipotezą, stanowią poparcie dla hipotezy. Ci, którzy zaprzeczają hipoteza to wątpliwości. Argumenty, dla których hipoteza jest możliwa, nazywane są prawdopodobieństwami. Rozumowanie oparte na założeniu oznacza zatem określenie zestawów podparć i wątpliwości. Zauważ, że to rozumowanie odbywa się jakościowo. System oparty na założeniu (ABS) może również uzasadniać ilościowo, gdy prawdopodobieństwa są przypisane do założenia W takim przypadku stopnie wsparcia, stopnie wątpliwości i stopnie prawdopodobieństwa można obliczyć jak w teorii Dempstera-Shafera. Opracowano język ABEL do wykonywania tych obliczeń.
Asymptotycznie stabilny
Układ dynamiczny, podobnie jak w robotyce lub innych układach sterowania, jest asymptotycznie stabilny w odniesieniu do danego punktu równowagi, jeśli gdy układ zaczyna się w pobliżu punktu równowagi, pozostaje w pobliżu punktu równowagi i asymptotycznie zbliża się do punktu równowagi.
ATMS
Skrót od systemu utrzymania prawdy opartego na założeniu.
Atom
W języku LISP podstawowym elementem konstrukcyjnym jest atom. Jest to ciąg znaków rozpoczynający się od litery, cyfry lub dowolnego znaku specjalnego innego niż (lub). Przykłady obejmują "atom", "kot", "3" lub "2.79".
Atrybut
(Zwykle) nazwana ilość, która może przyjmować różne wartości. Wartości te są domeną atrybutu i ogólnie mogą mieć charakter ilościowy lub jakościowy, chociaż mogą obejmować inne obiekty, takie jak obraz. Jego znaczenie jest często zamienne z terminem statystycznym "zmienna". Wartość atrybutu jest również nazywana jego cechą. Atrybuty wyceniane numerycznie są często klasyfikowane jako nominalne, porządkowe, całkowite lub o wartości współczynnika, a także dyskretne lub ciągłe.a
Atrybuty : Uczenie się oparte na atrybutach
Learing oparty na atrybutach jest ogólną etykietą dla technik uczenia maszynowego, takich jak drzewa klasyfikacji i regresji, sieci neuronowe, modele regresji oraz techniki pokrewne lub pochodne. Wszystkie te techniki uczą się w oparciu o wartości atrybutów, ale nie określają relacji między częściami obiektów. Alternatywne podejście, która koncentruje się na relacjach uczenia się, znana jest jako programowanie logiki indukcyjnej.
Augmented Transition Network Grammer
Znany również jako ATN. Zapewnia to reprezentację reguł języków, z których komputer może efektywnie korzystać. ATN jest rozszerzeniem innej sieci gramatyki przejściowej, Recursive Transition Network (RTN). ATN dodają dodatkowe rejestry do przechowywania częściowych struktur parsowania i mogą być ustawione do rejestrowania atrybutów (tj. Głośnika) i wykonywania testów na akceptowalność bieżącej analizy.
Autosocjatywne
Model autoasocjacyjny wykorzystuje ten sam zestaw zmiennych, co predyktory i cel. Celem tych modeli jest zazwyczaj wykonanie pewnej formy redukcji lub klastrowania danych.
AutoClass
AutoClass to program do uczenia maszynowego, który dokonuje nienadzorowanej klasyfikacji (grupowania) danych wielowymiarowych. Wykorzystuje model Bayesa do automatycznego określania liczby klastrów i może obsługiwać mieszanki danych dyskretnych i ciągłych oraz brakujących wartości. Klasyfikuje dane probabilistycznie, dzięki czemu obserwację można podzielić na wiele klas.
Autoepistemiczna Logika
Logika autoepistemiczna jest formą logiki niemonotonicznej opracowaną w latach 80. Rozszerza logikę pierwszego rzędu, dodając nowy operator oznaczający "Wiem" lub "Wierzę". To rozszerzenie umożliwia introspekcję, tak więc jeśli system zna jakiś fakt A, wie również, że zna A i pozwala systemowi zweryfikować swoje przekonania, gdy otrzyma nowe informacje. Warianty logiki autoepistemicznej mogą również zawierać logikę domyślną w logice autoepistemicznej.
Autoepistemiczna Teoria
Teoria autoepistemiczna to zbiór formuł autoepistemicznych, który jest najmniejszym zestawem spełniającym:
1. Zamknięta formuła pierwszego rzędu jest formułą autoepistemiczną,
2. Jeśli A jest wzorem autoepistemicznym, to L A jest wzorem autoepistemicznym, i
3. Jeśli A i B są w zestawie, to też są ! A, A v B, A ^ B i A B.
Automatyczne wykrywanie interakcji (AID)
Program automatycznego wykrywania interakcji (AID) został opracowany w latach 50. XX wieku. Ten program był wczesnym poprzednikiem drzew klasyfikacji i regresji (CART), CHAID i innych opartych na drzewach form "automatycznego" modelowania danych. Wykorzystano znaczące rekurencyjne testy do wykrycia interakcji w bazie danych, którą wykorzystano do zbadania. W rezultacie drzewa, które wyhodowała, były zwykle bardzo duże i zbyt agresywne.
Autonomiczny pojazd lądowy w sieci neuronowej (ALVINN)
Autonomiczny pojazd lądowy w sieci neuronowej (ALVINN) jest przykładem zastosowania sieci neuronowych do problemu sterowania w czasie rzeczywistym. Była to trójwarstwowa sieć neuronowa. Jego węzły wejściowe były elementami układu fotosensorów 30 na 32, z których każdy był połączony z pięcioma środkowymi węzłami. Środkowa warstwa została podłączona do 32-elementowej tablicy wyjściowej. Został wyszkolony z połączeniem ludzkiego doświadczenia i wygenerowanych przykładów.
Autoregresyjny
Termin, dostosowany do modeli szeregów czasowych, który odnosi się do modelu zależnego od poprzednich stanów.
Autoregresyjna Sieć
Sparametryzowany model sieci w kolejności rodowej, dzięki czemu wartość węzła zależy tylko od jego przodka
Aksjomat
Aksjomat to zdanie lub relacja w systemie logicznym, który przyjmuje się za prawdziwy. Niektóre znane przykłady to aksjomaty geometrii euklidesowej lub aksjomaty prawdopodobieństwa Kołmogorowa. Bardziej prozaicznym przykładem może być aksjomat, że "wszystkie zwierzęta mają matkę i ojca" w systemie śledzenia genów (np. BOBLO)

Backpropagation : Propagacja wsteczna
Klasyczna metoda propagacji błędów podczas treningu sztucznych sieci neuronowych (ANN). W przypadku standardowej propagacji wstecznej parametry każdego węzła są zmieniane zgodnie z lokalnym gradientem błędów. Metoda może być bardzo powolna w konwergencji, chociaż można ją ulepszyć, stosując metody spowalniające propagację błędów i przetwarzanie wsadowe. Wiele alternatywnych metod, takich jak gradient sprzężony i algorytmy Levenberga-Marquardta, jest bardziej efektywnych i niezawodnych.
Backtracking : Cofanie
Metoda stosowana w algorytmach wyszukiwania w celu wycofania się z niedopuszczalnej pozycji i ponownego uruchomienia wyszukiwania w poprzednio znanej "dobrej" pozycji. Typowe problemy z wyszukiwaniem i optymalizacją obejmują wybranie "najlepszego" rozwiązania, z zastrzeżeniem pewnych ograniczeń (na przykład zakup domu z zastrzeżeniem ograniczeń budżetowych, bliskość szkół itp.) Podejście "brutalnej siły" obejrzy wszystkie dostępne domy, wyeliminuje te, które nie spełniają ograniczenia, a następnie zamówi rozwiązania od najlepszych do najgorszych. Stopniowe poszukiwania stopniowo zawężałyby się w rozważanych domach. Jeśli w jednym kroku wyszukiwanie dotrze do zbyt drogiej dzielnicy, algorytm wyszukiwania będzie potrzebował metody, aby wykonać kopię zapasową do poprzedniego stanu.
Backward Chaining : Łączenie wsteczne
Alternatywna nazwa dla wstecznego rozumowania w systemach eksperckich i systemach planowania celów.
Backward Reasoning : Rozumowanie wsteczne
W myśleniu wstecznym określono cel lub wniosek, a następnie przeszukano bazę wiedzy, aby znaleźć podzadania, które prowadzą do tego wniosku. Te cele cząstkowe są porównywane z przesłankami i są albo sfałszowane, weryfikowane, albo zachowane do dalszego dochodzenia. Proces uzasadnienia powtarza się, dopóki nie można pokazać przesłanek potwierdzających wniosek, lub można wykazać, że żadne przesłanki nie potwierdzają wniosków.
Bag of Words Reprezentacja
Technika stosowana w niektórych algorytmach uczenia maszynowego i algorytmach analizy tekstów. Reprezentacja worka słów składa tekst na listę słów bez względu na ich pierwotną kolejność. W przeciwieństwie do innych form przetwarzania języka naturalnego, które traktują kolejność słów jako znaczącą (np. do analizy składni), worek reprezentacji słów pozwala algorytmowi skoncentrować się na marginalnych i wielowymiarowych częstotliwościach słów. Został on wykorzystany do opracowania klasyfikatorów artykułów i powiązanych aplikacji. Przykładowo powyższy akapit zostałby przedstawiony po usunięciu interpunkcji, objaśnienia i skrótów, konwersji na małe litery i sortowaniu w następujący sposób: algorytmy algorytmów pozwalają analizować i aplikować artykuł, ponieważ torba jest pewna, że klasyfikator zwija się koncentracja rozwijająca się dla formularzy częstotliwości ma w sobie listę uczenia się języka maszyna marginalna wielowymiarowa naturalna na zamówienie oryginalne inne przetwarzanie odniesienie związane z reprezentacją znacząca technika składniowa tekst tekstowy ich traktuje w przeciwieństwie używane bez słów
Basin of Attraction
Basen przyciągania B dla atraktora A w (dynamicznej) przestrzeni stanu S jest regionem w S, który zawsze przybliża układ do A.
Bayesowskiego przekonania funkcja
Funkcja przekonania, która odpowiada zwykłej funkcji prawdopodobieństwa, nazywana jest bayesowską funkcją przekonania. W tym przypadku cała masa prawdopodobieństwa jest przypisana do zbiorów singletonów, a żadna nie jest przypisana bezpośrednio do związków elementów.
Bayesowski model hierarchiczny
Bayesowskie modele hierarchiczne określają warstwy niepewności dotyczące modelowanych zjawisk i pozwalają na wielopoziomową heterogeniczność modeli dla atrybutów. Model podstawowy jest określony dla obserwacji na najniższym poziomie, a jego parametry są określone przez wcześniejsze rozkłady dla parametrów. Każdy poziom powyżej tego ma również model, który może zawierać inne parametry lub wcześniejsze rozkłady.
Bayesian Knowledge Discover
Bayesian Knowledge Discoverer to darmowy program do konstruowania i szacowania bayesowskich sieci przekonań. Może automatycznie oszacować sieć i wyeksportować wyniki w formacie Bayesian Network Interchange Format (BNIF).
Bayesian Learning
Klasyczne metody modelowania zwykle tworzą jeden model ze stałymi parametrami. Modele Bayesa reprezentują natomiast dane z rozkładem modeli. W zależności od techniki może to być albo rozkład a posteriori na wadze dla pojedynczego modelu, różnorodność różnych modeli (np. "Las" drzew klasyfikacyjnych) lub ich kombinacja. Gdy przedstawiony jest nowy przypadek wejściowy, model Bayesa tworzy rozkład prognoz, które można połączyć, aby uzyskać ostateczną prognozę i oszacowania zmienności itp. Chociaż są bardziej skomplikowane niż zwykłe modele, techniki te uogólniają również lepiej niż modele prostsze.
Bayesowskie Metody
Metody bayesowskie zapewniają formalną metodę wnioskowania o niepewnych zdarzeniach. Są one oparte na teorii prawdopodobieństwa i wykorzystują techniki probabilistyczne do oceny i propagowania niepewności.
Bayesian Network (BN)
Sieć bayesowska to model graficzny, który służy do reprezentowania zależności probabilistycznych między zestawem atrybutów. Węzły reprezentujące stan atrybutów są połączone w ukierunkowany wykres acykliczny (DAG). Łuki w sieci reprezentują modele prawdopodobieństwa łączące atrybuty. Modele prawdopodobieństwa oferują: elastyczne sposoby reprezentowania niepewności w systemach wiedzy. Pozwalają systemowi określić stan zestawu atrybutów i wnioskować o wynikowych rozkładach w pozostałych atrybutach. Sieci nazywane są Bayesowskimi, ponieważ używają Twierdzenia Bayesa do propagowania niepewności w całej sieci. Zauważ, że łuki nie są wymagane do reprezentowania kierunków przyczynowych, ale raczej do kierunków, które propaguje prawdopodobieństwo.
Bayesian Network Interchange Format (BNIF)
Bayesian Network Interchange Format (BNIF) to proponowany format opisu i wymiany sieci przekonań. Umożliwi to dzielenie się bazami wiedzy reprezentowanymi jako Sieć Bayesowska (BN) i umożliwi współdziałanie wielu sieci Bayes.
Bayesowska Aktualizacja
Metoda aktualizacji niepewności dotyczącej działania lub zdarzenia na podstawie nowych dowodów. Skorygowane prawdopodobieństwo zdarzenia wynosi P (Wydarzenie otrzymuje nowe dane) = P (E przed danymi) * P (E otrzymuje dane) / P (dane).
Bayesa Reguła
Reguła Bayesa lub klasyfikator Bayesa jest idealnym klasyfikatorem, którego można użyć, gdy rozkład danych wejściowych dla poszczególnych klas jest dokładnie znany, podobnie jak wcześniejsze prawdopodobieństwa samych klas. Ponieważ zakłada się, że wszystko jest znane, jest to proste zastosowanie Twierdzenia Bayesa do obliczenia prawdopodobieństw późniejszych każdej klasy. W praktyce ten idealny stan wiedzy jest rzadko osiągany, więc reguła Bayesa stanowi cel i podstawę do porównania dla innych klasyfikatorów.
Bayesa Twierdzenie
Twierdzenie Bayesa jest fundamentalnym twierdzeniem teorii prawdopodobieństwa, które pozwala wnioskować o przyczynach na podstawie skutków. Twierdzenie to pokazuje, że jeśli masz zdanie H i zaobserwujesz pewne dowody E, prawdopodobieństwo H po zobaczeniu E powinno być proporcjonalne do początkowego prawdopodobieństwa razy prawdopodobieństwo E, jeśli H się utrzymuje. W symbolach P (H | E) ?P (E | H) P (H), gdzie P () jest prawdopodobieństwem, a P (A | B) reprezentuje warunkowe prawdopodobieństwo A, gdy wiadomo, że B jest prawdziwe. W przypadku wielu wyników tak się dzieje że Twierdzenie Bayesa zapewnia metodę aktualizowania wiedzy systemu o zdaniach, gdy pojawiają się nowe dowody. Jest stosowany w wielu systemach, takich jak sieci bayesowskie, które muszą przeprowadzić weryfikację przekonań lub uzależnić wnioskowanie od częściowych danych.
Beam Search : Wyszukiwanie wiązki
Wiele problemów z wyszukiwaniem (np. program szachowy lub program do planowania) może być reprezentowanych przez drzewo wyszukiwania. Przeszukiwanie wiązki ocenia drzewo podobnie jak przeszukiwanie szerokości, postępuje poziom po poziomie w dół drzewa, ale podąża za najlepszym podzbiorem węzłów w dół drzewa, wycinając gałęzie, które nie mają wysokich wyników na podstawie ich bieżącego stanu. Wyszukiwanie wiązki, które następuje po najlepszym bieżącym węźle, jest również określane jako najlepsze pierwsze wyszukiwanie.
Belief
Darmowy program do manipulacji graficznymi funkcjami przekonań i graficznymi modelami prawdopodobieństwa. Jako taki obsługuje zarówno przekonanie, jak i probabilistyczną manipulację modelami. Umożliwia także modele drugiego rzędu (hiper-dystrybucja lub meta-dystrybucja). Wersja komercyjna jest w fazie rozwoju pod nazwą GRAPHICAL-BELIEF.
Belief Chain : Łańcuch przekonań
Sieć przekonań, której Directed Acyclic Graph (DAG) można zamówić jak na liście, dzięki czemu każdy węzeł ma jednego poprzednika, z wyjątkiem pierwszego, który nie ma poprzednika, i jednego następcy, z wyjątkiem ostatniego, który nie ma następcy
Belief Core : Wiara Rdzenia
Rdzeniem zbioru w teorii Dempstera-Shafera jest to, że prawdopodobieństwo przypisane jest bezpośrednio do zbioru, ale nie do żadnego z jego podzbiorów. Rdzeniem funkcji wiary jest połączenie wszystkich zbiorów w ramach rozeznania, które mają niezerowy rdzeń (znany również jako elementy ogniskowe). Załóżmy, że nasze przekonanie, że jeden z Fredów, Tomów lub Pawłów był odpowiedzialny za wydarzenie, wynosi 0,75, podczas gdy poszczególne przekonania to B (Fred) =. 10, B (Tom) = .25 i B (Paul) = .30. Wówczas nieprzyznane przekonanie wynosiłoby 0,75 - (0,1 + 0,25 + 0,30) = 0,10. To byłby rdzeń zestawu {Fred, Tom, Paul}.
Belief Function : Funkcja wiary
W teorii Dempstera-Shafera prawdopodobieństwo z pewnością przypisane do zbioru zdań jest określane jako przekonanie dla tego zbioru. Jest to niższe prawdopodobieństwo dla zestawu. Górne prawdopodobieństwo dla zbioru to prawdopodobieństwo przypisane do zbiorów zawierających elementy zbioru interesów i jest uzupełnieniem funkcji przekonania dla uzupełnienia zbioru interesów (tj. Pu (A) = 1-Bel (nie A ).) Funkcja przekonania jest funkcją, która zwraca niższe prawdopodobieństwo zbioru. Funkcje wiary, które można porównać, biorąc pod uwagę, że prawdopodobieństwa przypisane do jakiegoś powtarzalnego zdarzenia są stwierdzeniem o średniej częstotliwości tego zdarzenia. Funkcja przekonania i górne prawdopodobieństwo określają jedynie górne i dolne granice średniej częstotliwości tego zdarzenia. Prawdopodobieństwo odnosi się do niepewności zdarzenia, ale jest precyzyjne odnośnie średnich, podczas gdy funkcja przekonania obejmuje zarówno niepewność, jak i niedokładność średniej.
Belief Net : Sieć przekonań
Siatka przekonań stosowana w probabilistycznych systemach ekspertowych do reprezentowania zależności między zmiennymi to Directed Acyclic Graph (DAG) ze zmiennymi jako węzłami, wraz z warunkami warunkowymi dla każdego łuku wchodzącego do węzła. Atrybuty w węźle są głową warunków warunkowych, a atrybuty z łukami wchodzącymi do węzła są ogonami. Te wykresy są również określane jako Bayesian Networks (BN) lub modele graficzne.
Belief Revision : Rewizja przekonań
Rewizja przekonań to proces modyfikowania istniejącej bazy wiedzy w celu uwzględnienia nowych informacji. Gdy nowa informacja jest zgodna ze starą informacją, proces jest zwykle prosty. W przypadku sprzeczności z istniejącą informacją należy zmienić strukturę przekonań (wiedzy), aby wyeliminować sprzeczności. Niektóre metody obejmują rozszerzenie, które dodaje nowe "reguły" do bazy danych, skurczenie, które eliminuje sprzeczności poprzez usunięcie reguł z bazy danych, oraz rewizję, która zachowuje istniejące reguły przez zmianę ich w celu dostosowania do nowych informacji.
Belle
System gry w szachy opracowany w Bell Laboratories. Został oceniony jako mistrz szachowy.
Berge Networks
Chordalna sieć graficzna, która ma kliki przecięcia wielkości 1. Przydatne w analizie sieci przekonań modele zdefiniowane jako Berge Networks można zwinąć w unikalne łańcuchy dowodów między dowolną pożądaną parą węzłów, umożliwiając łatwą kontrolę przepływów dowodów.
Bernoulliego Proces
Proces Bernoulliego jest prostym modelem sekwencji zdarzeń, które dają wynik binarny (zwykle reprezentowany przez zera i jedynki). Jeśli prawdopodobieństwo "jednego" jest stałe w sekwencji, a zdarzenia są niezależne, wówczas jest to proces Bernoulliego.
BESTDOSE
BESTDOSE to system ekspercki, który ma na celu dostarczanie lekarzom informacji na temat dawkowania leków specyficznych dla pacjenta. Został opracowany przez First Databank, dostawcę elektronicznych informacji o narkotykach, z wykorzystaniem systemu "Elements Expert" Neuron Data. Może ostrzegać lekarzy, jeśli wykryje potencjalny problem z dawką i cytować literaturę.
Best First Algorithm : Najlepszy pierwszy algorytm
Najlepszy pierwszy algorytm wykorzystywany do eksploracji struktur drzew utrzymuje listę eksplorowanych węzłów z niezbadanymi podwęzłami. Na każdym kroku algorytm wybiera węzeł z najlepszym wynikiem i ocenia jego podwęzły. Po rozwinięciu i ocenie węzłów zestaw węzłów zostaje ponownie uporządkowany, a najlepsze z obecnych węzłów są wybierane do dalszego rozwoju.
Bias Input : Wejście odchylenia
Modele sieci neuronowej często pozwalają na określenie "stronniczości" w każdym węźle. Jest to stały składnik dodawany do sumy ważonych danych wejściowych. Działa w taki sam sposób jak punkt przecięcia w regresji liniowej lub przesunięcie w uogólnionym modelu liniowym, pozwalając, aby wyjściowy węzeł osiągnął wartość inną niż zero w punkcie początkowym (gdy wszystkie dane wejściowe są zerowe.) Może to również być reprezentowane w sieci neuronowej przez wspólne wejście do wszystkich węzłów, które zawsze jest ustawione na jeden.
Bidirectional Associative Memory : Dwukierunkowa pamięć asocjacyjna (BAM)
Dwuwarstwowa sieć neuronowa ze sprzężeniem zwrotnym ze stałymi macierzami połączeń. Po przedstawieniu z wektorem wejściowym wielokrotne stosowanie macierzy połączeń powoduje, że wektor zbiega się w wyuczonym punkcie stałym.
Bidirectional Network : Sieć dwukierunkowa
Dwuwarstwowa sieć neuronowa, w której każda warstwa zapewnia wejście do drugiej warstwy, a macierz synaptyczna warstwy 1 na warstwę 2 jest transpozycją macierzy synaptycznej z warstwy 2 na warstwę 1.
Binary
Funkcja lub inny obiekt, który ma dwa stany, zwykle zakodowane jako 0/1.
Rozmyta, adaptacyjna pamięć binarna wejścia / wyjścia (BIOFAM)
Rozmyta, adaptacyjna pamięć binarna wejścia / wyjścia.
Binary Resolution : Rozdzielczość binarna
Formalna reguła wnioskowania, która pozwala komputerom na rozumowanie. Gdy dwie klauzule są wyrażone w odpowiedniej formie, reguła wnioskowania binarnego próbuje je "rozwiązać", znajdując najbardziej ogólną klauzulę. Bardziej formalnie, binarną rozdzielczość klauzul A i B, z literałami, odpowiednio, L1 i L2, z których jedna jest dodatnia, a druga ujemna, tak że L1 i L2 są jednoznaczne, ignorując ich znaki, można znaleźć poprzez uzyskanie najbardziej ogólnego unifikatora (MGU) L1 i L2, stosując ten substytut na L3 i L4 do klauzul A i B, uzyskując odpowiednio C i D, i tworząc rozłączenie C-L3 i D-L4. Ta technika znalazła wiele zastosowań w systemach eksperckich, automatycznym dowodzeniu twierdzeń i logice formalnej.
Binarne Drzewo
Drzewo binarne jest specjalizacją drzewa ogólnego, wymagającą, aby każdy nieterminalny węzeł miał dokładnie dwa węzły potomne, zwykle nazywane lewym i prawym węzłem.
Binarna Zmienna
Zmienna lub atrybut, który może przyjmować tylko dwie prawidłowe wartości, inne niż brakująca lub nieznana wartość.
Binding : Wiążący
Powiązanie w programie między identyfikatorem a wartością. Wartością może być lokalizacja w pamięci lub symbol. Powiązania dynamiczne są tymczasowe i zwykle istnieją tylko tymczasowo w programie. Wiązania statyczne zwykle trwają przez cały okres życia programu.
Binding : Wiążące, specjalne
Powiązanie, w którym część wartości jest komórką wartości symbolu LISP, którą można tymczasowo zmienić przez to wiązanie.
Binit
Alternatywna nazwa cyfry binarnej (np. Bitów).
Binning
Wiele algorytmów uczenia się działa tylko na atrybutach, które przyjmują niewielką liczbę wartości. Proces konwersji atrybutu ciągłego lub uporządkowanego atrybutu dyskretnego z wieloma wartościami na zmienną dyskretną o małej liczbie wartości nazywa się binowaniem. Zakres atrybutu ciągłego jest podzielony na kilka przedziałów, a każdy atrybut ciągły jest klasyfikowany do przedziału. Konstruowany jest nowy atrybut, który składa się z numeru kosza związanego z wartością atrybutu ciągłego. Istnieje wiele algorytmów do wykonywania binowania. Dwa najczęstsze to pojemniki o równej długości, w których wszystkie pojemniki mają taki sam rozmiar, oraz pojemniki z możliwością wyposażenia, w których każdy pojemnik otrzymuje taką samą liczbę skrzynek
Binomial Coefficient : Współczynnik dwumianowy
Współczynnik dwumianowy zlicza liczbę sposobów, w jakie n elementów można podzielić na dwie grupy, jedną o rozmiarze k, a drugą o rozmiarze n-k. Jest obliczany jako
Binomial Distribution : Rozkład dwumianowy
Rozkład dwumianowy jest podstawowym rozkładem stosowanym w modelowaniu zbiorów zdarzeń binarnych. Jeśli zakłada się, że zdarzenia w kolekcji mają identyczne prawdopodobieństwo bycia "jedynką" i wystąpią niezależnie, liczba "jedynek" w kolekcji będzie zgodna z rozkładem dwumianowym. Gdy zdarzenia mogą przyjmować ten sam zestaw wielu wartości, ale nadal są identyczne i niezależne, rozkład nazywa się wielomianem. Klasyczny przykład byłby wynikiem sekwencji sześciostronnych rzutów matryc. Jeśli byłeś zainteresowany liczbą przypadków, gdy kostka pokazywała 1, 2,. . ., 6, rozkład stanów byłby wielomianowy. Gdybyś był zainteresowany prawdopodobieństwem pięciu lub sześciu, bez ich rozróżnienia, byłyby dwa stany, a rozkład byłby dwumianowy.
Bipartite Graph : Dwustronny wykres
Dwustronny wykres to wykres z dwoma typami węzłów, dzięki czemu łuki jednego typu mogą łączyć się tylko z węzłami drugiego typu.
Bipolar : Dwubiegunowy
Funkcja binarna, która generuje wartości wyjściowe -1 i 1. Używana w sieciach neuronowych.
Bivalent : Dwuwartościowy
Logika lub system, który przyjmuje dwie wartości, zwykle reprezentowane jako Prawda lub Fałsz lub odpowiednio liczbami 1 i 0. Inne nazwy to logiczne lub binarne.
Blackboard
System architektury tablicowej zapewnia ramy dla wspólnego rozwiązywania problemów. Każde z wielu niezależnych źródeł wiedzy może komunikować się z innymi, pisząc i czytając z bazy danych tablicy zawierającej globalne stany problemów. Jednostka sterująca określa obszar przestrzeni problemowej na czym się skupić.
Blocks World
Sztuczne środowisko używane do testowania systemów planowania i rozumienia. Składa się z bloków o różnych rozmiarach i kolorach w pokoju lub szeregu pokoi.
BOBLO
BOBLO to system ekspercki oparty na sieciach bayesowskich wykorzystywany do wykrywania błędów w identyfikacji rodzicielskiej bydła w Danii. Model zawiera zarówno reprezentacje informacji genetycznej (zasady porównywania fenotypów), jak i reguły błędów laboratoryjnych.
Boltzman Maszyna
Ogromnie równoległy komputer, który używa prostych jednostek binarnych do obliczeń. Cała pamięć komputera jest przechowywana jako wagi połączeń między wieloma jednostkami. Zmienia stany probabilistycznie.
Boolowski Obwód
Obwód boolowski o rozmiarze N powyżej k atrybutów binarnych jest urządzeniem do obliczania funkcji lub reguły binarnej. Jest to Directed Acyclic Graph (DAG) z N wierzchołkami, których można użyć do obliczenia wyników boolowskich. Ma k wierzchołków wejściowych, które reprezentują atrybuty binarne. Jego pozostałe wierzchołki mają jeden lub dwa łuki wejściowe. Pojedyncze wierzchołki wejściowe uzupełniają ich zmienną wejściową, a binarne wierzchołki wejściowe przyjmują koniunkcję lub rozłączenie swoich danych wejściowych. Obwody boolowskie mogą reprezentować pojęcia bardziej złożone niż listy z decyzjami k, ale mniej skomplikowane niż ogólna postać normalna rozłączna.
Boosted Naive Bayes (BNB) Classification : Wzmocniona klasyfikacja Bayesa (BNB)
Algorytm klasyfikacji Boosted Na?ve Bayes (BNB) jest odmianą klasyfikacji ADABOOST z klasyfikatorem Na?ve Bayes, który ponownie wyraża klasyfikator w celu uzyskania ciężaru dowodu dla każdego atrybutu. Umożliwia to ocenę wkładu każdego atrybutu. Jego wydajność jest podobna do ADABOOST.
Boosted Naive Bayes Regression : Wzmocniona naiwna regresja Bayesa
Wzmocniona regresja Bayesa jest rozszerzeniem ADABOOST do obsługi ciągłych danych. Zachowuje się tak, jakby zestaw szkoleniowy został rozszerzony w nieskończoną liczbę powtórzeń, z dodanymi dwiema nowymi zmiennymi. Pierwszy to punkt odcięcia, który zmienia się w zakresie zmiennej docelowej, a drugi to zmienna binarna, która wskazuje, czy rzeczywista zmienna jest powyżej (1) czy poniżej (0), punktu odcięcia. Następnie na rozszerzonych danych przeprowadzana jest klasyfikacja Boosted Na?ve Bayes
Bootstrap AGGregation (bagging)
Pakowanie jest formą wyładowania łukowego sugerowaną po raz pierwszy do użycia z próbkami ładowania początkowego. W workowaniu: szereg zasad dla prognozy lub problemy z klasyfikacją są opracowywane przez pobieranie powtarzających się próbek z zestawu treningowego i opracowanie predyktora / klasyfikatora z każdej próbki bootstrap. Predyktor końcowy agreguje wszystkie modele, stosując regułę średniej lub większości, aby przewidzieć / sklasyfikować przyszłe obserwacje.
Bootstrapping
Bootstrapping można wykorzystać jako środek do oszacowania błędu techniki modelowania i można go uznać za uogólnienie walidacji krzyżowej. Zasadniczo każda próbka ładowania początkowego z danych treningowych dla modelu jest próbką, z zastąpieniem z całej próbki treningowej. Model jest trenowany dla każdej próbki, a jego błąd można oszacować na podstawie niewybranych danych w tej próbce. Zazwyczaj wybiera się i dopasowuje dużą liczbę próbek (> 100). Technika ta była szeroko badana w literaturze statystycznej.
Boris
Wczesny system ekspercki, który potrafił czytać i odpowiadać na pytania dotyczące kilku złożonych tekstów narracyjnych. Został napisany w 1982 roku przez M. Dyera z Yale.
Bottom-up : Modyfikator Oddolny
Podobnie jak modyfikator odgórny, modyfikator ten sugeruje strategię programu lub metody stosowanej do rozwiązywania problemów. W takim przypadku, biorąc pod uwagę cel i bieżący stan, metoda oddolna zbadałaby wszystkie możliwe kroki (lub stany), które można wygenerować lub osiągnąć z bieżącego stanu. Są one następnie dodawane do bieżącego stanu i proces jest powtarzany. Proces kończy się, gdy cel zostanie osiągnięty lub wszystkie etapy pochodnych zostaną wyczerpane. Tego rodzaju metody mogą być również określane jako wyszukiwanie lub wnioskowanie oparte na danych lub do przodu Bottom-up Pathways : Ścieżki oddolne
Ważone połączenia z warstwy F1 sieci ART do warstwy F2.
Bound and Collapse : Związany i zwinięty
Bound and Collapse to dwustopniowy algorytm do nauki sieci bayesowskiej (BN) w bazach danych z niepełnymi danymi. Dwa (powtarzane) etapy ograniczają oszacowania wartościami, które są zgodne ze stanem bieżącym, po czym następuje zejście granic oszacowań przy użyciu wypukłej kombinacji granic. Wdrożony w programie eksperymentalnym Bayesian Knowledge Discoverer.
Boundary Region : Region graniczny
W przybliżonej analizie zestawu pojęcia X regionem granicznym jest (zbiór) różnica między górnym i dolnym przybliżeniem dla tej koncepcji. W przybliżonej analizie danych kredytowych, gdzie pojęciem jest "wysokie ryzyko kredytowe", niższe przybliżenie "wysokiego ryzyka kredytowego" byłoby największym zestawem zawierającym tylko przypadki wysokiego ryzyka kredytowego. Górne przybliżenie byłoby najmniejszym zestawem zawierającym wszystkie przypadki wysokiego ryzyka kredytowego, a regionem granicznym byłyby przypadki w górnym przybliżeniu, a nie w dolnym przybliżeniu. Przypadki w regionie granicznym obejmują z definicji niektóre przypadki, które nie należą do koncepcji i odzwierciedlają niespójność tabel atrybutów.
Bound Variable or Symbol : Zmienna związana lub symbol
Zmienna lub symbol jest związany, gdy przypisano mu wartość. Jeśli nie został przypisany, zmienna lub symbol są niezwiązane.
Box Computing Dimension : Wymiar obliczeniowy
Uproszczona forma wymiaru Hausdorffa używana do oceny fraktalnego wymiaru zbioru w analizie dokumentów i wizji.
Boxa-Jenkinsa Analiza
Analiza Box-Jenkinsa jest specyficzną formą analizy szeregów czasowych, w której dane wyjściowe są postrzegane jako seria systematycznych zmian i skumulowanych losowych szoków. Alternatywną formą analizy byłaby analiza spektralna, która traktuje szereg zdarzeń jako wynik ciągłego procesu i modeluje amplitudę częstotliwości tego wyjścia.

Boxplot
Wykres pudełkowy to proste urządzenie do wizualizacji dystrybucji. W najprostszej postaci składa się z poziomej osi z pudełkiem nad nią, prawdopodobnie z ostrzem wystającym z dwóch końców. Początek i koniec pola oznaczają parę percentyli, takich jak 25 i 75 punktów percentyla. Końce mogą oznaczać bardziej ekstremalne percentyle (10 i 90), a linia pionowa oznacza środek (mediana lub średnia)
Branch-and-bound Search : Wyszukiwanie według gałęzi i powiązań
Wyszukiwanie rozgałęzione i powiązane są używane do usprawnienia wyszukiwania poprzez drzewną reprezentację przestrzeni rozwiązania. Gdy algorytm przechodzi przez drzewo, zachowuje listę wszystkich ścieżek cząstkowych, które zostały wcześniej ocenione. Przy każdej iteracji wybiera najlepszą obecnie znaną ścieżkę (najniższy koszt) i rozwija ją do następnego poziomu, oceniając każdą z nowych możliwych ścieżek. Te nowe ścieżki są dodawane do listy możliwych ścieżek zastępujących ich wspólnego przodka, a proces jest ponownie oceniany na bieżącej najlepszej ścieżce. Po znalezieniu rozwiązania można je ulepszyć, dokonując ponownej oceny przechowywanych ścieżek w celu wyeliminowania droższych rozwiązań. Pozostałe ścieżki można następnie oceniać, dopóki nie dostarczą albo lepszego rozwiązania, ani nie staną się droższe niż najlepiej znane rozwiązanie.
Branching Factor : Czynnik rozgałęziający
Współczynnik rozgałęzienia jest miarą złożoności problemu lub algorytmu wyszukiwania. Jeśli algorytm generuje drzewo o maksymalnej głębokości węzłów D i N, współczynnik rozgałęzienia wynosi B = N (1 / d). Tej miary można użyć do porównania różnych algorytmów i strategii dla różnych problemów. Wykazano, że dla różnych rodzajów drzew przycinanie alfa-beta daje najlepsze wyniki z dowolnego ogólnego algorytmu wyszukiwania gier.
Breadth-first Search : Wyszukiwanie szerokości
Procedura wyszukiwania, w której wszystkie gałęzie drzewa wyszukiwania są oceniane jednocześnie, przełączając się między gałęziami, ponieważ każda gałąź jest oceniana w celu dojścia do wniosku lub utworzenia nowych gałęzi.
Brier Scoring Rule : Reguła punktacji Briera
Ta miara odległości jest kwadratową odległością euklidesową między dwoma kategorycznymi rozkładami. Został on wykorzystany jako zasada punktacji w klasyfikacji i rozpoznawaniu wzorów.
Brute Force Algorytm
Algorytmy, które wyczerpująco sprawdzają każdą opcję, są często nazywane algorytmami brutalnej siły. Chociaż takie podejście zawsze prowadzi do "najlepszego" rozwiązania, może również wymagać nieuzasadnionego czasu lub innych zasobów w porównaniu z technikami, które wykorzystują inną właściwość problemu w celu znalezienia rozwiązania, technikami wykorzystującymi chciwe podejście lub ograniczone spojrzenie w przyszłość. Przykładem może być problem znalezienia maksimum funkcji. Krok brutalnej siły podzieli wykonalny obszar na małe siatki, a następnie oceni wyniki w każdym punkcie na siatce. Jeśli funkcja jest "dobrze - zachował się, "mądrzejszy algorytm oceniałby funkcję w małej liczbie punktów i wykorzystywał wyniki tych ocen do iteracyjnego przemieszczania się w kierunku rozwiązania, osiągając maksimum szybciej niż podejście z użyciem siły brutalnej.
Bubble Graph : Wykres bąbelkowy
Wykres bąbelkowy jest uogólnieniem Directed Acylic Graph (DAG), w którym węzły reprezentują grupy zmiennych, a nie pojedynczą zmienną, jak w DAG. Są one stosowane w probabilistycznych systemach ekspertowych do reprezentowania wielowymiarowych relacji ogon głowy dla warunków warunkowych.
Bucket Brigade Algorithm
Algorytm stosowany w systemach klasyfikujących do dostosowywania mocy reguł. Algorytm iteracyjnie stosuje kary i nagrody do reguł opartych na ich wkładzie w osiągnięcie celów systemu.
BUGS
BUGS to darmowy program do montażu modeli Bayesian. Oprócz szerokiej gamy standardowych modeli, może również pasować do niektórych modeli graficznych przy użyciu technik Markov Chain Monte Carlo. Wersja Microsoft Windows, zwana WinBUGS, oferuje interfejs graficzny i możliwość rysowania modeli graficznych do późniejszej analizy.

C
Język komputerowy wyższego poziomu przeznaczony do programowania systemów ogólnych pod koniec lat 60. XX wieku w Bell Labs. C ma tę zaletę, że jest bardzo wydajny i nieco "blisko" maszyny, dzięki czemu może generować bardzo szybko programy. Wiele systemów eksperckich do produkcji opiera się na procedurach C.
Caduceus
System ekspercki do diagnozy medycznej opracowany przez H. Myersa i H. Pople′a na University of Pittsburgh w 1985 roku. System ten jest następcą programu INTERNIST, który obejmuje związek przyczynowy
Car
Podstawowa funkcja LISP, która wybiera pierwszego członka listy. Uzyskuje dostęp do pierwszego lub lewego członka komórki CONS.
Cardinality : Kardynalność
Liczność zbioru to liczba elementów w zestawie. Ogólnie rzecz biorąc, liczność obiektu jest miarą, zwykle w jakiejś formie liczenia, wielkości obiektu
Cascade Fuzzy ART
Hierarchiczna sieć Fuzzy ART, która rozwija hierarchię wzorców analogowych i binarnych poprzez uczenie oddolne kierowane przez proces wyszukiwania odgórnego
Case
Instancja lub przykład obiektu odpowiadającego obserwacji w tradycyjnej nauce lub wiersz w tabeli bazy danych. Sprawa ma powiązany wektor cech, zawierający wartości dla jej atrybutów.
Case Based Reasoning (CBR) : Rozumowanie na podstawie przypadków (CBR)
Case Based Reasoning (CBR) to oparta na danych technika automatyzacji wnioskowania z poprzednich przypadków. Kiedy system CBR jest przedstawiany z konfiguracją wejściową, przeszukuje swoją bazę danych w poszukiwaniu podobnych konfiguracji i dokonuje prognoz lub wniosków na podstawie podobnych przypadków. System jest w stanie uczyć się poprzez dodanie nowych spraw do swojej bazy danych, wraz z pewną miarą dobroci lub przydatności rozwiązania.
CAse Tool for Knowledge Engineering (CAKE) : Narzędzie CAse do inżynierii wiedzy (CAKE)
Narzędzie CAse do inżynierii wiedzy (CAKE) może działać jako interfejs do innych systemów eksperckich. Został zaprojektowany, aby umożliwić ekspertom domeny dodanie własnej wiedzy do istniejącego narzędzia.
CASSIOPEE
System ekspercki do rozwiązywania problemów opracowany jako wspólne przedsięwzięcie General Electric i SNECMA i stosowany do diagnozowania i przewidywania problemów dla Boeinga 737. Wykorzystał klastrowanie oparte na wiedzy w bazach danych (KDD) w celu uzyskania "rodzin" awarii.
Categorical Variable : Zmienna kategoryczna
Atrybut lub zmienna, która może przyjmować tylko ograniczoną liczbę wartości. Zazwyczaj przyjmuje się, że wartości nie mają właściwej kolejności. Problemy z prognozowaniem z wynikami jakościowymi są zwykle określane jako problemy z klasyfikacją.
Category Proliferation : Kategoria proliferacji
Termin odnosi się do tendencji sieci ART i innych algorytmów uczenia maszynowego do generowania dużej liczby prototypowych wektorów wraz ze wzrostem wielkości wzorców wejściowych.
Category Prototype : Prototyp kategorii
Wzorce rezonansowe w sieciach ART.
Cautious Monotonicity : Ostrożna monotoniczność
Ostrożna monotoniczność jest ograniczoną formą monotonicznej logiki, która pozwala zachować dowolne stare twierdzenia, ilekroć nowe informacje wynikają ze starej przesłanki.
C-Classic
Wersja językowa C systemu CLASSIC. Nie jest już rozwijany.
Cdr
Podstawowa funkcja LISP, która wybiera listę podrzędną zawierającą wszystkie elementy z wyjątkiem pierwszego elementu listy. Uzyskuje dostęp do drugiego członka komórki CONS
CHAID
Wczesna kontynuacja techniki automatycznego wykrywania interakcji (AID) zastąpiła testy Chi-Square w tabelach awaryjnych za poleganie na wcześniejszych technikach na normalnych technikach i pomiarach teoretycznych, takich jak testy i analizy wariancji. Metoda działa lepiej na wielu atrybutach n-ary (zmiennych) niż technika AID. Jednak metoda wciąż cierpi z powodu polegania na powtarzanych testach istotności statystycznej, ponieważ teoria, na której polegają te testy, zakłada takie rzeczy, jak niezależność zbiorów danych wykorzystywanych w powtarzanych testach (co jest wyraźnie naruszone, gdy testy są wykonywane na rekurencyjnych podzbiorach dane).
Chain Graph : Wykres łańcucha
Alternatywny sposób pokazania relacji wielowymiarowych w sieci przekonań. Ten wykres obejmuje zarówno łuki skierowane, jak i nieukierowane, gdzie łuki skierowane oznaczają relacje głowa / ogon, jak na wykresie przekonań, a łuki niekierowane pokazują zależności wielu zmiennych między zbiorami zmiennych
Chain Rule : Zasada łańcuchowa
Reguła łańcuchowa zapewnia metodę dekompozycji funkcji wielu zmiennych na prostsze funkcje jednowymiarowe. Dwa typowe przykłady to propagacja wsteczna w sieciach neuronowych, w których błąd prognozowania w neuronie jest podzielony na część ze względu na lokalne współczynniki i część ze względu na błąd w przychodzących sygnałach, które mogą być przekazywane do tych węzłów oraz w oparciu o prawdopodobieństwo modele, które mogą rozkładać złożone modele prawdopodobieństwa na produkty rozkładów warunkowych. Przykładem tego ostatniego może być rozkład P (A, B, C) na produkt P (A | B, C), P (B | C) i P (C), gdzie P (X | Y) jest warunkowym prawdopodobieństwem X dla Y. Ten ostatni rozkład leży u podstaw wielu sieci przekonań.
Character Recognition : Rozpoznawanie znaków
Zdolność komputera do rozpoznawania obrazu postaci jako postaci. Był to długoterminowy cel sztucznej inteligencji i był dość udany zarówno w przypadku materiałów drukowanych maszynowo, jak i ręcznie
Checkers Playing Programs : Programy do gry w warcaby
Najlepsze gry w warcaby napisane przez Samuelsa od 1947 do 1967 roku i mogą pokonać większość graczy. Programy do gier są ważne, ponieważ zapewniają dobrą przestrzeń do testowania i oceny różnych algorytmów, a także sposób testowania różnych teorii na temat uczenia się i reprezentacji wiedzy
CHEMREG
CHEMREG jest systemem opartym na wiedzy, który korzysta z uzasadnienia opartego na analizie przypadków, aby pomóc właścicielowi w spełnieniu wymogów regulacyjnych dotyczących informacji na temat zdrowia i bezpieczeństwa dotyczących wysyłki i obchodzenia się z produktami chemicznymi.
Chernoff Bound
Granica Chernoffa jest wynikiem teorii prawdopodobieństwa, która nakłada górne i dolne granice na odchylenie średniej próbki od średniej rzeczywistej i pojawia się wielokrotnie w analizach algorytmów uczenia maszynowego oraz w innych obszarach informatyki. Dla sekwencji m niezależnych prób binarnych, ze średnim wskaźnikiem powodzenia p, prawdopodobieństwo, że całkowita liczba głów jest wyższa (poniżej) (p + g) m [(pg) m] jest mniejsza niż e-2 mg ^ 2 .
Chess, Computer : Szachy, komputer
Zastosowanie metod i zasad sztucznej inteligencji do opracowania maszyn, które mogą grać w szachy na inteligentnym poziomie. Obszar ten stanowi ciągłe testowanie nowych algorytmów i sprzętu w sztucznej inteligencji, co prowadzi do ciągłego doskonalenia. Kulminacją tego był ostatni mecz pomiędzy A. Kasporovem a Deep Blue.
Chess 4.5 (And Above) : Szachy 4.5 (i wyżej)
Program szachowy, który wykorzystuje metodę brutalnej siły zwaną interaktywnym pogłębianiem, aby określić swój następny ruch.
Chinook
Chinook to program do gry w warcaby, który obecnie posiada mistrzostwo między człowiekiem a maszyną. Chinook wygrał mistrzostwo w 1994 roku z byłym królem, Marionem Tinselyem, który zrezygnował z powodu problemów zdrowotnych podczas meczu, a później zmarł na raka. Od tego czasu program bronił swojego tytułu. Chinook wykorzystuje algorytm wyszukiwania alfa-beta i jest w stanie przeszukać około 21 ruchów do przodu, korzystając z ręcznie dostosowanej funkcji oceny. Posiada bazę danych końcowych gier zawierającą ponad 400 miliardów pozycji, a także dużą bazę sekwencji otwierających.
Chi-kwadrat Rozkład
Rozkład chi-kwadrat jest rozkładem prawdopodobieństwa, indeksowanym przez pojedynczy parametr n, który można wygenerować jako sumę niezależnych kwadratowych wartości gaussowskich. Jego gęstość jest podana wzorem arametr n jest zwykle określany jako stopień swobody, ponieważ zwykle jest liczbą niezależnych terminów w powyższej sumie lub liczbą niepowiązanych parametrów w modelu
Chi-kwadrat Statystyka
Statystyka chi-kwadrat jest statystyką testową, która służy do pomiaru różnicy między zestawem danych a hipotetycznym rozkładem. Duże wartości tej statystyki występują, gdy dane i hipoteza różnią się. Jego wartości są zwykle porównywane z rozkładem chi-kwadrat. Jest powszechnie stosowany w tabelach awaryjnych (klasyfikacje krzyżowe) jako miara niezależności. W tym kontekście suma kwadratów różnic między obserwowanymi zliczeniami w komórce i oczekiwaną liczbą zliczeń, podzielona przez oczekiwaną liczbę (tj. Obserwowane oczekiwane ^ 2 / oczekiwane).
Parametr wyboru
Parametr ART, który kontroluje zdolność sieci do tworzenia nowych kategorii.
Chomsky′ego Hierarchia
Hierarchiczna klasyfikacja złożoności języków. Poziomy są uporządkowane według rosnącej złożoności:
Typ: Etykieta: Opis
3: Regularne: Wyrażenie regularne lub deterministyczne automaty skończone mogą określać, czy łańcuch należy do danego języka.
2: Bezkontekstowy: Obliczalny przez bezkontekstowego gramatyka lub automaty wypychające.
1: Wrażliwy na kontekst: Obliczalny za pomocą automatów ograniczonych liniowo.
0: Rekurencyjny: maszyna Turinga może obliczyć, czy dany ciąg należy do danego języka.
Choquet Możliwość
Używana w quasi-bayesowskich modelach niepewności, funkcja dodatnia v (x) jest (2-monotoniczna) zdolnością Choqueta, jeżeli v (pusty zbiór) = 0, v (wszechświat) = 1, a v (X lub Y) = v (X) + v (Y) - górny (v (X i Y)). Niższe prawdopodobieństwo, które jest również 2-monotonicznym Choquet, jest również niższą obwiednią i może być generowane z wypukłego zestawu rozkładów prawdopodobieństwa. Prawdopodobieństwo Choquet n-monotoniczne jest również funkcją przekonania Dempster-Shafer.
Chromosom
W algorytmach genetycznych jest to struktura danych, która zawiera sekwencję parametrów zadania, często nazywanych genami. Często są one kodowane w celu umożliwienia łatwych mutacji i krzyżowań (tj. Zmian wartości i transferu między konkurencyjnymi rozwiązaniami).
Chunking
Chunking to metoda stosowana w programach takich jak Soar do reprezentowania wiedzy. Warunki danych są podzielone na części, aby dane w stanie oznaczały dane b. Ta porcja pozwala Soarowi przyspieszyć naukę i zachowanie w dążeniu do celu. Kiedy Soar rozwiązuje impas, jego algorytmy określają, które elementy robocze pozwoliły na rozwiązanie impasu. Te elementy są następnie dzielone na części. Wyniki podzielone na fragmenty można ponownie wykorzystać, gdy wystąpi podobna sytuacja.
Churcha liczby
Liczby Churcha to funkcjonalna reprezentacja liczb nieujemnych, umożliwiająca czysto logiczną manipulację relacjami liczbowymi.
Churcha Teza
Twierdzenie, że każdy proces o charakterze algorytmicznym definiuje funkcję matematyczną należącą do określonej, dobrze zdefiniowanej klasy funkcji, znanej jako funkcje rekurencyjne. Umożliwiło to udowodnienie, że pewne problemy są nierozwiązywalne oraz udowodnienie szeregu innych ważnych wyników matematycznych. Stanowi także podstawę filozoficzną dla pomysłów, że sztuczna inteligencja jest możliwa i może być zaimplementowana w komputerach. Zasadniczo implikuje to, że inteligencję można sprowadzić do mechaniki.
Churn Analysis, Modeling, and Prediction (CHAMP) :Analiza, modelowanie i prognozowanie rezygnacji (CHAMP)
Churn Analysis, Modeling and Prediction (CHAMP) to program Knowledge Discovery in Databases (KDD) opracowywany w GTE. Jego celem jest modelowanie i przewidywanie obrotów klientów komórkowych (rezygnacja), a tym samym umożliwienie im zmniejszenia lub wpływu na obroty klientów.
Circumspection : Ostrożność
Zapobieganie jest formą niemononowej logiki. Osiąga to poprzez dodanie formuł do tej podstawowej logiki predykatów, które ograniczają (ograniczają) predykaty w formułach początkowych. Na przykład, formułę z symbolem p-ary predykatu można opisać, zastępując symbol p-ary predykatem wyrażenia arity p. Obwód osiąga pełną moc w logice drugiego rzędu, ale ma ograniczone zastosowanie ze względu na obecne ograniczenia obliczeniowe.
Class
Klasa to abstrakcyjne grupowanie obiektów w systemie reprezentacji, takim jak klasa samochodów. Klasa może mieć podklasy, takie jak czterodrzwiowe sedany lub kabriolety, oraz (jedna lub więcej) superklasy, takie jak klasa pojazdów czterokołowych. Konkretny obiekt, który spełnia definicje klasy, nazywa się instancją klasy. Klasa może zawierać sekcje opisujące klasę (sekcje własne), sekcje opisujące instancje klasy (sekcje instancji) oraz asercje, takie jak aspekty, które opisują klasę.
CLASSIC
System reprezentacji wiedzy opracowany przez AT&T do użytku w aplikacjach, w których szybka reakcja na zapytania jest ważniejsza niż ekspresyjna moc systemu. Jest zorientowany obiektowo i jest w stanie wyrazić wiele cech sieci semantycznej. Opracowano trzy wersje. Oryginalna wersja CLASSIC została napisana w LISP i jest najpotężniejsza. Mniej zaawansowana wersja, zwana C-Classic, została napisana w C. Najnowsza wersja, Neo-Classic, została napisana w C ++. Jest prawie tak potężny jak seplenieniowa wersja CLASSIC.
Classification : Klasyfikacja
Proces przypisywania zestawu rekordów z obserwacji bazy danych w zbiorze danych) do (zwykle) jednej z "niewielkiej" liczby uprzednio określonych rozłącznych kategorii. Powiązane techniki obejmują regresję, która przewiduje zakres wartości i grupowanie, które ( zazwyczaj) pozwala na tworzenie się kategorii. Klasyfikacja może być "rozmyta" w kilku znaczeniach tego słowa. W zwykłym sensie technika klasyfikacji może pozwolić, aby pojedynczy rekord należał do wielu (rozłącznych) kategorii z prawdopodobieństwem (szacowanym) należące do każdej klasy. Kategorie mogą się również nakładać, gdy są opracowywane albo poprzez model hierarchiczny, albo za pomocą techniki aglomeracyjnej. Wreszcie klasyfikacja może być rozmyta w sensie zastosowania technik "logiki rozmytej".
Classification And Regression Trees (CART) : Drzewa klasyfikacji i regresji (CART)
Drzewa klasyfikacji i regresji (CART) to szczególna forma drzewa decyzyjnego wykorzystywana w eksploracji danych i statystyce.
Classification Methods : Metody klasyfikacji
Metody stosowane w eksploracji danych i powiązanych obszarach (statystykach) w celu opracowania reguł klasyfikacji, które mogą kategoryzować dane do jednej z kilku wcześniej określonych kategorii. Wyspecjalizowana forma regresji, wynikiem reguł może być forma funkcji członkowskiej. Zapewnia to pewną miarę prawdopodobieństwa, że obserwacja należy do każdej z klas. Członkostwo może być ostre lub nieprecyzyjne. Przykładem wyraźnego przypisania może być funkcja dyskryminująca, która identyfikuje najbardziej prawdopodobną klasę, domyślnie przypisując przynależność tej klasy do jednej i drugiej. Przykładem nieprecyzyjnej funkcji członkostwa może być wielokrotna regresja logistyczna lub drzewo Drzewa Klasyfikacji i Regresji (CART), które określają prawdopodobieństwo członkostwa dla wielu klas.
Classification Tree : Drzewo klasyfikacji
Drzewo klasyfikacyjne to model o strukturze drzewa do klasyfikowania danych. Obserwacja jest prezentowana w węźle głównym, który zawiera regułę podziału, która dzieli klasyfikację obserwacji na jeden z jej węzłów podrzędnych. Proces powtarza się rekurencyjnie, aż obserwacja "opada" do węzła końcowego, co powoduje klasyfikację.
Classifier Ensembles : Zestawy klasyfikacyjne
Jedną z metod poprawy wydajności algorytmów uczenia maszynowego jest zastosowanie zestawów (np. Grup) klasyfikatorów do tych samych danych. Wynikowe klasyfikacje poszczególnych klasyfikatorów są następnie łączone przy użyciu metody prawdopodobieństwa lub głosowania. Jeśli poszczególni klasyfikatorzy mogą się ze sobą nie zgodzić, to wyniki klasyfikacji mogą być dokładniejsze niż poszczególne klasyfikatory. Każdy z poszczególnych klasyfikatorów musi mieć ponad 50-procentową szansę na poprawną klasyfikację
Clause : Klauzula
Fakt lub reguła w PROLOGU.
CLAVIER
System CLAVIER to komercyjnie opracowany i sprawdzony w praktyce system uzasadniania spraw wykorzystywany w firmie Lockheed w celu doradzania operatorom autoklawów w zakresie umieszczania części w ładunku. Początkowy system został zbudowany na podstawie danych ekspertów, opatrzony komentarzami i sklasyfikowany jako ważny lub nieważny. Po przedstawieniu nowego zestawu części do utwardzenia w autoklawach, system może wyszukiwać poprzednie obciążenia i pobierać podobne poprzednie przebiegi. Operatorzy mogą akceptować lub modyfikować sugestie systemu. System będzie również krytykować sugerowana modyfikacja poprzez porównanie wcześniejszych przebiegów. Po wykonaniu badania wyniki badania można wprowadzić do badania i stać
CLIPS
CLIPS to szeroko stosowane narzędzie do opracowywania i dostarczania systemów eksperckich. Obsługuje budowę opartych na regułach i / lub obiektowych systemów ekspertowych. Obsługuje programowanie obiektowe i programowe oparte na regułach. Jest napisany w języku C i jest szeroko przenośny. Z założenia może być zintegrowany z innymi systemami lub rozszerzony o wiele języków programowania. Został opracowany przez NASA i jest dostępny bezpłatnie jako kod źródłowy i skompilowane pliki wykonywalne. Dostępnych jest również wiele rozszerzeń i odmian. CLIPS używa algorytmu Rete do przetwarzania reguł.
Clique
Zestaw węzłów C z wykresu jest nazywany kompletnym, jeśli każda para węzłów w C ma wspólną krawędź. Jeśli nie ma większego zestawu kompletnego, wówczas C jest maksymalnie kompletne i nazywa się kliką. Kliki stanowią podstawę do budowy drzew Markowa i drzew połączeń w modelach graficznych
CLOS
CLOS to nazwa obiektowego rozszerzenia do Common LISP, Common Lisp Object System.
Closed World Assumption : Zamknięte założenie świata
Model lub założenie świata zamkniętego jest metodą stosowaną do radzenia sobie z "nieznanymi" faktami w bazach danych i wiedzy z ograniczonymi domenami. Fakty, o których nie wiadomo, że są prawdziwe, uważa się za fałszywe.
Closure : Zamknięcie
Jeśli R jest relacją binarną, a p jest jakąś właściwością, wówczas zamknięcie R w odniesieniu do p jest najmniejszą relacją binarną, która zawiera R i spełnia p. Na przykład ze zbiorem A = {a, b, c, d} i relacją R = {, , }, przechodnie przejście R dodaje trzy pary {, , } do R .
Closures : Zamknięcia
Uogólnienie funkcji anonimowych, które przypisuje wartości do wyrażeń funkcjonalnych. Funkcja zachowuje kontekst powiązania, który był aktualny w momencie jej tworzenia. Ten kontekst może być następnie wykorzystany jako odniesienie do wolnych zmiennych w funkcji.
Clustering : Grupowanie
Klastrowanie jest techniką stosowaną w Data Mining, OnLine Analytical Processing (OLAP) i podobnych działaniach do obserwacji grupowych. Procedura grupowania próbuje zidentyfikować i wyodrębnić "podobne" grupy obserwacji z zestawu danych. W przeciwieństwie do procedur klasyfikacji liczba i przynależność do grup nie są z góry znane. Obserwacje są pogrupowane według tego samego zestawu atrybutów, który jest wykorzystywany do oceny ich jednorodności. Natomiast techniki klasyfikacji i regresji wykorzystują jedną grupę zmiennych, aby uzyskać jednorodność drugiego zestawu. Proces klastrowania może być albo aglomeracyjny, w którym każdy rekord rozpoczyna się jako własny klaster i jest łączony z innymi klastrami, lub dzielny, w którym wszystkie dane rozpoczynają się w jednym dużym klastrze i stopniowo dzieli się na mniejsze, bardziej jednorodne klastry. Chociaż grupowanie często jest samo w sobie interesujące, można je również wykorzystać do wybrania interesujących podgrup do dalszej analizy. Klastry mogą być rozłączne, dzięki czemu każda obserwacja mieści się w jednym i tylko jednym klastrze, hierarchicznym, w którym klastry wyższego poziomu są dalej dzielone na podklasty rekurencyjnie lub nakładające się, tak że indywidualny punkt danych może mieć członkostwo w więcej niż jednym grupa.
Cluster Tree : Drzewo klastrowe
Drzewo klastrów zmiennych jest drzewem klastrów zmiennych. Każde drzewo klastrów odpowiadające sieci bayesowskiej jest reprezentacją rozkładu prawdopodobieństwa zmiennych, a prawdopodobieństwo sieci można obliczyć z produktów i podziałów prawdopodobieństw klastrów.
Codebook Vector
Wektor słownika jest środkiem ciężkości gromady w sieci neuronowej Kohonena.
COG Projekt
Projekt COG to ciągłe przedsięwzięcie MIT mające na celu zbudowanie humanoidalnego robota, który może wykazywać inteligencję humanoidalną. Wciela się w niejasno przypominającego człowieka robota, który ma tułów, ramię, głowę i oczy. Uszy i palce są w fazie rozwoju.
COGSYS
COGSYS to ogólne środowisko programistyczne oparte na wiedzy, zaprojektowane specjalnie w celu rozwiązywania problemów w czasie rzeczywistym i jest sprzedawane przez Cogsys, Ltd.
Combinatorial Explosion : Wybuch kombinatoryczny
Gdy program zaczyna analizować kombinacje wyborów, jak w procedurze wybiegającej w przyszłość lub w problemie z planowaniem, liczba możliwych wyborów rośnie jako iloczyn liczby wyborów dla każdego elementu w wyszukiwaniu. Rośnie to znacznie szybciej niż liczba indywidualnych wyborów i może prowadzić do bardzo dużej liczby kombinacji do oceny, może uniemożliwić programowi znalezienie rozwiązania w rozsądnym czasie. Jako przykład rozważmy program, który chce znaleźć optymalną kombinację wielu czynników dwupoziomowych. Gdy jest tylko jeden czynnik, do oceny są tylko dwie "kombinacje". Gdy występuje pięć czynników, program musi rozważyć 25 lub 32 kombinacje, a gdy jest 10 czynników, istnieje 210 lub 1024 kombinacji.
Comma Strategy : Strategia przecinków
Strategia przecinków to metoda, którą można zastosować w algorytmach ewolucyjnych. W każdym pokoleniu rodzice rodzą potomstwo i są odrzucani ("giną"), pozostawiając tylko potomstwo konkurujące w następnym pokoleniu.
Committee of Experts Methods : Metody Komitet Ekspertów
Metody komitetu ekspertów stosują wiele modeli (ekspertów) do tych samych danych i dają wynik przez uśrednienie wielu prognoz lub przez znalezienie większości lub najbardziej przewidywanego wyniku.
Common LISP
Zestaw wspólnych specyfikacji dla wszystkich różnych dialektów LISP.
Communality Number : Numer wspólnoty
Suma wszystkich rdzeni zbiorów, które zawierają zbiór A, jest liczbą wspólnoty dla A. Jest to miara prawdopodobieństwa, które może swobodnie przepływać do każdego punktu w A z całej funkcji przekonań. Natomiast rdzeniem A jest prawdopodobieństwo przypisane bezpośrednio do zbioru A, a nie do żadnego z jego elementów. Różnica między tymi dwoma liczbami mierzy prawdopodobieństwo, które może odziedziczyć po wszystkich swoich supersetach.
Commutative Property : Własność przemienna
W logice formalnej operator (binarny) jest przemienny, jeśli kolejność argumentów nie zmienia wartości wyniku. W zwykłej arytmetyce zarówno dodawanie, jak i mnożenie są przemienne jako a + b = b + a i a * b = b * a. Nie dotyczy to na przykład mnożenia macierzy, gdzie mnożenie nie jest przemienne.
Compatibility Modification Inference (CMI) : Wnioskowanie o modyfikacji zgodności (CMI)
Klasa metod przeprowadzania wnioskowania przy użyciu logiki rozmytej. Biorąc pod uwagę rozmytą regułę, system CMI najpierw określa stopnie, w których dopasowuje się poprzednik reguły, i wykorzystuje tę wartość do określenia siły konsekwencji.
Compiler
Program, który tłumaczy pliki tekstowe z jednego języka komputerowego na inny, zwykle niższego poziomu, język. Na przykład kompilator C przetłumaczy zestaw plików C i nagłówków na obiekt (język maszynowy) lub plik asemblera. Podczas kompilacji kompilator może również rozpoznawać odniesienia, makra i dyrektywy makr.
Compliment Coding : Kodowanie komplementów
Schemat kodowania wejściowego czasami wykorzystywany w sieciach ART. Aby zapobiec rozprzestrzenianiu się kategorii, zarówno oryginalne dane wejściowe, jak i ich uzupełnienie są przedstawiane sieci.
Composition : Kompozycja
Kompozycja jest funkcją lub relacją, którą można zbudować z innych funkcji lub relacji. Na przykład funkcja "Dziadek (X)" to rekurencyjna kompozycja funkcji Parent (), Dziadek (X) = Parent (Parent (X)).
Computer-Aided Design (CAD) : Projektowanie wspomagane komputerowo (CAD)
Proces korzystania z komputera w celu wspomagania projektowania i (CADCAM) wytwarzania obiektów lub systemów. Złożoność tych systemów waha się od podstawowych systemów rysowania przez systemy, które mogą ostrzegać o podstawowych ograniczeniach wymiarowych, po systemy, które rozumieją i wdrażają ograniczenia oparte na innych właściwościach obiektów w systemie. Służy do projektowania układów mechanicznych, elektronicznych, konstrukcyjnych i innych.
Computer-Aided Education : Edukacja wspomagana komputerowo
Wykorzystanie komputerów do pomocy w edukacji personelu.
Computer Integrated Manufacturing (CIM)
Computer Integrated Manufacturing odnosi się do integracji czujników i sterowników komputerowych w procesie produkcyjnym. Obejmuje to trzy rodzaje funkcji. Po pierwsze komputery zapewniają programowalną i elastyczną automatyzację procesu produkcyjnego. Prowadzi to do elastycznej optymalizacji procesu w celu reagowania na bieżące zmiany procesu. Różne czujniki i sterowniki można zintegrować w kompleksowy system.
Concept : Pojęcie
Symbol mający znaczenie lub interpretację w domenie aplikacji.
Concept Drift : Drift koncepcyjny
Systemy, które klasyfikują lub przewidują koncepcję (np. Ratingi kredytowe lub monitory włamań do komputera) w miarę upływu czasu mogą ponieść straty wydajności, gdy koncepcja, którą śledzą, zmienia się. Jest to określane jako znoszenie koncepcji. Może to być naturalny proces, który zachodzi bez odniesienia do systemu, lub proces aktywny, w którym inni reagują na system (np. Wykrywanie wirusa).
Concept Language : Język koncepcyjny
Język używany do konstruowania pojęć, taki jak język pierwszego rzędu lub język zdań. Wybór języka określa pojęcia, które można wyrazić w danym systemie.
Concept Lattice : Krata koncepcyjna
Przestrzeń koncepcji, która jest częściowo uporządkowana według rozszerzeń i intencji koncepcji, stanowi sieć koncepcyjną. Rozszerzenia są powiązane podzbiorem relacji między pojęciami i większą ogólnością intencji pojęć. Porządki są tylko częściowe, ponieważ nie wszystkie podzbiory lub klastry spełnią relację mniejszą lub większą niż. Oba podzbiory mogą zawierać dany podzbiór i mogą być zawarte w innym podzbiorze, ale nie mogą mieć żadnej kolejności między sobą, lub mogą nie dzielić nic więcej niż pusty zbiór jako podzbiór i wszechświat jako nadzbiór.
Concept Learning : Uczenie się koncepcji
W uczeniu maszynowym pojęcie jest zilustrowane przez zestaw pozytywnych przykładów (przypadki, które są przykładami pojęcia) i zestaw negatywnych przykładów (przypadki, które nie są przykładami pojęcia). W ramach uczenia się pojęciowego uczeń próbuje zbudować regułę lub algorytm, który pozwoli mu całkowicie oddzielić pozytywne i pozytywne i negatywne przykłady.
Concept Space : Przestrzeń koncepcyjna
Rozważ zestaw wszystkich pojęć, które można utworzyć za pomocą określonego języka i zestawu atrybutów. Jeśli te pojęcia można zamówić lub częściowo zamówić, tworzą one przestrzeń koncepcyjną.
Conceptual Dependency : Zależność pojęciowa
Teoria przetwarzania języka naturalnego.
Conceptual Knowledge Markup Language (CKML)
Conceptual Knowledge Markup Language (CKML), podobnie jak Ontology Markup Language (OML) i Simple HTML Ontology Expression (SHOE), jest językiem reprezentacji wiedzy zaprojektowanym do użycia w sieci WWW. Jest to również aplikacja XML i rozszerza OML. OML i SHOE zapewniły środki do ontologii i obiektów w tych ontologiach. CKML dodaje także możliwość określania atrybutów, skal koncepcyjnych i widoków koncepcyjnych informacji.
Conditional : Warunkowy
W probabilistycznych systemach ekspertowych: zbiór rozkładów warunkowych dla tej samej grupy zmiennych (określanych jako głowa) we wszystkich stanach zestawu warunkowych zmiennych (nazywanych ogonem). Warunkowy rozkład wzrostu i masy ciała dla różnych wzajemnie wykluczających się grup wieku i płci byłby warunkowy, przy czym wzrost i waga byłyby zmiennymi głównymi, a wiek i płeć zmiennymi ogonowymi.
Conditional Distribution : Dystrybucja warunkowa
Kiedy zaczynasz od danego rozkładu wielowymiarowego, a następnie ograniczasz zmienne lub atrybuty do podzbioru możliwych stanów, wynikowy (renormalizowany) rozkład prawdopodobieństwa jest warunkowy w stosunku do pierwotnego rozkładu wielowymiarowego. Rozkład warunkowy jest ważny w manipulowaniu probabilistycznymi systemami ekspertowymi.
Conditional Independence : Warunkowa niezależność
Warunkowa niezależność jest podstawowym pojęciem w modelach prawdopodobieństwa oraz w konstrukcji sieci przekonań i sieci bayesowskiej. Mówi się, że dwa atrybuty lub grupy atrybutów są warunkowo niezależne w odniesieniu do trzeciej grupy, gdy dwa atrybuty są niezwiązane lub niezależne dla stałych wartości trzeciej. Gdy trzeci atrybut jest "wolny" lub niezmierzony, oba atrybuty mogą wydawać się zależne.
Condition Attribute : Atrybut warunku
W teorii zbiorów szorstkich atrybuty dzielą się na atrybuty warunków i atrybuty decyzji. Atrybut warunku to taki, który jest używany jako predyktor lub atrybut klasyfikacji dla atrybutu decyzyjnego (tj. Wyniku modelu). Atrybuty decyzji są uwarunkowane atrybutami warunków.
Condition Number : Liczba warunku
Podczas manipulowania wartościami liczbowymi system modelowania może zostać źle wprowadzony, jeśli wielkości liczb są daleko od siebie, co może prowadzić do niestabilności liczbowej. Liczba warunków jest miarą potencjału problemów i jest tworzona jako stosunek największej liczby do najmniejszej niezerowej liczby. Znaczenie tego numeru jest związane z precyzją maszyny systemu, na którym jest on zaimplementowany.
Confidence Interval : Przedział ufności
Technika kwantyfikacji niepewności obliczonej wartości. Wykorzystując pewne założenia (tj. modele) dotyczące gromadzenia danych i zmian wartości danych, można skonstruować przedział, który będzie zawierał "prawdziwą" wartość w danym odsetku powtarzających się zastosowań reguły. Pojedynczy obserwowany przedział nazywany jest przedziałem ufności, a proporcja nazywana jest poziomem ufności. Wiele przypadków można objąć "prostymi" założeniami parametrycznymi, podczas gdy bardziej skomplikowane przypadki można rozwiązać za pomocą aproksymacji i technik symulacyjnych.
Confidence Threshold : Próg zaufania
Progi ufności są stosowane w regułach asocjacji w celu opisania dolnej granicy prawdopodobieństwa, że konsekwencja asocjacji jest prawdziwa, gdy poprzednik jest prawdziwy. Próg ufności jest wybierany, aby wyeliminować "nieciekawe" lub mało prawdopodobne konsekwencje podczas wyszukiwania powiązań w bazie danych.
Configuration : Konfiguracja
Termin konfiguracja jest używany w odniesieniu do konkretnych wartości podzbioru atrybutów w modelu, takich jak sieć bayesowska lub sieć neuronowa. Są one zwykle traktowane w tym kontekście jako dane wejściowe lub ograniczenia modelu.
Confusion Matrix : Macierz Zamieszania
Kwadratowa tabela podsumowująca liczbę lub odsetek przypadków, w których pozycje ze znanych kategorii są klasyfikowane do różnych kategorii według programu klasyfikacji. Wpis w i-tym rzędzie i j-tej kolumnie zazwyczaj opisuje prawdopodobieństwo zaklasyfikowania elementu z i-tej klasy do j-tej klasy.
Conjunctive Normal Form (CNF) : Łączna postać normalna (CNF)
Połączenie funkcji binarnych na atrybutach. Koniugatywna postać normalna (CNF) równania logicznego jest uzyskiwana przez zamianę dysjunkcji w rozłączną postać normalną (DNF) z koniunkcjami. Każda funkcja boolowska może być reprezentowana jako CNF i DNF.
Connected Graph : Połączony wykres
Wykres jest połączony, jeśli istnieje co najmniej jedna ścieżka między każdą parą węzłów na wykresie. Połączony niekierowany wykres jest drzewem, jeśli nie ma cykli.
Connectionism : Łączność
Jest to nazwa wysoce równoległego modelu dla "inteligentnych" obliczeń. Zamiast używać pojedynczego szybkiego procesora do obliczania algorytmu, proces jest dzielony na wiele mniejszych, ale wyspecjalizowanych procesów, które obliczają jednocześnie. Przykładem może być proces sieci neuronowej, w którym każdy "neuron" w sieci jest przypisany do jednego procesora.
CONNIVER
Następca programu PLANNER. Ten program próbował przezwyciężyć ograniczenia w algorytmie cofania się PLANERA.
Cons Cell : Wady Komórki
Wadą jest podstawowa struktura danych w LISP; komórka przeciwna zawiera dwa wskaźniki lub wskaźnik i wartość. Służy do konstruowania wielu bardziej złożonych struktur, takich jak listy i drzewa, poprzez połączenie komórek przeciw. Wad operator łączy ze sobą dwa obiekty.
Constraint Propagation : Propagacja ograniczeń
Wiele systemów ma szereg ograniczeń dotyczących wartości lub właściwości. Jeśli może to być reprezentowane przez sieć relacji, systemy mogą propagować lokalne ograniczenia w całym systemie, aby osiągnąć globalną spójność. Zasadniczo, gdy stabilny system jest aktualizowany o nowe dane lub zapytanie, ograniczenia mogą być iteracyjnie uruchamiane w celu kaskadowania przez system, aż wartości systemu osiągną stabilny stan.
Constraint Satisfaction : Satysfakcja z ograniczeń
Ogólny termin określający różne techniki stosowane w sztucznej inteligencji i innych obszarach obliczeń. Systemy rozwiązywania ograniczeń działają z bazą wiedzy o ograniczeniach i zawierają silnik do wyszukiwania rozwiązań spełniających te ograniczenia. System rozwiązywania ograniczeń będzie cyklicznie przechodził przez ograniczenia, zmieniając wolne wartości w systemie, aby spełnić pewne kryteria maksymalizacji lub minimalizacji.
Construction Sequence : Sekwencja budowy
Uporządkowana sekwencja warunków warunkowych, które spełniają warunki potrzebne do obliczenia rozkładu prawdopodobieństwa. Sekwencje te umożliwiają probabilistycznym systemom eksperckim obliczanie prawdopodobieństw na podstawie szeregu mnożenia, zamiast obliczania i zapisywania całego rozkładu wielowymiarowego i związanych z nim marginesów i / lub warunków warunkowych. Sekwencje konstrukcyjne są często reprezentowane przez Directed Acylic Graph (DAG) lub ich wielowymiarowe uogólnienia zwane wykresami bąbelkowymi.
Continuer
Funkcja, zwykle warunkowa, która pozwala rozwinąć margines do pełnego rozkładu wielowymiarowego. Gdy margines jest niezerowy, kontynuator musi być warunkowy, a gdy margines nie jest ujemny, kontynuator może być wybrany jako warunkowy, ale nie musi być unikalny. Stosowane w probabilistycznych systemach ekspertowych pozwalają konstruować rozkłady prawdopodobieństwa przy odpowiednich rozkładach krańcowych i warunkowych.
Continuous Attribute : Ciągły atrybut
Atrybut o stałej wartości to taki, który może przyjmować wartości z (ograniczonej) linii rzeczywistej. Atrybut może mieć charakter nominalny, porządkowy, przedziałowy lub stosunek. W pierwszych dwóch przypadkach wartości liczbowe są nieistotne.
Contrast Enhancement : Poprawa kontrastu
Ogólna funkcja warstwy F2 w sieci ART. Najpopularniejszą wersją jest funkcja zwycięzca-bierze-wszystko.
Control Theory : Teoria Kontroli
W robotyce teoria sterowania leży u podstaw sterowania robotem. Obejmuje takie pojęcia, jak dynamika, kontrola sprzężenia zwrotnego, kinematyka, kodowanie zadań. Problem sterowania związany z ramieniem robotyki polega na określeniu szeregu impulsów w czasie, aby nastąpił szereg ruchów lub zdarzeń.
Core : Rdzeń
W teorii zbiorów przybliżonych podstawowymi atrybutami są te atrybuty, które znajdują się na przecięciu wszystkich reduktorów. Ani redukcje, ani minimalne redukcje zestawu atrybutów niekoniecznie są unikalne. Podstawowe atrybuty to te, które pojawiają się we wszystkich redukcjach zestawu atrybutów i muszą być zawarte w dowolnej zredukowanej tabeli. Pozostałe atrybuty w zestawie (minimalnych) redukcji muszą być wybrane na podstawie innych kryteriów (np. Najmniejszej całkowitej liczby atrybutów w zmniejszonej tabeli lub najlepszych przybliżeń górnych i dolnych do niektórych koncepcji).
Coreference Resolution : Rozdzielczość korelacji
W przetwarzaniu języka naturalnego jest to proces określania, które frazy w tekście odnoszą się do tego samego. W tekście "Frank poszedł do sklepu. To był miły dzień i kupił bochenek chleba. To był żyto", program musi ustalić, że pierwsze "to" odnosi się do konkretnego momentu, w którym wydarzenie miało miejsce, drugie "to" odnosi się do ładunku chleba, a "on" odnosi się do Franka. W tekście "John dostał Saturna. Potrzebował samochodu do pracy ", zdania" a Saturn "i" samochód "są podstawami.
Coroutines
Zestaw programów komunikujących się z pokrewnymi programami jako elementy równorzędne. Każdy program wchodzi w interakcję z innymi programami za pośrednictwem procedur wejścia i wyjścia. Są one zwykle używane w takich systemach, jak systemy operacyjne, symulacje i parsowanie języków.
Correlation : Korelacja
Korelacja jest statystyczną miarą powiązania między dwoma atrybutami lub typami zdarzeń. Zazwyczaj waha się od -1 do 1, przy czym -1 oznacza całkowite ujemne skojarzenie (np. Jeśli wystąpi jeden typ zdarzenia, drugi nie może), a +1 oznacza całkowite dodatnie skojarzenie. W przypadku atrybutów ciągłych współczynnik korelacji Pearsona oblicza się jako stosunek kowariancji między dwoma atrybutami do iloczynu standardowych błędów atrybutów.
Coulter FACULTY
Coulter FACULTY to działający system oparty na wiedzy, który działa jako asystent w hematologii laboratoryjnej. Może także pomóc w planowaniu przepływu pracy.
Counterpropagation : Kontrpropagacja
Sieć kwantowania wektorów uczenia się (LVQ) Kohonena dokonuje klasyfikacji według klasyfikacji najbliższego sąsiada na wektorach słownika. Podobnie, kontrpropagacja wykonuje regresję najbliższego sąsiada na wektorach słownika.
Covariance : Kowariancja
Kowariancja między dwoma atrybutami lub zdarzeniami jest statystyczną miarą ich powiązania. Dla dwóch ciągłych atrybutów kowariancja jest obliczana jako s (x-?x) (y-?y) / (n-1), średni iloczyn krzyżowy odchyleń poszczególnych wartości od ich średniej lub oczekiwań.
Covering : Pokrycie
Mówi się, że zestaw atrybutów binarnych obejmuje bazę danych i próg wsparcia s, jeśli proporcja rekordów w bazie danych, dla których każdy z atrybutów jest prawdziwy, wynosi ≥ s.
C ++
Rozszerzenie języka C, które implementuje wiele pomysłów zaczerpniętych z języków obiektowych, takich jak klasy, instancje, metody i dziedziczenie. Składnia języka Java pochodzi ze składni C i C ++.
C5.0 / See5
C5.0 jest komercyjnym następcą (http://www.rulequest.com/) oprogramowania drzewa decyzyjnego C4.5. Wersja systemu Windows jest dostępna jako produkt See5. Tworzy zestawy reguł, może używać ulepszeń i oblicza zmienne koszty błędnej klasyfikacji.
C4.5
Program do generowania drzew klasyfikacyjnych dla danych z dyskretnie sklasyfikowanymi atrybutami. Wykorzystuje rekurencyjny algorytm partycjonowania (dziel i rządź), aby znaleźć "dobre" podziały w przewidywaniu klasyfikacji docelowej (lub zmiennej klasy). Powstałe drzewa można wykorzystać bezpośrednio lub ponownie wyrazić jako serię reguł produkcji.
Credal Zestaw
Quasi-bayesowskie metody reprezentowania i manipulowania niepewnością rozszerzają pojęcie rozkładu prawdopodobieństwa, aby reprezentować niepewność dotyczącą zbioru zdań przy użyciu zestawu rozkładów. Ze względu na charakter tych operacji zestaw ten jest często rozszerzany o zestaw wypukły obejmujący zestaw rozkładów (np. Wszystkie mieszaniny pierwotnych rozkładów). Ten zestaw wypukły nazywa się zestawem wiarygodności.
Credible Set : Wiarygodny zestaw
W modelach bayesowskich i quasi-bayesowskich wiarygodnym zestawem na poziomie p jest dowolny zestaw zdarzeń, dla których całkowite prawdopodobieństwo wynosi p. Jeśli zdarzenia są uporządkowane w odstępach czasu (np. Przewidywanych wartości zapasów), wówczas odsetki zwykle dotyczą przedziału wiarygodności na poziomie p, w szczególności najwyższego przedziału gęstości tylnej, który jest najkrótszym przedziałem z określonym prawdopodobieństwem
Crews_NS
Crews_NS to system planowania służący do ustalania harmonogramu kierowców i strażników dla kolei holenderskich. System Crews_NS uwzględnia zmiany w planach i dostępności zasobów. Wykorzystuje wyszukiwanie w przestrzeni stanów i propagację ograniczeń, aby poprowadzić system i działać w trybach automatycznym, półautomatycznym i ręcznym.
Crossover
W genetyce (biologicznej) plan przyszłego potomstwa jest przechowywany w genach organizmu. Podczas rozmnażania geny te mogą się zaplątać. Splotki są łamane przez mechanizmy naprawcze, które mogą skleić ze sobą niewłaściwe elementy. Jest to określane jako "crossover". Algorytmy genetyczne naśladują tę wymianę w celu wygenerowania nowych odmian rozwiązań lub modeli. Zachowanie modelu jest zakodowane w łańcuchu (o stałej długości), zwanym chromosomem, który może pozwolić na zwrotnice podczas reprodukcji, stan w algorytmie genetycznym, który propaguje członków sukcesu obecnej generacji.
Cross-validation : Walidacja krzyżowa
Ulepszenie metody sprawdzania poprawności podzielonej próby w celu oszacowania błędu związanego z techniką modelowania. Zazwyczaj dane są dzielone na k-podpróbki o tym samym rozmiarze, a model jest dopasowany k razy, za każdym razem usuwając jedną z k podpróbek z danych i szacując błąd z próbki wstrzymania. Miary błędu k można następnie łączyć, aby oszacować prawdziwy błąd techniki. Ładowanie początkowe może być lepszym, ale droższym sposobem oszacowania błędu związanego z modelem.
CRYSALIS
System oparty na tablicy do określania przestrzennej lokalizacji atomów białka. Wykorzystuje listę uporządkowanych aminokwasów i mapę gęstości elektronów, trójwymiarową "migawkę" białka.
Cubist
Cubist to komercyjny program, który dostosowuje algorytmy C5.0 do ciągłych odpowiedzi. Tworzy drzewo regresji.
Cumulative Probability Distribution : Skumulowany rozkład prawdopodobieństwa
Dla zmiennej uporządkowanej (np. Wieku) lub zestawu stanów skumulowany rozkład prawdopodobieństwa jest funkcją, która zwraca prawdopodobieństwo bycia mniejszym lub równym danej wartości w porządku. Gdy atrybut jest ciągły, pochodną tej funkcji określa się jako funkcję gęstości prawdopodobieństwa.
Curse of Dimensionality : Przekleństwo wymiarowości
W miarę wzrostu liczby wymiarów w modelu predykcyjnym "rozmiar" modelowanej przestrzeni danych rośnie w sposób wykładniczy. Wraz ze wzrostem liczby predyktorów dla danej wielkości próby zasięg "przestrzeni danych" staje się coraz mniejszy, tak że każda nowa obserwacja staje się "dalej" od jakiegokolwiek wcześniej obserwowanego punktu danych. Prowadzi to do problemu wyboru zmiennych często spotykanego w wielu technikach statystycznych.
Cut
W PROLOGU cut jest operatorem służącym do zakończenia cofania.
Cybenki Twierdzenie
Twierdzenie to udowodniło, że możliwe było przybliżenie dowolnej funkcji ciągłej do dowolnego pożądanego stopnia dokładności za pomocą sieci neuronowej z funkcją przenoszenia sigmoidalnego i dwóch ukrytych warstw. Jest to ważne, ponieważ pokazuje, że sieci neuronowe mogą "nauczyć się" dowolnych funkcji ciągłych z dowolną wymaganą dokładnością. Nie określa wielkości sieci, która byłaby wymagana do osiągnięcia określonego poziomu błędu.
Cybernetyka
Termin wymyślony przez Normana Weinera oznaczał badanie mechanizmów kontrolnych w maszynach i organizmach biologicznych. Wywodzi się od greckiego słowa "sternik".
Cyc
Cyc to bardzo duża ogólna baza wiedzy i powiązany silnik wnioskowania rozwijany od 1984 roku przez Douglasa Lenanta. Celem projektu jest zbudowanie bardzo głębokiej warstwy "zdrowej" wiedzy o rzeczach i ich relacjach, którą można wykorzystać do zwiększenia wiedzy innych programów. Baza wiedzy Cyc składa się z dziesiątek tysięcy pojedynczych terminów i twierdzeń, które warunki ich dotyczą. Baza wiedzy jest obecnie podzielona na setki "mikroteorii", z których wszystkie mają wspólne założenia, ale które mogą nie zgadzać się z twierdzeniami innych "mikroteorii". Program Cyc dodaje teraz również swoje własne twierdzenia w ramach procesu wnioskowania. Ta technologia zaczęła być stosowana w wielu obszarach. Biorąc pod uwagę jego duże możliwości zdrowego rozsądku, to z powodzeniem zastosowano w przetwarzaniu języka naturalnego oraz w Data Mining obejmującym duże heterogeniczne i multimedialne bazy danych.
Cycl
CycL jest językiem reprezentacji wiedzy używanym przez system Cyc. Jest to zasadniczo rozszerzenie rachunku predykatu pierwszego rzędu.
Cykl (cykliczny)
Wykres zawiera cykl, jeśli istnieje ścieżka skierowanych łuków, która wraca przez swój węzeł początkowy bez użycia żadnego ukierunkowanego łuku więcej niż jeden raz.

DADO : BOAZERIA
Równoległa architektura maszyny zoptymalizowana pod kątem sztucznej inteligencji. Wiele elementów przetwarzania jest ułożonych w drzewo binarne.
Daemon
Demon to termin określający autonomiczny proces komputerowy, który może (pojawiać się) działać jednocześnie z innymi procesami na komputerze. Demon może wchodzić w interakcje z innymi procesami lub obsługiwać żądania zewnętrzne (użytkownika). Typowym przykładem jest demon transportu poczty, który czeka na dostarczenie poczty i obsługuje dostarczanie lokalne.
Dante
Dante I i Dante II były ambitnymi eksperymentalnymi półautonomicznymi robotami zaprojektowanymi do pracy w nieprzyjaznym środowisku, takim jak wulkany i środowiska pozaziemskie. Dante I został opracowany do odkrywania Mt. Eusibius na Antarktydzie, ale zawiódł z powodu ekstremalnego zimna. Dante II z większym powodzeniem eksplorował kolejny wulkan, ale ostatecznie poślizgnął się, przewrócił i nie był w stanie się wyprostować.
Database Marketing : Marketing baz danych
Technika Data Mining, która wykorzystuje bazy danych klientów i narzędzia Data Mining do wybierania potencjalnych klientów w precyzyjnie ukierunkowany sposób. Znany również jako odpowiedź wiadomości e-mail.
Data Cleaning : Czyszczenie danych
Proces sprawdzania poprawności danych przed analizą danych lub Data Mining. Obejmuje to zarówno zapewnienie, że wartości danych są prawidłowe dla określonego atrybutu lub zmiennej (np. Wysokości są dodatnie i mieszczą się w rozsądnym zakresie), a także, że wartości dla danych rekordów lub zestawu rekordów są spójne. Niektóre przykłady obejmują zapewnienie, że wiek rośnie wraz z upływem czasu lub że wiek i waga są zgodne (żadna osoba siedem stóp nie waży mniej niż 100 funtów). Podczas obchodzenia się z anomalnymi wartościami należy zachować ostrożność, aby zapewnić, że ważne wartości odstające nie zostaną nieprawidłowo usunięte. Te wartości odstające mogą być bardzo pouczające. Czyszczenie danych jest ważnym początkowym krokiem w budowie hurtowni danych i Data Mining. Nieprawidłowe wyczyszczenie danych może prowadzić do nieprawidłowych wniosków, wynikających z wartości odstających i / lub niemożliwych, lub pominiętych relacji.
Data Dictionary : Słownik danych
Słownik danych to baza danych informacji o zmiennych w innych tabelach danych. Słownik danych zawiera "metadane" dotyczące struktury, zawartości i relacji między innymi bazami danych oraz ich atrybutów w hurtowni danych.
Data Mart
Hurtownia danych specjalizująca się w niektórych analizach. Dane są zwykle podzbiorem większej hurtowni danych, która odpowiada na specjalne pytanie lub ma strukturę dla określonego zestawu narzędzi.
Data Mining
Termin używany w statystyce i odkrywaniu wiedzy w polach baz danych w celu opisania zastosowania automatycznych lub półautomatycznych procedur do danych w celu wykrycia nieznanych wcześniej wzorców w danych. Istnieje wiele metod, z których każda została omówiona w innych wpisach. Procedury te obejmują procedury klasyfikacji, które próbują nauczyć się klasyfikować obiekty do wcześniej zdefiniowanych klas oraz procedury regresji, które próbują przewidzieć lub przypisać wartość do wyznaczonego wyniku z wyznaczonych pól wejściowych. Obejmują one również metody grupowania, które próbują znaleźć grupy podobnych punktów danych, modele zależności (zarówno ilościowe, jak i strukturalne), takie jak modele graficzne, które próbują modelować wzajemne powiązania zestawu danych, oraz metody odchyleń, które próbują wyciągnąć najwięcej znaczące odchylenia od zestawu przypadków normatywnych lub wartości. Data Mining Query Language (DMQL) : Język zapytań wyszukiwania danych (DMQL)
Język zapytań opracowany dla aplikacji Data Mining. Pochodzi z Structured Query Language (SQL), standardowego języka używanego w aplikacjach bazodanowych.
Data Navigation : Nawigacja danych
W Data Mining i OnLine Analytical Processing (OLAP) analityk zazwyczaj pracuje z wieloma atrybutami danych jednocześnie. Narzędzia do nawigacji danych umożliwiają przeglądanie poszczególnych wycinków (podzbioru pełnego zestawu atrybutów) i podpróbek (podzestawów wierszy) oraz sposoby przełączania się między nimi.
Data Preprocessing : Wstępne przetwarzanie danych
Przed rozpoczęciem eksploracji danych dane muszą zostać wstępnie przetworzone, aby znormalizować ich strukturę. Może to obejmować czyszczenie danych, wybór lub próbkowanie danych oraz redukcję i mapowanie danych.
Data Reduction : Redukcja danych
Termin używany głównie w analizie danych naukowych, odnoszący się do wydobywania ważnych zmiennych lub funkcji zmiennych z dużej liczby dostępnych atrybutów.
Danych Wizualizacja
Złożone struktury danych i relacje są często trudne do uchwycenia. Narzędzia do wizualizacji danych próbują graficznie przedstawić te relacje i informacje. Narzędzia do wizualizacji danych mogą obejmować prozaiczny histogram i wykres rozproszenia, grafy sieciowe i złożone struktury trójwymiarowe, takie jak reprezentacja języka VRML (Virtual Reality Modeling Language)
Danych Hurtownia
Termin ten odnosi się do dużego scentralizowanego zbioru danych korporacyjnych lub innych danych organizacyjnych, zwykle zbieranych z wielu źródeł. Oczekuje się, że bazy danych zostały oczyszczone, a nazwy, wartości i relacje atrybutów uregulowane. Te duże zbiory zwykle zawierają metadane, dane zawierające informacje o samym zbiorze danych. Te hurtownie danych mogą oferować korzyści skali, ale muszą także kompromitować łatwość dostępu z kwestiami bezpieczeństwa organizacji, a także obawami dotyczącymi prywatności.
Danych Magazyn
Termin z dziedziny biznesu i bazy danych, który odnosi się do gromadzenia i czyszczenia danych transakcyjnych w celu wsparcia metod analizy online, takich jak przetwarzanie analityczne online i "wsparcie decyzyjne". Utworzenie hurtowni danych jest niezbędnym pierwszym krokiem w pokrewnej dziedzinie odkrywania wiedzy w bazach danych (KDD).
DataLogic / R
DataLogic / R to system "wyszukiwania" bazy danych, który wykorzystuje teorię zbiorów przybliżonych i logikę indukcyjną do analizy danych na różnych poziomach reprezentacji wiedzy. Dostawcą jest Reduct Systems, Inc.
Forma sieci Kohonen. Nazwa pochodzi od "Dynamicznie rozwijającej się zawartości".
Decyzji Atrybut
Atrybuty decyzyjne to zmienne wyjściowe lub docelowe w analizie danych zgrubnych. Atrybuty predykcyjne lub klasyfikacyjne są nazywane atrybutami warunkowymi, ponieważ decyzja jest uzależniona od wartości tych atrybutów.
Decyzji Lista
Lista decyzji k jest uporządkowaną sekwencją reguł k if-then-else. Każda reguła w sekwencji jest testowana do momentu spełnienia jednej z reguł. Gdy reguła jest spełniona, podejmowane jest działanie związane z tą regułą, zarówno k terminyczna normalna postać łącząca (CNF), jak i k-termiczna normalna postać dysfunkcyjna (DNF) może być reprezentowana przez listy kdecision, które są prawdopodobnie w przybliżeniu poprawne (PAC ) można się nauczyć
Decyzyjny Problem
Problem decyzyjny może być reprezentowany przez trzy elementy: zestaw prawidłowych działań A, zestaw stanów S oraz funkcję użyteczności lub funkcji wypłaty u (A, s)> 0 dla elementów w A i S. Problemem jest wybór działanie A, gdy stan S jest niepewny.
Decision Support System (DSS) : System wspomagania decyzji (DSS)
System modelowania i raportowania danych, który został tak skonstruowany, aby odpowiadać na konkretne bieżące pytania lub problemy biznesowe. Zazwyczaj różni się od klasycznych systemów IS kładąc nacisk na "analizę w czasie rzeczywistym" lub analizę interaktywną, w której analityk biznesowy może korzystać z wielu narzędzi danych, aby udzielić odpowiedzi "teraz". Powinno być odróżnia się od eksploracji danych i odkrywania wiedzy w bazach danych (KDD), gdzie nacisk kładziony jest na odkrywanie "nowych" relacji w celu rozszerzenia obecnego modelu danych.
Decyzyjna Tabela
Tabela decyzyjna jest alternatywną formą drzewa decyzyjnego, którą można przedstawić jako tabelę dwuwymiarową lub trójwymiarową ułożoną w stosy wymiarów. W typowym drzewie decyzyjnym lub drzewie klasyfikacji wybiera się pojedynczy atrybut, aby utworzyć podział, a atrybut wybiera się niezależnie od atrybutów wybranych w innych węzłach. Zamiast tego tabela decyzyjna wybiera pary atrybutów na każdym poziomie i stosuje ten sam podział do wszystkich węzłów na danym poziomie drzewa. Chociaż może to skutkować klasyfikatorem, który nie działa tak dobrze, jak ogólny model drzewa, ma tę zaletę, że można go łatwo przedstawić i wyjaśnić niewyszukanemu użytkownikowi. Programy Data Mining, takie jak MineSet, mogą umieszczać interaktywny interfejs przed tabelą i umożliwiać użytkownikom "drążenie" tabeli, eksplorowanie wyników lub rad procesu budowania drzewa.
Decyzji Teoria
Teoria decyzji to formalna teoria matematyczna opisująca metody dokonywania logicznych wyborów, gdy wyniki są niepewne. Teoria ta polega w dużej mierze na bayesowskich metodach łączenia danych i jest czasami określana jako bayesowska teoria decyzji.
Drzewo decyzyjne
Jedną z metod reprezentowania sekwencji decyzyjnej lub funkcji regresji lub klasyfikacji jest drzewo decyzyjne. Drzewo reprezentuje proces decyzyjny lub regresję / klasyfikację jako serię zagnieżdżonych wyborów lub pytań. Na każdym etapie procesu powstaje jedno pytanie binarne lub wielomianowe, a także odpowiedź określa następny zestaw wyborów, które należy podjąć. W kontekście regresji lub klasyfikacji metoda ta jest czasami nazywana partycjonowaniem rekurencyjnym. Proces generowania drzewa jest podobny do grupowania, ponieważ jego celem jest znalezienie jednorodnych grup przypadków. Różni się jednak tym, że koncentruje się na partycjonowaniu określonego zestawu predyktorów w celu osiągnięcia jednorodnej wartości zmiennej zależnej, podczas gdy techniki klastrowania tworzą partycje zestawu danych na tym samym zestawie zmiennych, w których mierzy kryterium homogeniczności. Obecnie większość algorytmów partycjonowania jest ortogonalna, dzieląca się na jeden predyktor na czas, chociaż niektóre algorytmy są skośne, dzielenie na wiele zmiennych jednocześnie. Drzewo może być reprezentowane jako zbiór reguł (JEŻELI warunek 1, TO warunek2)
Deklaratywny Język
Język komputerowy, taki jak PROLOG, w którym programowanie wyznacza cele, warunki brzegowe i ograniczenia, i pozwala komputerowi określić, jak dotrzeć do rozwiązania (np. Za pomocą silnika wnioskowania).
Deklaratywne Oświadczenie
Forma, w której wiedza może być reprezentowana w bazie wiedzy. Baza wiedzy zawiera deklaracje faktów (i opcjonalnie wartości-prawdy), takie jak "Wszystkie osoby są śmiertelne" i "Sokrates był osobą" itp. silnik wnioskowania może następnie wydedukować właściwości Sokratesa, w tym fakt, że był śmiertelny. Ta forma reprezentacji ma tę zaletę, że jest modułowa i łatwa do aktualizacji, w przeciwieństwie do reprezentacji proceduralnej. Jednak w tej reprezentacji brakuje kontroli wyszukiwania zapewnianej przez procedurę reprezentacji.
Dedukcja
Forma wnioskowania z ogólnych zasad do konkretnych wniosków.
Dedukcyjna baza danych (DDB)
Uogólnienie wspólnej relacyjnej bazy danych. DDB traktuje pozycje w bazie danych jako zestaw podstawowych stwierdzeń i ma zestaw aksjomatów, określanych jako Intforcement DataBase (IDB). Ta baza danych może być postrzegana jako program logiczny bez funkcji.
Deep Blue
System gry w szachy opracowany przez IBM. Ta kombinacja ogólnego zastosowania stacji roboczej i specjalnych układów komputerowych została oceniona jako arcymistrz szachowy i przegrała z Garym Kasparowem, panującym mistrzem świata, w serii sześciu gier rozegranych w 1995 roku.
Defuzzification
Proces przekształcania rozmytej odpowiedzi w jedną, zwykle skalarną, wartościową odpowiedź. Można to zrobić na wiele sposobów. Dwa podejścia obejmują zaokrąglanie wyników binarnych i centroidy (np. Środki ważone) dla wyników ciągłych.
Degrees of Freedom : Stopnie swobody
W robotyce stopnie swobody są używane do opisania liczby "wymiarów", w których robot może poruszać ramionami sterującymi. "Ramię" o jednym stopniu swobody może poruszać się w przód iw tył wzdłuż linii lub zamiatać łuk (np. wahadło). Ramię o dwóch stopniach swobody może omiatać płaszczyznę lub okrąg, natomiast ramię o trzech stopniach swobody może poruszać się w (częściowej) sferze. Te ramiona mogą mieć wyższy stopień swobody, odpowiadający wielu podramionom. Na przykład jednostka składająca się z ramienia o trzech stopniach wolności przymocowanego do "ręki" o trzech stopniach wolności miałaby sześć stopni swobody. Ostatnie trzy stopnie swobody odpowiadałyby zdolności kontrolowania odchylenia, pochylenia i przechylenia obiektu "trzymanego" przez "rękę". W uczeniu maszynowym i kontekstach statystycznych stopnie swobody dla statystyki są liczbą nieskrępowanych liczb w tej statystyce. Na przykład w wielomianu z pięcioma kategoriami istnieją cztery stopnie swobody w zliczeniach, ponieważ suma zliczeń musi sumować się do wielkości próbki. Zatem statystyka chi-kwadrat na tym stole miałaby cztery stopnie swobody.
Demoniczne Procedury
Wiele systemów opartych na ramkach i obiektach posiada zbiór powiązanych automatycznych procedur, czasami nazywanych procedurami demonicznymi, takich jak procedury "na żądanie" lub procedury "podczas odczytu". Dotyczą one procedur uruchamianych automatycznie po wystąpieniu określonego zdarzenia. Procedury mogą być ogólne dla określonego typu obiektu lub specyficzne dla konkretnego wystąpienia. Bardziej prozaicznym przykładem byłby program, który ogląda plik poczty i powiadamia odbiorcę o nadejściu nowej poczty.
De Morgana Prawa
Prawa Morgana to dwie standardowe zależności logiczne:
1. Negacja koniunkcji jest dysocjacją negacji; i
2. Negacja rozbieżności jest koniunkcją negacji.
Dempstera Reguła Kombinacji
Reguła kombinacji Dempstera zapewnia metodę łączenia różnych funkcji przekonań w tym samym zakresie rozeznania. Rdzeń zestawu z kombinacji dwóch funkcji przekonań Bell i Bel jest obliczany z rdzeni obu funkcji. Zestaw produktów dwóch rdzeni jest najpierw obliczany, a wartości powiązane z zestawami nie przecinającymi się są odrzucane. Pozostałe produkty są znormalizowane do jednego i są przypisane do zestawów, które tworzą przecięcia dwóch zestawów w produkcie. Rdzeniem zbioru jest prawdopodobieństwo przypisane właśnie do tego zbioru.
Dempstera-Shafera Teoria
A. Dempster i G. Shafer (jego uczeń) zaproponowali rozszerzenie standardowych metod prawdopodobieństwa, które zostały dostosowane do wielu obszarów rozumowania na temat niepewności. Klasyczne prawdopodobieństwo zakłada, że prawdopodobieństwo jest powiązane z elementami zbioru, i oblicza prawdopodobieństwa związane z tymi zestawami, łącząc prawdopodobieństwa związane z elementami w zestawie. Prawdopodobieństwo Dempstera-Shafera pozwala na przypisanie prawdopodobieństwa bezpośrednio do zbiorów elementów, a nie na podstawie ich elementów. Jako przykład rozważ grupę ekspertów, których poproszono o wybranie jednego z czterech kierunków działań. Chociaż niektórzy eksperci mogą wybrać pojedyncze działanie, niektórzy mogą również wskazać parę lub inny zestaw działań jako pożądane. Ta ostatnia grupa przypisała wagę bezpośrednio zestawowi działań, a nie elementom, które zrobiła pierwsza grupa. Teoria Dempstera-Shafera wspiera rozumowanie na podstawie dowodów takich jak ten.
Demodulacja
Demodulacja jest wykorzystywana w automatycznych systemach wnioskowania do przepisywania klauzul i eliminowania zbędnych informacji. Na przykład reguła, że 0+ (0 + x) = x można przepisać jako 0 + x = x, eliminując dodatkowe warunki.
DENDRAL
Oparty na regułach system ekspercki, który może identyfikować cząsteczki na podstawie danych dotyczących ich widmowego i jądrowego rezonansu magnetycznego.
Dependence : Zależność
Mówi się, że zestaw atrybutów jest zależny, jeśli stan podzbioru atrybutów wpływa na (rozkład) stanu pozostałych atrybutów. W przypadku dwóch zmiennych atrybuty X i Y są zależne, jeżeli Pr (X Y) Pr (X) Pr (Y), gdzie Pr (.) Jest miarą prawdopodobieństwa. Jeśli odwrotność zawiera (Pr (X ∪ Y) = Pr (X) Pr (Y)), wówczas atrybuty uważa się za niezależne
Dependence Rule : Reguła zależności
Reguła zależności jest uogólnieniem koncepcji stojącej za regułą asocjacji, stosowanej w Data Mining. Reguły asocjacji mają na celu znalezienie pozytywnych powiązań między atrybutami (np. Osoby, które kupują herbatę, kupują również kawę z obsługą S i pewnością C). Jednak te zasady nie wykryją negatywnych skojarzeń, takich jak "Ludzie, którzy kupują kawę, zwykle nie kupują herbaty". Reguły zależności wykorzystują te same atrybuty binarne co reguły asocjacji, ale stosują miarę statystyczną, statystyki chi-kwadrat, która wykrywa zarówno pozytywne, jak i negatywne powiązania.
Dependency Directed Backtracking : Nawracanie zwrotne kierowane zależnością
Specjalna forma cofania, która bada zależności poprzednich rozwiązań i cofania do stanu, który jest "powyżej" obecnego stanu, a nie do tego, który wystąpił "przed" obecnym stanem.
Dependency Models : Modele zależności
Technika statystyczna stosowana w Data Mining i podobnych obszarach do opisu wzajemnych powiązań między zestawem pomiarów. W przeciwieństwie do technik regresji, które traktują jedną grupę zmiennych (zmienne zależne lub wyjściowe) inaczej niż inny zestaw (zmienne niezależne lub wejściowe), modelowanie zależności ma tendencję do traktowania wszystkich zmiennych jako wzajemnie powiązanych, chociaż metody te obsługują ukierunkowane relacje. Modele można rozważać na dwóch poziomach, modelu strukturalnym i modelu ilościowym. Na poziomie strukturalnym model określa, które zmienne są ze sobą bezpośrednio lub lokalnie powiązane, często za pomocą wykresu zależności (jak pokazano poniżej) lub macierzy przejścia. Na poziomie ilościowym wartość liczbowa jest przypisywana do każdego z połączeń dozwolonych w modelu konstrukcyjnym. Jedną z takich miar dla pary ciągłych pomiarów może być częściowa korelacja między dwiema zmiennymi, biorąc pod uwagę wszystkie pozostałe zmienne.
Dependent Variable : Zmienna zależna
W analizie regresji i innych metodach uczenia maszynowego celem analizy jest prawidłowe prognozowanie wartości atrybutu, w postaci ciągłej odpowiedzi lub klasyfikacji. Tę zmienną docelową można nazwać zmienną zależną.
Depth-first Search : Wyszukiwanie głąb
Procedura wyszukiwania, w której każda możliwość jest całkowicie oceniana przed rozpoczęciem oceny innych wyszukiwań. Gdy wyszukiwanie może być reprezentowane jako drzewo, wyszukiwanie w głąb całkowicie eksploruje jedną gałąź przed przejściem do innych gałęzi na tym poziomie.
Devisor
System planowania działań statków kosmicznych.
Dimension : Wymiar
Zazwyczaj liczbę zmiennych lub atrybutów używanych do opisu przypadku określa się mianem jego wymiaru. Zasadniczo wymiar problemu odnosi się do liczby wolnych (nieokreślonych) wartości w specyfikacji problemu.
Dimension Stacking : Układanie wymiarów
Ta technika zmniejsza wymiarowość zestawu atrybutów kategorycznych, często do wizualizacji. Atrybuty są gromadzone w grupach i wewnątrz każdej grupy są osadzane ze sobą, tworząc nową wielopoziomową zmienną agregującą. Załóżmy na przykład, że istnieją dwa atrybuty: płeć, z poziomami F i M oraz wiek, z trzema poziomami Y, M i O, a ty chcesz ustawić wiek w obrębie płci. Nowy atrybut miałby uporządkowane wartości:
F, Y
F, M.
F, O
M, Y
M, M
M, O
Pamiętaj, że kolejność wieku jest zachowywana na każdym poziomie płci. Gdyby w ciągu wieku ułożono kolejne atrybuty, zachowałyby również swoją kolejność i stosy na różnych poziomach płci.
Diraca Funkcja delta
W robotyce i teorii sterowania funkcja delta Diraca jest używana do reprezentowania nieskończenie dużej ilości energii (lub momentu obrotowego) dostarczanej przez siłownik w nieskończenie krótkim czasie. Nazwa tej funkcji pochodzi od fizyka Paula Diraca.
Directed Acyclic Graph (DAG)
Wykres (lub sieć) to ukierunkowany wykres acykliczny, jeśli nie ma "pętli" lub cykli (A-> B -> ...-> A), a każdy łuk lub połączenie ma z nim jeden kierunek (A-> B lub B-> A, ale nie A <-> B). Są one często stosowane w reprezentacji sieci wiedzy. Kierunek łuku AB przerywa cykle na ukierunkowanym wykresie.
Directed Graph : Kierowany wykres
Wykres (lub sieć) to wykres skierowany, jeśli wszystkie łuki mają kierunki, zwykle reprezentowane jako groty strzałek.
Direction Strategies : Strategie kierunkowe
Strategie kierunkowe są stosowane w automatycznych systemach wnioskowania, aby zdecydować, które z dostępnych klauzul zostaną zastosowane w następnej kolejności. Strategia pierwsze weszło, pierwsze wyszło (nasycenie poziomu) wybiera pierwszą (najstarszą) klauzulę z listy zachowanych klauzul, a strategia ostatnia, pierwsza wyszła wybiera najnowsze klauzule. Inne reguły mogą wybrać na przykład najprostszą dostępną klauzulę lub inną wagę.
Dyskontowanie
Dyskontowanie to metoda łączenia lub zmniejszania funkcji przekonań i prawdopodobieństwa, poprzez ważenie średnich zbiorów funkcji lub łączenie pojedynczej funkcji z funkcją niejasną lub pustą. Jako przykład tego ostatniego, funkcję przekonania można uśrednić za pomocą funkcji przekonania, która przypisuje całą swoją masę całej ramce rozeznania. Można go również wykorzystać do połączenia wielu przekonań ekspertów, które są ze sobą sprzeczne, w przeciwieństwie do reguły kombinacji Dempstera, która odrzuca masę prawdopodobieństwa przypisaną do sprzecznych podzbiorów ramki.
Dyskursu Rozumowanie
Termin z przetwarzania języka naturalnego odnoszący się do metod, które próbują zrozumieć tekst lub dialog.
Dyskretnie ceniony atrybut
Dyskretnie ceniony atrybut to taki, który może przyjmować tylko skończoną liczbę wartości i który może być zakodowany na zbiorze liczb całkowitych, takich jak płeć, rasa, stan urodzenia, liczba itp.
Disjoint : Rozłączny
Dwa zestawy we wszechświecie są rozłączne, jeśli nie dzielą żadnych elementów.
Disjunctive Normal Form (DNF)
Funkcja boolowska zdefiniowana dla zestawu zmiennych X = {x1, x2, …}, które są łączone w połączeniu literałów (xi lub! x1), zwanych terminami. Funkcja ma postać normalną rozłączną, jeśli można ją zapisać jako rozłączenie pojęć.
Disjunctive Syllogism : Sylogizm rozłączny
Sylogizmem rozłącznym byłoby (p lub q), -p dlatego q.
Distinct Variables Restriction : Odmienne ograniczenia zmiennych
Ograniczenie zmiennych odrębnych jest formą ograniczenia wagi w zautomatyzowanych systemach wnioskowania. Klauzule zawierające więcej niż k warunków, gdzie k jest limitem ograniczenia, nie są uwzględniane przez system.
Distriubuted ART i ARTMAP (dART i dARTMAP)
Modele ART i ARTMAP mogą uczyć się reprezentacji kodu rozproszonego w warstwie F2. Gdy warstwy F2 wykorzystały selekcję zwycięzca bierze wszystko, są one odpowiednio równoważne odpowiednio Fuzzy ART i ARTMAP.
Distributed Artificial Intelligence (DAI)
Rozproszona sztuczna inteligencja dotyczy przede wszystkim rozproszonych sieci sensorycznych i kontrolnych, takich jak kontrola ruchu i systemy robotyczne. Główną różnicą w tej dziedzinie jest system rozproszonego rozwiązywania problemów (DPS) i system MultiAgent (MAS). Pierwsza z nich wykorzystuje sieci do rozwiązania pojedynczego problemu, a druga kładzie nacisk na koordynację i wymianę informacji w sieci prawdopodobnie heterogenicznych agentów.
Distributed Problem Solving (DPS) : Rozproszone rozwiązywanie problemów (DPS)
Termin ten odnosi się do użycia wielu systemów do rozwiązania konkretnego problemu. Problem jest zazwyczaj podzielony na kilka oddzielnych podproblemów, które są dystrybuowane do innych systemów w celu rozwiązania, a wyniki zebrane z powrotem w celu utworzenia rozwiązania. W niektórych systemach stochastycznych kilka systemów może działać jednocześnie, aby rozwiązać ten sam problem, każdy podążając losowo wybranymi ścieżkami.
Distributive Property : Właściwość dystrybucyjna
W logice formalnej operator dokonuje dystrybucji, jeśli wynik zastosowania operacji do pojedynczego i złożonego argumentu jest taki sam, jak zastosowanie operacji do każdego elementu argumentu złożonego i zebranie wyników w argumencie złożonym. Symbolicznie operator O rozdziela w stosunku do innego operatora | gdy O (b | c) = (aOb) | (aOc), gdzie a, b i c są elementami w logice
DISXPERT
DISXPERT jest opartym na regułach narzędziem systemowym, które pomaga pracownikom opieki społecznej w kierowaniu osób niepełnosprawnych do usług rehabilitacji zawodowej. System miesza reguły wynikające z technik uczenia maszynowego (ID3 i liniowa analiza dyskryminacyjna) i reguły pochodzące od ekspertów doradców ds. rehabilitacji zawodowej w celu wygenerowania dużej bazy wiedzy o regułach. System zarówno poprawił wydajność pracowników zajmujących się sprawami, jak i zmniejszył wskaźnik rezygnacji w wymienionych przypadkach.
Dziel i rządź
Dziel i rządź to nazwa ogólnej techniki rozwiązywania złożonych problemów. Podstawową ideą jest rozwiązanie większego problemu poprzez najpierw rozwiązanie prostszych problemów, a następnie połączenie mniejszych rozwiązań w większe. Na przykład algorytm sortowania może używać sortowania sieciowego do szybkiego sortowania małych grup danych, a następnie użyć algorytmu scalania do łączenia stopniowo dużych podzbiorów.
Domain Knowledge : Wiedza o domenach
Fakty, procedury i relacje specyficzne dla określonej dziedziny wiedzy (tj. dziedziny), którą system ekspercki musi manipulować, aby wykazać się opanowaniem konkretnej "dziedziny". Różni się to od ogólnych strategii i heurystyki, które mogą mieć zastosowanie do wielu różne dziedziny wiedzy Na przykład system ekspertów matematycznych musiałby zrozumieć zasady matematyki (tj. dziedzinę matematyki), które system ekspertów medycznych mógłby zignorować, chociaż oba systemy mogą dzielić pewne wspólne techniki wnioskowania.
Domena przyciągania
Obszar wokół punktu równowagi układu dynamicznego, w którym układ zbliży się do punktu równowagi.
Domen Teoria
Zorganizowany system roszczeń dotyczących określonej domeny aplikacji. Różnią się one od hipotez, które są przypuszczeniami o relacjach, które mogą utrzymywać się w tej dziedzinie.
DoseChecker
DoseChecker to oparty na CLIPS system ekspertowy używany do monitorowania dawek leków u pacjentów z zaburzeniami czynności nerek. Monitoruje atrybuty poszczególnych pacjentów i porównuje ich zamówienia na leki z tymi wartościami oraz wydaje ostrzeżenia / porady dotyczące podejrzanych zamówień na leki.
Dot Pattern Analysis : Analiza wzoru punktowego
Technika niskiego poziomu stosowana w przetwarzaniu wizualnym, w której podobne obszary są łączone w kawałki, tworząc struktury wyższego poziomu, takie jak obiekty BLOB, linie i krzywe.
Downward Closure : Zamknięcie w dół
Kolekcja zestawów jest zamknięta w dół w odniesieniu do właściwości, jeśli gdy zestaw P ma właściwość, wszystkie podzbiory P również mają tę właściwość. Przykładem może być analiza koszyka rynkowego. Gdyby zestaw elementów "Kawa", "Pizza" i "Chleb" był niezależny, to z uwagi na charakter niezależności zestaw "Kawa" i "Pizza" byłby niezależny, podobnie jak zestaw "Kawa" i "Chleb" oraz zestaw "Chleb" i "Pizza".
d-separacja
Dwa węzły w ukierunkowanym modelu graficznym są rozdzielone d, jeśli wszystkie ścieżki od A do B przez wspólnych przodków przechodzą przez znanych (utworzonych) przodków i wszystkie ścieżki przez potomków nie są tworzone. Węzły, które nie są rozdzielone, są połączone d. Równoważny warunek jest taki, że rozłączne podzbiory A i B są oddzielone przez trzeci podzbiór C na wykresie moralnym najmniejszego podrozdziału wykresu G zawierającego
Dummy Variables : Zmienne manekina
Gdy atrybut jest kategoryczny ("czerwony", "zielony", "niebieski"), często trzeba go przekodować w grupę zmiennych zastępczych, które są powszechnie nazywane zmiennymi zastępczymi. W powyższym przykładzie możesz zakodować pojedynczą trójpoziomową zmienną kategorialną w trzy zmienne wskaźnikowe zwane czerwoną, zieloną i niebieską. Każda z trzech zmiennych byłaby zmienną 0/1, gdzie 1 oznacza, że element należy do odpowiedniej kategorii. Istnieje wiele form kodowania w powszechnym użyciu. Ich wartość zależy od celu modelu.
DXplain
DXplain to komercyjny system ekspercki, który wykorzystuje wyniki badań klinicznych do stworzenia uporządkowanej listy diagnoz związanych z tymi wynikami klinicznymi. Może używać ponad 5000 atrybutów do diagnozowania ponad 2000 chorób. Wykorzystuje sieć Bayesian do generowania i aktualizowania prawdopodobieństw związanych z diagnozami.
DYANCLIPS
DYNACLIPS, rozszerzenie CLIPS, jest implementacją środowiska do dynamicznej wymiany wiedzy między inteligentnymi agentami. Każdy inteligentny agent jest powłoką CLIPS i uruchamia osobny proces w systemie operacyjnym SunOS. Inteligentni agenci mogą wymieniać fakty, reguły i polecenia CLIPS w czasie wykonywania. Wymiana wiedzy między inteligentnymi agentami w czasie wykonywania nie wpływa na wykonanie żadnego z nadawców.
Dynamiczna sieć probabilistyczna (DPN)
Ten typ sieci to szczególny przypadek ukrytego modelu Markowa (HMM). Ukryte stany HMM są rozkładane na iloczyn kilku różnych podprzestrzeni stanów, i zakłada się, że zmiany w przestrzeni produktu zachodzą wzdłuż dokładnie jednego wymiaru na raz. Jako przykład załóżmy, że chcemy modelować widoki robota poruszającego się po zakładzie z 15 możliwymi lokalizacjami i 4 możliwymi widokami z jego kamer. Następnie ogólny HMM rozważyłby tylko 15 * 4 lub 60 stanów, podczas gdy DPN może założyć, że na każdym etapie robot może zmienić swoją lokalizację lub punkt widzenia i spróbować modelować go jako dwuwymiarowy (lokalizacja x punkt widzenia). Modele te znane są również jako dynamiczne sieci przekonań lub silnie ukryte modele markowa (HMM).

Early Stopping : Wczesne zatrzymanie
Technika pozwalająca uniknąć nadmiernego dopasowania w sieci neuronowej i innych narzędziach do adaptacyjnego modelowania danych. Zasadniczo dane są dzielone na zestaw szkoleniowy i walidacyjny, a technika modelowania jest "przestrojona", aby uczyć się bardzo powoli. Gdy model uczy się na zestawie szkoleniowym, monitorowany jest błąd w zestawie sprawdzania poprawności, a proces uczenia się (maksymalizacji) jest zatrzymywany, gdy błąd w zestawie sprawdzania poprawności zacznie rosnąć. W praktyce błąd sprawdzania poprawności może się zmieniać, gdy cały czas ogólnie maleje (podobnie może się wydawać, że zmniejsza się, gdy ogólny trend jest w górę). Jednym ze sposobów uniknięcia tego problemu jest przechowywanie modeli pośrednich podczas szkolenia systemu konwergencji, a następnie powrót do prawdziwego minimum (tj. Przeregulowanie i poprawienie). Opracowanie tej techniki jest dostępne.
EASE
EASE to oparty na wiedzy system oceny narażenia w miejscu pracy na potencjalnie niebezpieczne nowe substancje. Jest to rozszerzenie systemu eksperckiego C Language Integrated Production System (CLIPS), wykorzystującego wxCLIPS dla interfejsu użytkownika.
Edge Coloring : Kolorowanie krawędzi
Podobnie jak kolorowanie węzłów, kolorowanie krawędzi zapewnia wizualny sposób wyróżnienia informacji w modelu graficznym. Kolorowanie krawędzi podkreśla przepływ informacji przez model, kolorując krawędzie zgodnie z pewną miarą informacji przepływającej przez każdą krawędź. Jednym z takich środków może być ciężar dowodów.
Edge Detection : Wykrywanie krawędzi
Grupa technik w obrazie i systemie wizyjnym do określania krawędzi obiektu, gdy jest przedstawiany z obrazem obiektów. Zasadniczo obejmuje to porównanie intensywności sąsiednich regionów na obrazie i poszukiwanie "ostrej" zmiany.
Effectors
W robotyce efektory są ogólnym terminem określającym urządzenie napędzane silnikiem, którego robot może użyć, aby wywrzeć wpływ na świat. Może to obejmować takie rzeczy, jak ręce, ręce, nogi i dołączone narzędzia.
Electronic Dictionary Research (EDR) Projekt
Projekt Japanese Electronic Dictionary Research (EDR) to długoterminowy projekt mający na celu zbudowanie japońsko-angielskiego słownika. Zawiera dwujęzyczny słownik słów, słownik klasyfikacji pojęć i słownik opisu pojęć oraz słownik współwystępowania, który może pomóc komputerom w zrozumieniu naturalnego sformułowania, a także dużego korpusu materiału tekstowego.
Elementhood : Elementowość
W logice rozmytej elementowość to przynależność do określonego elementu w zestawie rozmytym. .
ElimBel
Prosty algorytm propagacji przekonań zaprojektowany dla sieci Bayesian. Można go ogólnie zastosować zarówno do pojedynczo połączonych, jak i do wielu połączonych sieci. Wymaga to jednak ponownego obliczenia całej sieci za każdym razem, gdy dodawane są nowe dowody do sieci, i wymaga tyle przepustek, ile jest notatek o wynikach. Algorytm wymaga uporządkowania węzłów i wygenerowania aktualizacji dla ostatniego węzła w zamówieniu.
Eliza
Słynny program, który naśladuje psychoterapeutę "Rogera". Chociaż nie rozumie konwersacji, może sprawiać wrażenie inteligencji, powtarzając wcześniejsze stwierdzenia zawierające słowa kluczowe w formie pytań.
Eliptyczne podstawy sieci funkcyjnych
Sieci radialnych funkcji bazowych zwykle obliczają odległość euklidesową swoich danych wejściowych zasadniczo znajdując promień odległości od danych wejściowych do centrum (węzła). Kiedy dane wejściowe są filtrowane przez warstwę liniową, która skaluje i obraca swoje dane wejściowe, odległość euklidesowa na filtrowanych danych wejściowych jest równoważna eliptycznej odległości na oryginale (dane przedliniowe) i jest określana jako eliptyczna funkcja podstawowa.
Embedded Systems : Systemy wbudowane
Dotyczy komputera zintegrowanego z innym urządzeniem, takim jak samochód, zmywarka do naczyń lub kamera. Systemy te działają jak inteligentne kontrolery i próbują wykonywać funkcje takie jak optymalizacja wydajności (jak w samochodzie) lub spełnienie specyfikacji docelowej, takiej jak regulacja ekspozycji w aparacie w celu zagwarantowania "dobrego" obrazu. Systemy te są na ogół znacznie prostsze i bardziej niezawodne niż typowy komputer, który zna większość osób. Zazwyczaj zawierają one specjalistyczny procesor, pamięć ROM do przechowywania systemu operacyjnego i kodu programu, trochę pamięci RAM, aby umożliwić obliczenia i tymczasowe przechowywanie, oraz niektóre urządzenia I / O do określania stanu urządzenia i sterowania niektórymi funkcjami. Parametry systemu są zwykle ustawiane w momencie zapisywania programu w pamięci ROM, chociaż niektóre systemy zawierają FlashRAM lub inną podobną formę pamięci dynamicznej, która umożliwia regulację systemu lub "uczenie się" po zbudowaniu systemu. Takie systemy mogą być postrzegane jako bardzo wyspecjalizowane systemy eksperckie, chociaż zwykle nie mają możliwości interakcji z właścicielami lub wyjaśnienia swoich działań.
Empiryczne przetwarzanie języka naturalnego
Klasyczne "racjonalistyczne" przetwarzanie języka naturalnego opiera się na ręcznie kodowanych regułach rozumienia języków. Z powodzeniem rozumie obszary ograniczone, takie jak pytania dotyczące określonych baz danych (np. Skały księżycowe lub obsługa samolotów) lub w specjalnych światach, takich jak świat bloków Winogradu. Metody empiryczne są znacznie bardziej oparte na danych i mogą być częściowo zautomatyzowane przy użyciu metod statystycznych (stochastycznych) i innych metod uczenia maszynowego. Metody te koncentrują się na dystrybucji słów i klastrów słów w dużej części pokrewnego tekstu. Często opierają się one na takich podejściach, jak Hidden Markov Model (HMM) i Probalistic Context Free Grammar (PCFG). Techniki te można z grubsza sklasyfikować jako nadzorowane lub nienadzorowane. Techniki nadzorowane wymagają, aby eksperci opatrzyli tekst adnotacjami w celu wskazania części mowy i znaczeń semantycznych słów. Szkolenie bez nadzoru jest trudniejsze i wymaga, aby dane były "właściwymi" zdaniami w języku docelowym. Chociaż to ostatnie jest preferowane pod względem ilości preparatu, nadzorowane techniki ogólnie zapewniają lepszą wydajność.
EMYCYNA
Ten system, będący pochodną programu MYCIN, może być wykorzystany do budowy opartych na regułach systemów eksperckich.
English Language Interpreter (ELI) : Tłumacz języka angielskiego (ELI)
Tłumacz języka angielskiego (ELI) przekształca zdania angielskie w kontekstowe formy zależności. C. Riesbeck napisał ELI w 1975 r. Dla projektu AI Yale.
Entropia
Entropia jest miarą dezorganizacji lub informacji w systemie. Entropia jest najniższa, gdy występuje określony wynik lub stan, a najwyższa, gdy wszystkie możliwe stany są jednakowo prawdopodobne. W przypadku układu dyskretnego ze stanami k jest on definiowany jako



gdzie pi jest prawdopodobieństwem bycia w stanie i

EPAM
Wczesny (1963) program, który symulował uczenie się przez człowieka bzdurnych sylab. Wykazał także wiele zachowań ludzi.
EPILEPTOLOGU ASYSTENT
ASYSTENT EPILEPTOLOGU to system ekspercki opracowany przez Departament Spraw Weteranów. Pomaga pielęgniarkom w gromadzeniu specjalistycznych historii pacjentów, które wcześniej zostały zebrane przez epileptologa (neurolog specjalizujący się w epilepsji).
Epistatoza W algorytmie genetycznym mówi się, że gen jest epistatyczny, gdy ma silną interakcję z innym genem. Jest to sprzeczne ze zwykłą interpretacją biologiczną, w której mówi się, że gen jest epistatyczny, jeśli niektóre jego allele mogą tłumić inny gen. Obecność interakcji między parametrami wskazuje, że problem będzie większy i trudny do rozwiązania, ponieważ efekt zmiany jednego genu będzie zależał od stanu innych.
EPISTOLE
Najnowszy (1981) system asystentów ekspertów, który został zaprojektowany do sprawdzania pisowni, gramatyki i stylu w korespondencji biznesowej.
Epistomologia
Dziedzina filozofii zajmująca się naturą i źródłami wiedzy.
Epoka
Epoka jest iteracją procedury. Jest powszechnie stosowany w dyskusji na temat algorytmów sieci neuronowej.
EQP
EQP to zautomatyzowany program dowodzenia twierdzeń dla logiki równań pierwszego rzędu. Jego mocnymi stronami są dobre implementacje unifikacji asocjacyjno-komutatywnej oraz dopasowanie różnych strategii do rozumowania równań i szybkiego wyszukiwania. Wydaje się, że dobrze sobie radzi z wieloma problemami dotyczącymi struktur podobnych do sieci. Jest dostępny za darmo na stronie WWW.
Equilibrium State : Stan równowagi
W robotyce punkt w układzie dynamicznym jest punktem równowagi, jeśli, gdy układ znajduje się w tym punkcie, pozostaje w tym punkcie. Ponadto, układ jest (asymptotycznie) stabilny, jeśli, gdy układ znajduje się w pobliskim punkcie, układ pozostaje w pobliżu i (asymptotycznie) wejdzie w punkt równowagi.
Equivalence Class : Klasa równoważności
Zbiór obiektów, które mają wspólną wartość atrybutu lub relacji (ich podzbiór).
Equivalence Query : Zapytanie o równoważność
W uczeniu maszynowym program uczenia się czasami musi przetestować ważność reguły z nauczycielem zewnętrznym, na przykład pytając "Czy wszystkie skrzydlate zwierzęta są ptakami?" Ten rodzaj pytania nazywa się zapytaniem o równoważność, ponieważ pyta, czy pojęcie ptaków jest równoważne zasadzie "Skrzydlate zwierzęta to ptaki".
Equivalence Relation : Relacja równoważności
Przechodnia, refleksyjna i symetryczna relacja binarna na zbiorze U. Równoważne elementy U (w odniesieniu do określonej relacji) są nierozerwalne w odniesieniu do tej relacji. Są w tej samej klasie równoważności.
ERMA
Program języka naturalnego z 1974 r., Który próbował naśladować wzorce myślenia i mowy pacjenta w psychoterapii.
Estymacja
Proces generowania funkcji score lub score dla zestawu danych. Może to odnosić się do procesu dopasowywania modelu, w którym szacuje się współczynniki równań (np. Parametry funkcji regresji lub punktów podziału w drzewie decyzyjnym) lub do procesu przypisywania wyników do poszczególnych obserwacji za pomocą model (np. ratingi kredytowe). Odnosi się to zwykle do funkcji przewidywania lub oceniania, w przeciwieństwie do funkcji klasyfikacji, ale może być również użyte w tym drugim kontekście.
Euklidesowa Odległość
Odległość euklidesowa jest prostą miarą odległości między dwoma obiektami, tak jak w technikach najbliższego sąsiada. Jest on obliczany jako pierwiastek kwadratowy z sumy kwadratów różnic między dwoma obiektami dla każdego atrybutu. Odległość ta jest uogólnieniem wielu atrybutów miary odległości w geometrii płaskiej.
EURISKO
Program nauczania, w którym heurystyka została opracowana w celu opracowania nowej heurystyki. Douglas Lenat i wsp. Opracowali EURISKO w 1981 r.
Ewaluator
Nazwa części interpretera lub kompilatora LISP, która próbuje ocenić symbol lub token z kolejki wejściowej.
Event Tree : Drzewo zdarzeń
Drzewo decyzyjne bez żadnych kosztów, prawdopodobieństw lub innych wag jest czasem nazywane drzewem zdarzeń. Pokazuje możliwe ścieżki lub dostępne opcje, bez odniesienia do kosztów lub prawdopodobieństwa podążenia tymi ścieżkami
Evidence Flows : Przepływy dowodów
W sieciach przekonań przepływy dowodów są wykorzystywane do wykazania, w jaki sposób konkretna część danych zmienia wagi lub prawdopodobieństwa innych wniosków.
Evolutionary Algorithm (EA) : Algorytm ewolucyjny (EA)
Algorytm ewolucyjny (EA) to ogólna klasa technik dopasowania lub maksymalizacji. Wszystkie utrzymują pulę struktur lub modeli, które można mutować i ewoluować. Na każdym etapie algorytmu każdy model jest oceniany, a lepsze modele mogą się rozmnażać lub mutować w następnej rundzie. Niektóre techniki pozwalają krzyżować udane modele. Wszystkie są motywowane biologicznym procesem ewolucji. Niektóre techniki są bezpłciowe (więc nie ma krzyżowania między technikami), podczas gdy inne są biseksualne, co pozwala udanym modelom na zamianę informacji "genetycznej". Modele bezpłciowe pozwalają na konkurowanie wielu różnych modeli, podczas gdy metody seksualne wymagają, aby modele mają wspólny kod "genetyczny".
Evolutionary Programming (EP) : Programowanie ewolucyjne (EP)
Programowanie ewolucyjne (EP) to technika uczenia maszynowego (szacowanie modelu), która uogólnia algorytm genetyczny (GA) poprzez zachowanie zachowania ewolucyjnego i porzucenie ścisłego związku z genetyką biologiczną. Zasadniczo jest podobny do rozmnażania bezpłciowego, ponieważ ocenia się każde pokolenie, a najbardziej zdolne do rozmnażania są najbardziej prawdopodobne. Podczas reprodukcji każdy model "potomny" może mutować. Ta metoda mniej koncentruje się na wewnętrznej reprezentacji modelu, a bardziej na zachowaniu modeli. Łatwiej jest mieszać różne typy modeli w jednym zestawie. Zauważ, że ta technika zazwyczaj wybiera "zwycięzców" stochastycznie, a nie deterministycznie.
Exchangeability : Wymienność
Mówi się, że sekwencja jest wymienna w odniesieniu do pewnej miary P (.), Jeśli miara sekwencji ma tę samą wartość za każdym razem, gdy wymieniane są dowolne dwa elementy sekwencji. Ta koncepcja jest ważna w analizie i manipulowaniu sieciami przekonań probabilistycznych.
Egzystencjalny Kwantyfikator
"Kwantyfikator egzystencjalny" w logice jest kwantyfikatorem zdania, które implikuje, że istnieje co najmniej jeden przypadek, w którym dane zdanie jest prawdziwe. Zazwyczaj jest reprezentowany przez odwróconą dużą literę E.
Expectation (ART) : Oczekiwanie (ART)
Odgórny prototypowy wektor wybranej kategorii F2 w sieci ART.
Expectation (Mathmatical) : Oczekiwanie (matematyczne)
Oczekiwanie na atrybut jest miarą "typowej" lokalizacji atrybutu. Jest to średnia arytmetyczna lub średnia wartość atrybutu w odniesieniu do określonego rozkładu prawdopodobieństwa. Oblicza się go, mnożąc każdą możliwą wartość atrybutu przez odpowiednie prawdopodobieństwo (lub gęstość) i sumując. Wspólna średnia arytmetyczna zbioru liczb k jest oczekiwaniem w odniesieniu do rozkładu prawdopodobieństwa, które przypisuje prawdopodobieństwo 1 / k do każdego elementu w zestawie.
Expectation-Maximization (EM) Algorytm
Algorytm Expectation-Maximization (EM) to technika szacowania technik uczenia maszynowego. Można go zastosować, gdy model spełnia określone ograniczenia techniczne. Jeśli model można uprościć, zakładając, że istnieją pewne ukryte wartości, model uczy się, najpierw zgadując ukryte wartości, a następnie przechodząc przez serię maksymalizacji, biorąc pod uwagę bieżące ukryte wartości, a następnie szacując ukryte wartości, biorąc pod uwagę bieżące maksymalne wartości. Z powodzeniem zastosowano go w wielu różnych modelach uczenia maszynowego i modelach statystycznych; jednym z przykładów jest program klastrujący klasy AutoClass.
Ekspercki System
System ekspercki to system komputerowy, który próbuje modelować wiedzę w dziedzinie na ludzkim ekspercie. Systemy te można następnie wykorzystać zamiast ludzkich ekspertów lub w ich pomocy w podejmowaniu decyzji. Wyjaśnienie Ważnym aspektem budowania zaufania do systemu komputerowego jest jego zdolność do dostarczenia przekonującego uzasadnienia podjętych decyzji lub wniosków.
Exploratory Data Analysis : Analiza danych rozpoznawczych
Odnosi się to do zastosowania "prostych" wyświetlaczy tabelarycznych i graficznych w celu lepszego zrozumienia struktury zestawu danych. Pierwotnie wprowadzony przez Tukeya w celu opisania zbioru technik, które mogłyby szybko scharakteryzować partię danych bez uciekania się do "ciężkiego" modelowania statystycznego, od tego czasu stał się alternatywnym podejściem do modelowania, koncentrując się na intuicyjnych i wizualnych technikach szybkiego podsumowywania danych, a nie klasyczne techniki szacowania statystycznego i testowania. Niektóre z powszechnie stosowanych technik obejmują "pięciocyfrowe podsumowania" (mediana, górne i dolne kwartyle oraz górne i dolne "ogrodzenia"), wykresy pudełkowe i wąsy oraz różne wygładzone histogramy i wykresy rozrzutu. Można je połączyć w animacje komputerowe, aby umożliwić różnym typom szczotkowania zbadanie powiązań między różnymi widokami. Bardziej złożone techniki umożliwiają "wielkie trasy" danych wielowymiarowych, które mogą być prowadzone lub uruchamiane w trybie wykonywania projekcji, w którym program szuka "interesujących" widoków danych.
Extension of a Concept : Rozszerzenie koncepcji
Zbiór obiektów, do których odwołuje się koncepcja w domenie aplikacji.
Extension of an Attribute : Rozszerzenie atrybutu
Zbiór obiektów, które mają określoną wartość atrybutu, jest rozszerzeniem atrybutu. Obiekty, które dzielą określoną wartość atrybutu, tworzą klasę równoważności.

Facet : Aspekt
W ontologiach opartych na klasach aspekt reprezentuje informacje o gnieździe, takie jak ograniczenie wartości boksu instancji. Niektórymi przykładami byłyby stwierdzenie o dopuszczalnych typach wartości (wszystkie matki muszą być kobietami) lub informacja o liczności gniazda.
Fakt
W PROLOGU faktem jest stwierdzenie dotyczące relacji między obiektami
Factor Graph : Wykres czynnikowy
Wykres czynnikowy jest dwudzielnym wykresem z jednym zestawem węzłów reprezentujących zmienne w modelu i drugim zestawem węzłów reprezentujących funkcje lokalne (prawdopodobieństwo) reprezentujące relacje między węzłami zmiennymi. Każdy węzeł funkcji jest podłączony do węzłów zmiennych, od których zależy. Podobnie, każdy węzeł zmiennej jest podłączony do zmiennych, na które wpływa lub na które ma wpływ. Wykresy czynnikowe mogą zawierać skierowane krawędzie. Wykresy czynnikowe są bardziej ogólne niż pola losowe Markowa lub sieci bayesowskie pod względem wyrażania faktoryzacji rozkładu wielowymiarowego
Fail
Operator PROLOG, który powoduje powrót do poprzedniego stanu.
FAIS
System wykrywania oszustw opracowany dla sieci ścigania przestępstw finansowych w USA. Monitoruje transakcje finansowe w celu identyfikacji potencjalnych programów prania pieniędzy. Został opracowany przy użyciu technik Knowledge Discovery in Databases (KDD).
Fan-in
Termin używany w opisie sieci neuronowych i innych modeli sieci. Jest to liczba połączeń przychodzących do węzła. Odpowiednia liczba połączeń wychodzących określana jest mianem fan-out.
FASSOM
Forma sieci Kohonen. Nazwa pochodzi od "SOM kontrolowanego przez sprzężenie zwrotne".
FASTRAK-APT
FASTRAK-APT to system ekspercki do planowania projektów opracowany przez Hyundai Engineering and Construction. Służy do generowania, weryfikacji i modyfikacji sieci projektów PERT-CPM. Wykorzystuje uzasadnienie oparte na analizie przypadków i rozumowanie oparte na ograniczeniach, aby pomóc planistom projektów ludzkich.
Fault Tree : Drzewo błędów
Drzewo błędów to drzewo zdarzeń, które służy do reprezentowania możliwych błędów w procesie. Może być stosowany jako proste narzędzie analityczne lub jako struktura kontrolna lub diagnostyczna dla zautomatyzowanego systemu. Na przykład system diagnostyczny może wykorzystać drzewo błędów i powiązane prawdopodobieństwa do zaproponowania kontroli lub naprawy systemu komputerowego lub stanu medycznego.
FDS
FDS to program przeznaczony do rozwiązywania niektórych programów matematycznych za pomocą analizy Means-Ends
Funkcji Analiza
Technika analizy obrazu, która rozkłada obraz na łatwo rozpoznawalne części (linie poziome, pionowe lub ukośne, krzywe itp.). Obraz można następnie sklasyfikować lub rozpoznać, porównując listę funkcji z obrazami różnych standardów
Funkcji Ekstrakcja
Ekstrakcja funkcji jest wykorzystywana w rozpoznawaniu mowy i przetwarzaniu obrazu w odniesieniu do redukcji sygnału wejściowego do zbioru szerszych funkcji, które można wykorzystać do dalszej analizy. Jest on używany bardziej ogólnie jako termin dla procesu redukcji zmiennej.
Funkcji Punkty
W analizie obrazu punkty cech to lista możliwych do zidentyfikowania miejsc zaobserwowanych na obrazie.
Funkcji Wektor
Wektor cech to jedna metoda używana do reprezentowania obiektu tekstowego lub wizualnego w formie odpowiedniej do przetwarzania numerycznego i uczenia maszynowego. Na przykład blok tekstu (np. Artykuł w gazecie) można zwinąć w (posortowaną) listę słów. Ta lista może być porównana ze standardowym słownikiem, powiedzmy, 50 000 słów i reprezentowana przez 50 000 elementowy wektor binarny z jedynymi (1s) dla słów, które wystąpiły w dokumencie i zerami (0) dla tych, które tego nie zrobiły. Wektor ten można następnie wykorzystać do sklasyfikowania dokumentu lub do dalszej analizy. Ten rodzaj reprezentacji, który ignoruje kolejność słów w dokumencie, jest czasami nazywany reprezentacją woreczka słów. Wektor cech jest również ogólnym terminem używanym w uczeniu maszynowym i powiązanych obszarach do opisywania wektora lub listy zawierającej wartości atrybutów dla sprawy. Zwykle ma stałą długość (wymiar). Może być również określany jako rekord lub krotka.
Feedback : Sprzężenie zwrotne
Ogólnie termin ten jest używany do opisania systemów lub wejść, w których bieżące wyjście lub stan może modyfikować wpływ wejścia. Pozytywne sprzężenie zwrotne działa jak wzmacniacz lub lupa na wyjściu (np. bogaci stają się bogatsi, a biedni biednieją). Negatywne sprzężenie zwrotne działa w celu zmniejszenia dużych nakładów i powiększenia małych nakładów. Staje się to ważne w utrzymywaniu kontroli nad systemem lub "w celu". Systemy sprzężenia zwrotnego oparte na błędach wykorzystują odchylenie systemu od aktualnej wartości zadanej lub docelowej, aby wygenerować element korygujący. Ta koncepcja jest fundamentalna w dyskusji na temat robotyki i teorii sterowania.
Feedback Network : Sieć opinii
Sieć neuronowa jest siecią sprzężenia zwrotnego, jeśli jej wykres zawiera jakiekolwiek cykle.
Feedforward Sieć
Sieć neuronowa jest siecią sprzężenia zwrotnego, jeśli wykres reprezentujący sieć jest acykliczny (np. nie zawiera cykli).
FFOIL
FFOIL to specjalizacja programu FOIL specjalizująca się w uczeniu się zależności funkcjonalnych. W badaniach empirycznych dotyczących funkcji, takich jak największy wspólny mianownik lub funkcja Ackermanna, udało się jej nauczyć znacznie szybciej niż FOIL.
Fifth Generation Computing : Informatyka piątej generacji
Termin używany przez Japończyków w odniesieniu do ich inicjatywy budowy nowej generacji komputerów specjalnie dostosowanych do programowania logicznego i wnioskowania logicznego.
First-order Learning : Uczenie się pierwszego rzędu
Uczenie się pierwszego rzędu to proces uczenia się relacji z bazy danych przykładów pozytywnych i negatywnych. Różni się od bardziej powszechnych procedur uczenia maszynowego, które uczą się atrybutów i wartości, tym, że próbuje nauczyć się relacji uogólnionej. Przykładem jest program FOIL
Fitness : przydatność
W algorytmach ewolucyjnych i genetycznych przydatność rozwiązania jest miarą tego, jak dobrze poszczególne rozwiązanie rozwiązuje dane zadanie. Można go użyć do wybrania indywidualnych rozwiązań dla reprodukcji
Floyda algorytm najkrótszej odległości
Jest to jeden z kilku algorytmów, za pomocą których można znaleźć najkrótszą odległość lub ścieżkę o najniższych kosztach między węzłami na wykresie. Połączenia i koszty między węzłami są przedstawione w macierzy przyległości. Algorytm Floyda konstruuje macierz kosztów w krokach n3. Można zastosować inne algorytmy, gdy liczba ta jest zbyt duża, gdy potrzeba tylko kilku ścieżek lub gdy koszty są dynamiczne.
FOIL
FOIL to program logiki indukcyjnej, który może uczyć się relacji pierwszego rzędu. Używa ograniczonej formy Prologu, pomijając cięcia, niepowodzenia, cele rozłączne i funkcje inne niż stałe. Uczy się za pomocą techniki dzielenia i zdobywania w celu rozszerzenia klauzul, aż nie będzie już więcej przykładów, i może uprościć definicje poprzez przycinanie.
FOL
Program do sprawdzania dowodów określonych w logice pierwszego rzędu. Weyhrauch i Filman opracowali FOL na Uniwersytecie Stanforda w 1975 roku.
F1 Warstwa
Początkowa warstwa rezonansowa sieci ART.
FOrecast Generator (FOG)
FOrecast Generator (FOG) to kanadyjski system generowania języka naturalnego. Może tłumaczyć prognozy pogody z bazy danych na francuski lub angielski.
Forest
Las to zbiór drzew. Termin ten jest czasem używany w dyskusji na temat technik, takich jak mieszanki ekspertów, uogólnione modele dodatków i ulepszenia, które łączą wyniki zbioru drzew decyzyjnych w celu podjęcia ostatecznej decyzji.
FOR_RAIL
FOR_RAIL to oparty na sieci neuronowej system ochrony przejść granicznych opracowywany przez Nestor. Wykorzystuje czujniki wideo do zbierania danych wejściowych.
FORTH
Niski poziom rozszerzalnego języka programowania opartego na stosie. Wykorzystuje składnię odwrotnego polerowania (lub postfiks), tak że dodanie dwóch liczb byłoby opisane przez sekwencję poleceń a b +, co pozostawiłoby wynikową sumę (a + b) na górze stosu. Chociaż podstawowy FORTH jest raczej niski, język zawiera operacje, które pozwalają programiście łatwo definiować nowe operacje, a także redefiniować istniejące operacje. Charles Moore zaprojektował FORTH do sterowania maszynami w astronomii i rozprzestrzenił się na wiele innych obszarów, szczególnie w systemach wbudowanych. Został wykorzystany w robotach mobilnych.
Forward Chaining : Łączenie w przód
Metoda rozwiązywania problemów logicznych poprzez pracę nad znanymi danymi lub wcześniej udowodnionymi wnioskami w kierunku celu lub rozwiązania problemu.
Forward Propagation : Przekazywanie dalej
Używany w sieciach neuronowych w celu przewidywania.
Forward Reasoning : Przekazywanie uzasadnienia
Proces wnioskowania od przesłanek do wniosków. W zautomatyzowanych systemach logicznych może to spowodować szybki wzrost wniosków, które nie mają znaczenia dla pożądanego wniosku.
Fraktal
Fraktal to złożony obiekt, który zawiera wiele podobiektów, z których każdy ma pewną mierzalną lokalnie cechę podobną do tej samej cechy mierzonej na całym obiekcie. Idee fraktali i wymiar fraktalny są wykorzystywane w analizie dokumentów i wizji.
Frame of Discernment : Rama rozeznania
Zbiór zdań interesujących się teorią Dempstera-Shafera określa się mianem ramy rozeznania. Różni się to od standardowego Wszechświata stosowanego przez teorię prawdopodobieństwa, ponieważ ramy rozeznania mogą obejmować zbiory, których członkowie nie są w ramach rozeznania. Ramę rozeznania można udoskonalić, dzieląc jej zbiory i można je pogrubić, agregując je. Dwie ramki rozeznania są kompatybilne, jeśli są równoważne po procesie udoskonalenia i / lub zgrubienia. Frame Representation Language (FRL) : Język reprezentacji ramki (FRL)
Roberts i Goldstein z MIT opracowali język ramowy (FRL) pod koniec lat siedemdziesiątych. Szablony ram (klasy) są zorganizowane w hierarchię, w której związek między dwoma obiektami jest opisany jako "rodzaj". Na przykład osoby byłyby rodzajem ssaków, co z kolei mogłoby być rodzajem śmiertelnika. Sokrates być instancją klasy person.
Frames : Ramki
Forma reprezentacji wiedzy wprowadzona przez M. Minsky′ego w 1975 r. Obiekty są reprezentowane przez złożoną strukturę danych, która zawiera szereg nazwanych szczelin opisujących ten typ obiektu i jego związki z innymi obiektami w bazie wiedzy. Szablony dla obiektu mogą mieć wartości domyślne. Szczeliny mogą być dodatkowo ograniczone ogólną relacją (np. Wiek osoby jest mniejszy niż wiek jej rodziców) i specyficzne ograniczenia dla konkretnego obiektu. Automaty mogą także zawierać akcje (funkcje) i cele. Ramka dla obiektu zawiera nazwane "szczeliny" dla informacji o tym obiekcie. Informacje w tych gniazdach można następnie odwoływać się w celu ustalenia prawidłowych działań i celów. Minsky wprowadził ramy jako formę organizowania wiedzy w 1975 roku.
Franz LISP
Dialekt LISP zaimplementowany w maszynach VAX. Został napisany w C i dlatego można go było przenosić na wiele maszyn z systemem UNIX. Fredkina Nagroda
Nagroda Fredkina wyniosła 100 000 $ za pierwszy program komputerowy, który pokonał panującego mistrza świata w szachach. Profesor Edward Fredkin z MIT ustanowił nagrodę w 1980 roku. Wynalazcy maszyny Deep Blue Chess zdobyli nagrodę Fredkina. Deep Blue pokonał Gary′ego Kasparova, panującego mistrza świata. Profesor Fredkin zaoferował końcowe 100 000 $ jako trzecie z serii trzech nagród. Dwóch naukowców z Bell Laboratories (których program po raz pierwszy uzyskał ocenę mistrzów w szachach) zdobyło pierwszą nagrodę w wysokości 5000 $. Pięciu doktorantów Carnegie Mellon, którzy zbudowali Głęboką Myśl (pierwszy program mający na celu uzyskanie międzynarodowego tytułu mistrza), zdobyło drugą nagrodę w wysokości 10 000 USD.
F2 Warstwa
Druga warstwa sieci ART, w której odbywa się wybór wzoru i inne zachowania
Funkcja
Funkcja to relacja, która przyjmuje zero lub więcej atrybutów i zwraca pojedynczy element, który może być złożony. W systemach opartych na klasach i ramkach funkcja, która przyjmuje pojedynczy termin i zwraca pojedynczy termin, jest czasami nazywana szczeliną. Funkcja wielowymiarowa to funkcja, która zwraca obiekt złożony, taki jak lista lub tablica, które można uznać za specyfikację pojedynczego elementu wielowymiarowego.
Funkcjonalne języki programowania
Funkcjonalne języki programowania są zdefiniowane wyłącznie w kategoriach dobrze zdefiniowanych funkcji matematycznych, które przyjmują argumenty i zwracają wartości, bez skutków ubocznych. W czysto funkcjonalnym języku nie ma przypisania; dlatego obliczenia można rozłożyć na wiele komputerów ze zmniejszoną potrzebą synchronizacji. Funkcja anonimowa
Funkcja, która nie ma nazwy, ale jest zdefiniowana tylko zgodnie z jej użyciem. Używany w LISP jako (lambda (args) (wyrażenie)), pozwala na bardziej wydajny kod.
Funkcja rekurencyjna
Funkcja, która może wywoływać się podczas oceny swoich argumentów. Klasycznym przykładem jest funkcja silnia f (x): = xf (x-1), dla x> 0 oraz f (x) = 1 dla x <= 0. f (x) jest iloczynem x i f (x -1), więc musisz ocenić f (x-1), f (x-2), ... aby ocenić f (x).
Fuzja i propagacja
Algorytm fuzji i propagacji jest podstawowym algorytmem służącym do tworzenia wielu marginesów z modelu graficznego, który można przedstawić jako drzewo. Zapewnia regułę łączenia wiadomości przychodzących w każdym węźle i propagowania tych wiadomości poza węzeł. Fuzja odbywa się w lokalnych ramach rozeznania, więc pełna wspólna rama nigdy nie jest wyraźnie wymagana.
Fuzzy ART
Sieć syntetyzująca teorię rezonansu adaptacyjnego (ART) i logikę rozmytą
Fuzzy ARTMAP
Nadzorowana sieć Fuzzy ART
Fuzzy Associative Mmemory (FAM)
Funkcja rozmyta lub model, który przyjmuje k-wymiarowy rozmyty sygnał wejściowy i wytwarza 1-wymiarowy rozmyty sygnał wyjściowy. Porównywalny z modelem regresji lub siecią neuronową. Model może uczyć się (szacować) na podstawie danych lub ustawiać parametry w inny sposób, np. Przez projektanta modelu.
FuzzyCLIPS
FuzzyCLIPS to ulepszona wersja zintegrowanego systemu produkcyjnego języka C (CLIPS) opracowana przez National Research Council of Canada, która umożliwia wdrażanie rozmytych systemów eksperckich. Umożliwia ekspertom domeny wyrażanie reguł przy użyciu własnych rozmytych terminów. Pozwala na dowolne połączenie wyrażeń rozmytych i normalnych, kontroli logiki porównania numerycznego oraz niepewności w regule i faktach. Rozmyte zbiory i relacje dotyczą rozmycia w przybliżeniu, podczas gdy czynniki pewności dla reguł i faktów manipulują niepewnością. Zastosowanie powyższych modyfikacji jest opcjonalne, a istniejące programy CLIPS nadal działają poprawnie.
Fuzzy Cognitive Map : Rozmyta mapa poznawcza (FCM)
Wykres z podpisanymi i skierowanymi łukami między węzłami. Łuk od węzła i do węzła j jest wskaźnikiem wpływu węzła i na węzeł j. Podobnie łuk od j do i jest wskaźnikiem wpływu węzła j na węzeł i. Łuki te nie muszą być symetryczne. Po zainicjowaniu węzłów do pewnego stanu, wielokrotne stosowanie macierzy połączeń uzyskanej z wykresu można wykorzystać do określenia ewolucji systemu i dowolnych punktów stałych lub cykli granicznych.
Fuzzy Complement : Rozmyte uzupełnienie
Rozmyte uzupełnienie zbioru rozmytego jest rozmytym zbiorem, którego funkcjami przynależności są uzupełnienia oryginalnego zestawu (tj. 1-m (A, x), gdzie x są elementami w oryginalnym rozmytym zestawie A).
Fuzzy Count
Miara wielkości rozmytego zestawu A i zdefiniowana jako suma wszystkich wartości członkostwa w A. Jest to rozmyte uogólnienie klasycznego zestawu pojęcia liczności lub wielkości zbioru.
Fuzzy Entropy : Rozmyta Entropia
Rozmyta entropia jest miarą rozmycia zbioru. W przypadku zbioru A i jego rozmytego dopełniacza B rozmyta entropia jest stosunkiem nakładania się A ∩ B do nakładania się A ∪ B. W klasycznych (wyraźnych) zestawach wartość ta jest z definicji równa 0, ponieważ liczebność A ∩ B jest zdefiniowana być równy 0, a liczebność A ∪ B jest podobnie zdefiniowana jako 1 (dla niepustego wszechświata). Im większa jest ta wartość, dla danego zestawu elementów, tym bardziej zamglony jest zestaw A (i B).
Fuzzy Intersection : Rozmyte przecięcie
W (wyraźnej) teorii zbiorów przecięcie dwóch zbiorów jest zbiorem wszystkich elementów znajdujących się w obu zestawach. W teorii zbiorów rozmytych przecięcie rozmyte jest zbiorem wszystkich elementów z niezerowym członkostwem w obu zestawach. Funkcja członkostwa elementu w tym nowym zestawie jest zdefiniowana jako minimum jego członkostwa w dwóch zestawach nadrzędnych. Zatem przecięcie zbioru i jego dopełnienia (A ^ not-A), które jest zdefiniowane jako pusty zbiór (miary zero) w klasycznych zestawach wyraźnych, może być niepusty w zestawach rozmytych.
Fuzzy Logic : Logika rozmyta
System logiczny oparty na manipulowaniu rozmytymi zbiorami. Niektóre z podstawowych zasad obejmują definicje skrzyżowań, związków i uzupełnień.
Fuzzy Logic System : System logiki rozmytej
System wnioskowania oparty na logice rozmytej.
Fuzzy Measure : Rozmyta miara
Rozmyta miara rozmytego zestawu jest zdefiniowana jako suma rozmytych wartości członkostwa wszystkich elementów z niezerowym członkostwem w zestawie. Często jest oznaczany przez m(A).
Fuzzy Rule Approximation (FRA)
Metoda wnioskowania oparta na logice rozmytej. Dany zestaw reguł rozmytych definiuje mapę od przestrzeni wejściowej do przestrzeni wyjściowej. System FRA próbuje zastąpić reguły rozmyte siecią neuronową zbliżoną do tej reguły.
Fuzzy Set : Zestaw rozmyte
Zestaw rozmytego zestawu A składa się z zestawu obiektów X z wartościami członkostwa oznaczonymi przez m (A, x). Relacja odwzorowująca elementy x w X na wartości przynależności w (0,1) nazywa się funkcją przynależności. Zbiór rozmytych jest uogólnieniem klasycznej teorii zbiorów, w której każdy element x we wszechświecie X ma członkostwo 0 lub 1 w zbiorze A i został zaproponowany jako sposób radzenia sobie z niepewnością
Fuzzy Union
Rozmytą jedność dwóch zestawów definiuje się jako zbiór wszystkich elementów z niezerowym członkostwem w jednym z dwóch zestawów. Funkcja przynależności elementów w nowym zestawie jest zdefiniowana jako maksymalna z dwóch przynależności do zbiorów nadrzędnych.
FuzzyCLIPS
FuzzyCLIPS to ulepszona wersja zintegrowanego systemu produkcyjnego języka C (CLIPS) opracowana przez National Research Council of Canada, która umożliwia wdrażanie rozmytych systemów eksperckich. Umożliwia ekspertom domeny wyrażanie reguł przy użyciu własnych rozmytych terminów. Pozwala na dowolne połączenie wyrażeń rozmytych i normalnych, kontroli logiki porównania numerycznego oraz niepewności w regule i faktach. Rozmyte zbiory i relacje dotyczą rozmycia w przybliżeniu, podczas gdy czynniki pewności dla reguł i faktów manipulują niepewnością. Zastosowanie powyższych modyfikacji jest opcjonalne, a istniejące programy CLIPS nadal działają poprawnie.

Gain : Zdobyć
Liczba zasług zastosowana do oceny potencjalnych podziałów klasyfikacji w ID3, zdefiniowana jako zmiana entropii przez podział. Zostało zastąpione kryterium współczynnika wzmocnienia w C4.5.
Gain Control :Zyskać kontrolę
Sieci ART mają dwa niespecyficzne sygnały kontroli wzmocnienia, G1 i G2, odpowiednio dla warstw F1 i F2. G1 implementuje zasadę 2/3 w warstwie F1, podczas gdy G2 włącza / wyłącza warstwę F2.
Gain Ratio Criterion: Kryterium współczynnika wzmocnienia
Znormalizowana wersja kryterium wzmocnienia (entropii) pierwotnie zastosowanego w ID3. Ten ostatni preferował podziały, które wygenerowały wiele liści. W C4.5 wynik wzmocnienia jest dzielony przez podzielony wynik informacji. Dostosowuje to zysk z podziału dla entropii liczby podziałów.
Game Trees : Drzewa gry
Wiele programów do gier wybiera następny ruch, patrząc na kilka ruchów w celu oceny możliwych ruchów. Możliwości te są często przedstawiane jako drzewo możliwości
GARI
System planowania do obróbki części mechanicznych.
Gate Function : Funkcja bramki
Bramka lub funkcja mieszania jest używana w systemach mieszanych ekspertów lub hierarchicznych systemach mieszanych ekspertów w celu łączenia lub wyboru indywidualnych prognoz ekspertów lub selekcji wyników (na tym poziomie). Jako przykład rozważ system przewidywania wiarygodności kredytowej na podstawie dochodów i innych czynników. Gdyby prognozy poszczególnych ekspertów składały się z modeli opracowanych na nienakładających się partycjach danych treningowych, funkcja bramki byłaby prostą funkcją wyboru, która wybrałaby odpowiedni podmodel. Jeśli podmodele zostały opracowane przy użyciu nakładających się obszarów danych, funkcja bramkowania mogłaby ważyć prognozę podmodeli według odległości każdego modelu od tego punktu danych lub ich poprzedniej dokładności.
Gaussian ARTMAP
Sieć ARTMAP, która wykorzystuje pola recepcyjne zdefiniowane przez Gaussa.
Gaussa Funkcja
Funkcja Gaussa jest klasyczną krzywą "dzwonkową", często postrzeganą w analizie statystycznej i jako funkcję wagi do łączenia wartości w sieciach interpolacyjnych (wygładzających). Znaczenie punktu odniesienia dla a określona wartość jest proporcjonalna do e-2 (x-y) ^ 2 / s, gdzie x jest wartością, y jest punktem odniesienia, a s jest parametrem określającym szerokość dzwonu. Funkcja Gaussa służy również jako radialna funkcja podstawowa.
GBB
GBB to uogólniona obiektowa powłoka do budowania wysokowydajnych aplikacji tablicowych
Gen
W biologii część chromosomu, która koduje pojedynczą cechę, nazywa się genem. Przez analogię algorytmy genetyczne odnoszą się do części chromosomu, która koduje wartość parametru jako genu.
Generalized Additive Model (GAM) : Uogólniony model addytywny (GAM)
Uogólniony model addytywny (GAM) rozszerza elastyczne modele uczenia się modeli addytywnych na uogólniony model liniowy
Generalized EM Algorithim : Uogólniony algorytm EM
Algorytm EM skupia się na dokładnym maksymalnym rozwiązaniu problemu oszacowania, takiego jak prawdopodobieństwo w częściowo zaobserwowanej sieci. Jednak takie podejście może być niewykonalne obliczeniowo lub analitycznie. Uogólniony algorytm EM zastępuje aproksymacje dla kroku E i / lub kroku M. Na przykład można zastosować metodę próbkowania Gibbsa, aby obliczyć przybliżone oczekiwanie (krok E) lub dolną granicę maksymalnego prawdopodobieństwa dla kroku M (maksymalizacja).
Generalized Forward-backward Algorithm : Uogólniony algorytm przewijania do przodu
Metoda propagacji prawdopodobieństwa w sieci. Po pewnym przegrupowaniu sieci obliczenia prawdopodobieństwa są propagowane w dół sieci, przy czym każdy węzeł zapamiętuje swój stan, a następnie wykonuje kopię zapasową sieci w celu uzyskania ostatecznych oszacowań stanu sieci.
Generalized Linear Model : Uogólniony model liniowy
Klasyczne techniki regresji liniowej modelują odpowiedź jako funkcję liniową predyktora i zakładają, że atrybut odpowiedzi jest normalnie rozłożony wokół jego średniej ze zwykłą wariancją błędu. Uogólniony model liniowy rozszerza model liniowy na przypadki, takie jak regresja logistyczna na zmiennych binarnych, gdzie obserwacja ma średnią, która jest funkcją modelu liniowego i której rozkład jest nienormalny.
Generalized List : Uogólniona lista
Uogólniona lista niektórych zestawów elementów to lista, której elementami są albo elementy zestawu, albo uogólnione listy z zestawu. Uogólniona lista może zawierać zarówno elementy, jak i inne formy listy.
Generalized Logic Diagram (GLD) : Ogólny schemat logiczny (GLD)
Uogólniony schemat logiczny (GLD) to uogólnienie mapy Karnaugh. Mapa Karnaugh wykorzystuje układanie wymiarów, aby osadzić wiele atrybutów binarnych w dwuwymiarowej tabeli, której wpisy odpowiadają wynikom binarnym tej kombinacji. GLD pozwala na układanie atrybutów wielopoziomowych i pozwala na ogólną reakcję, ewentualnie włączając grafikę, jako wpisy. Ciągłe atrybuty mogą być uwzględniane po binowaniu. Tabela decyzyjna jest specjalną formą GLD.
Generalized Phrase Structure Grammers : Uogólnione gramatyki struktury fraz
Wariant bezkontaktowego gramatyki struktury fraz.
Generalized Upper Model : Uogólniony model górny
Uogólniony model górny jest ontologią niezależną od zadania i domeny, która obsługuje przetwarzanie języka naturalnego w języku angielskim, niemieckim i włoskim. Zawiera hierarchię około 250 pojęć i osobną hierarchię relacji
General Problem Solving (GPS) Inference Engine : Silnik wnioskowania z ogólnego rozwiązywania problemów (GPS)
GPS poszukiwał serii operacji, które wyeliminowałyby różnicę między stanem początkowym a ostatecznym celem. Wykorzystano analizę Means-Ends do ustalenia poszczególnych kroków. Newell, Shaw i Simon opracowali silnik wnioskowania GPS.
General Regression Neural Network (GRNN) : Sieć neuronowa regresji ogólnej (GRNN)
Sieć neuronowa regresji ogólnej (GRNN) jest ciągłym analogiem probabilistycznych sieci neuronowych Donalda Spechta (PNN). Zamiast zwracać sygnał 0-1 z każdej ukrytej jednostki, która pasuje do wielkości wejściowej, zwraca wagę i moc wyjściową związaną z każdą dopasowaną ukrytą jednostką. Ostateczna prognoza jest średnią ważoną wyników
Generuj i testuj metoda
Metoda generowania i testowania to ogólny termin określający metodę, która generuje serię odpowiedzi, a następnie testuje je pod kątem bieżących przypadków. Zwykle mają dwa moduły: moduł generatora do proponowania rozwiązań i moduł testowy, który je ocenia. Metoda może być wyczerpująca, oceniająca wszystkie możliwe rozwiązania, lub może kontynuować testowanie do momentu spełnienia pewnego kryterium akceptowalności. Ten rodzaj techniki jest powszechnie stosowany do identyfikacji nowych próbek lub przedstawianych sytuacji.
Generacja
W algorytmach genetycznych i ewolucyjnych każda iteracja algorytmu jest nazywana generacją. Obejmuje to tworzenie nowych konkurentów i ich ocenę.
Generyczny asystent analityka statku kosmicznego (GenSAA)
Generyczny asystent analityka statku kosmicznego (GenSAA) to system ekspercki zaprojektowany, aby pomóc personelowi kontrolnemu w monitorowaniu statku kosmicznego. Używa zintegrowanego systemu produkcyjnego języka C (CLIPS) jako silnika wnioskowania.
Genetyczny Algorytm (GA)
Technika szacowania modeli komputerowych (np. uczenie maszynowe) oparta na metodach dostosowanych z dziedziny genetyki w biologii. Aby skorzystać z tej techniki, koduje się możliwe zachowania modelu na "geny". Po każdym pokoleniu, obecne modele są oceniane i mogą się kojarzyć i rozmnażać na podstawie ich przydatności. W procesie kojarzenia geny są wymieniane i krzyżowane i mogą wystąpić mutacje. Obecna populacja jest odrzucana, a jej potomstwo tworzy następną generację. Algorytm genetyczny opisuje również termin opisujący różnorodne techniki modelowania lub optymalizacji, które twierdzą, że naśladują pewien aspekt modelowania biologicznego przy wyborze optymalnego. Zazwyczaj modelowany obiekt jest reprezentowany w sposób, który jest łatwy do automatycznej modyfikacji. Następnie generowana jest duża liczba kandydujących modeli i testowana na podstawie bieżących danych. Każdy model jest oceniany, a modele "najlepsze" są zachowywane dla następnej generacji. Retencja może być deterministyczna (wybierz najlepsze modele k) lub losowa (wybierz modele k z prawdopodobieństwem proporcjonalnym do wyniku). Modele te są następnie losowo zaburzone (jak w rozmnażanie bezpłciowe) i proces powtarza się, aż się zbiegnie. Jeśli model jest skonstruowany w taki sposób, że ma "geny", zwycięzcy mogą "kojarzyć się" w celu wytworzenia następnej generacji.
GermAlert
GermAlert jest systemem eksperckim stosowanym do monitorowania kryteriów kulturowych dla "znaczących" zakażeń wymagających natychmiastowego leczenia.
Germ Watcher
GermWatcher to oparty na CLIPS system ekspercki, który może monitorować dane laboratoryjne pod kątem dowodów szpitalnych (nabytych w szpitalu) i zgłaszać je do Centrum Kontroli Chorób (CDC).
Gibbsa Próbkowanie
Metoda Markova Chain Monte Carlo (MCMC) do próbkowania wartości z rozkładu przekonań.
Gini Indeks
Liczba zasług wykorzystana w uczeniu maszynowym i modelach statystycznych, takich jak drzewa klasyfikacji i regresji (CART). Indeks Giniego dla grupy jest zdefiniowany jako 1-s pi2, gdzie pi jest odsetkiem przypadków w i-tej kategorii. Osiąga minimum 0, gdy wszystkie przypadki w węźle lub grupie należą do tej samej kategorii, i osiąga maksimum, gdy wszystkie przypadki są równomiernie rozmieszczone we wszystkich kategoriach
Goal : Cel
Rozwiązanie, do którego dąży program.
Gradientu Spadek
Zejście gradientowe lub wspinanie się na wzgórze jest powszechną techniką szacowania parametrów w algorytmach uczenia maszynowego, takich jak sieci neuronowe lub inne techniki stylu regresji. Algorytmy te "uczą się", dostosowując swoje parametry, aby zminimalizować pewną miarę błędu. W dowolnym momencie procesu uczenia się algorytm ocenia, w jaki sposób zmiana parametrów może zmniejszyć bieżący błąd i przesuwa się w tym kierunku. Zwykle algorytm określa kierunek jako funkcję pochodnej funkcji błędu (jej gradientu) w odniesieniu do parametrów lub pochodnej ważonej, gdzie macierz drugich pochodnych (macierz Hesji) określa wagi. Po wybraniu kierunku jest on mnożony przez parametr szybkości uczenia się i dodawany do bieżących wartości wektora parametru.
Grand Tour : Wielka podróż
Wielka trasa to nazwa eksploracji danych i technik wizualizacji, które są wykorzystywane do eksploracji wielowymiarowych przestrzeni danych. Dane są rzutowane na szereg dwuwymiarowych i trójwymiarowych wykresów wraz z miarami zainteresowania. Trasa może być losowa lub może być ukierunkowana na znalezienie projekcji, które są "interesujące" dla analityka kierującego trasą. Przykładem może być badanie wzorców danych zakupu w celu ujawnienia nieoczekiwanych skojarzeń.
Graph : Wykres
Wykres to zestaw obiektów, które mają połączenia z innymi obiektami. Obiekty są często nazywane węzłami, a połączenia łukami lub krawędziami. Jeśli z połączeniami są powiązane kierunki, wykres jest nazywany wykresem ukierunkowanym. Jeśli połączenia są takie, że istnieje tylko jedna ścieżka między dowolnymi dwoma obiektami, wówczas wykres jest acykliczny. Wykres ma obie właściwości określany jako Directed Acyclic Graph (DAG).
Graphical Model : Model graficzny
W modelu graficznym relacje między atrybutami można przedstawić jako wykres (matematyczny). Zazwyczaj węzły wykresu reprezentują zmienne lub akcje, a łuki reprezentują zależności lub przepływy informacji.
Gray Codes : Szare Kody
Forma kodowania binarnego (opatentowana przez Franka Graya w 1953 r.), Której można użyć do kodowania liczb całkowitych [0,. . ., 2N-1] jako ciąg binarny o długości N. Mają one specjalną właściwość polegającą na tym, że sąsiednie liczby całkowite różnią się tylko jednym bitem, czasami określane jako "właściwość przylegania". Zostały one zastosowane w algorytmie genetycznym do kodowania liczb, ponieważ mała mutacja w kodowaniu Graya ma tendencję do niewielkiej zmiany wartości.
Greatest Lower Bound : Największa dolna granica
W zestawie częściowo uporządkowanym załóżmy, że A C C i B C. C. Jeśli C D D dla dowolnego elementu D, który również jest zarówno A, jak i B, wówczas C jest największą dolną granicą dla elementów A i B.
Greedy Algorithm : Chciwy Algorytm
Algorytmy są często opisywane jako zachłanne, gdy próbują rozwiązać większy problem, podejmując krótkie kroki, które są lokalnie optymalne, ale ignorując kombinacje kroków, które mogą prowadzić do lepszego ogólnego rozwiązania. Na przykład drzewa decyzyjne są często konstruowane przy użyciu zachłannych algorytmów. W dowolnym węźle chciwy program wybierze najlepszy pojedynczy podział jako następny poziom w drzewie, zamiast szukać kombinacji podziałów, które mogłyby dać lepsze rozwiązanie kilka kroków później. Chciwe algorytmy mają tę zaletę, że są łatwiejsze do wdrożenia i mogą być szybsze niż algorytmy globalne, i często dają wynik, który jest "wystarczająco dobry".
Greedy Evaluation : Chciwa ocena
Symbole lub cele są oceniane jak najszybciej. Często stosowany w systemach łączenia z przodu.
GROBIAN
GROBIAN to eksperymentalny program do analizy zbiorów przybliżonych. Oprócz zwykłej analizy oferowanej przez programy takie jak Rosetta, zawiera ona również kilka alternatywnych miar jakości przybliżonych zbiorów przybliżonych i kilka dodatkowych testów statystycznych.

HACKER
HACKER, napisany przez G.J. Sussman opracował plany rozwiązywania problemów w "świecie bloków". Wzorowany na ludzkich technikach rozwiązywania problemów program próbuje znaleźć rozwiązanie, przeglądając "bibliotekę odpowiedzi". Jeśli natychmiastowa odpowiedź nie jest dostępna, próbuje zmodyfikować podobną. Podsystem "krytyk" szuka następnie błędów w planie i próbuje je naprawić.
Hamminga Odległość
Klasyczne miary odległości, takie jak odległość euklidesowa lub odległość Manhattanu, wymagają, aby atrybuty komponentu w wektorze cech były na poziomie przedziału lub na poziomie stosunku. Odległość Hamminga jest miarą odległości odpowiednią dla miar nominalnych lub porządkowych i zlicza liczbę atrybutów, na podstawie których para różni się.
Hard Selection : Trudny wybór
Selekcja przez śmierć w algorytmie genetycznym.
Hardy
Hardy to narzędzie do tworzenia diagramów oparte na hipertekście. Hardy jest zintegrowany z opartym na regułach i obiektowym językiem NASA C Language Integrated Production System wersja 6.0 (CLIPS 6.0), aby umożliwić użytkownikom szybkie tworzenie aplikacji związanych z diagramami.
HARPY
B. Lowerre napisał HARPY, system rozumienia mowy, w 1975 roku. Program ten zawierał szereg wstępnie skompilowanych słów, a "rozumienie" zostało zaimplementowane jako seria przejść między tymi słowami.
HART-J i HART-S
Dwa modułowe hierarchiczne modele ART (HART). Pierwsza implementuje metodę skupiania aglomeracyjnego, natomiast druga implementuje metodę dzielenia dzielącego, w której każda warstwa ART uczy się różnic między wejściowym a dopasowanym prototypem poprzedniej warstwy.
HASP
System oparty na tablicy do interpretacji w czasie rzeczywistym sygnałów sonarowych w określonym obszarze oceanu. Wykorzystał dane wejściowe z kilku czujników w znanych lokalizacjach, aby wykryć i zidentyfikować lokalizację i ruch statków w swoim regionie.
Hassego Schemat
Schemat Hassego to zmniejszona reprezentacja pełnego wykresu częściowo uporządkowanego zestawu. Pełna reprezentacja częściowo uporządkowanego zbioru ma łuki między wszystkimi węzłami a i b, dla których Rb, gdzie R reprezentuje relację uporządkowania. Schemat Hassego to wykres, który eliminuje wszystkie połączenia między dwoma węzłami, dla których istnieje dłuższa ścieżka między węzłami. Drzewo zdarzeń to diagram Hassego.
Hausdorffa Wymiar
Miara fraktalnej złożoności obiektu. Jest stosowany w analizie dokumentów i wizji.
Head
Pierwszy element listy.
HEARSAY-III
System oparty na tablicy, który interpretuje wypowiedziane żądanie pobrania informacji. Ma ograniczone słownictwo z około 1000 słów.
HEARSAY-II
System rozumienia mowy napisany przez Lessera, Fennella, Ermana i Reddy^prime;ego w 1976 roku. Szereg modułów skomponował system komunikujący się poprzez "tablicę" (q.v.). Każdy z modułów reprezentował inne źródło wiedzy i mógł działać asynchronicznie.
Hebbian Learning
Forma uczenia się bez nadzoru w sieciach neuronowych, która próbuje zminimalizować sumę kwadratów odległości między przypadkami wejściowymi a liniową podprzestrzenią przestrzeni danych przypadków treningowych. Jest podobny do analizy głównych składników.
Height : Wysokość
Parametr określający maksymalną wartość, jaką może przyjąć radialna funkcja podstawowa, określa się jako wysokość.
Helmholtza Maszyna
Propagacja prawdopodobieństwa w dużej, wielokrotnie połączonej sieci bayesowskiej może być trudna obliczeniowo. Maszyna Helmholtza rozwiązuje ten problem, łącząc oryginalną sieć generatywną z drugą siecią rozpoznającą, która zapewnia szybkie zbliżenie do pożądanego rozwiązania. Różne zestawy widocznych zmiennych w sieci mogą wymagać różnych sieci rozpoznających. Sieci rozpoznające można podzielić na sieci czynnikowe, które zakładają prosty model Na?ve Bayesa, biorąc pod uwagę widoczne zmienne, oraz modele niefaktoryczne, które pozwalają na bardziej skomplikowaną relację między zmiennymi ukrytymi, biorąc pod uwagę zmienne widoczne.
Helpmate
Helpmate to autonomiczny robot dostawczy do szpitali i podobnych środowisk. Pomocnik może dostarczać takie przedmioty jak posiłki i lekarstwa. Jest w stanie nawigować wokół nieoczekiwanych przeszkód (ludzi lub innych samochodów). Obecnie przechodzi testy terenowe w Stanach Zjednoczonych.
Hepaxpert I i Hepaxpert II
Hepaxpert I i Hepaxpert II są systemami opartymi na regułach, które zapewniają automatyczną interpretację testów na zapalenie wątroby typu A i B. Korzystają z ponad 100 reguł opartych na regułach i są stosowane rutynowo od września 1989 roku. Hessian Matrix
W algorytmach uczenia się, w których do uczenia się wykorzystuje się techniki gradientowe lub pokrewne, gradienty są czasami ważone przez odwrotność macierzy produktów krzyżowych lub macierzy Hesji. Macierz Hesji jest macierzą drugich pochodnych funkcji błędu w odniesieniu do parametrów reguły uczenia się.
Heteroasocjatywne
Modele heteroasocjacyjne to modele, które odnoszą jeden zestaw zmiennych do innego zestawu zmiennych, takich jak predykcja lub klasyfikacja. Zmienne predykcyjne różnią się od zmiennych docelowych.
Heurystyka
Techniki przybliżania lub "praktyczne zasady" rozwiązywania problemów. Są one na ogół stosowane, gdy albo dokładne rozwiązanie określonego problemu jest nieznane lub gdy dokładna metoda jest znana, ale byłaby zbyt trudna lub niemożliwa do zastosowania. Oferują kompromis "całkiem dobrego" rozwiązania przy "rozsądnych" kosztach.
Hidden Layer : Ukryta warstwa
Sztuczna sieć neuronowa może zawierać wiele węzłów, które nie są ani początkowymi węzłami wejściowymi, ani końcowymi węzłami wyjściowymi. Są one zwykle nazywane "ukrytymi" węzłami. Notatki te często można ułożyć w warstwy, gdzie każda warstwa otrzymuje dane wejściowe z "poprzedniej" warstwy, a której dane wyjściowe stają się danymi wejściowymi dla następnej warstwy. Skomplikowane schematy sieciowe mogą utrudniać liczenie warstw.
Hidden Markov Model : Ukryty model Markowa
Model oparty na łańcuchu Markowa z dodatkowymi, równoległymi stanami, które są całkowicie określone przez podstawowe stany łańcucha Markowa. Stany podstawowe są zwykle nieobserwowane, ale obserwowane są informacje o stanie wtórnym. Wiele stanów ukrytych może generować te same stany obserwowalne, a pojedynczy stan ukryty może generować różne stany obserwowalne.
Hierarchiczne mieszanki ekspertów (HME)
Architektura HME jest uogólnieniem pomysłów dotyczących drzew decyzyjnych i algorytmów partycjonowania rekurencyjnego. Ogólna idea tej architektury polega na rozbiciu dużego (twardego) problemu na zestaw łatwiejszych problemów, które mogą rozwiązać "eksperci". W tym podejściu problem jest a priori rozkładany na hierarchiczną przestrzeń wejściową, która umożliwia nakładanie się klastrów (tj. "Miękkich podziałów"). "Eksperci" (sieci neuronowe) na dole drzewa generują prognozy dla wektora wejściowego, który następnie łączy się probabilistycznie, gdy prognozy są propagowane "w górę" drzewa.
Hold-out Sample : Próbka trzymająca
Podczas dopasowywania wielu modeli dostosowujących dane modele mają tendencję do nadmiernego dostosowywania się do określonego zestawu danych, a zatem mają ograniczoną ogólność. Jednym ze sposobów kontrolowania lub mierzenia tego efektu jest "trzymanie" niektórych danych i ocena dopasowanego modelu na tych "świeżych" danych. Istnieje wiele schematów, takich jak wykorzystanie szkolenia, walidacji, oraz zestawy testowe i metody, takie jak jack-knifing, cross-validation i bootstrapping. Wszystkie mają wspólną cechę rozwijania modelu w podzbiorze danych i oceny / dostrajania go w innym.
Honda Human
W 1996 r. Honda Corporation zademonstrowała humanoidalnego robota zwanego Honda Human, zdolnego do dwunożnego chodzenia, skręcania, wchodzenia po schodach i innych czynności. Jest to wynik trwającego programu rozwoju ludzkich asystentów i zamienników do podłogi warsztatu.
Hopfield Sieć
Addytywna sieć autosocjacyjna, w której funkcje sygnałowe są ograniczoną funkcją monotoniczną z symetryczną macierzą synaptyczną. Sieci te są globalnie stabilne i szybko zbiegają się do stałych punktów dla wszystkich danych wejściowych. Tak więc, gdy taka sieć zostanie zainicjowana i otrzyma dane wejściowe x (0), obliczy x (1), x (2) itd., Aż osiągnie stabilną x (∞).
Horyzontu Efekt
Termin wymyślony przez Berlinera w celu scharakteryzowania efektów częściowego przewidywania w programach do gier. Jeśli program może spojrzeć w przyszłość do końca gry, może (teoretycznie) wybrać optymalną serię ruchów. Gdy może tylko częściowo patrzeć w przyszłość (np. pięć ruchów w szachach), program może wybrać ruchy nieoptymalne ze względu na ograniczony horyzont.
Horna Klauzula
Klauzule logiczne, które mają nie więcej niż jeden literał pozytywny. Istnieją trzy rodzaje klauzul: asercje, twierdzenia warunkowe i zaprzeczenia.
Horn Core
Rdzeń Horna formuły zdań jest osłabioną formułą Horn, która implikuje tę formułę. Jest również nazywany największym dolnym rogiem największego rogu. Rdzeń Rogu nie musi być unikalny, ponieważ może istnieć wiele nierównych wzorów Róg sugerujących daną formułę. S.
Horn Envelope
Dla danej formuły zdań X obwiednia rogu jest najsilniejszą formułą rogu sugerowaną przez X. Jest również znana jako górna granica najmniejszego rogu. Przybliżenie formuły przez jej obwiednię i rdzeń Horn może wspierać szybkie rozumowanie przybliżone.
Hougha Przekształcenie
Transformacja Hougha jest techniką analizy obrazu, która umożliwia analizę histogramu wejściowej przestrzeni cech. Piki na histogramie przestrzeni cech odpowiadają elementom na obrazie wejściowym. Na przykład punkt na wykrytej krawędzi przyczyniłby się do wszystkich możliwych linii przebiegających przez ten punkt w transformacji "przestrzeni linii" obrazu. Linia na obrazie wejściowym byłaby wówczas tłumaczona na wysoki punkt w przestrzeni linii generowanej z tego obrazu.
HUGIN
HUGIN jest komercyjną powłoką i biblioteką systemu eksperckiego, która wykorzystuje Bayesian Belief Network. HUGIN wpływa na diagramy, aby uchwycić niepewność w systemie i zapewnić wbudowanych doradców w systemach.
Hypergraph
Typowa reprezentacja graficzna problemu lub rozwiązania przedstawia pojedynczy warunek w każdym węźle. Gdy węzły reprezentują warunki złożone, jak w złożonej regule, wykres jest czasem określany jako hipergraph. Podobnie węzły złożone można nazwać hipernodami.
Hiperparametr
W modelach reprezentacji wiedzy wartość niepewnego atrybutu może być reprezentowana przez rozkład prawdopodobieństwa. Jeśli parametry tego rozkładu są określone przez jeszcze inny rozkład, parametry tego drugiego rozkładu są określane jako hiperparametry. Na przykład niepewność zdarzeń binarnych jest często reprezentowana przez rozkład Bernoulliego lub, łącznie, przez rozkład dwumianowy. Obie dystrybucje wymagają parametru p, który reprezentuje prawdopodobieństwo wystąpienia zdarzenia binarnego. Jeśli istnieje niepewność co do wartości p, można ją przedstawić za pomocą rozkładu beta, który ma dwa parametry, a i b. W tym przykładzie a i b są hiperparametrami dla pierwotnego zdarzenia.
Hyperresolution
Hyperresolution to reguła wnioskowania, której można używać w zautomatyzowanych systemach wnioskowania. Koncentruje się na dwóch lub więcej klauzulach, wymagając, aby jedna z klauzul (jądro) zawierała co najmniej jeden ujemny literał, a pozostałe (satelity) nie zawierają literałów ujemnych. W skrócie, dochodzi się do wniosku, jeśli unifikator (podstawienie zmiennych dla zmiennych można znaleźć, że po zastosowaniu tworzy identyczne (z wyjątkiem znaku) pary literałów, jeden literał ujemny z jądra z jednym dodatnim z satelity. uzyskany przez zignorowanie sparowanego literały, stosując unifikator jednocześnie do jądra i satelitów i przyjmując zjednoczenie powstałych literałów. Można to uznać za uogólnienie rozdzielczości binarnej, która uwzględnia dokładnie dwie klauzule jednocześnie.
Hipotez Testowanie
Technika statystyczna oceny hipotez lub przypuszczeń na temat nieobserwowanych lub niemożliwych do zaobserwowania właściwości liczbowych populacji. Statystyka mierząca wielkość odsetek jest oceniana wraz z jej zmiennością na próbce danych z populacji i porównywana z zakresem wartości zgodnym z jedną z hipotez. W klasycznym testowaniu hipotez, jeśli wartość jest rzadka lub nietypowa, hipoteza jest odrzucana.

If-Then Rule : Reguła Jeśli-to
Reguła "jeśli-to" w systemie eksperckim opisuje sytuację problemową i działanie, które ekspert podjąłby w tej sytuacji.
ILLIAD
ILLIAD to specjalistyczny system służący do diagnozowania chorób wewnętrznych. Wykorzystuje on rozumowanie bayesowskie do przypisywania prawdopodobieństw do różnych diagnoz będących przedmiotem rozważań
Image Analysis :Analiza obrazu
Narzędzia i techniki stosowane do dzielenia obrazu na części składowe, aby program mógł zrozumieć lub sklasyfikować obraz.
Implicant
Implant B zdania A jest zadowalającą kombinacją warunków, które pociągają za sobą A. B jest głównym implantem A, gdy żaden podzbiór B nie jest również implikatorem A (np. Gdy B jest minimalny). S.
Implicate
Zdanie B jest implikacją A, gdy B jest nieważnym rozróżnieniem warunków, które pociąga za sobą A. A jest pierwszą implikacją B, gdy żaden podzbiór B nie implikuje A.
Imputation : Przypisanie
Proces "uzupełniania" brakujących wartości w zestawach danych. Istnieje wiele różnych technik, głównie omówionych w literaturze statystycznej oraz w literaturze dotyczącej danych ankietowych.
Incidence Calculus : Rachunek występowania
Rachunek występowania jest systemem zarządzania niepewnością dla systemów eksperckich. Zamiast bezpośrednio obliczać wiarę w zdanie, można losowo symulować różne wartości prawdy dla zdania poprzedzającego zdanie docelowe i policzyć częstotliwość, z jaką zdanie jest prawdziwe.
Independence : Niezależność
W probabilistycznych systemach eksperckich atrybut X jest niezależny od innego atrybutu Y, biorąc pod uwagę zestaw atrybutów W, gdy rozkład prawdopodobieństwa dla X może być skonstruowany bez odniesienia do stanu Y, biorąc pod uwagę stan atrybutów w W, X i Y być bezwarunkowo niezależnym, gdy zestaw W jest pusty (tzn. nie ma zmiennych pośrednich). W przeciwnym razie X i Y są podane warunkowo niezależnie
Independent and Identically Distributed (iid / i.i.d.) : Niezależne i identycznie rozmieszczone (iid / i.i.d.)
W aplikacjach uczenia maszynowego algorytmy są zazwyczaj wyprowadzane przy założeniu, że wszystkie obserwacje zostały wybrane niezależnie i wszystkie pochodzą z tego samego rozkładu. Kontr-przypadek byłby mieszaniną, w której próbki byłyby pobierane w sposób odmienny od dwóch lub więcej podgrup, lub w których wybór jednej obserwacji z populacji sprawia, że bardziej prawdopodobne jest wybranie innej obserwacji lub zestawu obserwacji. Pierwszy kontrprzykład narusza identycznie rozłożone założenie, podczas gdy drugi narusza założenie niezależności. Niespełnienie tego założenia może ograniczyć uogólnienie dowolnego modelu lub wiedzy z niego uzyskanej.
Indicator Function : Funkcja wskaźnika
Funkcja I (A, x), która przyjmuje wartości 0 lub 1 w zależności od tego, czy x jest członkiem zbioru A.
Indiscernible : Niedostrzegalny
W zbiorach przybliżonych dwa obiekty są nierozróżnialne w odniesieniu do zestawu atrybutów A, jeśli mają takie same wartości dla każdego atrybutu w A. Grupowanie wszystkich obiektów w "wszechświecie", które są nierozróżnialne w odniesieniu do niektórych A, jest równoważnością klasa A. Na przykład, jeśli wszechświat składa się z zestawu liczb całkowitych z zakresu (0,100), a pojedynczy atrybut dla liczby całkowitej jest zdefiniowany jako mod (i, 3), liczby całkowite 1 i 4 są nierozróżnialne z w odniesieniu do mod (i, 3), ponieważ oba mają tę samą wartość, 1. Ten atrybut przyjmuje cztery wartości (0,1,2,3), co daje cztery klasy równoważności.
Indispensable Attributes : Niezbędne atrybuty
W teorii szorstkich zestawów niezbędne atrybuty są kluczowe.
Indukcja
Proces wnioskowania ogólnej zasady na podstawie danych lub przykładów.
Indukcyjne programowanie logiczne (ILP)
Indukcyjne programowanie logiczne (ILP) to alternatywne podejście do uczenia maszynowego. Większość technik w tej dziedzinie opiera się na atrybutach, koncentrując się na nauce wartości atrybutów, które najlepiej przewidują zmienne wynikowe. ILP zakłada wiedzę podstawową wyrażoną jako zbiór definicji predykatów, zbiór pozytywnych przykładów i zbiór negatywnych przykładów. System ILP będzie następnie próbował poszerzyć wiedzę podstawową, aby można było uzyskać wszystkie pozytywne przykłady, podczas gdy żaden z negatywnych przykładów nie może być. Chociaż może to brzmieć podobnie do ogólnego problemu uczenia indukcyjnego, systemy ILP wymagają, aby wiedza podstawowa i jej rozszerzenie były reprezentowane w logice predykatów, zwykle Prolog.
INDUCT-RDR
INDUCT-RDR to algorytm uczenia maszynowego, który może się uczyć przy użyciu techniki Ripple Down Rules.
Inference : Wnioskowanie
Odnosi się do procesów wykorzystywanych do wyciągania wniosków z faktów i innych przesłanek lub wniosków.
Inference Engine : Silnik wnioskowania
Termin używany do programów lub podprogramów, które specjalizują się w rysowaniu wniosków. Termin odnosi się do tej części programu, która wykonuje wnioskowanie, a nie do danych i przesłanek, które zapewniają wiedzę.
Influence Diagram : Schemat wpływu
Drzewo decyzyjne z dodatkowymi węzłami dla narzędzi i kosztów.
Informacji Ekstrakcja
Wydobywanie informacji to obszar analizowania języka naturalnego (NLP). Łączy narzędzia NLP, takie jak parsowanie, tagowanie i słowniki, z systemami ekspertowymi lub narzędziami uczenia maszynowego w celu identyfikacji pojęć zawartych w tekście i ich struktury w spójną strukturę.
Informacji Wyszukiwanie
Odnosi się do technik przechowywania i wyszukiwania dokumentów.
Informacyjna Tabela
W teorii zbiorów przybliżonych macierz danych nazywana jest tabelą informacyjną. Wiersze odpowiadają przypadkom, a kolumny atrybutom. Atrybuty są podzielone na dwa typy: atrybuty warunku i atrybuty decyzji.
Inheritance Hierarchy : Hierarchia dziedziczenia
Organizacja obiektów, często w hierarchii w kształcie drzewa, taka, że każdy obiekt w drzewie dziedziczy właściwości obiektu "nad nim" i przekazuje wszystkie swoje właściwości wszystkim obiektom, które go dziedziczą.
Input Layer : Warstwa wejściowa
Węzły sieci neuronowej, które mogą przyjmować dane wejściowe z zewnątrz, są tradycyjnie nazywane warstwą wejściową, co jest odniesieniem do typowego warstwowego schematu sieci sieci neuronowej.
In-sample Testing : Testy w próbie
Testowanie w próbie to ogólna nazwa dla technik, które szacują poziomy błędów na podstawie tych samych danych, które są używane do opracowania modelu. Generalnie skutkuje to "nieuzasadnionym" niskim oszacowaniem błędu w modelu, który jest znacznie niższy niż błąd dla niezależnych próbek
Instancja
Instancja klasy to element należący do klasy.
Instance Link : Link do instancji
W schemacie reprezentacji wiedzy łącze do instancji to łącze z ogólnej klasy obiektów, takich jak Konta Checking w schemacie bankowym, do określonej instancji, takiej jak konto czekowe konkretnej osoby. Konkretne konto odziedziczy wszystkie gniazda, które miała klasa ogólna, takie jak stopy procentowe, opłaty miesięczne i numer konta.
Instancji Slot
Slot instancji to slot w klasie, który służy do opisywania właściwości instancji tej klasy. Nie opisuje samej klasy.
Instancja
Kiedy atrybut lub relacja ma przypisaną wartość, mówi się, że jest tworzona.
INTELLECT
INTELLECT to nazwa interfejsu języka naturalnego do systemów baz danych. Jest to jeden z pierwszych komercyjnie udanych programów AI i jest sprzedawany przez Artificial Intelligence Corporation z Waltham, Massachusetts.
Inteligentna instrukcja komputerowa (ICAI)
Zastosowanie zasad i technik sztucznej inteligencji do wspomaganych komputerowo programów nauczania. Ten program różni się od tradycyjnej instrukcji komputerowej (CAI), umożliwiając interakcję z uczniem. Zamiast używać prostych skryptów do reprezentowania przedmiotu, informacje są przechowywane w postaci sieci wiedzy, zawierających fakty na temat oraz zasady i relacje między faktami. Tradycyjne programy CAI są ograniczone do skryptów opracowanych przez autora, podczas gdy programy ICAI są reaktywne, zmieniając swoje zachowanie w reakcji na odpowiedź ucznia. Programy te obejmują również modele studentów, które śledzą, które obszary wiedzy sieć wydaje się rozumieć i diagnozować reguły błędów, które próbują zdiagnozować "błędy" ucznia. Wreszcie, programy te mają zazwyczaj interfejs języka naturalnego.
Intellipath
Intellipath to system ekspercki dla patologów klinicznych. Korzysta z sieci Bayesian, aby zapewnić możliwości diagnostyczne wspomagające diagnozy różnicowe. Ma również zdolność wyjaśniania decyzji i może zalecać testy i dane w celu potwierdzenia diagnozy.
Intensywność koncepcji
Intencją koncepcji jest zestaw wszystkich właściwości, które są spełnione lub wspólne dla wszystkich członków rozszerzenia koncepcji. Intensywność i rozszerzenie mogą być wykorzystywane przez uczenie maszynowe i techniki odkrywania wiedzy w celu generalizowania nowych przypadków i generowania nowych koncepcji.
Interlingua
Termin używany w tłumaczeniu maszynowym do opisu sztucznych języków metalowych. Bezpośrednie tłumaczenie między zestawami języków wymagałoby tłumacza dla każdej pary. W przypadku trzech języków wymagałoby to trzech par tłumaczeń, czterech języków wymagałoby sześciu par, pięciu języków wymagałoby 15 i tak dalej. Z drugiej strony, jeśli elementy są tłumaczone z języka źródłowego na pojedynczy interlingua, a następnie na język docelowy, problem wymaga jedynie utrzymania tłumaczy z każdego języka na i z interlingua.
Internal Disjunction : Odłączenie wewnętrzne
Rozłączenie na poziomie atrybutów utworzone przez rozłączenie wartości atrybutów. Manipulowanie formami sprzężonymi, które umożliwiają rozłączenia wewnętrzne, może powodować problemy kombinatoryczne.
International Classification of Diseases, 9th Revision (ICD-9) : Międzynarodowa Klasyfikacja Chorób, 9. Wersja (ICD-9)
Międzynarodowa Klasyfikacja Chorób, 9. wydanie (ICD-9) zapewnia schemat klasyfikacji chorób i działa jako ontologia chorób w systemach takich jak MetLife&prim;es Intelligent Text Analyzer (MITA).
Internet Learning Agent (ILA)
Narzędzie Data Mining do użytku w sieci WWW.
Intersection : Przecięcie
Przecięcie dwóch zbiorów A i B - zapisanych jako A B - jest zbiorem zawierającym wszystkie elementy zarówno w A, jak i B. Jest to również funkcja LISP, która przyjmuje dwie listy jako argumenty i zwraca listę zawierającą elementy wspólne dla obu argumentów.
INTERNIST
Program wspomagający diagnozę medyczną, napisany w połowie lat siedemdziesiątych. Później stał się Caduceus
Interpolacyjna Sieć
Sieć interpolacyjna to dwuwarstwowa sieć neuronowa, która służy do oszacowania odpowiedzi na podstawie wartości wejściowych. Pierwsza warstwa oblicza odległość Gaussa między każdym z węzłów a punktem wejściowym, a druga warstwa łączy wartości każdego węzła zgodnie z wagami Gaussa.
Interpretator
Program komputerowy, który odczytuje pliki wejściowe i natychmiast tłumaczy i wykonuje program. Przykłady obejmują interpretery LISP i BASIC, które pozwalają dynamicznie pisać i oceniać kod. Interpretowany program jest zwykle wolniejszy niż kompilacyjna wersja tego samego programu. Jednak zwykle potrzeba mniej czasu na interpretację i przetestowanie programu niż na skompilowanie całego programu.
Interwału Atrybut
Atrybut o wartości interwałowej używa wartości liczbowych, dla których znaczące są względne różnice, których znaczenie nie zmieniłoby się, gdyby wartości zostały przetłumaczone lub pomnożone przez dodatnią stałą. Zero w tych skalach jest dowolne. Znanym przykładem jest temperatura w stopniach Celsjusza. Różnica między 20 a 30 jest dwa razy większa niż różnica między 20 a 25, ale temperatura 30 stopni nie jest o 50 procent większa niż temperatura 20 stopni. Wartość zerowa w tej skali jest dowolna. Ten poziom atrybutu obsługuje te same operacje, co atrybuty wartości porządkowej i nominalnej, a także sumy i różnice. Operacje zależne od skali i pochodzenia, takie jak mnożenie i potęgowanie, nie mają wewnętrznego znaczenia dla tego typu atrybutów.
Irreflexive : Nierefleksyjny
Nierefleksyjna relacja binarna R to taka, w której relacja Ra nie jest prawdziwa. Przykładem może być relacja "jest rodzicem".
Itemset : Zestaw przedmiotów
Używany w Data Mining do oznaczania grup atrybutów. Na przykład zestaw wszystkich 2-elementowych zestawów w bazie danych byłby zbiorem wszystkich par atrybutów. W wyszukiwaniu reguł asocjacyjnych zainteresowanie zwykle skupia się na zestawach, w których wszystkie k elementów są prawdziwe i istnieje "duża" liczba przypadków. Liczba (lub odsetek) przypadków w zestawie przedmiotów jest określana jako "wsparcie" zestawu przedmiotów.

Java
Firma Sun Microsystems opracowała ten obiektowy język komputerowy w latach 90. XX wieku, aby obsługiwać programowanie małych urządzeń. Od tego czasu stał się bardzo popularny w sieci WWW (WWW) i wkracza w programowanie ogólne. Java jest składniowo podobna do C i C ++, ale ma wiele podobieństw semantycznych do języków takich jak MODULA.
JavaBayes
JavaBayes to pierwsza pełna implementacja Bayesian Network w języku programowania Java. W tym systemie użytkownik może przypisać wartości do niektórych zmiennych w sieci (czasami nazywanych dowodami). System użyje tych wartości do ustalenia optymalnych poziomów pozostałych wartości (zwanych również konfiguracją). Może także wyprowadzać takie wielkości, jak rozkłady krańcowe dla dowolnej z nieznanych wartości, wartości średnie dla funkcji jednoczynnikowych oraz maksymalne konfiguracje a posteriori i funkcje jednowymiarowe. System jest swobodnie dostępny i działa na wielu platformach.
Jeremiah
Jeremiah jest komercyjnym systemem logiki opartej na zasadach / rozmytej logice, który zapewnia dentystom plany leczenia ortodontycznego dla przypadków odpowiednich do leczenia przez lekarzy dentystów posiadających wiedzę na temat usuwalnych technik ortodontycznych.
Jess
Jess (obecnie wersja 4.1) to wersja systemu eksperckiego CLIPS napisana w całości w Javie. Jess został opracowany przez w Ernest Friedman-Hilla w Sandia Laboratories i jest dostępny za pośrednictwem sieci WWW (WWW). Ten system pozwala budować aplikacje i aplety Java, które mają zdolność "rozumowania".
Jitter : Drganie
Jedną z metod uniknięcia nadmiernego dopasowania jest użycie drżenia w danych treningowych. Hałas jest celowo dodawany do danych treningowych. Jest to forma wygładzania oparta na próbkowaniu i działa dobrze, gdy model próbuje oszacować płynną relację. Ta technika będzie jednak maskować wszelkie nieciągłości, które są w relacji podstawowej. Jest to ściśle związane z takimi technikami, jak techniki jądra, w których punkty danych są zastępowane przez wielowymiarowe rozkłady i regresje kalenicowe, które dodają "wcześniejsze" informacje do funkcji regresji. Wybór rozmiaru jittera jest równoznaczny z problemem statystycznym wyboru przepustowości jądra lub wielkości wcześniejszych informacji w regresji grzbietu.
J Miara
Miara J jest regułą punktacji dla reguł asocjacji. W ocenie reguły w formie "jeśli X wystąpi, wówczas wystąpi Y", z określoną częstotliwością (wsparciem) i pewnością, miara J zapewnia pojedynczą miarę, która wymienia częstotliwość reguły i pewność reguły. Miara J jest iloczynem prawdopodobieństwa X, IF reguły reguły, z entropią krzyżową reguły.
Junction Graph : Wykres połączeń
Wykres połączeń powstaje z klików modelu graficznego. Każda klika staje się węzłem na tym wykresie, a wszystkie węzły, które dzielą wspólną zmienną, są połączone przez węzeł przecięcia, oznaczony nazwą tej wspólnej zmiennej. Zauważ, że wykres połączeń jest zwykle tworzony z wykresu moralnego modelu graficznego.
Junction Tree : Drzewo połączeń
Drzewo połączeń to rozciągające się drzewo Markowa utworzone z wykresu połączeń. Wszelkie dwa atrybuty w dwóch węzłach również znajdują się na ścieżce między dwiema zmiennymi. Dobrze zbudowane drzewo połączeń obniża koszty obliczeniowe w modelu graficznym. Służą do uzyskiwania rozkładów warunkowych z sieci przekonań po włączeniu dowodów (danych) niektóre zmienne zostały uzyskane.

KAISSA
Rosyjski program szachowy, który zdobył mistrzostwo świata w szachach komputerowych w 1974 roku.
Kalmana Filtr
Adaptacyjny filtr liniowy lub sterownik. Gdy warunki pomiarów i błędów spełniają określone kryteria dystrybucji, ten filtr szybko dostosuje się do optymalnego zachowania.
Karnaugh Mapa
Mapa Karnaugh to metoda wyświetlania wielu atrybutów relacji binarnych w jednej klasyfikacji krzyżowej. Atrybuty są łączone w dwie grupy i, w ramach każdej grupy, są ułożone w stos, aby utworzyć dwa atrybuty złożone. Służą one do utworzenia klasyfikacji krzyżowej z odpowiedzią jako wpisem. Mapy Karnaugh są używane w celu uproszczenia relacji logicznych i zostały uogólnione do użytku w uogólnieniu diagramy logiczne i tabele decyzyjne.
K-D Drzewo
Drzewo K-D zapewnia szybką metodę znajdowania najbliższych sąsiadów skrzynki w przestrzeni o dużych wymiarach. Cała przestrzeń przypadków lub przykładów jest przechowywana jako drzewo decyzyjne. Węzły nieterminalne reprezentują decyzje lub testy, które są używane do zawężenia zestawu punktów kandydujących rekurencyjnie. Ostatni węzeł wskazuje zestaw możliwych dopasowań lub sąsiadów, które można zbadać indywidualnie w celu ustalenia najlepszego dopasowania. Ta metoda pozwala na procedury identyfikacji sąsiadów z czasem logarytmicznym, a nie liniowym
Kernel Function : Funkcja jądra
Wiele lokalnych algorytmów uczenia się wykorzystuje funkcję ważonej odległości do kontrolowania wpływu odległych przypadków na prognozę. Funkcja ważenia jest nazywana funkcją jądra. Zazwyczaj są to funkcje pozytywne, które integrują się z jedną i mają kompaktowe wsparcie (tj. Są pozytywne tylko w przypadkach "lokalnych"). Przykłady obejmowałyby radialną funkcję bazową, stosowaną w niektórych formach sieci neuronowych, i prostą funkcję okienkowania, która jest zdefiniowana jako jedna w małym zakresie, w przeciwnym razie zero.
Kernel Regression : Regresja jądra
Technika, która opiera przewidywania lub klasyfikacje na wartościach innych przypadków, które znajdują się w danej odległości od przypadku docelowego lub obserwacji. Zazwyczaj wpływ innych przypadków jest ważony ich odległością od celu.
Kinematyka
Badanie relacji przestrzennych między konfiguracją mechanicznie połączonych i ograniczonych sztywnych ciał.
Kismet
Kismet jest częścią projektu COG. Opracowuje robota zaprojektowanego do interakcji społecznych z ludźmi. Koncentruje się na uczeniu robotów, aby angażowały się w znaczącą wymianę społeczną z ludźmi. Naukowcy biorący udział w tym projekcie postanowili modelować parę opiekun-niemowlę, w której człowiek pełni rolę dozorcy. Kismet jest w stanie szerokiej gamy mimiki.
KL-ONE
Język oparty na ramkach do reprezentacji wiedzy. R. Brachman opracował KL-ONE w 1978 roku w BBN. Rozszerzył idee języka reprezentacji ramek (FRL) i języka reprezentacji wiedzy (KRL) poprzez włączenie możliwości posiadania ograniczeń obejmujących więcej niż jedno miejsce (określane jako "rola" w KLONE). Na przykład przedział urodzinowy dla osób musi być mniejszy niż wartość w przedziale dni ukończenia szkoły średniej.
KNOBS
System planowania misji taktycznych sił powietrznych
KnowEXEC
KnowEXEC jest rozszerzeniem CLIPS. KnowEXEC został zaprojektowany jako rozszerzenie pomocnicze w przeglądarce Netscape Navigator. Umożliwia użytkownikom pobieranie i uruchamianie baz wiedzy CLIPS.
Knowledge : Wiedza
Wartości parametrów i reguł, które zostały wyuczone (oszacowane) z danych w modelu, reprezentują "wiedzę" modelu.
Knowledge and Data Discovery Management Systems (KDDMS) : Systemy zarządzania wiedzą i wyszukiwaniem danych (KDDMS)
Systemy zarządzania wiedzą i wykrywaniem danych (KDDMS) są używane w odniesieniu do proponowanych systemów wykrywania wiedzy w bazach danych (KDD) "drugiej generacji", które obejmowałyby rozszerzoną bazę danych obsługa i języki zapytań KDD.
Knowledge Base : Baza wiedzy
Zbiór faktów dostępnych dla programu. Tak jak bazę danych można traktować jako zorganizowany zbiór danych, tak baza wiedzy jest zorganizowanym zbiorem "faktów" lub zestawień relacji między obiektami. Konkretna organizacja wiedzy podyktowana jest metodą reprezentacji wiedzy wybraną przez projektanta programu.
Kompilacja wiedzy
Termin kompilacja wiedzy został użyty w procesie reprezentowania formuły zdań przez optymalne aproksymacje górnego i dolnego rogu. Te przybliżenia są również znane jako obwiednia Horn i rdzeń Horn formuły.
Knowledge Discovery in Databases (KDD) : Odkrycie wiedzy w bazach danych (KDD)
Odkrywanie wiedzy w bazach danych to ogólny proces odkrywania wiedzy w danych. Ten proces obejmuje dziewięć kroków. Pierwszym z nich jest zrozumienie domeny aplikacji i celu procesu. Drugi etap obejmuje utworzenie zestawu danych ("kopalnia danych"), co prowadzi do trzeciego i czwartego etapu czyszczenia, przetwarzania wstępnego, redukcji i projekcji. Piąty etap polega na wybraniu metody Data Mining w celu dopasowania do celów wybrany w pierwszym etapie. Szósty i siódmy etap to analiza eksploracyjna i wybór modelu / hipotezy, a następnie faktyczny proces wydobywania. Ostatnie dwa etapy obejmują interpretację wzorów i działanie na podstawie uzyskanej wiedzy. Podsumowując, KDD jest próba zautomatyzowania całej sztuki i praktyki analizy danych i wnioskowania bazy danych.
Knowledge Discovery in Text (KDT) : Odkrycie wiedzy w tekście (KDT)
Ta subdyscyplina odkrywania wiedzy w bazach danych (KDD) rozszerza i dostosowuje techniki KDD, które są przede wszystkim zorientowane na dane, które mogą być reprezentowane liczbowo lub ustrukturyzowane w tabelach i bazach danych, w obszarze zbiorów tekstowych, którym brakuje struktury i zawartość numeryczna baz danych. Przykładem byłoby narzędzie do analizy wiadomości finansowych, być może zastosowane do doradcy portfela.
Knowledge Engineering : Inżynieria wiedzy
Termin ten odnosi się do technik i narzędzi używanych do budowy systemów eksperckich. Inżynier wiedzy to ten, który wdraża proces przeprowadzania wywiadów z ekspertami dziedzinowymi lub przeglądania historii przypadków i reprezentowania wydobytej "wiedzy" w systemie eksperckim lub w bazie reguł.
Knowledge Interchange Format (KIF) : Format wymiany wiedzy (KIF)
Format wymiany wiedzy jest proponowanym standardem specyfikacji i wymiany ontologii. Wykorzystuje rachunek pierwszego rzędu i pozwala na definiowanie obiektów, funkcji i relacji oraz reprezentację meta-wiedzy. Zastosowanie tego formatu pozwoliłoby na wymianę ontologii między systemami wiedzy, a także na importowanie "obcych" ontologii. Twórcy tego formatu wydali również szereg ontologii, a także edytor ontologii
Kwerenda wiedzy i język manipulacji (KQML)
Kwerenda wiedzy i język manipulacji (KQML) to zarówno język, jak i protokół wymiany informacji i wiedzy między agentami oprogramowania i bazami wiedzy. Jest rozszerzalny i określa operacje, które agent lub Baza wiedzy pozwoli na wykonanie przez innych agentów lub inną bazę wiedzy. Określa także zachowanie osób ułatwiających komunikację, specjalnej klasy agentów oprogramowania. Te programy ułatwiające oprogramowanie mają na celu koordynację zachowania innych agentów.
Knowledge Representation : Reprezentacja wiedzy
Reprezentacja wiedzy w programie to sposób dostarczania programowi informacji, z których wynika. Zbiór informacji dostępnych dla programu jest często określany jako baza wiedzy. Budując bazę wiedzy, należy rozwiązać kilka problemów. Należą do nich notacja reprezentująca wiedzę, dozwolone operacje w tej notacji, metoda nadawania znaczenia faktom w Bazie wiedzy, wybór reprezentatywnej lub proceduralnej reprezentacji, a także metoda organizacji wiedzy (np. Ramki. ) Reprezentacja wiedzy musi również pasować do schematu wnioskowania, który będzie używany w programie.
Knowledge Representation, Analog : Reprezentacja wiedzy, analogowa
Schematy reprezentowania wiedzy można ogólnie podzielić na dwa typy: zdania i analogowe. W analogicznej reprezentacji sytuacji każdy element pojawia się raz, wraz ze wszystkimi jego relacjami z elementami. Reprezentacjami tymi można manipulować za pomocą procedur, które często są podobne do procedur fizycznych, natomiast reprezentacją zdań można manipulować przy użyciu ogólnych reguł wnioskowania. W przeciwieństwie do reprezentacji zdań, które zwykle są dyskretne, reprezentacje analogowe są często w formie, którą można ciągle modyfikować, tak jak w wazonie na stole. Relacje strukturalne w reprezentacji są analogiczne do faktycznych relacji między reprezentowanymi obiektami, a nie reprezentowane przez wartości prawdy związane z twierdzeniem.
Knowledge Representation Language (KRL) : Język reprezentacji wiedzy (KRL)
Język oparty na ramkach do reprezentacji wiedzy opracowany przez Bobrowa i Winograda w 1977 r. Schemat ten obejmował ramki języka reprezentacji ramek (FRL) oraz dodaną metodę wnioskowania opartą na wzorach, a także szereg prymitywów do tworzenia instancji klas.
KnowledgeSeeker
KnowledgeSeeker to wczesny program drzewa klasyfikacji komercyjnych. W przeciwieństwie do drzew klasyfikacji i regresji (CART), oferował podział na wiele sposobów. Zastosowano także inny zestaw kryteriów podziału.
Knowledge Source Combination : Połączenie źródła wiedzy
Technika stosowana w rozpoznawaniu mowy i innych obszarach, w których łączy się wiele źródeł informacji ("wiedzy"), aby zapewnić najlepszą interpretację wprowadzanych danych. Na przykład kilka alternatywnych metod probabilistycznych można zastosować do tego samego wkładu i połączyć ich wyniki, aby określić "najbardziej prawdopodobne" znaczenie wejścia.
Kohonen Sieć
Sieć Kohonen jest formą uczenia się bez nadzoru w sieciach neuronowych i jest podobna do analizy skupień k-średnich. Każda z ukrytych jednostek działa jak centrum klastra, a miarą błędu jest suma kwadratowych różnic między danymi wejściowymi a najbliższym centrum klastra. Klastry konkurują ze sobą o prawo do odpowiedzi na wzorzec wejściowy. Istnieje kilka rodzajów sieci Kohonen, w tym kwantyzacja wektorowa, SOM (mapy samoorganizujące się) i nauka kwantyzacji wektorowej.
Kołmogorowa Aksjomaty
Rosyjski matematyk Kołmogorow przedstawił aksjomatyczną podstawę prawdopodobieństwa. Biorąc pod uwagę przestrzeń zdarzeń S oraz dwa podzbiory A i B z S, funkcja P () jest prawdopodobieństwem, jeśli



Te trzy warunki są również określane jako dodatni, normalizacja i skończona addytywność. Nieco inna forma aksjomatów zastępuje policzalną addytywność dla tych ostatnich, umożliwiając policzalne kolekcje zbiorów.
Kołmogorowa Złożoność
Jest to miara złożoności wzoru podana na podstawie długości kodu potrzebnego do jego odtworzenia.
Kullback-Lieblera miara informacyjna
Miara informacyjna Kullback-Liebler zapewnia podsumowanie z pojedynczą liczbą do porównania dwóch dystrybucji lub modeli. Odległość między rzeczywistym rozkładem (lub modelem) a niektórymi innymi rozkładami (lub model) definiuje się jako średnią różnicę między gęstością logarytmu rzeczywistego a innym rozkładem, uśredniającą dla rozkładu rzeczywistego. Można go wyprowadzić jako teoretyczne kryteria informacyjne i często stosuje się go do porównywania różnych modeli danych. Ponieważ odległość Kullbacka-Leiblera wymaga znajomości prawdziwego rozkładu, często stosowane są powiązane miary, takie jak Akaike Information Criteria (AIC).

Lamarcka Ewolucja
Forma ewolucji, w której potomstwo może odziedziczyć cechy nabyte, a także proste cechy genetyczne lub zamiast nich.
Lambda Rachunek
Matematyka funkcji, które mogą przyjmować inne funkcje jako argumenty i zwracać inne funkcje jako wyniki. Stanowi podstawę dla procedur w LISP i późniejszych językach komputerowych.
Language Model : Model językowy
W rozpoznawaniu mowy model językowy służy do obliczania lub przypisywania prawdopodobieństwa sekwencji słów W z wejściowej sekwencji akustycznej. Zazwyczaj ma charakter probabilistyczny i zależy od wcześniej wyprowadzonych gramatyk, a także domeny aplikacji i mówcy.
LAPART
Sieć neuronowa oparta na ART.
Last-in First-out : Ostatnie wejście Pierwsze wyjście
Zautomatyzowane systemy wnioskowania mogą utrzymywać listę zachowanych klauzul do dalszej oceny. Strategia "ostanie wchodzi pierwszy wychodzi" wybiera ostatnio zachowaną klauzulę do dalszej oceny, w przeciwieństwie do wyboru pierwszej zachowanej klauzuli do kierowania rozumowaniem.
Latent Variable : Utajona zmienna
Nieobserwowany lub nieobserwowalny atrybut w systemie, który różni się w zależności od jednostki i którego zmienność wpływa na zarejestrowane atrybuty. Może to wpływać na wyniki Data Mining lub inne wysiłki oparte na bazach danych, które zostały zebrane dla innych niepowiązanych celów, lub kolekcje danych tworzone w celu przechwytywania "naturalnych" źródeł danych (np. transakcji kartą kredytową). Jeśli dane nie zostały zebrane z myślą o konkretnym celu i brakuje niektórych istotnych zmiennych, zmienne te byłyby "utajone".
Lattice : Krata
Krata jest częściowo uporządkowanym zestawem, który ma przynajmniej górną granicę i największą dolną granicę dla wszystkich par elementów w zestawie. Jedną z implikacji jest to, że koniunkcja i rozłączenie są dobrze zdefiniowane na dowolnym skończonym podzbiorze sieci, jako odpowiednio najniższa górna granica i największa dolna granica podzbioru. Sieć jest kompletna, jeśli każdy podzbiór ma zarówno największą dolną granicę, jak i przynajmniej górną granicę (co jest zawsze prawdziwe w przypadku zbioru skończonego). Kompletna sieć zawsze ma jednostkę i zero.
Lauritzen-Spiegelhalter Architektura
Metoda propagacji danych za pomocą prezentacji drzewa przekonań sieci przekonań. Jest nieco mniej ogólny niż architektura Shaefer-Shenoy, ponieważ wymaga istnienia kontynuatorów dla drzewa.
Leniwa ocena
Ocena symbolu lub celu tylko wtedy, gdy potrzebne są wyniki.
Learning : Uczenie się
Dopasowanie modelu do danych.
Liść
Węzeł na wykresie, który ma dokładnie jeden łuk, nazywa się liściem.
Learning Rate : Wskaźnik uczenia się
W sieciach neuronowych i innych technikach uczenia maszynowego parametr szybkości uczenia się określa, jak szybko model dostosowuje się do nowego przypadku. Szybka szybkość uczenia się prowadzi do szybkiej adaptacji, ale może prowadzić do niestabilności, natomiast wolna szybkość uczenia się może spowodować, że algorytm zignoruje nowy przypadek. Te parametry są często ustawiane ręcznie, ale mogą określać się również za pomocą technik takich jak walidacja krzyżowa.
Learning Rate : Wskaźnik uczenia się
Wiele algorytmów uczenia się zawiera parametr zwany parametrem szybkości uczenia się, który zwykle wynosi od 0 do 1 i kontroluje szybkość, z jaką algorytmy mogą się zmieniać, mogą aktualizować swoje parametry wewnętrzne w odpowiedzi na nowe dane lub minimalizować błędy podczas uczenia się. Jeśli parametr jest zbyt duży, model będzie stale przesadzał z nowymi danymi lub błędami i nie będzie się zbieżał; jeśli jest za mały, zareaguje zbyt wolno, zebranie się zajmie dużo czasu. W algorytmach uczenia gradientowego szybkość uczenia się jest czasami nazywana rozmiarem kroku, ponieważ kontroluje rozmiar kroku od jednego wektora parametrów do drugiego dla każdego kroku (iteracji) procesu uczenia się (szacowania). Można go ustawić ręcznie lub algorytmicznie.
Level Saturation : Poziom nasycenia
Poziom nasycenia jest strategią kierunkową pierwsze weszło, pierwsze wyszło, które można zastosować w zautomatyzowanym systemie rozumowania, takim jak wydra.
LSM
Forma sieci Kohonen. Nazwa pochodzi od "Learning Subspace Method".
Learning Vector Quatization Networks : Nauka sieci wyceny wektorów
Forma nadzorowanej formy sieci Kohonen. Każda klasa ma przypisany jeden lub więcej wektorów słownika; przypadek jest klasyfikowany przez przypisanie go do najbliższego klastra, jak w algorytmie najbliższego sąsiada
Least General Generalization (LGG) : Najmniej ogólne uogólnienie (LGG)
Least General Generalization (LGG) to ostrożna technika uogólniania stosowana w programowaniu logiki indukcyjnej (ILP). Zakłada się, że jeśli dwie klauzule są prawdziwe, to najprawdopodobniej ich najbardziej ogólne uogólnienie również będzie prawdą. LGG dwóch przyczyn jest obliczane przez obliczenie LGG dosłownych terminów w ich głowach i ciałach, zastępując zmienną części, które nie pasują.
Least Upper Bound : Najmniej górna granica
W zestawie częściowo uporządkowanym załóżmy, że A ? C i B ? C. Jeśli C ? D dla dowolnego elementu, który również jest równy 3 zarówno A, jak i B, wówczas C jest najmniejszą górną granicą dla elementów A i B.
Lifer
Hendrix opracował ten parser języka naturalnego w 1977 r. w Stanford Research Institute
Lift
Wzrost jest miarą, zaadaptowaną z technik marketingu bezpośredniego, opisującą wzrost klasyfikacji lub przewidywania wynikający z klasyfikatora lub innego modelu. Jeśli f (Y) jest normalnym wskaźnikiem powodzenia, a f (Y | X) jest wskaźnikiem powodzenia przy danym klasyfikatorze, wówczas wzrost mierzy się jako f (Y | X) / f (Y). Gdy model generuje ciągłą odpowiedź, alternatywna reprezentacja, zwana skumulowanym wzrostem, mierzy wzrost. Jest to często wykreślane jako skumulowany sukces w porównaniu ze skumulowanymi kategoriami predyktora, wykreślane od najlepszego do gorszego.
Likelihood : Prawdopodobieństwo
W metodach probabilistycznych i statystycznych prawdopodobieństwo jest miarą dowodów na dane, gdy hipoteza jest prawdziwa. Jest powszechnie stosowany w technikach bayesowskich i quasi-bayesowskich. Powiązaną miarę, minimalną długość wiadomości, można wyprowadzić z zasad teoretycznych informacji. Jako przykład załóżmy, że obserwujesz wartość danych X, która jest założona jako gaussowska. Prawdopodobieństwo tych danych, gdy przyjęta średnia wynosi, powiedzmy, 5, a wariancja wynosi 10, jest proporcjonalna do e-((X-5)2/2*10), jądra rozkładu Gaussa. Prawdopodobieństwo jest zwykle obliczane przy użyciu jądra, a nie pełnej funkcji dystrybucji, która obejmuje stałe normalizujące.
Likelihood Ratio : Wskaźnik wiarygodności
Przy ocenie prawdopodobieństwa dowodów przy porównywaniu dwóch rozłącznych hipotez, HA i HB, prawdopodobieństwem jest stosunek P (e | HA) do P (e | HB). Czasami określa się go jako współczynnik Bayesa dla HA w porównaniu z HB. Szanse późniejsze dla dowolnego wcześniejszego można obliczyć, mnożąc ten współczynnik przez wcześniejszy iloraz szans.
Liniowa analiza dyskryminacyjna (LDA)
Liniowa analiza dyskryminacyjna (LDA) jest formą nadzorowanego uczenia się, pierwotnie opracowaną jako narzędzie statystyczne, w celu znalezienia optymalnej reguły liniowej do rozdzielenia dwóch klas (koncepcji). Algorytm znajduje linię w hiperprzestrzeni, która łączy centroidy przykładów pozytywnych i negatywnych, i wybiera punkt przerwania wzdłuż tej linii, który najlepiej oddziela klasę, ważąc współczynniki w celu uwzględnienia wszelkich korelacji liniowych między atrybutami. Gdy pojęcie można rozdzielić liniowo, LDA może całkowicie oddzielić klasy. "Liniowy" w tym znaczeniu odnosi się do liniowości funkcji łączącej atrybuty, a nie do samych atrybutów. Lista atrybutów może obejmować moce i produkty innych atrybutów, a także inne funkcje, takie jak funkcje krzywej składanej atrybutu "rzeczywistego". Reguła ma postać a + b.x + c.y + d.z + ..., tzn. jest liniowa w podanych atrybutach. Wartość a, czasami nazywana odchyleniem lub przechwyceniem, jest często wybierana tak, aby jakikolwiek pozytywny wynik na atrybucie oznaczał członkostwo w jednej klasie, a ujemny wynik oznaczał członkostwo w drugiej. Można go rozszerzyć, aby uczyć się wielu klas za pomocą techniki zwanej Multiple Discriminant Analysis (MDA), która szacuje funkcje liniowe k-1 w celu oddzielenia k klas na podstawie atrybutów.
Liniowa Warstwa
Sieci neuronowe są zazwyczaj ułożone jako warstwy węzłów. Każdy węzeł (inny niż węzeł wejściowy) zwykle zbiera dane wejściowe i przeprowadza transformację za pomocą funkcji aktywacji. Funkcje aktywacyjne są zwykle nieliniowe (funkcje logistyczne lub radialne funkcje bazowe), ale niektóre sieci, takie jak nieliniowe składniki zasad lub eliptyczne sieci funkcji bazowych, zawierają warstwę węzłów, które po prostu dopasowują model liniowy do swoich danych wejściowych. Gdy liczba węzłów jest równa liczbie danych wejściowych, jest to równoważne z wykonaniem skośnego obrotu danych wejściowych; a gdy liczba węzłów w tej warstwie jest mniejsza niż liczba danych wejściowych, warstwa zmniejsza wymiarowość.
Liniowy Model
Model liniowy to model analityczny, który jest w pewnym sensie liniowy w parametrach modelu (a nie w atrybutach używanych do utworzenia danych wejściowych do modelu). Klasycznym przykładem jest regresja liniowa, w której dane wyjściowe są modelowane jako ważona suma zmiennych wejściowych lub predykcyjnych. Wagi są parametrami, a jeśli wchodzą liniowo, model jest modelem liniowym. Modele można również uznać za liniowe, jeśli istnieje pewna odwracalna transformacja jeden do jednego przewidywanej zmiennej, która tworzy model liniowy. Przykładem może być model logistyczny danych binarnych. Model logistyczny jest modelem liniowym dla log (p / (1-p)), gdzie p jest oszacowaną proporcją lub prawdopodobieństwem. Przykładem modelu nieliniowego może być regresja liniowa zmodyfikowana w celu uwzględnienia nieznanej transformacji mocy na jednej ze
Liniowa Regresja
Specjalny typ modelu liniowego, w którym zmienna wyjściowa (zależna) jest prostą sumą ważoną zmiennych wejściowych (niezależnych). Gdy odważniki są funkcjonalnie niezależne, model jest liniowy w parametrach. Klasyczna regresja liniowa wymaga również założeń dotyczących wspólnego terminu błędu w dziedzinie predyktorów, a także założeń niezależności i normalności błędów.
Liniowo rozdzielalne
Mówi się, że pojęcie lub klasa są liniowo rozdzielalne w zbiorze (binarnych) atrybutów, jeśli przykłady, które są członkami klasy, można oddzielić od negatywnych przykładów hiperpłaszczyzną w przestrzeni atrybutów. Na przykład, dla jednego wymiaru (wzdłuż linii), koncepcja byłaby liniowo rozdzielalna, gdyby wszystkie pozytywne przykłady leżały po jednej stronie punktu w linii, a wszystkie negatywne przykłady leżały po drugiej stronie. Zarówno perceptrony, jak i liniowa analiza dyskryminacyjna mogą nauczyć się pojęć, które można rozdzielić liniowo.
Linków Analiza
Analiza linków to technika badania powiązań między dużą liczbą obiektów różnych typów. Jest to stosunkowo nowy obszar i jest wykorzystywany w dochodzeniach policyjnych, wykrywaniu oszustw, epidemiologii i podobnych obszarach. W przeciwieństwie do wielu technik opartych na grafach, które wywołują graf ze struktury wielowymiarowej, analiza łączy rozpoczyna się od danych, które można przedstawić w postaci łączy (np. Połączeń telefonicznych).
Linked Inference Rules : Połączone reguły wnioskowania
Powiązane reguły wnioskowania rozluźniają ograniczenia składniowe zwykłych reguł wnioskowania, pozwalając klauzulom łącza służyć jako pomosty między klauzulami inicjującymi wnioskowanie i klauzulami kończącymi wnioskowanie. Rozdzielczość UR, hiper-rozdzielczość i paramodulacja można rozszerzyć, umożliwiając łączenie jądra z klauzulami satelitarnymi.
Lista
Uporządkowana kolekcja elementów, którymi mogą być inne listy. W LISP: lista zbudowana jako komórka przeciwna, gdzie lewa komórka jest elementem, a prawa komórka jest wskaźnikiem do innych list lub do wartości NIL. W PROLOG, lista jest zbiorem obiektów w nawiasach kwadratowych, np. [a, pies, krowa]
LISP
W 1956 roku John McCarthy wynalazł LISP, najpopularniejszy język dla sztucznej inteligencji. Został zaprojektowany od początku jako symboliczny język przetwarzania, dzięki czemu doskonale nadaje się do zadań AI. Został on wielokrotnie zmodyfikowany i rozszerzony od czasu jego pierwotnego projektu. Niektóre języki pokrewne lub potomne obejmują MacLisp, Common LISP i Scheme.
LISP Maszyny
Pod koniec lat 70. i 80. XX w. Osiągnięto znaczny wzrost szybkości przetwarzania LISP poprzez opracowanie komputerów specjalizujących się w języku LISP. W końcu komputery ogólnego przeznaczenia stały się wystarczająco szybkie i tanie, aby przejąć rynek tych specjalistycznych maszyn.
Lista
Uporządkowana kolekcja przedmiotów lub przedmiotów. Oprócz właściwości, które dziedziczy z zestawu, obsługuje pojęcia poprzedniego i następnego elementu na liście oraz zazwyczaj pojęcie pierwszego elementu ("głowa") i ostatniego elementu ("ogon").
Literate Programming : Programowanie piśmienne
Praktyka jednoczesnego programowania i pisania dokumentacji jest taka, że wynik jest przeznaczony do odczytu przez ludzi podczas tworzenia "prawdziwego" kodu komputerowego. Termin został wymyślony przez D. Knutha podczas jego rozwoju systemu TeX. Ponieważ dokumentacja jest przeplatana z kodem źródłowym lub pseudokodem, systemy programowania literackiego są często nazywane systemami WEB, zgodnie z nomenklaturą Knutha. To użycie terminu WEB znacznie wyprzedza jego użycie w odniesieniu do sieci WWW (WWW). Jest to styl dość odpowiedni do celów dydaktycznych.
Lokalny
Technika lokalna to taka, która wykorzystuje informacje tylko z przypadków, które są w pewnym sensie "blisko" obszaru docelowego. Na przykład klasyczna regresja liniowa ma charakter globalny, ponieważ wszystkie obserwacje przyczyniają się do funkcji liniowych, które są używane do tworzenia parametrów przecięcia i nachylenia. Regresja LOESS jest lokalna, ponieważ tylko obserwacje, które znajdują się w pobliżu punktów docelowych, są wykorzystywane do tworzenia oszacowania w punkcie docelowym.
Lokalni operatorzy
Termin używany w analizie funkcji w odniesieniu do funkcji, które działają w ograniczonym sąsiedztwie wokół danego elementu (np. Piksel na zdjęciu).
Lokalne uzasadnienie
Logika monotoniczna miała tę właściwość, że jeśli A => B, to A&C => również implikuje B. Logika ma atrakcyjną właściwość wspierania lokalnego rozumowania, w którym wnioski wyciągnięte z części informacji dotyczą całego zestawu informacji.
Lokalna Regresja
Metody regresji klasycznej zakładają, że określony związek strukturalny zachowuje się w całym zakresie predyktorów. Lokalne techniki regresji zakładają, że (zwykle) proste struktury utrzymują się wokół każdego przypadku w przestrzeni danych, ale "ciekawość" punktów danych maleje, im dalej idzie ona z tego obszaru. Regresje lokalne mogą zazwyczaj odtworzyć klasyczne podejście regresyjne, gdy globalna prawidłowość utrzymuje się, i przewyższają je, gdy nie ma regularności. Wygładzanie splajnów, sieci neuronowych oraz drzew regresji i klasyfikacji to wszystkie formy regresji lokalnej.
Lokalnie optymalne wyszukiwania (rozwiązania)
Lokalnie optymalny algorytm wyszukiwania użyje algorytmu, który może znaleźć najlepszy wynik jedno- lub dwuetapowy, ale nie ma gwarancji znalezienia optymalnego globalnie rozwiązania. Często lepsze wyniki można znaleźć, powtarzając wyszukiwanie lub dodając przypadkowe zakłócenia do lokalnych rozwiązań
Loebnera Nagroda
Nagroda przyznawana co roku za program komputerowy, który najlepiej naśladuje naturalne ludzkie zachowanie. Zwycięzca jest wyłaniany podczas corocznego konkursu, w którym sędziowie siedzący przy komputerowych terminalach próbują ustalić, czy ukryty respondent jest człowiekiem czy maszyną.
LOESS
Lokalna technika regresji opracowana w statystyce i stosowana w Data Mining. Klasyczna analiza regresji wykorzystuje wszystkie dane w celu dopasowania do linii regresji. Zatem wszystkie dane będą miały wpływ na prognozę w każdym punkcie. LOESS wykonuje regresję lokalną, biorąc pod uwagę tylko te punkty, które znajdują się w pobliżu punktu docelowego podczas prognozowania. "Bliskość" jest kontrolowana przez szerokość okna wybraną przez analityka.
Logika
Sposoby lub metody uzasadnienia na podstawie "znanego" lub określonego zestawu faktów i założeń do innych faktów i wniosków. Istnieje wiele systemów logicznych, w tym wnioskowanie indukcyjne, logika niemonotonowa, logika predykatów, a także logika wielokrotna dedukcyjna.
Logiczne bazy danych
Te bazy danych, znane również jako Deklaratywne programowanie logiczne, reprezentują wiedzę jako relacje logiczne i wykorzystują dedukcję do rozwiązywania problemów. Logiczne bazy danych są po prostu deklaratywne, bez elementów proceduralnych, jak w Programowaniu logicznym
Logika, modalność
Logika konieczności i możliwości opracowana przez C.I. Lewis (1883-1964). Jeśli zdanie niekoniecznie jest fałszywe, jest to możliwe. Ewentualna propozycja może być również prawdziwa.
Logiki Programowanie
Informatyka klasyczna zajmuje się wiedzą "praktyczną", w przeciwieństwie do matematyki, która dotyczy wiedzy deklaratywnej (czym jest). Programowanie logiczne, które wyrosło z badań w automatycznym dowodzeniu twierdzeń, próbuje opracować relacje matematyczne, które dotyczą wielu wartości, a nie określonej wartości. Program logiczny manipuluje symbolami i relacjami, aby wydedukować lub wywnioskować nowe relacje między symbolami.
Logicznych przekonań Funkcja
Funkcja przekonania, która przypisuje całą swoją masę bezpośrednio do jednego podzbioru ramki, jest logiczną funkcją przekonania, ponieważ działa jak zwykła (logiczna) funkcja logiczna.
Logistyczna sieć autoregresyjna
Sieć autoregresyjna, w której prawdopodobieństwo obecnego węzła jest liniową funkcją logistyczną węzłów przodków.
Logistyczna Funkcja
Zwykle odnosi się do skumulowanej funkcji logistycznej, gdzie y = 1 / (1 + exp (-bx)). Ta funkcja jest powszechnie stosowana jako funkcja wyjściowa lub sygnałowa dla węzłów sieci neuronowej oraz jako funkcja łącza w statystycznych uogólnionych modelach liniowych, zarówno ze względu na jej prostotę, jak i ze względów teoretycznych.
Logistyczna Regresja
Specjalna forma regresji, której można użyć do wygenerowania funkcji regresji dla zmiennych binarnych i porządkowych. Jest to uogólniony model liniowy, wykorzystujący funkcję logistyczną do połączenia oczekiwanej wartości odpowiedzi z modelem liniowym. Wśród powodów, dla których jest preferowany dla zmiennych tego typu, ponieważ poprawnie obsługuje ograniczone odpowiedzi i zależność między błędem a średnią.
LOGO
W 1972 roku Seymour Papert z MIT wynalazł LOGO, język programowania przeznaczony do nauczania programowania dzieci.
Long-term Memory : Pamięć długoterminowa
W sieciach neuronowych współczynniki w węzłach, w tym ich łączność.
Look-ahead : Patrz przed siebie
Techniki Look-ahead mogą być wykorzystane do poprawy wyników globalnych wyszukiwań lub chciwego algorytmu. Na każdym etapie wyszukiwania program analizuje wyniki dla kilku kroków przed bieżącym etapem i wybiera krok, który ma najlepszy wynik na kilka kroków do przodu. W następnym etapie program powtarza wyszukiwanie, prawdopodobnie wykorzystując wyniki zapisane w poprzednim okresie oczekiwania. Liczba kroków, na które program patrzy w przyszłość, jest czasami określana jako horyzont programu. Duże wartości horyzontu mogą prowadzić do eksplozji kombinatorycznej i uniemożliwić programowi znalezienie rozwiązania w rozsądnym czasie
Lower Approximation : Niższe przybliżenie
W teorii zbiorów przybliżonych dolne przybliżenie pojęcia X jest największym definiowalnym zestawem zawartym w pojęciu (klasie) X. Na przykład w medycznej bazie danych ataków serca dolne przybliżenie pojęcia zawału serca byłoby największym możliwym do zdefiniowania zestaw atrybutów wśród przypadków z zawałem serca. Miarą niepewności dolnej aproksymacji jest stosunek liczby rekordów w dolnym aproksymacji do całkowitej liczby rekordów w zbiorze danych. Jest to względna ocena częstotliwości, a także funkcja przekonania Dempstera-Shafera.
Lower Envelope : Dolna obwiednia
W quasi-bayesowskich reprezentacjach prawdopodobieństwa, dolna obwiednia prawdopodobieństwa jest minimalnym prawdopodobieństwem dla zdania nad (wypukłym) zbiorem rozkładów prawdopodobieństwa dołączonym do tych zdań. Jest również bezpośrednio związany z górną obwiednią prawdopodobieństwa jego dopełnienia: dolny (P (X)) = 1- górny (P (Xc)), gdzie X jest twierdzeniem, Xc jest jego dopełnieniem, a dolny (.) a górne (.) reprezentują dolne i górne operatory prawdopodobieństwa.
Lower Expectation : Niższe oczekiwania
Niższe oczekiwanie na działanie lub decyzję jest minimalnym oczekiwaniem (średnią) tego działania we wszystkich rozkładach prawdopodobieństwa, które są możliwe dla tego działania. Nazywano to również niższą prognozą akcji.
Lower Prevision : Niższa prognoza
Podobnie do niższych oczekiwań, niższe przewidywanie jest minimalnym oczekiwaniem na działanie względem zestawu rozkładów prawdopodobieństwa. W tym kontekście stosuje się termin "przewidywanie", aby podkreślić subiektywny charakter związanych z tym prawdopodobieństw
Lower/upper Probability : Prawdopodobieństwo dolne / górne
Stosowane w quasi-bayesowskich modelach niepewności, niższe prawdopodobieństwo to dowolna funkcja nieujemna, która spełnia następujące cztery właściwości:
górny (X) = 1-dolny (Xc)
dolny (pusty zestaw) = 0, górny (wszystkie zdania) = 1
niższe (x lub y)> = niższe (x) + niższe (y) dla rozłącznych X i Y
górny (x lub y) <= górny (x) + górny (y) dla rozłącznych X i Y

Jest to bardziej ogólne niż dolne / górne koperty (np. Wszystkie dolne / górne koperty mają niższe / górne prawdopodobieństwo, ale nie odwrotnie).
LTM
Używany w dyskusji o sieciach ART w odniesieniu do pamięci długoterminowej.
LTM Śledzenie
Wagi połączenia w sieci ART.
LVQ-SOM
Forma sieci Kohonen, która łączy funkcje z Learning Vector Quantization Network (LVQ) i Self Organizing Maps (SOM).
Lapunowa Funkcja
Funkcja układu dynamicznego, która pozwala określić punkty stabilności i równowagi układu.

MACHACK 6
Wczesny (1967) program do gry w szachy. Wykorzystał algorytm alfa-beta z przycinaniem do przodu, aby określić swoje ruchy. R. Greenblatt, D. Eastlake i S. Crocker napisali MACHACK-6 na MIT.
MACE to zautomatyzowany system wnioskowania, który wyszukuje małe modele wyrażeń skończonych. Używa języka Otter do określania problemów i wykonuje wyczerpujące wyszukiwania.
Maszyn Wykrywanie
Termin dla zautomatyzowanych procesów, które próbują odkryć wzorce lub wiedzę w danych.
Maszynowy Język
Instrukcje binarne wykonywane przez komputer. Specyficzny dla określonego typu komputera i (zasadniczo) bez znaczenia dla ludzi. Określa proste operacje w formie, która może być natychmiast wykonana przez komputer.
Machine Learning
Zdolność programu do zdobywania lub rozwijania nowej wiedzy lub umiejętności. Badanie Machine Learning koncentruje się na opracowaniu metod obliczeniowych do odkrywania nowej wiedzy z danych.
Maszynowa Precyzja
Precyzja maszyny to najmniejsza liczba e, taka jak 1 + e ≠1. Liczba ta może się różnić zarówno w przypadku sprzętu komputerowego, jak i biblioteki zmiennoprzecinkowej używanej do manipulowania liczbami, ale powszechnie przyjmuje się, że odnosi się do pierwszej.
Maszynowe Tłumaczenie
Wykorzystanie komputerów do automatycznego tłumaczenia między dwoma (lub więcej) językami. Obszar ten był długotrwałym problemem w AI i kilka razy zyskał przychylność.
MacLISP
Pochodna oryginalnego języka LISP, która eksperymentowała z wieloma nowymi koncepcjami, które miały ogromny wpływ na rozwój Common LISP. Jego następcą była Nowa Implementacja Lisp (NIL).
Makro
Termin na kawałek kodu komputerowego, który rozwija się w celu wytworzenia większej ilości kodu. Ten kod może zawierać inne makra i tak dalej, dopóki nie będą to makra. Jest to używane, gdy program jest interpretowany lub kompilowany w celu uproszczenia liczby powtarzających się kodów. Niektóre języki lub tłumacze obsługują tylko jeden poziom makr.
MACSYMA
System programowania matematyki, którego można użyć, aby pomóc naukowcom i innym osobom w uzyskaniu, ocenie i udowodnieniu złożonej matematyki. Inne programy to REDUCE, MATHEMATICA, MAPLE i MATHCAD. Konkretne zalety i funkcje tych programów zmieniają się z czasem, ale ogólnie znacznie upraszczają wiele skomplikowanej matematyki.
Mahalanobisa Odległość
Odległości Mahalanobisa są uogólnieniem klasycznych odległości euklidesowych, które pozwalają na to, że zmiany w niektórych kierunkach są trudniejsze lub "droższe" niż zmiany w innych kierunkach. Względny "koszt" różnic jest podsumowany w macierzy wagowej W, a odległość jest obliczana jako pierwiastek kwadratowy z (x-y) W (xy), gdzie x i y są wektorami cech dwóch porównywanych obiektów.
Manhattanu Odległość
Odległość Manhattanu między dwoma przypadkami jest funkcją sumy odległości między dwoma obiektami na wszystkich atrybutach zaangażowanych w miarę odległości. Różni się to od standardowej odległości euklidesowej, ponieważ nie wymaga, aby bezpośrednia ścieżka między dwoma obiektami była znacząca lub wykonalna. Nazwa pochodzi od odległości, którą trzeba przejść lub przejechać między dwoma punktami na Manhattanie. Metryki można użyć zarówno w nadzorowanych, jak i nienadzorowanych algorytmach uczenia maszynowego.
Manipulator
Termin używany w robotyce w odniesieniu do urządzenia mechanicznego, które może manipulować obiektami
Maximum A Posteriori (MAP)
W uczeniu maszynowym i wnioskowaniu statystycznym algorytm lub osoba czasami musi wybrać jedną z wielu hipotez (lub wartości). Jeśli system opiera się na technikach bayesowskich, wyborem tym często będzie hipoteza (lub wartość), która ma maksymalne prawdopodobieństwo A posteriori (MAP), tj. Hipoteza, która ma maksymalne prawdopodobieństwo po połączeniu danych z wcześniejszymi informacjami
Marginal Distribution : Dystrybucja krańcowa
Gdy sumujący rozkład prawdopodobieństwa na wielu odmianach jest sumowany wzdłuż jednego (lub więcej) jego atrybutów (wymiarów), rozkład wynikowy jest określany jako rozkład "marginalny" w stosunku do pierwotnego rozkładu. Na przykład następujący rozkład wielu zmiennych dla wieku a grupowanie według płci w określonej populacji ma dwa rozkłady krańcowe, jeden dla wieku (sumowanie według płci), z wartościami .2, .5 i .3, a drugi dla płci (sumowanie według wieku), wartości .5 i .5 Wszystkie trzy rozkłady są nadal regularnymi rozkładami prawdopodobieństwa
Marginalizacja to proces redukowania funkcji wielu zmiennych do funkcji (często) jednej zmiennej, zwykle przez dodanie lub zintegrowanie funkcji wielu zmiennych we wszystkich możliwych wartościach usuwanych zmiennych. Proces ten jest często stosowany, na przykład, w sieciach przekonań do usuwania lub absorbowania zmiennych i stałych, które nie są istotne dla konkretnego pytania. Rozważmy na przykład model diagnozy medycznej, powiedzmy, choroby serca, oparty na modelu graficznym. Po wprowadzeniu i rozpowszechnieniu wszystkich dostępnych informacji diagnostycznych w całym modelu model można zmarginalizować, aby ograniczyć go do "prostego" stwierdzenia prawdopodobieństwa dotyczącego możliwych diagnoz dla konkretnego pacjenta.
Market Basket Data : Dane koszyka rynku
Częstym problemem w Data Mining jest typ danych znany jako Data Basket Market. Są to dane, w których każdy rekord składa się z listy przedmiotów zakupionych jednocześnie lub w inny sposób naturalnie pogrupowanych. Typowym przykładem mogą być zapisy zakupowe w sklepie detalicznym, chociaż techniki te można zastosować w wielu innych różnorodnych problemach (np. Objawach medycznych). Ta etykieta jest powszechnie używana, gdy celem analizy jest odkrycie reguł asocjacji lub reguł zależności. Pierwsze z nich to po prostu reguły określające, czy element A znajduje się w "koszyku", następnie element B również znajduje się w koszyku, z dwoma miarami, wsparciem (procent przypadków, w których występują zarówno A, jak i B) i pewnością (procent przypadków z B wśród tych, które mają A). Te ostatnie są uogólnieniem zasad stowarzyszenia, które są omówione w innym miejscu.
Markowa Łańcuch
Model opisujący przejścia stanów, w którym każdy stan ma zestaw możliwych stanów następczych i powiązany rozkład prawdopodobieństwa. Rozkład prawdopodobieństwa zależy tylko od aktualnego stanu, a nie od historii lub ścieżki stanów, przez które przemierzono, aby osiągnąć aktualny stan. Może być reprezentowany albo przez jego wykres stanu, ukierunkowany wykres z łukami pokazującymi dopuszczalne przejścia lub macierz przejścia . W poniższym przykładzie macierz przejścia opisuje układ trójstanowy. Jeśli system jest w pierwszym stanie, pozostaje tam z prawdopodobieństwem 0,5 lub przechodzi do jednego z pozostałych dwóch stanów z prawdopodobieństwem 0,25. Jeśli system jest w drugim stanie, pozostanie tam z prawdopodobieństwem 0,3, przejdzie do pierwszego stanu z takim samym prawdopodobieństwem lub do trzeciego stanu z prawdopodobieństwem 0,4. Gdy system znajduje się w trzecim stanie, pozostaje w tym stanie z prawdopodobieństwem 0,7 lub przechodzi do drugiego z prawdopodobieństwem 0,3. Nigdy nie przejdzie do stanu pierwszego ze stanu trzeciego. Macierz przejścia tworzy warunek w sensie probabilistycznego systemu eksperckiego.
Metody Markov Chain Monte Carlo (MCMC)
Rodzina metod opartych na próbkowaniu do obliczania rozkładu siatki przekonań, biorąc pod uwagę zbiór danych. Zasadniczo nieobserwowane wartości w sieci przekonań są inicjowane losowo. Algorytm następnie przechodzi przez zestaw nieobserwowalnych wartości, próbkując z jego rozkładu, zależnie od bieżących ustawień innych wartości. Proces ten jest wielokrotnie próbkowany, aż zgromadzone zostaną wystarczające dane do wygenerowania pożądanej odpowiedzi. Pozwala to obliczyć znacznie więcej niż wyspecjalizowane architektury sieci przekonań, w tym skomplikowane wielowymiarowe prawdopodobieństwa i oczekiwania względem skomplikowanych regionów danych.
Markowa Stan
Jeśli atrybut Y nie jest efektem X, to X i Y są warunkowo niezależne, biorąc pod uwagę bezpośrednie przyczyny X
Markowa Problem Decyzyjny (MDP)
Powtarzający się problem decyzyjny przeciwko "Naturze", w którym decydent ma pełną informację i pewność strategiczną, przy czym następne działanie Natury zależy prawdopodobnie od jej obecnego stanu i wybranego działania.
Markowa Gramatyka
Gramatyka Markowa jest alternatywą dla tradycyjnych parserów statystycznych. Zamiast przechowywania szeregu wyraźnych reguł analizy i powiązanych z nimi prawdopodobieństw, gramatyk Markowa przechowuje prawdopodobieństwa przejścia, które pozwalają mu tworzyć reguły w locie.
Markowa Drzewo
Aby zastosować algorytm syntezy i propagacji do tej sieci, wymagana jest reprezentacja drzewa Markowa sieci graficznej. Drzewo jest drzewem Markowa, jeśli jego węzły są oznaczone zestawami zmiennych, a drzewo ma właściwość polegającą na tym, że dla każdego podzbioru zmiennych znajdujących się w drzewie poddrzewa zbudowane z węzłów zawierających te zmienne są również połączone.
Markowa Pole losowe
Losowe pole Markowa jest ogólnym modelem graficznym dla zależności zestawu zmiennych reprezentowanych jako węzły. Ma właściwość polegającą na tym, że rozkład określonego węzła jest tylko funkcją jego bezpośrednich sąsiadów, a rozkład globalny jest produktem potencjałów kliki. Dla przykładowego wykresu pod pozycją wykresu czynnikowego rozkład globalny można zapisać jako P (A, B, C, D) = P (A) P (B | A) P (C | A, B) P (D | C).
MART
Wielokanałowa sieć ART.
Match Tracking : Śledzenie dopasowania
Termin ten odnosi się do wewnętrznego procesu w sieci ARTMAP, który jest aktywowany przez niedopasowanie kategorii w warstwie F2. Podnosi parametr czujności warstw F1 i powoduje, że warstwa F1 szuka innej kategorii.
Matematyczna Indukcja
Programy lub procedury, które mogą uzyskiwać nowe relacje matematyczne na podstawie początkowego zestawu znanych relacji
Mathematica
System komputerowy do matematyki symbolicznej i obliczeń matematyczno-logicznych. Jest potomkiem takich programów, jak MACSYMA i REDUCE. Steven Wolram wynalazł Mathematica, który jest dostępny w firmie Mathematica.
Maximina Kryteria
W problemach decyzyjnych z funkcją wypłaty u (a, s), gdzie "a" reprezentuje element zbioru akcji A, a s elementem zbioru stanów S, maksymalna wartość jest wartością akcji z największa minimalna wypłata. Maksymalna akcja byłaby tą akcją. Jest to atrakcyjna akcja w przypadku problemów decyzyjnych, w których zakłada się, że przeciwnik jest obojętny na grę.
Maksymalnej entropii Zasada
Zasada wyboru rozkładu prawdopodobieństwa reprezentującego niepewność w systemie. Zasada wybiera rozkład prawdopodobieństwa o największej entropii spośród zestawu rozkładów spełniających ograniczenia tego rozkładu. Na przykład maksymalny rozkład entropii dla zmiennej ciągłej o danej średniej i wariancji jest rozkładem normalnym (gaussowskim).
Maksymalne prawdopodobieństwo
Kryteria optymalizacji stosowane w uczeniu maszynowym, statystykach i innych modelach. Parametry dobierane są w celu maksymalizacji funkcji "prawdopodobieństwa" odpowiedzi, w oparciu o ich zakładane rozkłady prawdopodobieństwa. Na przykład dopasowanie co najmniej kwadratów to "maksymalne prawdopodobieństwo", gdy odpowiedź jest zwykle dystrybuowana ze wspólną wariancją ze względu na jej średnią. W sieciach neuronowych maksymalne prawdopodobieństwo jest stosowane w przypadku odpowiedzi wielomianowych (tj.odpowiedzi wielostanowiskowych).
Maksymalnego Prawdopodobieństwa Oszacowanie
Oszacowanie maksymalnego prawdopodobieństwa to wartość parametrów w oszacowaniu, które maksymalizują funkcję prawdopodobieństwa danych. Określa to rozkład, który najprawdopodobniej wytworzył dane, na podstawie samych danych i rozkładu. Różni się od oszacowania Maximum A Posteriori (MAP), które jest maksimum iloczynu prawdopodobieństwa (dane i rozkład), a także innych wcześniejszych informacji o możliwych wartościach oszacowania.
Mean Square Error (MSE) Criterion : Kryterium średniego błędu kwadratowego (MSE)
Kryterium średniego błędu kwadratowego (MSE) można zastosować, aby zapewnić łączny pomiar dokładności i wiarygodności prognozy. Jest obliczany jako kwadratowa różnica między wartością szacunkową lub prognozą a jej wartością rzeczywistą. Analitycznie można go rozłożyć na dwie części: kwadratowe odchylenie, które wynika z różnicy między średnią wydajnością modelu a rzeczywistą średnią dla tej kombinacji atrybutów oraz z wariacją efektu wariancji, ze względu na zmienność danych. Oczekiwany MSE służy do pomiaru wydajności modeli, które można ocenić analitycznie, podczas gdy prognozowane MSE lub Predictive MSE (PMSE), które są obliczane na podstawie danych poprzez porównanie przewidywanej wartości z poprawną, mogą być wykorzystane jako kryteria dopasowania modelu.
Means-Ends Analysis : Analiza środków
Technika rozwiązywania problemów, w której aktualny stan jest porównywany z pożądanym celem, a nowy ruch jest wybierany na podstawie tego, co obecnie wydaje się rozsądne. Po raz pierwszy został użyty w programie CPS i od tego czasu był używany w programach takich jak FDS, STRIPS, ABSTRIPS i MPS.
Member : Element
Element zestawu jest elementem znajdującym się w zestawie. Odpowiednia funkcja LISP sprawdza listę, aby ustalić, czy element należy do tej listy. Jeśli tak, zwraca ten element i ogon listy; w przeciwnym razie zwraca pustą listę
Membership Function : Funkcja Członkostwa
Funkcja m(A, x), która zwraca wartość prawdziwości obiektu lub zestawu. Zwykle używany w logice rozmytej, gdzie mierzy przynależność do obiektów w zestawie. W tym drugim przypadku funkcja członkostwa może wynosić od 0, co oznacza brak członkostwa w zestawie A, do 1, co oznacza pełne członkostwo w A.
Membership Query : Zapytanie o elementy
W uczeniu maszynowym uczący się czasami musi zapytać zewnętrzne źródło, aby zadać pytania "nauczycielowi". Kiedy zadaje pytanie, takie jak "Czy robin jest ptakiem", podczas próby poznania pojęcia ptaka, wykonuje zapytanie o element.
Merge-Purge
Odkrycie wiedzy w systemie opartym na bazach danych (opartym na KDD) opracowanym w połowie lat 90. XX wieku w celu identyfikacji duplikatów rekordów w dużych bazach danych. Z powodzeniem zastosowano go do identyfikacji podwójnych wniosków o świadczenia socjalne w danych z Departamentu Opieki Społecznej Stanu Waszyngton.
Merge/Purge Problem : Problem scalania / usuwania
W odkrywaniu wiedzy w bazach danych (KDD) i hurtowni danych powszechny problem polega na łączeniu wielu dużych baz danych z różnych źródeł i różnych prezentacji. Dane muszą zostać wyczyszczone i połączone w jedną jednorodną całość, zanim rozpocznie się proces KDD. Ten ważny proces jest znany pod kilkoma nazwami, w tym z problemem łączenia / usuwania, łączenia rekordów, identyfikacji instancji, integracji semantycznej i czyszczenia danych.
Merit Function : Funkcja zasługi
W wielu obszarach problemowych algorytmy wymagają numerycznej metody pomiaru, jak "dobre" jest rozwiązanie, wybór lub atrybut do określonego celu. Funkcja użyta do przypisania wartości jednemu z nich nazywana jest funkcją zasługi. Typowymi funkcjami merytorycznymi są kryteria najmniejszych kwadratów lub, bardziej ogólnie, maksymalne prawdopodobieństwo, zysk lub entropia informacji oraz kryteria Giniego.
Metadane
Dane o danych. Używany w eksploracji danych i hurtowni danych w celu odniesienia do danych dotyczących znaczenia i zakresu atrybutów, ich relacji i lokalizacji. Metadane dostarczają kontekst do zrozumienia surowych danych.
Meta-wiedza
Termin oznaczający "wiedzę o wiedzy", w którym program nie tylko "coś" wie (tj. Ma dostęp do bazy wiedzy), ale "wie, co wie".
Meta-rozumowanie
Zdolność do wnioskowania o regułach procesu wnioskowania.
Meta-zasada
Reguła o właściwościach i rolach innych reguł.
MetLife's Intelligent Text Analyzer (MITA)
MetLife's Intelligent Text Analyzer (MITA) to obszerna analiza tekstowa aplikacji ubezpieczeń na życie. Wykorzystuje techniki ekstrakcji informacji z przetwarzania języka naturalnego do strukturyzacji informacji z dowolnych pól tekstowych. MITA wykorzystuje ontologię zbudowaną z systemu SNOMED.
Metryka
Metryka m (o, o) jest miarą o wartości dodatniej, która spełnia kilka właściwości: miara od obiektu do siebie wynosi zero: m (x, x) = 0 miara jest symetryczna m (x, y) = m (y , x) m (x, y) <= m (x, z) + m (z, y). Miary odległości można zdefiniować dla atrybutów pojedynczych proporcji i przedziałów, a także dla par obiektów, na podstawie ich wartości lub liczby boolowskiej, powiedzmy, równości atrybutów. Niektóre typowe miary obejmują klasyczną odległość euklidesową (na podstawie sumy kwadratowych odległości wzdłuż zestawu atrybutów), metrykę Manhattanu, metrykę Mahalanobisa i liczbę różnic w atrybutach.
Micro-Planner
Podzbiór języka PLANER. Było to podstawą języka SHRDLU i doprowadziło do rozwoju kilku innych języków, w tym CONNIVER.
MIM
MIM to pakiet komercyjny do dopasowywania modeli graficznych i hierarchicznych do danych ciągłych i kategorycznych. Obsługuje zarówno automatyczne, jak i kierowane przez użytkownika budowanie modelu za pomocą języka poleceń lub interfejsu graficznego.
Minimax Action
W problemie decyzyjnym z funkcją wypłaty u (a, s), gdzie a reprezentuje element zbioru akcji A, a s jest członkiem zestawu stanów S, akcja minima jest akcją o najmniejszej maksymalnej stracie. To najlepsza akcja w pesymistycznej grze, w której przeciwnik ma doskonałą wiedzę.
Minimax Procedury
Procedury Minimax to procedury, które działają w celu zminimalizowania maksymalnej straty, która może wynikać z ruchu lub planu. Jest powszechnie stosowany w teorii gier i powiązanych problemach, które zakładają przeciwnika, który wie tyle samo co ty.
Minimalnej Długości Opisu Zasada (MDLP)
Zasada minimalnej długości opisu (MDLP) stanowi, że najlepszą teorią dla danego zestawu danych jest ta, która minimalizuje sumę długości teorii i długości danych, gdy używa się teorii jako predyktora danych. Długość obu jest mierzona w bitach, a schemat kodowania odzwierciedla prawdopodobieństwo a priori. MDLP można również postrzegać jako szacunkową wartość Bayesian Maximum A Posteriori (MAP).
Minimalna długość wiadomości (MML)
Minimalna długość wiadomości (MML) to technika pomiaru złożoności reguły lub zestawu reguł, która zwiększa złożoność zarówno danych, jak i reguły. Wybór reguły MML jest w zasadzie wdrożeniem reguły Ockhama. W tym przypadku złożoność elementu jest mierzona jako logarytm ujemny (podstawa 2) jego prawdopodobieństwa. Jest proporcjonalny do funkcji wiarygodności.
Missing At Random (MAR)
Jeśli prawdopodobieństwo braku atrybutu odpowiedzi jest niezależne od jego wartości i zależy od wartości predyktorów, jest losowe. Analizy oparte na prawdopodobieństwie mogą zignorować mechanizm brakujących danych, ale wiele standardowych nadzorowanych technik uczenia może dawać nieprawidłowe wyniki, jeśli brakujące przypadki zostaną po prostu zignorowane.
Missing Completely At Random (MCAR)
Jeśli prawdopodobieństwo braku atrybutu odpowiedzi jest niezależne od jego wartości i wartości predyktorów, oznacza to, że brakuje go całkowicie losowo i można je zignorować w analizie.
Missing Data : Brakujące dane
Wiele baz danych ma przypadki, w których nie wszystkie wartości atrybutów są znane. Może to wynikać z przyczyn strukturalnych (np. Parytetu u mężczyzn), zmian lub różnic w metodologii gromadzenia danych lub z powodu braku odpowiedzi. W tym drugim przypadku ważne jest rozróżnienie między ignorowalnym a nieignorowalnym brakiem odpowiedzi. Do tych pierwszych należy się odnieść, nawet jeśli te drugie (zwykle) można traktować losowo.
Modele z udziałem ekspertów (ME)
Model mieszanki ekspertów (ME) to technika, która pozwala modelowi na uwzględnienie różnych podmodeli lub "ekspertów" w ramach całego modelu. Eksperci są połączeni przez funkcję bramki, która bierze wyniki poszczególnych ekspertów i łączy je w celu zapewniają ostateczny wynik. Eksperci ci są formą modelu lokalnego, który jest optymalny w porównaniu z ograniczonymi subdomenami domeny ogólnej problemu. Ich połączenie może prowadzić do uzyskania dokładniejszych modeli niż jednego modelu "globalnego". Przykładem może być diagnoza medyczna program, w którym każdy z ekspertów jest modelem dla określonego rodzaju choroby. Każdy ekspert może następnie przewidzieć prawdopodobieństwo, że dany pacjent ma szczególną chorobę. Funkcja bramki może następnie łączyć poszczególne prognozy za pomocą funkcji "softmax" lub innej funkcja głosowania. Rozszerzeniem modelu ME jest hierarchiczny model ME (HME). W tym modelu eksperci są ułożeni w drzewo, dzięki czemu model każdego eksperta jest mieszanką modeli "poniżej" na drzewie. W ten sens , Drzewa klasyfikacji i regresji (CART) lub drzewo decyzyjne to bardzo prymitywna forma HME.
Modele z udziałem ekspertów (ME)
Model mieszanki ekspertów (ME) to technika, która pozwala modelowi na uwzględnienie różnych podmodeli lub "ekspertów" w ramach całego modelu. Eksperci są połączeni przez funkcję bramki, która bierze wyniki poszczególnych ekspertów i łączy je w celu zapewniają ostateczny wynik. Eksperci ci są formą modelu lokalnego, który jest optymalny w porównaniu z ograniczonymi subdomenami domeny ogólnej problemu. Ich połączenie może prowadzić do uzyskania dokładniejszych modeli niż jednego modelu "globalnego". Przykładem może być diagnoza medyczna program, w którym każdy z ekspertów jest modelem dla określonego rodzaju choroby. Każdy ekspert może następnie przewidzieć prawdopodobieństwo, że dany pacjent ma szczególną chorobę. Funkcja bramki może następnie łączyć poszczególne prognozy za pomocą funkcji "softmax" lub innej funkcja głosowania. Rozszerzeniem modelu ME jest hierarchiczny model ME (HME). W tym modelu eksperci są ułożeni w drzewo, dzięki czemu model każdego eksperta jest mieszanką modeli "poniżej" na drzewie. W ten sens e, Drzewa Klasyfikacji i Regresji (CART) lub drzewo decyzyjne jest bardzo prymitywną formą HME.
Mobilny Robot
Wolno poruszający się robot, który może poruszać się w przestrzeni kosmicznej, aby wykonać pewne zadanie. Oprócz problemów, przed którymi stoją normalne roboty, roboty te muszą być w stanie zlokalizować się w kosmosie, nawigować i / lub znaleźć drogę do celu, a także wykonać swoje zadanie po przybyciu. Przykłady obejmują Dante, robota przeznaczonego do eksploracji kosmosu i wulkanów, lub roboty wykorzystywane do naprawy jądrowej.
Model
Matematyczne, logiczne lub fizyczne przedstawienie fizycznego przedmiotu lub procesu lub koncepcji. Model jest zazwyczaj abstrakcyjny, ponieważ reprezentuje tylko podzbiór istotnych cech rzeczy, którą ma reprezentować.
Modelu Równoważność
W wielu środowiskach uczenia maszynowego i eksploracji danych wiele modeli może generować zasadniczo te same prognozy z bardzo różnych zestawów zmiennych i przesłanek. Można to nazwać równoważnością modelu.
Model-free : Bez modelu
Model "niezawierający modelu", taki jak sieć neuronowa lub system rozmyty, jest modelem zbyt skomplikowanym, aby można go było jednoznacznie zapisać, lub w którym różne zachowania wejścia lub wyjścia nie są określone. Na przykład prosty model regresji liniowej dla trzech danych wejściowych i jednego wyjścia można zapisać w jednym wierszu, podczas gdy wielowarstwowa sieć neuronowa ze sprzężeniem zwrotnym może zapisać wiele wierszy, a zatem jest wolna od modelu. Model regresji liniowej łatwo poddaje się analizie i możliwe jest określenie wielu ogólnych optymalności i innych właściwości, podczas gdy sieć neuronowa jest trudniejsza do analizy, a zatem uznana za wolną od modelu. To użycie jest podobne do użycia terminu nieparametrycznego w statystykach
Modułowy zautomatyzowany system parkowania (MAPS)
Modułowy zautomatyzowany system parkowania (MAPS) to oparty na logice rozmytej system opracowany przez Robotic Parking do parkowania i odbierania pojazdów w garażach
Modus Ponens
Reguła wnioskowania, która mówi, kiedy X jest prawdą, a reguła X implikuje, że Y utrzymuje, to Y jest prawdą.
Modus Tollens
Modus tollens jest zasadą (formalnej) logiki, która utrzymuje, że negacja następstwa oznacza negację poprzednika. Symbolicznie jest to: p-> q; -q; dlatego -p.
Momentum : Pęd
Szybkość, z jaką algorytmy, takie jak sieci neuronowe, uczą się, można poprawić w niektórych sytuacjach, aktualizując oszacowania w innym kierunku niż bieżący gradient. Jednym z przydatnych kierunków ruchu jest często połączenie bieżącego najlepszego kierunku i ostatniego najlepszego kierunku. Powoduje to zmniejszenie oscylacji w zaktualizowanych wartościach parametrów.
Monotoniczna Funkcja
Monotoniczna funkcja zwiększania (zmniejszania), taka jak funkcja aktywacji w sieci neuronowej, jest funkcją, której wartość zawsze wzrasta (maleje), gdy rośnie jej argument (y).
Monotoniczna Logika
Logika klasyczna to w większości logika monotoniczna, która ma właściwość, że jeśli A => B, to (A&C) również musi => B. Zapobiega to wycofaniu przez system oparty na logice monotonicznej wniosku opartego na nowych lub sprzecznych dowodach (propozycjach). Monotoniczna Logika
Logika, która zakłada, że po ustaleniu faktu nie można go zmienić w pozostałej części procesu.
Monotoniczność
Stan, który obowiązuje, gdy wniosek zostanie wyciągnięty wcześniej, nie można go obalić późniejszymi faktami.
Moralny Wykres
Jednym z etapów przekształcania ukierunkowanego wykresu acyklicznego (DAG) w drzewo połączeń jest konwersja wykresu na wykres moralny. Wykres moralny DAG łączy wszystkich bezpośrednich rodziców węzła i konwertuje wynikowy wykres na wykres bezkierunkowy. Kliki tego wykresu są używane do tworzenia wykresu połączenia i drzewa połączeń
Most General Common Instance (MGCI) : Najbardziej ogólne wspólne wystąpienie (MGCI)
Najbardziej ogólne wspólne wystąpienie (MGCI) dwóch wyrażeń A i B jest wyrażeniem C, które jest wystąpieniem zarówno A, jak i B, tak że każde inne wyrażenie D, które jest również wystąpieniem A i B, jest również wystąpienie C.
Most General Unifier (MGU) : Najbardziej ogólny Unifier (MGU)
Zastosowany w rozdzielczości binarnej najbardziej ogólny unifikator (MGU) jest substytucją, która daje MGCI dwóch jednorodnych litrów.
Motion Analysis : Analiza ruchu
Techniki zastosowane do rekonstrukcji trójwymiarowego ruchu obiektu na podstawie serii widoków perspektywicznych.
MPS
Program zaprojektowany do rozwiązywania niektórych trudnych problemów z łamigłówkami, takich jak kostka Rubika. Podobnie jak w przypadku analizy Means-Ends, śledzi bieżący stan i stosuje szereg operacji mających na celu doprowadzenie obecnego stanu do stanu końcowego. Operacje zostały zdefiniowane w taki sposób, że żadne komponenty, które są w stanie końcowym, nie są zmieniane przez ruch innego, mniej ważnego.
Ms. Malaprop
System rozumienia języka naturalnego opracowany w 1970 roku przez E. Charniaka z Uniwersytetu Genewskiego.
MSBN
MSBN to narzędzie do manipulacji i wnioskowania w sieci przekonań, opracowane przez firmę Teoria decyzji i Adaptive Systems Group w firmie Microsoft. Zapewnia interfejs graficzny do tworzenia i modyfikowania sieci przekonań i może zapewnić ocenę prawdopodobieństw.
Multi-class : Wieloklasowy
Opracowano wiele systemów klasyfikacji danych binarnych. Zmienne wieloklasowe to zmienne o więcej niż dwóch kategoriach. Ta forma zmiennej jest również znana jako wielomianowa.
Multi-label
Większość zmiennych klas należy do jednej klasy. Zmienne docelowe, które mogą należeć do więcej niż jednej klasy, zostały nazwane wieloma etykietami. Przykładem mogą być klasyfikacje obiektów tekstowych, które mogą należeć do wielu kategorii.
MultiDimensional DataBase (MDDB)
MDDB to system wnioskowania oparty na analizie przypadków, który służy do diagnozowania zespołów dysmorficznych, obszaru o słabej wiedzy medycznej dzięki bogatym informacjom. System oparty jest na danych ponad 3000 pacjentów. MDDB jest powszechnie stosowany w OnLine Analytical Processing (OLAP) i powiązanych systemach. Zamiast traktować bazę danych rekordów wielu atrybutów jako dwuwymiarową tabelę z wierszami jako rekordami, a atrybuty (zmienne) jako kolumny, dane są zorganizowane jako prostokąt k-wymiarowy, z jednym wymiarem dla każdego atrybutu. Wymiar odpowiadający i -temu atrybutowi ma poziomy ni, każdy odpowiadający jednej z wartości, które i -ty atrybut może przyjąć w tej reprezentacji. Komórka na przecięciu określonych wartości dla każdego z k atrybutów zawiera dane podsumowujące wszystkie rekordy sklasyfikowane jako należące do tej komórki. Zazwyczaj komórki brzeżne (komórki, w których jeden lub więcej wymiarów zostało stłumionych) zawierają informacje o wszystkich komórkach w brakujących wymiarach.
Multinomial Coefficient : Współczynnik wielomianowy
Współczynnik wielomianowy zlicza liczbę sposobów, w jakie n elementów można podzielić na grupy K, każda o rozmiarze ki, gdzie każda ki ρ0, a σ ki = n.
Multiple Imputation : Wielokrotna imputacja
Technika "uzupełniania" brakujących wartości w zestawach danych. Reguła braków jest indukowana lub zakładana i generowanych jest wiele przypisanych zestawów danych. Każdy z nich jest analizowany w rutynowy sposób, a wyniki korygowane i łączone w celu przypisania.
Multiple Instruction Multiple Datastream (MIMD)
Architektury komputerowe Multiple Instruct Multiple Datastream (MIMD). Tam, gdzie jest wiele procesorów, każdy wykonuje inny zestaw obliczeń na swoich danych.
Multiple Layer Perceptron (MLP) : Perceptron wielowarstwowy (MLP)
Perceptron wielowarstwowy (MLP) to sieć neuronowa, która ma jedną lub więcej ukrytych warstw węzłów. Każdy z węzłów wykorzystuje funkcję aktywacji na iloczynie wewnętrznym danych wejściowych i wag (tj. Uogólniony model liniowy) oraz ustawienie "polaryzacji".
Multiwalentne
Logika lub system, który może przyjmować wiele wartości. Wartości mogą być dyskretne, takie jak trójwartościowa logika Łukasiewicza [0, 1/2, 1], lub ciągłe, takie jak prawdopodobieństwa lub rozmyte wyniki członkostwa, które są zdefiniowane w zakresie 0-1. Zazwyczaj wartość zero oznacza absolutną fałsz lub niemożliwość, a wartość jeden (1) implikuje absolutną prawdę lub konieczność. Logiki wielowartościowe pozwalają uchwycić stopnie pewności i obsługują logikę niemonotoniczną.
Multivariate Adaptive Regression Spline (MARS) : Wieloczynnikowy splajn regresji adaptacyjnej (MARS)
MARS jest akronimem wielowymiarowego splajnu regresji adaptacyjnej, techniki statystycznej służącej do adaptacyjnego szacowania funkcji wielu atrybutów. Podobnie jak CART i inne techniki, ta metoda rekurencyjnie dopasowuje funkcję do danych. Adaptacyjnie dostosowuje się do regionów o słabym dopasowaniu, dodając funkcje splajnu do modelu tego regionu.
Multivariate Probability Distribution : Wielowymiarowy rozkład prawdopodobieństwa
Rozkład prawdopodobieństwa, którego stany są indeksowane przez wiele zmiennych. Przykładem może być dwuwymiarowa dystrybucja według wieku i płci, gdzie wiek został podzielony na trzy stany: młody, w średnim i starszym wieku, a płeć ma dwa stany: żeński i męski. Wielowymiarowy rozkład wieku i płci miałby sześć stanów (młoda kobieta, młody mężczyzna, kobieta w średnim wieku itp.), Z których każdy wiąże się z prawdopodobieństwem. Łącznie sześć prawdopodobieństw byłoby jednym. Mutacja
W programowaniu ewolucyjnym wprowadzono pewien mechanizm generowania potrzeb "nowych" zachowań, który bierze swoją nazwę od mutacji biologicznej. W mutacji biologicznej przypadkowe błędy mogą być wprowadzone do potomstwa. W podobny sposób modele maszyn wprowadzą zmienność do swoich potomstwa, mając nadzieję na poprawę ich sprawności.
MYCIN
System diagnostyki medycznej, który został zaprojektowany jako konsultant w trudnych przypadkach zapalenia opon mózgowych lub chorób bakteryjnych. W diagnozie uwzględniono także czynniki "pewności", aby wskazać siłę przekonania na temat hipotezy.

Naive Bayes
Naiwny klasyfikator Bayesa, podobnie jak klasyfikator Bayesa, klasyfikuje na podstawie przewidywanych prawdopodobieństw klas na podstawie danych wejściowych. Jednak naiwny klasyfikator Bayesa traktuje dane wejściowe jako niezależne, biorąc pod uwagę klasę, i szacuje rozkład za pomocą prostego liczenia, tak że jest to tak naprawdę częste podejście. Jego ogólna forma to
Pr (Classi |X) Pr(Classi) Πj Pr (xj | Classi).
Znany jest również jako "prosty Bayes" lub, bardziej szyderczo, "idiota Bayesa". Jego wydajność można poprawić za pomocą takich technik, jak wzmocnienie lub naiwny klasyfikator Bayesa. Ze względu na swoją prostotę jest często używany jako punkt odniesienia przy porównywaniu klasyfikatorów. Na przykład załóżmy, że masz problem z klasyfikacją kategorii d z trzema predyktorami binarnymi X1, X2 i X3, i masz przypadek o wartościach odpowiednio 0, 1 i 1. Wtedy naiwny algorytm Bayesa uzyskałby wynik d-tej kategorii jako:
P (d | 0, 1, 1) ⇒ P (d) P (X1 = O | d) P (X2 = 1 | d) P (X3 = 1 | d), gdzie P (. | d) jest zaobserwowanym prawdopodobieństwem dla wartości X przy danej kategorii.
Natural Language Generation : Generowanie języka naturalnegobr> Uzupełnieniem zrozumienia języka naturalnego jest Generowanie języka naturalnego w celu komputerowego generowania tekstu w celu wyjaśnienia elementów, zadawania pytań lub określenia kierunku.
Natural Language Interface : Interfejs języka naturalnego
Nieokreślony termin, to wyrażenie jest często używane do opisania interfejsów programu, które wydają się rozumieć pytania lub wytyczne dostarczone przez użytkownika.
Naturalnego Języka Zrozumienie
Zdolność programu lub systemu do zrozumienia (zwykle ograniczonych) pytań lub wytycznych od osób. Można zastosować wiele różnych technik, takich jak dopasowywanie wzorców, parsowanie składniowe, gramatyka semantyczna, eksperci od słów, łączność itp.
NAVEX
System ekspercki w czasie rzeczywistym, który wykorzystuje dane radarowe do monitorowania pozycji i prędkości promu kosmicznego. Program jest oparty na regułach i wykorzystuje ramki.
NAVLAB Projekt
Projekt NAVLAB to ciągły program opracowujący samojezdne pojazdy-roboty. Wyposażyli serię pojazdów (w tym samochody, furgonetki i autobusy) w sprzęt komputerowy i czujnikowy w celu opracowania pojazdów, które są zdolne do samodzielnej nawigacji, zarówno na zwykłych drogach, jak i pojazdach terenowych. Niektóre z ich projektów obejmują:
•   NAVLAB 1
NAVLAB 1 został zbudowany na samochodzie Chevy i miał własne zasilacze, komputery i operatorów komputerów. Był w stanie osiągnąć prędkość 20 mil na godzinę.
•   NAVLAB 2
NAVLAB 2 został zbudowany na HMMWV i wykorzystywał system nawigacji ALVINN. Był w stanie nawigować z prędkością do 60 mil na godzinę. Od tego czasu został przekształcony do użytku jako robot terenowy.
•   NAVLAB 5
NAVLAB 5 to zmodyfikowany Pontiac, wzbogacony o komputery, czujniki i urządzenia uruchamiające, przeznaczony do nawigacji po zwykłych drogach i ulicach. W ostatnim "No Hands Across America" NAVLAB 5 był w stanie samodzielnie pokonać ponad 98 procent odległości. Asystenci kontrolowali przepustnicę i hamulec. Był kontrolowany przez program komputerowy RALPH.
NDS
Oparty na regułach system ekspercki opracowany przez Smart Systems Technology i Shell Development Corporation w celu wykrywania usterek w krajowej sieci komunikacyjnej COMNET.
Najbliższy sąsiad
Termin na techniki przewidujące lub klasyfikujące obserwacje na podstawie wartości wcześniejszych obserwacji, które są w pewnym sensie "bliskie" wartości docelowej. Typowe miary odległości mogą być oparte na metrum Manhattanu lub funkcji odległości euklidesowej. zestawem odniesienia może być albo najbliższy sąsiad lub każdy z sąsiadów w danej odległości. W tym drugim przypadku technikę można również określić jako klasyfikator jądra lub predyktor.
Niezbędne i wystarczające warunki
Przy opracowywaniu opisów obiektu lub reguły do przechowywania atrybuty mogą mieć niezbędne warunki (wartości, zakresy itp.), Które muszą zostać spełnione, aby reguła mogła zostać utrzymana, oraz wystarczające warunki, co oznacza, że jeśli warunek atrybutu jest spełniony, to reguła trzeba trzymać. Niezbędnym i wystarczającym zestawem warunków w zestawie atrybutów jest zbiór warunków, które sprawiają, że reguła jest zawsze prawdziwa, gdy warunki są spełnione i zawsze są spełnione, gdy reguła jest prawdziwa.
Negacja Normal Form (NNF)
W logice matematycznej zarówno normalna postać łącząca (CNF), jak i normalna postać rozłączna (DNF) są szczególnymi przypadkami postaci normalnej negacji (NNF). Twierdzenie ma postać normalną negacji, gdy jest albo dosłowne (tj. Atom w języku), rozłączeniem NNF lub koniunkcją NNF.
Negatywne dowody
Dowody, które można wykorzystać do przewidywania nieistnienia kilku stanów.
Negatywna paramodulacja
Negatywna paramodulacja jest regułą wnioskowania, którą można zastosować w zautomatyzowanych systemach wnioskowania. Wynika to z negowanych równości, a nie równości. Zasada jest słuszna, jeśli zaangażowane funkcje spełniają pewne właściwości podobne do anulowania. Na przykład, na podstawie AB i AC = D, możemy wyprowadzić BCD poprzez ujemną paramodulację, pod warunkiem, że prawidłowa anulacja dotyczy produktu.
Negmax
Technika wyszukiwania drzew, która jest równoważna procedurze minimax.
Neldera-Meada Algorytm simpleksowy
Algorytm simpleksowy Neldera-Meada jest prostą metodą wyszukiwania maksimów lub minimów nad funkcjami gładkimi. W przypadku problemu k-wymiarowego algorytm rozpoczyna się od wartości początkowych k + 1 (często losowo wybranych) i ocenia funkcję w każdym punkcie. Wygląda, aby zobaczyć, który punkt ma najwyższą wartość. Jeśli różnica między tą wartością a drugą jest wystarczająco duża, porusza się w tym kierunku i ocenia inny zestaw punktów. Kiedy różnica między punktami nie jest duża, kurczy się jednostronnie wokół środka istniejących punktów i ponownie ocenia funkcje. Kiedy różnica jest wystarczająco mała, kończy się.
Neo-Classic
Implementacja systemu ATT Classic w C ++.
NeoGanesh
NeoGanesh to oparty na wiedzy system zarządzania respiratorem w oddziałach intensywnej terapii. Interpretuje dane w czasie rzeczywistym i może kontrolować pomoc mechaniczną dla pacjenta
NEOMYCINM
System oparty na regułach wyprowadzony z MYCIN. Jest oparty na regułach i wykorzystuje łańcuchy do przodu.
Netica
Netica to komercyjny system do budowania, manipulowania i wdrażania systemów eksperckich opartych na sieci wierzeń i diagramach wpływu. Sieci mogą być dostosowane do formy odpowiedniej do szybkiego rozumowania i mogą przyjmować dane w wielu różnych formatach. Sieci te można wykorzystać do znalezienia optymalnych decyzji oraz może być wykorzystany do budowy planów warunkowych.
NETL
Język reprezentacji sieci semantycznej na podstawie ramek. Został opracowany w MIT i wdrożony w MacLISP.
NETtalk
NETtalk, utworzony w 1978 roku, jest klasycznym przykładem szkoleniowej sieci perceptronów wielowarstwowych, która została wykorzystana do badania konwersji tekstu na słowa mówione. Sieć przekształciła wprowadzany tekst w serię wektorów cech, które zostały następnie zmapowane na sekwencję fonemów i markerów stresu. Kiedy system został wyćwiczony na 1024 słowach wyodrębnionych z mowy dziecka, był w 95 procentach dokładny w tworzeniu prawidłowego fonemu i osiągnął 78 procentową dokładność na drugim zestawie około 450 słów, których nie było w zestawie szkoleniowym. Sieć była dość odporna na zmiany wag węzłów i wymagała znacznie mniejszej przestrzeni dyskowej niż porównywalne programy do wyszukiwania słownikowego.
Neuronowej sieci programy
Dostępnych jest wiele pakietów freeware, shareware i komercyjnych pakietów sieci neuronowych. Wiele z nich można pobrać przez Internet. Duża lista znajduje się w referencji Sarle97.
NEUREX
Oparty na regułach system ekspercki do diagnozowania chorób układu nerwowego. Wykorzystuje zarówno łańcuchy do przodu i do tyłu, a także MYCIN, podobnie jak czynniki pewności, aby pomóc w lokalizacji i klasyfikacji uszkodzeń.
Neuron
W biologii neuron jest wyspecjalizowaną formą komórki, która przesyła impulsy elektryczne. Zasadniczo zawiera ciało centralne lub somę, wąsy wejściowe zwane aksonami i wąsy wyjściowe zwane dendrytami. Kiedy neuron odbiera wystarczająco duży sygnał wzdłuż swoich aksonów od innych neuronów lub nerwów czuciowych, generuje impuls elektryczny, który wędruje do dendrytów. Na końcu dendrytów znajdują się połączenia synaptyczne z innymi neuronami lub innymi wyjściami, takimi jak mięśnie. Sygnał powoduje, że złącze synaptyczne uwalnia substancje chemiczne, które (mogą) powodować strzelanie do celu. W sieciach neuronowych neuron jest pojedynczą jednostką przetwarzającą, która odbiera dane wejściowe z innych jednostek przetwarzających, sumuje lub w inny sposób zbiera dane wejściowe i generuje sygnał wyjściowy jako (zwykle nieliniową) funkcję zebranych
n-gram
Jest to ogólny termin na pokrewną rodzinę technik Markowa do modelowania języka naturalnego. Bigram zamodeluje język naturalny jako ciąg par słów i zamodeluje język jako szereg probabilistycznych przejść między parami słów. Podobnie model oparty na trygramie modelowałby przejście do następnego słowa na podstawie dwóch ostatnich słów. Ogólnie rzecz biorąc, model oparty na n-gramach modelowałby język na podstawie ostatnich n-1 słów lub jednostek. Popularną "zabawką" opartą na n-gramach jest odmiana tak zwanego programu "travesty", w którym dane wejściowe stanowią fragment tekstu, a dane wyjściowe to losowy spacer po drzewie przejścia oparty na bigramie lub trigramie . Jest to często wykorzystywane jako przykład generowania języka naturalnego. Wraz ze wzrostem kolejności aproksymacji sygnał wyjściowy zaczyna coraz bardziej przypominać sygnał wejściowy. Chociaż przedstawiono ją powyżej jako technikę działającą na poziomie słowa, można ją również zastosować na "wyższym" poziomie do różnych jednostek syntaktycznych (np. Traktując rudowłosego chłopca jako pojedynczą "jednostkę" zamiast czterech osobnych słów) lub klasę oparty na modelu, w którym prawdopodobieństwo przejścia oszacowane z klasy słów obejmuje słownictwo. Przykładem tego drugiego podejścia byłoby połączenie wszystkich przypadków dojrzewania pary (nazwy owocu) w celu oszacowania prawdopodobieństwa, że po słowie jabłko występuje słowo dojrzewa.
NIL
Symbol LISP reprezentujący pustą listę.
NOAH
Earl Sacerdoti opracował ten hierarchiczny planista w połowie lat siedemdziesiątych w SRI International.
Node : Węzeł
W sieci lub na wykresie węzeł jest punktem na wykresie, który można połączyć z innymi punktami za pomocą łuków. Zazwyczaj węzeł reprezentuje jakiś obiekt lub koncepcję, a łuki pokazują połączenia między obiektami lub koncepcjami.
Node Coloring : Kolorowanie węzłów
Kolorowanie węzłów to technika sprawdzania lub wybierania ważnych węzłów w modelu graficznym. Każdy węzeł na wykresie docelowym jest oceniany pod względem pewnej miary ważności i przypisywany jest "kolor", aby dopasować ważność. Następnie można zbadać wykres wykresu, aby ocenić ważne węzły. Jest to wykorzystywane na przykład w badaniu sieci przekonań.
Noise : Szum
Ogólnie rzecz biorąc, obce informacje lub sygnały maskujące lub mylące problem docelowy.
Noisy Channel Model : Model kanału z szumem
Model kanału z szumem jest wykorzystywany w empirycznym przetwarzaniu języka naturalnego jako podstawowy model statystycznej analizy języka. Model zakłada, że język jest generowany "wyraźnie", a następnie przechodzi przez głośny kanał, zanim zostanie "odebrany". Celem jest odzyskanie oryginalnej "czystej" komunikacji z głośnego sygnału wejściowego. Noisy Data : Zaszumione dane
Dane zawierające błędy ze względu na sposób ich gromadzenia i pomiaru są zwykle określane jako zaszumione. Pomiary ciągłe są często mieszane z hałasem Gaussa, chyba że znajdują się w pobliżu górnej lub dolnej granicy układu pomiarowego, w którym to przypadku hałas jest zwykle przekrzywiony w kierunku środka skali. Wiele metod statystycznych zakłada z góry, że dane są zaszumione.
Nominalny atrybut (typ)
Klasyczna taksonomia atrybutów o wartościach liczbowych dzieli je na typy nominalne, porządkowe, przedziałowe i współczynniki. Atrybut jest nominalny, jeśli znaczenie wartości nie zmienia się, jeśli zmienisz kolejność atrybutów lub przetasujesz wartości przypisane do każdego znaczenia. Przykładem może być zmienna taka jak płeć, która może być zakodowana jako 0 = mężczyzna i 1 = kobieta tak samo znacząco, jak użycie 1 = mężczyzna i 0 = kobieta. Ponieważ wartości liczbowe tych atrybutów są arbitralne, wszelkie operacje poza liczeniem i manipulacje odpowiednie do proporcji są bez znaczenia.
Nie bez znaczenia Brak
Gdy może brakować atrybutu odpowiedzi z powodu innego nieobserwowanego atrybutu sprawy związanego z atrybutem odpowiedzi, nie brakuje danych. Może się to zdarzyć, gdy na przykład urzędnik ds. pożyczek wybiera wnioskodawców na podstawie niezmierzonych atrybutów, takich jak ogólne wrażenie. Aby skonstruować prawidłowy model odpowiedzi, należy również modelować mechanizm powodujący brakujące dane.
NONLIN
Systemy planowania przeglądów turbin i misji zaopatrzenia morskiego (1984).
Nieliniowy Model
Model prognostyczny lub klasyfikacyjny, który nie jest liniowy w swoich parametrach. Zwykle nie obejmuje to modeli, które można przekształcić lub ponownie wyrazić jako model liniowy. Na przykład model y = α + β xδ jest nieliniowy w α, β i δ, podczas gdy y =β xδ nie jest z natury nieliniowy, ponieważ można go przepisać jako log (y) = log (β) + δlog ( x).
Nielinearna analiza głównych składników (NLPCA)
NLPCA jest nieliniowym rozszerzeniem analizy głównych komponentów i może być wykorzystywane do redukcji / kompresji danych oraz do opracowywania modelu auto-asocjacyjnego. Zwykle jest implementowany jako wielowarstwowa autosocjacyjna sieć neuronowa z pięcioma warstwami. Sieć ma warstwy wejściowe i wyjściowe, dwie "gęste" warstwy wewnętrzne z sigmoidalnymi funkcjami aktywacji i rzadką warstwę liniową w środku. Pierwsza warstwa sigmoidalna modeluje wszelkie złożone asocjacje na wejściu, warstwa liniowa działa jak wąskie gardło, redukując to złożone asocjacje do niewielkiej liczby elementów liniowych, podczas gdy druga warstwa sigmoidalna rozwija komponenty liniowe w model dla danych wyjściowych, które, w tym przypadku są dane wejściowe.
Nieliniowość
Deskryptor stosowany do funkcji lub systemów, w których wynik lub odpowiedź nie jest proporcjonalna do wejścia lub impulsu napędzającego system w całym (całym) zakresie sygnałów wejściowych systemu. W zakresie, w którym układ wytwarza stosunkowo niewielką reakcję na duże zmiany na wejściu, system można uznać za "tłumienie" wejścia. I odwrotnie, jeśli system wytwarza stosunkowo dużą zmianę w odpowiedzi na małe zmiany na wejściu, system wzmacnia sygnał wejściowy. Przykładem układu liniowego może być relacja y = b * x. W takim przypadku zmiana na wyjściu jest proporcjonalna do zmiany na wejściu. Prostym układem nieliniowym byłoby y = x * x. Gdy x jest w zakresie [-1, 1], zmiana y dla małych zmian x jest mniejsza niż zmiana x (tj. Tłumiona), podczas gdy w przeciwnym razie zmiana jest większa (tj. Wzmocniona).
Niemonotoniczna Logika
Systemy z domyślną możliwością wnioskowania mogą wyciągać wnioski, które wykorzystują założone przesłanki w celu zrekompensowania częściowych informacji. Te metody rozumowania często mają właściwość niemonotoniczna, dzięki czemu dodanie dalszych informacji do systemu może spowodować, że zmieni on lub zrezygnuje z wniosków, które zostały wyciągnięte przed dodaniem tych danych. Jest to sprzeczne ze standardową logiką, w której wniosek oparty na zestawie przesłanek nadal obowiązuje, gdy dodawane są dodatkowe przesłanki. Na przykład w matematyce, jeśli wiadomo, że wniosek można wyciągnąć, gdy dany zestaw założeń się utrzymuje, wówczas dalsze założenia (które zgadzają się z wcześniejszymi) mogą jedynie wzmocnić związek lub pozwolić na wyciągnięcie bardziej restrykcyjnych wniosków. Jednak pierwotne wnioski są nadal aktualne. Natomiast logika niemonotonowa (np. Probabilistyczna) może zignorować wniosek, dodając dodatkowe informacje. Na przykład, myśląc o serii gier, takich jak sezon baseballowy lub futbolowy, można stwierdzić na początku sezonu, że pewna drużyna była najlepsza. W miarę upływu sezonu wniosek ten może zostać porzucony lub obalony przez wyniki późniejszych gier.
Niemonotoniczne Rozumowanie
Techniki uzasadnienia, które pozwalają na wycofanie wniosków po uzyskaniu dodatkowych dowodów.
Nieparametryczny
Procedura jest nieparametryczna, jeśli nie opiera się na "prostych" formularzach parametrycznych w danych, takich jak rozkłady Gaussa, Poissona lub dwumianowe. Zwykle rozkład nieparametryczny opiera się na danych w celu utworzenia rozkładu i wywodzi swoje właściwości ze sposobu, w jaki dane zostały próbkowane (wybrane) i sposobu, w jaki są manipulowane (np. Testy randomizacji, drzewa klasyfikacji). To sprawia, że procedura jest bardziej niezawodna, ale mniej wydajna, gdy rozkład parametryczny jest rozsądny. Na przykład klasyfikator oparty na drzewach może przewyższać regresję logistyczną, gdy dane nie są liniowe, ale będzie mniej skuteczny, gdy dane spełnią założenia liniowości regresji logistycznej. Należy zauważyć, że procedury nieparametryczne zasadniczo traktują dane jako rozkład, tak więc rozkładem podstawowym jest obserwowany rozkład danych, który jest formą rozkładu tabelarycznego. Procedury te są czasem nazywane "bez dystrybucji", co oznacza, że "nie używa prostej formy parametrycznej", a nie "nie ma żadnej dystrybucji".
Nieterminalny Symbol
Symbol w gramatyce, który można przepisać na kolejne symbole podczas przetwarzania instrukcji.
Non-Von
Rodzina bardzo równoległych architektur komputerowych opracowana na Uniwersytecie Columbia w połowie lat osiemdziesiątych. Systemy charakteryzują się specjalną formą "pamięci aktywnej", składającą się z wielu elementów z niewielką ilością pamięci lokalnej, specjalizowanym procesorem i przełącznikami we / wy, które umożliwiają dynamiczną rekonfigurację maszyny
Normalna dystrybucja
Najbardziej znany ciągły rozkład prawdopodobieństwa, tak zwana "krzywa w kształcie dzwonu".
Normalizacja
Zwykle odnosi się do procesu dzielenia zbioru danych przez pierwiastek kwadratowy z jego sumy kwadratów, tak aby zbiór danych miał długość jednego. W odniesieniu do wyników prawdopodobieństwa normalizacja zwykle odnosi się do procesu dzielenia wyników przez ich sumę, tak że suma wyników staje się jednym. W kontekście sieci neuronowych normalizacja odnosi się do procesu przeskalowania wektora do zakresu (0, 1).
Normalized Mutual Information : Znormalizowane informacje wzajemne
Znormalizowane wzajemne informacje są odmianą miary entropii stosowanej do tworzenia drzew klasyfikacyjnych. Entropia jest znana z tego, że faworyzuje podziały wielostronne, a znormalizowane wzajemne informacje karzą podziały wielodrogowe, dzieląc zysk z podziału przez logarytm liczby liści w podziale.
Normalized Radial Basis Function (NRBF) : Znormalizowana funkcja podstawy radialnej (NRBF)
Znormalizowane wzajemne informacje są odmianą miary entropii stosowanej do tworzenia drzew klasyfikacyjnych. Entropia jest znana z tego, że sprzyja podziałom na wiele sposobów, a znormalizowane wzajemne informacje karzą podziały na wiele sposobów, dzieląc zysk z podziału przez logarytm liczby liści w podziale.
Nie dotyczy danych
Niektóre atrybuty nie mają znaczenia dla wszystkich członków wszechświata i są określane jako nie mające zastosowania. Przykładem może być parytet osoby. Ma to znaczenie tylko dla dorosłych kobiet. Atrybuty, które mają zastosowanie tylko do podzbiorów danych, mogą powodować znaczne trudności w algorytmach uczenia maszynowego i eksploracji danych, które nie są wyspecjalizowane w ich obsłudze.
NPC
System ekspercki opracowany przez Digital Equipment Corporation (DEC) do rozwiązywania problemów z sieciami komputerowymi opartymi na DECnet.
NRBFEH
Znormalizowana funkcja podstawy radialnej (NRBF) o nierównych szerokościach, ale równych wysokościach w każdym węźle.
NRBFEQ
Znormalizowana radialna funkcja bazowa (NRBF) o równych szerokościach i wysokościach w każdym węźle. Architektura NRBFEQ jest wygładzonym wariantem architektury kwantyzacji wektora uczenia (LVQ) i architektury kontrpropagacji.
NRBFEV
Znormalizowana funkcja bazowa radialna (NRBF) z jednakowymi objętościami w każdym węźle.
NRBFEW
Znormalizowana funkcja podstawy radialnej (NRBF) o równych szerokościach, ale nierównych wysokościach w każdym węźle.
NRBFUN
Znormalizowana radialna funkcja podstawowa (NRBF) o nierównych szerokościach i wysokościach w każdym węźle.
Nuclear Power Plant Consultant (NPPC) : Konsultant ds. Elektrowni jądrowej (NPPC)
Konsultant ds. Elektrowni jądrowej (NPPC) to system ekspercki, który pomaga operatorom elektrowni jądrowych w określaniu przyczyn nietypowych zdarzeń.
NUDGE
Bazujący na ramkach interfejs do algorytmów planowania i planowania. Zajmuje to niekompletne i być może sprzeczne żądania planowania oraz próby ich uzupełnienia i uzgodnienia.
Null
Zasadniczo null jest symbolem reprezentującym pusty zbiór lub zero (tj. Symbolem "nic"). W LISP null jest wyrażeniem S, które jest zarówno atomem, jak i listą (np. "()" ;).


Object Oriented Language : Język zorientowany obiektowo
Język komputerowy, który traktuje dane i struktury danych jako obiekty, i który może wysyłać i odbierać wiadomości lub polecenia oraz działać na ich podstawie. Różni się to od tradycyjnych języków proceduralnych, w których wyniki są uzyskiwane za pomocą szeregu procedur, które są stosowane do danych.
Occam Algorytm
Algorytm Occam to ogólna struktura do stosowania modeli prawdopodobnie w przybliżeniu poprawnych (PAC). Ma dwa podstawowe kroki. Najpierw narysuj losową próbkę z rozkładu docelowego, a następnie zwróć wszystkie reguły zgodne z pojęciami. Wielkość próbki powinna być duża w stosunku do liczby atrybutów i zestaw możliwych zasad.
OCEAN
System ekspercki opracowany przez Teknowledge do użytku wewnętrznego przez NCR. Podobnie jak XCON, sprawdza konfiguracje systemu.
OCEAN SURVEILLANCE : NADZÓR OCEANU
Oparty na regułach system ekspercki opracowany dla marynarki wojennej Stanów Zjednoczonych w celu śledzenia i identyfikacji zdalnie wykrywanych statków morskich.
OCSS
System ekspercki wspomagający chemików w syntezie złożonych cząsteczek organicznych.
Odds Ratio : Iloraz szans
Iloraz szans jest zdefiniowany jako stosunek prawdopodobieństwa dla zdania do prawdopodobieństwa względem zdania (P (A) / (1-P (A))). Wartość mniejsza niż jeden wskazuje, że dopełnienie jest bardziej prawdopodobne, podczas gdy duże wartości wskazuje prawdopodobieństwo większe niż jeden. Podczas oceny danych probabilistycznych powszechnie stosuje się iloraz szans dla propozycji.
Off-line Szkolenie
Iteracyjne techniki uczenia się, które przetwarzają cały zestaw uczenia jako partię i wykorzystują połączony błąd, aby dostosować oszacowania modelu do następnej iteracji procesu szkolenia.
OnLine Analytical Processing (OLAP) : Przetwarzanie analityczne OnLine (OLAP)
Podejście do analizy hurtowni danych. Narzędzia OLAP koncentrują się przede wszystkim na wspieraniu analizy wielowymiarowej oraz na wspieraniu i upraszczaniu procesu analizy danych przez osoby. Jest to w przeciwieństwie do podejścia KDD (Knowledge Discovery in Databases), które stara się zautomatyzować jak najwięcej procesów.
On-line Szkolenie
Techniki uczenia maszynowego, które stale aktualizują swoje oszacowania przy każdej nowej obserwacji, wykorzystują szkolenie online. Zwykle algorytm uczenia się można wyrazić ponownie jako serię równań różnicowych, dzięki czemu obliczenia są szybkie i proste.
ONOCIN
Oparty na regułach system ekspercki doradzający lekarzom w sprawie protokołów leczenia chłoniaka i choroby Hodgkina. Program napisany w INTERLISP na Uniwersytecie Stanforda wykorzystuje zarówno łańcuchy wsteczne, jak i łańcuchowe.
Ontolingua
Ontolingua to zestaw narzędzi komputerowych opartych na formacie KIF (ang. Knowledge Interchange Format), które upraszczają budowę, analizę i tłumaczenie ontologii komputerowych.
Ontologia
Ontologia to szczególna teoria lub model o naturze domeny przedmiotów i relacjach między nimi. Każdy model wiedzy ma jawną lub dorozumianą ontologię. Formalna ontologia obejmuje zestaw terminów oraz ich definicje i aksjomaty (reguły a priori) odnoszące się do terminów. Warunki są zazwyczaj zorganizowane w jakąś formę taksonomii. Aksjomaty reprezentują relacje między terminami i mogą określać ograniczenia wartości i sposobów użycia terminów. Przykłady konkretnych projektów wymienionych poniżej.
Ontology Markup Language (OML)
OML jest aplikacją rozszerzonego języka znaczników (XML), która rozszerza wysiłki SHOE o dodanie reprezentacji wiedzy do sieci WWW (WWW) do pełnego DTD XML. Różni się także od obiektów SHOE tym, że pliki OML mają być oddzielne od stron HTML, do których się odnoszą. OML tworzy również podzbiór Conceptual Knowledge Markup Language (CKML), który umożliwia bogatsze możliwości reprezentacji wiedzy.
Operacyjny System
Program, który zarządza sprzętem i oprogramowaniem komputera. Ten program planuje działanie innych programów i zapewnia jednolity interfejs do sprzętu. Przykłady obejmują UNIX, DOS i Windows NT.
Operacyjna Definicja
Definicja pomysłu lub metody, która zawiera dokładne instrukcje dotyczące pomiaru, obserwacji lub realizacji pomysłu. Na przykład, chociaż prawdopodobieństwo jest formalnie zdefiniowane jako miara na zestawie, który odwzorowuje zestaw na [0, 1], definicja operacyjna może określać prawdopodobieństwo jako funkcję prawdopodobieństwa, że konkretny zakład byłby sprawiedliwy. \
Operacjonalizacja
Proces przekształcania abstrakcyjnej specyfikacji procesu w zestaw konkretnych, konkretnych kroków do wykonania procesu.
Operator
Procedura lub funkcja przekształcająca problem lub stan programu w inny, zwykle prostszy problem lub stan programu.
OPM
System planowania oparty na tablicy. Próbuje zaplanować sekwencje zadań, które spełniają sprzeczne cele i ograniczenia. Biorąc pod uwagę listę zadań, ich zależności, priorytety i ograniczenia, próbuje znaleźć możliwe rozwiązania problemu.
Oportunistyczne Wyszukiwanie
Metoda wyszukiwania stosowana w systemach, które nie mają ustalonego podejścia do rozwiązania problemu. Na różnych etapach procesu rozwiązywania problemów systemy te mogą ponownie ocenić swoją strategię rozwiązania problemu.
OPS83
Pochodzący z OPS5, jest to skompilowany język do zastosowania w systemie eksperckim ds. Produkcji. Umożliwia także programowanie proceduralne w formie języka podobnego do PASCAL. Został on opracowany na Uniwersytecie Carnegie-Mellon i działa na różnych komputerach.
OPS5
Język do budowania systemów eksperckich. Utrzymuje wiedzę w formie reguł "jeśli-to" i obsługuje szeroką gamę struktur kontrolnych oraz wydajnego interpretera łańcuchowego.
Optyczne rozpoznawanie znaków (OCR)
Proces przekształcania elementu obrazu zawierającego tekst w reprezentację znakową obrazu. Często dokonuje się rozróżnienia między optycznym rozpoznawaniem znaków (OCR) a rozpoznawaniem znaków obrazowych (ICR). W tym sensie optyczne rozpoznawanie znaków oznacza proces w czasie rzeczywistym, przy czym silnik rozpoznawania bezpośrednio odbiera dane wejściowe z czujnika optycznego, podczas gdy rozpoznawanie znaków obrazu wskazuje, że silnik rozpoznawania działa na podstawie zapisanego obrazu i niekoniecznie działa w czasie rzeczywistym .
Optyczny Ruch
Wzór ruchu cech obrazu. Technika stosowana w analizie ruchu i zrozumieniu obrazu.
Optimal Factoring Problem : Problem z optymalnym faktoringiem
Sieci probabilistyczne oferują bardzo elastyczny sposób reprezentowania niepewności i jej propagacji poprzez atrybuty. Jednak obliczenie prawdopodobieństw krańcowych i wspólnych z dużych i skomplikowanych sieci może być bardzo "drogie". Jednym z rozwiązań jest znalezienie optymalnego faktorowania sieci dla danego zestawu docelowych węzłów w sieci, który minimalizuje koszt obliczenia prawdopodobieństw docelowych.
Optymalne rozwiązanie
Rozwiązanie, które jest znane jako najlepsze według niektórych kryteriów, np. optymalne kosztowo rozwiązanie byłoby najtańsze, podczas gdy optymalne rozwiązanie czasowe to takie, które jest najszybsze, ale niekoniecznie najtańsze.
ORBF
Akronim od "Zwykła podstawowa funkcja radialna". .
ORBFEQ
Zwykła podstawowa funkcja radialna o równych szerokościach na każdym węźle.
ORBFUN
Zwykła podstawowa funkcja radialna o nierównych szerokościach w każdym węźle.
Ordinal Attribute : Atrybut porządkowy
Atrybut porządkowy to taki, który przyjmuje wartości, których kolejność ma znaczenie zewnętrzne, ale których poszczególne wartości lub różnice między wartościami nie mają znaczenia. Przykładem jest niezakotwiczona ocena przez osobę w dziewięciostopniowej skali. Przypisanie jednemu obiektowi wartości trzech, a drugiemu wartości sześciu, nie oznacza, że drugi obiekt ma dwukrotność wartości pierwszego. To tylko sugeruje, że ma więcej. W związku z tym można również wywnioskować, że ten drugi ma również więcej niż jakiekolwiek inne obiekty ocenione przez tę samą osobę jako 1, 2, 4 lub 5, a mniej niż obiekty ocenione jako 7, 8 lub 9. wyniki operacji innych niż operacje na poziomie proporcji i zliczanie specyficzne dla zlecenia (np. liczba przypadków z wynikiem mniejszym niż trzy) zależą od skalowania, które jest arbitralne. Stosowanie technik zaprojektowanych do ciągłych pomiarów zmiennych porządkowych często prowadzi do wprowadzających w błąd lub głupich wyników.
Ordinary Least Squares (OLS) : Metoda najmniejszych kwadratów (OLS)
Metoda najmniejszych kwadratów (OLS) wykorzystuje sumę kwadratowych odchyleń między obserwowanymi a dopasowanymi wartościami jako kryterium minimalizacji. Jest to równoważne zminimalizowaniu odległości euklidesowej między wartościami zachowanymi i dopasowanymi. Warianty obejmują ważone najmniejsze kwadraty, które ważą poszczególne kwadratowe różnice zgodnie z zestawem wag, najmniejsze absolutne odchylenia (LAD), które minimalizują różnice bezwzględne, i ogólne kryteria Lp, w których p-ta moc bezwzględnej różnicy jest zminimalizowana. OLS i LAD to odpowiednio L2 i L1. OLS jest znany w literaturze dotyczącej sieci neuronowych jako "najmniejsze średnie kwadraty". Ten sam akronim został zastosowany w literaturze dotyczącej sieci neuronowych, ponieważ ortogonalne najmniejsze kwadraty to technika stopniowego wybierania w przód w sieciach funkcji radialnej podstawy (RBF). Ta ostatnia technika rozpoczyna się od dużego zestawu punktów kandydujących i wybiera podzbiór przydatny do prognoz.
Ortograficzna Projekcja
Metoda reprezentowania trójwymiarowego obiektu w dwuwymiarowej przestrzeni (tj. Na papierze lub ekranie). Punkt (x, y.z) w przestrzeni trójwymiarowej jest reprezentowany przez (skalowany) punkt (x, y) w przestrzeni dwuwymiarowej, zamiast być skrócony przez transformację perspektywiczną. Pozwala to zachować odległości.
Orthoplanner
Orthoplanner to oparty na wiedzy system zapewniający dentystom plany leczenia ortodontycznego w przypadkach, w których konieczne jest zastosowanie stałych aparatów ortodontycznych. Wykorzystuje szereg technik, w tym czytanie zasad, łączenie do przodu, łączenie do tyłu i oparte na logice rozmytej reprezentacje ortodontyczne wiedzy, umiejętności.
OTTER
OTTER to zautomatyzowany system dedukcyjny zaprojektowany w celu udowodnienia równości twierdzeń zawartych w logice pierwszego rzędu. Reguły wnioskowania dotyczące OTTER opierają się na rozdzielczości i paramodulacji i obejmują funkcje przepisywania terminów, porządkowania terminów, uzupełniania Knutha-Bendixa, ważenia oraz strategie kierowania i ograniczania wyszukiwania dowodów. Wydra może być również używana jako symboliczny kalkulator i ma wbudowany system programowania równań. Wydra to system dedukcyjny Argonne National Laboratory czwartej generacji, którego przodkowie (od wczesnych lat 60. XX wieku) to seria TP, NIUTP, AURA i ITP. Obecnie głównym zastosowaniem Wydry jest badanie algebry abstrakcyjnej i logiki formalnej. Wydra jest ogólnodostępnym systemem, kodowanym w C, i jest dostępna przez WWW.
Outlier
Odnosi się do rekordu lub obserwacji, które mają wartości danych, które są poza normalnym lub oczekiwanym zakresem wartości. Prosta forma występuje, gdy pojedynczy atrybut jest "poza zakresem", ale inne formy mogą wystąpić, gdy kombinacje wartości są indywidualnie ważne, ale łącznie nietypowe. Implikacją wywołania rekordu wartości odstającej jest to, że wartości są poprawne, ale nie pasują do bieżącego modelu danych. Głównym zadaniem w czyszczeniu danych jest identyfikacja nietypowych wartości atrybutów i rozróżnianie między tymi, które są po prostu błędne i te, które są poprawne, ale niezwykłe.
Out-of-sample Testing : Testowanie poza próbą
Testowanie poza próbą to ogólna nazwa technologii podzielonej próby i pokrewnych technologii służąca do "uczciwego" oszacowania błędów spowodowanych techniką indukcyjną / uczenia się. Z danych pobierane są dwie próbki. (Zwykle) większa z nich jest oznaczony jako "zestaw szkoleniowy", a drugi "zestaw sprawdzania poprawności". Modele opracowane na zestawie szkoleniowym są następnie stosowane do zestawu sprawdzania poprawności w celu oszacowania błędu modeli
Output Layer : Warstwa wyjściowa
W sieciach neuronowych węzły wytwarzające dane wyjściowe są zwykle nazywane warstwą wyjściową.
Output Smearing : Rozmazanie wyjściowe
Ostatnie badania skupiły się na metodach łączenia predyktorów, takich jak sieci neuronowe lub drzewa klasyfikacyjne. Zazwyczaj generowanych jest wiele zestawów szkoleniowych, a dla każdego zestawu opracowywany jest predyktor. Prognozy można następnie łączyć za pomocą takich technik, jak agregacja Bootstrap (workowanie) lub zwiększanie wyładowań łukowych (ADABOOST). Rozmazanie wyjściowe i przerzucanie wyjściowe stanowią alternatywę dla generowania wielu zestawów szkoleniowych przez utrzymanie tych samych wektorów cech, ale zaburzanie wyjściowego. Gdy dane wyjściowe są ciągłe lub zostały zakodowane w zestawie wektorów binarnych, nowe zestawy treningowe są generowane przez dodanie niewielkiej ilości szumu Gaussa do odpowiedzi. Przerzucanie danych wyjściowych jest podobną techniką dla odpowiedzi kategorycznych, gdzie etykiety są losowo odwracane lub wymieniane, aby zachować ten sam względny odsetek klas.
Overfitting : Nadmierne dopasowanie
Termin używany w sieciach neuronowych, partycjonowaniu rekurencyjnym i innych obszarach zautomatyzowanego modelowania. Jeśli uważa się, że dane treningowe składają się zarówno z sygnału, jak i szumu (tj. Danych zaszumionych), technika modelowania zaczęła się przeładowywać, gdy zaczyna rejestrować "szum" zamiast "sygnału". Zwykle ma to miejsce, gdy modelowi wolno zwiększyć liczbę "parametrów", takich jak współczynniki regresji, podziały w schematach partycjonowania rekurencyjnego lub jednostki ukryte w sieciach neuronowych. Efektem nadmiernego dopasowania jest ograniczenie możliwości zastosowania modelu do innych zbiorów danych (tj. Ograniczenie jego uogólnienia). W skrajności model może jedynie "przewidzieć" swój wkład. Najprostsza droga do wyeliminowanie tego efektu wymaga bardzo dużej liczby obserwacji na parametr w modelu.
Overlap : Zakładka
W logice rozmytej nakładanie się rozmytego zbioru A jest rozmytym związkiem zbioru A z jego dopełnieniem B. W klasycznej teorii zbiorów związek ten definiowałby wszechświat. W logice rozmytej jest to po prostu zbiór rozmytych zdefiniowanych przez elementarne maksima funkcji przynależności m (A, x) i (1-m (A, x)).
OWL
Język inżynierii wiedzy dla reprezentacji opartych na ramkach. Wykorzystuje semantyczną taksonomię netto i został wdrożony w LISP na MIT.
Own Slot : Własny automat
Własny przedział to przedział w klasie, który służy do opisywania właściwości specyficznych dla samej klasy, a nie dla dowolnego konkretnego wystąpienia klasy.

PAGE 1
System ekspercki opracowany w Honeywell w celu rozwiązywania problemów z systemem drukowania stron. Jest zaimplementowany w LISP i LOOPS.
PALLADIO
System ekspercki wspierający projektowanie i testowanie obwodów VLSI. Został opracowany na Uniwersytecie Stanforda i wdrożony w LOOPS.
PAM
System zrozumienia historii oparty na celach napisany w 1978 roku.
Pan
Aby przenieść obraz w płaszczyźnie poziomej.
Pandemonium
Jedna z najwcześniejszych prób (1959 r.) uczenia maszynowego przy użyciu podejścia podobnego do sieci neuronowej. Demony z niższego rzędu nauczyły się upraszczać funkcje danych wejściowych, które zostały przekazane demonom wyższego rzędu itp.
Paradygmat
Punkt widzenia lub sposób podejścia do problemów. Poszczególne narzędzia mogą być dobre dla jednego paradygmatu, ale nie dla drugiego.
Paradoks
1. Sprzeczność we wnioskach wskazująca na błąd w założeniu lub logice.
2. System komercyjnych ekspertów do zarządzania relacyjnymi bazami danych.
Parallel Coordinate Visualization : Równoległa wizualizacja współrzędnych
Technika wizualizacji stosowana w eksploracji danych, klastrowaniu i powiązanych polach. Baza danych z wieloma atrybutami jest reprezentowana jako dwuwymiarowa figura z wieloma równoległymi osiami wzdłuż jednego wymiaru. Dowolny punkt w bazie danych jest reprezentowany jako linia łącząca jego współrzędne. Grupy podobnych punktów są wyświetlane jako pasma linii
Przetwarzanie równoległe
Architektura komputera, która obejmuje (lub emuluje) wiele procesorów. Umożliwia to jednoczesne uruchamianie wielu programów i / lub jednoczesne atakowanie tych samych problemów przez wiele programów.
Parallel Search : Wyszukiwanie równoległe
Jednoczesne wyszukiwanie wzdłuż wielu ścieżek.
Parameter Learning
Metoda uczenia się stosowana, gdy założona jest stała funkcjonalna forma rozwiązania, i wymaga jedynie specyficznej wartości parametru B, możliwie o wartości wektorowej. Parametr B jest szacowany na podstawie zestawu W przypadków treningowych i wybrany w celu zminimalizowania niektórych kryteriów, takich jak średni błąd kwadratu.
Parametryczne sieci bayesowskie
Wiele zastosowań sieci bayesowskich, szczególnie w przypadku danych binarnych i wielomianowych, wykorzystuje zaobserwowane rozkłady warunkowe do propagowania prawdopodobieństwa w sieci. Parametryczna sieć bayesowska zastępuje obserwowane rozkłady pewną formą parametryczną (np. Funkcją logistyczną).
Parametryczny Rozkład
Funkcja prawdopodobieństwa, która jest całkowicie określona przez funkcję matematyczną i "kilka" liczb (parametrów). Typowe przykłady obejmują rozkład normalny, Poissona i dwumianowy. Normalny rozkład wymaga parametru średniej i wariancji, Poisson wymaga parametru średniego, a dwumian wymaga zarówno parametru wielkości, jak i prawdopodobieństwa.
Paramodulacja
Paramodulacja jest regułą wnioskowania, którą można zastosować w zautomatyzowanych systemach wnioskowania. Paramodulacja zawsze koncentruje się na dwóch klauzulach, wymagając, aby jedna z klauzul zawierała co najmniej jeden literał potwierdzający równość dwóch wyrażeń.
Parafraza
Reprezentować znaczenie zdania w innej formie.
PARRY : PAROWAĆ
Program naśladujący osobowość paranoiczną. Podobnie jak Eliza, opiera się na małym zestawie słów i prostych zasadach, ale wydaje się odpowiadać jak inteligentna osoba.
Parsowania drzewo
Drzewo (graficzne) przedstawiające wyniki parsowania zdania.
PARSIFAL
System analizy języka naturalnego.
Parsing : Rozbiór gramatyczny zdania
Akt rozbicia zdania i identyfikacji jego składników. Zbiór dopuszczalnych zdań jest zdefiniowany przez gramatykę języka, który parser ma akceptować.
Parsing, Expectation-driven : Analiza składająca się z oczekiwań
Odgórna forma analizowania, która szuka pojęć raczej niż elementów gramatycznych.
Partial Least Squares (PLS) : Częściowe najmniejsze kwadraty (PLS)
Częściowe najmniejsze kwadraty to technika stosowana w uczeniu maszynowym, gdy techniki regresji liniowej lub wielokrotnej są nieodpowiednie. Techniki wielokrotnej regresji liniowej (MLR) działają dobrze, gdy istnieje (względnie) niewielka liczba niezależnych (ortogonalnych) atrybutów, a nacisk kładziony jest na zrozumienie związku między atrybutami a zmienną docelową. Jednak w wielu sytuacjach uczenia maszynowego atrybuty są wysoce współliniowe, a celem jest przewidywanie, a nie rozumienie implikacji poszczególnych współczynników. W takim przypadku metody MLR mogą być nieskuteczne lub nieodpowiednie. PLS oferuje alternatywne sposoby radzenia sobie z tą sytuacją. Atrybuty predykcyjne i zmienne docelowe są rzutowane do przestrzeni o niższych wymiarach, gdzie regresja jest rozwiązana. Rzuty są wybierane tak, aby wymiary docelowe i wymiary atrybutu miały wysokie powiązania parami. Wyniki są rzutowane z powrotem do oryginalnej przestrzeni pomiaru atrybutów.
Partially Ordered Set : Zestaw częściowo uporządkowany
Zestaw częściowo uporządkowany to zestaw z częściowym uporządkowaniem. Częściowe uporządkowanie tworzy relacja binarna r pomiędzy elementami, które są przechodnie (a r b i b r c implikują r c), zwrotne (a r a jest prawdziwe dla wszystkich elementów w zestawie) i asymetryczne (a rb i b a a implikuje a = b). Zerem częściowo uporządkowanego zestawu jest element, który jest mniejszy lub równy wszystkim pozostałym elementom w zestawie; a jednostka częściowo uporządkowanego zestawu jest elementem, który jest większy lub równy wszystkim innym elementom zestawu. Częściowo zamówiony zestaw może mieć najwyżej jedną jednostkę i jedno zero. Gdy albo a r b albo b r a trzyma, a i b uważa się za zamówione; w przeciwnym razie są nieuporządkowane. Gdy rb, a jest przodkiem b, a b jest nazywane potomkiem a. Jeśli a i b nie mają wspólnego potomka, są rozbieżne. Przykładem częściowo uporządkowanego zestawu może być zestaw akcji A = "zjedz kolację", B = "zjedz kolację", C = "wyczyść naczynia", D = "wyprowadź psa". Częściowe uporządkowanie (A r B, B r C i B r D) wskazywałoby, że zjadłem kolację, zanim ją zjadłem, zjadłem kolację, zanim wyszedłem z psem i zanim umyłem naczynia, ale tego nie powiedziałem czy umyłem naczynia, czy wyprowadziłem psa po kolacji.
Partition
Zbiór podzbiorów tworzy partycję wszechświata, jeśli podzbiory są rozłączne i obejmują wszystkie elementy (obiekty) we wszechświecie.
Part-Of-Speech (POS) Tagging : Oznaczanie części mowy (POS)
Jeden z pierwszych sukcesów w przetwarzaniu empirycznego języka naturalnego. Proces ten służy do przypisania leksykalnej klasie składniowej (np. Rzeczownik, czasownik, przymiotnik) słowom w zdaniu. Dostępnych jest wiele technik wykonywania tego zadania, a dokładność zbliżona jest do ludzkiej. Jest często stosowany jako technika wstępnego przetwarzania przed innymi zadaniami w przetwarzaniu języka.
Path : Ścieżka
Ścieżka na wykresie jest uporządkowaną sekwencją węzłów, które mają połączenia między sąsiadującymi parami węzłów w sekwencji. Ścieżka jest cykliczna, jeśli ścieżka zaczyna się i kończy w tym samym węźle.
PATHFINDER
System ekspercki oparty na ramkach, który pomaga lekarzowi w diagnozowaniu próbek węzłów chłonnych. Program jest w stanie uzasadnić postawione pytania lub wyciągnięte wnioski.
Path Matrix : Ścieżka macierzy
Macierzy ścieżek można użyć do ustalenia najkrótszej ścieżki między dwoma węzłami na wykresie. Macierz ścieżki ma zero w komórce i, j-tej, jeśli najkrótsza (najtańsza) ścieżka między węzłem i a węzłem j jest łukiem bezpośrednim, liczbą całkowitą określającą inny węzeł k, jeśli najkrótsza ścieżka przechodzi przez k, a niektóre niedopuszczalne wartość, jeśli nie ma ścieżki między i i j (tzn. wykres nie jest połączony).
Pathology Expert Interpretative Reporting System (PIERS) : System raportowania interpretacyjnego eksperta od patologii (PIERS)
PIERS to system ekspercki, który dodaje komentarze interpretacyjne do automatycznie generowanych raportów patologicznych. Używa reguł Ripple Down, aby umożliwić patologom aktualizację bazy reguł i działa od 1991 roku.
PATHREC
System ekspercki oparty na ramkach i regułach do zarządzania dokumentacją pacjenta. Został opracowany na Ohio State University i wdrożony w LISP.
Pathway : Ścieżka
Seria łączy w sieci.
Pattern : Wzór
Zarys lub szablon obiektu.
Pattern Directed Invocation : Wywołanie kierowane wzorcem
Modyfikacja zastosowana w reprezentacji proceduralnej bazy wiedzy. Zamiast jednoznacznie pisać zapytanie, podano je jako cel, a do jego zaspokojenia można użyć różnych procedur, takich jak cofanie. Dodaje to pewną elastyczność dostępną w deklaratywnej bazie wiedzy kosztem kontroli dostępnej w czystym reprezentacji proceduralnej.
Pattern Matching : Dopasowywanie wzorów
Proces porównywania zestawu danych wejściowych z serią wzorców w celu identyfikacji elementu wejściowego. Zestaw wejściowy może zostać rozbity na części lub w inny sposób zmanipulowany w celu ułatwienia procesu dopasowania wzorca.
Pattern Recognition : Rozpoznawanie wzorów
Automatyczna identyfikacja komponentów obrazu poprzez podział na kategorie.
Payoff Uncertainty : Niepewność spłaty
Agent decyzyjny wymaga zestawu prawidłowych działań, zestawu obserwowalnych zmiennych środowiskowych i stanu oraz funkcji nagrody, która określa nagrodę lub koszt podjęcia decyzji (wyboru akcji) w różnych warunkach. Jeśli funkcja nagrody jest nieznana lub niepewna, agent stoi w obliczu niepewności związanej z wypłatą
Peeling
Peeling to technika marginalizacji stosowana w modelu graficznym. Sukcesywnie eliminuje zmienne spoza zbioru docelowego, propagując związane z nimi wartości przekonań i prawdopodobieństwa do pozostałych zmiennych w modelu. Jest ograniczony, ponieważ może produkować tylko jeden zestaw marginesów naraz. Alternatywnym podejściem jest algorytm syntezy i propagacji.
Perceptron
Proste urządzenie rozpoznające wzór, które było prekursorem nowoczesnych sieci neuronowych. Oryginalny perceptron pobierał ważoną sumę zestawu danych wejściowych, dodawał stałe "odchylenie" lub "przesunięcie" i zwracał zero lub jeden, w zależności od tego, czy suma była powyżej czy poniżej progu. Obwody typu perceptronów leżą u podstaw nowoczesnych sieci neuronowych.
Perceptronowy Algorytm
Algorytm wyznaczania wektora wag w modelu perceptronowym.
Perfect Decision Tree : Idealne drzewo decyzyjne
Drzewo decyzyjne, które poprawnie klasyfikuje wszystkie obserwacje.
PERFEKS
PERFEX to oparty na regułach system ekspercki, który pomaga w interpretacji danych SPECT serca. Określa zakres i nasilenie choroby wieńcowej (CAD) na podstawie dystrybucji perfuzji i może dostarczyć automatyczny raport w języku angielskim z uzasadnieniem. Obecnie ma ponad 250 zasad.
Performance Mentor
System ekspercki zaprojektowany, aby pomóc menedżerom w ocenie wydajności podwładnych
Performance Standards : Standardy wydajności
Zestaw standardów, w stosunku do których rzeczywiste wystąpienia są mierzone lub porównywane. Zewnętrzny standard wydajności jest często stosowany w nauczaniu i ocenie systemów eksperckich i systemów uczenia się.
Phenomenology : Fenomenologia
Filozofia celowości i znaczenia; zastosowano go do sztucznej inteligencji w debatach na temat roli celowości i poznania. Wiele dyskusji między szkołami Husserla i Heideggera na temat natury celowości zostało przeniesionych na dyskusje AI.
Phonemes : Fonemy
Podstawowe jednostki ludzkiej mowy. Słowa składają się z sekwencji fonemów
Piksel
Piksel to najmniejsza jednostka w komputerowej reprezentacji obrazu lub najmniejsza jednostka adresowalna na ekranie komputera. Na przykład obraz 640 x 480 ma szerokość 640 pikseli i wysokość 480 pikseli.
PLANDoc
System opracowany przez BellCore, który generuje tekst w języku angielskim z wyników programu komputerowego, który określa uaktualnienia usługi okablowania firmy telefonicznej.
Planowanie
(Automatyczne) generowanie sekwencji określonych kroków dla programu, robota lub organizacji podjętych w celu osiągnięcia określonego celu. Zależy to od pełnej specyfikacji aktualnego stanu i zestawu dopuszczalnych działań.
Prawdopodobieństwo
Prawdopodobieństwo zdania w teorii Dempstera-Shafera jest najwyższym prawdopodobieństwem zdania. Reprezentuje górną granicę prawdopodobieństwa, że twierdzenie jest prawdziwe.
Plausible Reasoning : Wiarygodne uzasadnienie
Systemy wnioskowania, które pozwalają wnioskować na podstawie tego, co jest prawdopodobne, a nie bardziej rygorystycznych wymagań standardowej logiki pierwszego rzędu. Istnieje wiele systemów logicznych, które obsługują tego rodzaju rozumowanie.
PLINUS
W ramach projektu PLINUS opracowywana jest ontologia, która koncentruje się na nauce o materiałach ceramicznych. Jego ontologia jest zorganizowana wokół składu chemicznego materiałów. W ramach projektu opracowywane są ontologie materiałów, procesów i właściwości. Zamiast korzystać z tradycyjnej taksonomii hierarchicznej, projekt rozpoczął się od zestawu podstawowych pojęć, takich jak nazwy elementów i stany materii, i zbudował dalsze pojęcia, takie jak kompozycje tych pojęć
Plus Strategia
Strategia plus to metoda, którą można zastosować w algorytmach ewolucyjnych. W każdym pokoleniu pozostali przy życiu rodzice rodzą potomstwo, a rodzice i potomstwo konkurują w następnym pokoleniu.
Poissona Rozkład
Rozkład Poissona modeluje rozkład liczby zdarzeń w interwale, gdy proces generujący zdarzenia jest procesem Poissona. Prawdopodobieństwo wystąpienia k zdarzeń w przedziale długości L, gdy częstość zdarzeń wynosi a, wynosi P (k) = e-al (aL)k/k!. Proces Poissona Proces Poissona jest podstawowym modelem dla liczby zdarzeń, które mogą wystąpić w przedziale (zwykle w czasie lub przestrzeni). Zakłada się, że częstość występowania zdarzeń jest stała w danym przedziale czasowym, że prawdopodobieństwo wystąpienia dwóch zdarzeń jednocześnie jest znikome, a występowanie zdarzeń jest niezależne (tak więc wystąpienie jednego zdarzenia nie jest ani "blokowe", ani " promuje "inne zdarzenia w dowolnym miejscu w przedziale). Różni się od procesu Bernoulliego, który zakłada, że istnieje sekwencja dyskretnych obserwowanych zdarzeń. Rozkład liczby zdarzeń w ustalonym przedziale wynosi Poissona.
Polya Tree
Drzewo Polya to nieparametryczne urządzenie bayesowskie używane do określania i szacowania rozkładu. Parametryczne modele bayesowskie określają rodzinę rozkładów, wybierając formę parametryczną, na przykład gaussowską dystrybucja i umieszczaj wcześniejsze dystrybucje lub hierarchiczne priorytety na parametrach. Drzewo Polya dzieli zakres zmiennych na dużą liczbę małych pojemników i umieszcza strukturę drzewa, taką jak drzewo binarne, na wierzchu pojemników. Oprócz informacji o podziale w każdym z węzłów drzewa, węzły zawierają również wcześniejszą dystrybucję, taką jak rozkład beta dla drzewa binarnego, na podziały. Kiedy rozkład ma zostać zaktualizowany, nowa obserwacja jest zrzucana w dół drzewa, a informacje o podziale są aktualizowane przy użyciu twierdzenia Bayesa w każdym węźle. Gdy trzeba wybrać losową próbkę, wykonuje się podobny proces, zrzucając drzewo i losowo wybierając podział w każdym węźle, aż do osiągnięcia węzła końcowego, gdzie wartość jest generowana z rozkładu przypisanego do tego przedziału. Jako przykład rozważmy atrybut o zakresie (0,1). Podziel zakres na osiem (8 = 23) pojemników i umieść trzypoziomowe drzewo binarne na wierzchu pojemników. Węzeł najwyższego poziomu podzieliłby zakres na (0, .5] i (.5,1] węzły drugiego poziomu podzieliłyby każdy duży pojemnik na dwa mniejsze pojemniki (np. (0, .5] i rArr; (0, .25] i (.25, .5]), a trzeci poziom dodatkowo podzieliłby każdy z drugiego poziomu węzły na dwa kolejne pojemniki Ostatni węzeł zawierałby równomierny rozkład w swoim zakresie.
POP-2
Europejski język programowania o składni podobnej do Algolu, podobny do LISP. Został opracowany na Uniwersytecie w Edynburgu na początku lat 70. XX wieku i ewoluował w systemy programowania POP-11 i POPProlog
Pozytywny Zdecydowany
Stosowany w analizie funkcji kontrolnych. Macierz M, być może opisująca funkcję przejścia układu, jest dodatnia, jeśli tylko i tylko wtedy, gdy iloczyn macierzy y′My> 0 dla wszystkich wektorów y nie jest równy zero.
Pozytywna wartość predykcyjna
Dodatnia wartość predykcyjna reguły klasyfikacji (w odniesieniu do konkretnego wyniku) jest oszacowaniem prawdopodobieństwa, że przypadek, który ma należeć do określonej kategorii, faktycznie należy do tej kategorii. Jest to funkcja trzech wielkości: czułości i swoistości reguły klasyfikacji w odniesieniu do tego wyniku oraz odsetek wyników pozytywnych w przypadkach ocenianych zgodnie z regułą (np. częstość występowania wyników pozytywnych w populacji docelowej). Załóżmy na przykład, że opracowałeś regułę klasyfikacji kredytowej, która wychwytuje wszystkie złe ryzyka kredytowe (tj. Jest wrażliwa w 100 procentach), ale tylko błędnie klasyfikuje 10 procent dobrego ryzyka kredytowego (tj. Jest specyficzna w 90 procentach). Jeśli zastosujesz go do zestawu klientów, który ma tylko 10 procent złego ryzyka kredytowego, dodatnia wartość predykcyjna wynosi tylko 52 procent. Aby to zobaczyć, zauważ, że 10 procent populacji docelowej, która jest złym ryzykiem kredytowym, zostanie poprawnie zidentyfikowanych, ale dodatkowe 10 procent pozostałych dobrych 90 procent zostanie również sklasyfikowanych jako złe. Tak więc, spośród ogólnej liczby zaklasyfikowanych jako złe, tylko 53 procent (10% / (10% + 10% * 90%)) jest faktycznie złych.
Posterior Distribution : Dystrybucja tylna
Rozkład prawdopodobieństwa, który jest przypisany do wartości atrybutu X po zaobserwowaniu niektórych danych C. Ten rozkład jest również rozkładem warunkowym dla atrybutu X zależnym od danych C.
PostOperative Expert Medical System (POEMS)
POEMS to system wspomagający podejmowanie decyzji dotyczących pooperacyjnej opieki medycznej. Może również uczyć się na podstawie przedstawionych przypadków, gdy eksperci medyczni potwierdzą lub odrzucą jego zalecenia.
Preclass
Preclass to komercyjny program do konstruowania drzew klasyfikacyjnych z danych. Korzysta z weryfikacji krzyżowej i może uwzględniać określone przez użytkownika priorytety i koszty błędnej klasyfikacji.
Predicate Expression of Arity n
W rachunku predykatów predykatowe wyrażenie arity n jest formułą predykatu z n rozróżnialnymi zmiennymi x1, …, xn.
Predykatów Logika
Logika wnioskowania, która wynika ze zdań składających się z terminów (np. Rzeczowników) i predykatów (czasowników). Jest nowoczesnym potomkiem klasycznej logiki arystotelesowskiej. Logika predykatów pierwszego rzędu pozwala na zmienność elementów reprezentowanych przez terminy; logika predykatów drugiego rzędu pozwala również, aby predykaty były w zakresie klas predykatów
Predykcyjny Model
Modele zaprojektowane do przewidywania wartości atrybutu lub zestawu atrybutów na podstawie innych wartości innych atrybutów. Prognozę często odróżnia się od klasyfikacji, gdzie celem jest kategoryzacja obserwacji. W tym kontekście przewidywanie oznacza generowanie wartości lub zakresów dla atrybutu lub grupy powiązanych atrybutów. Jednak w ogólnym sensie klasyfikacja jest po prostu a (ewentualnie ograniczona) forma prognozowania wielowymiarowego.
Predictive Model Markup Language (PMML)
PMML jest aplikacją rozszerzonego języka znaczników (XML) zaprojektowaną, aby umożliwić "automatyczną" interpretację modeli predykcyjnych przez Internet, obsługując rozproszone wyszukiwanie i prognozowanie.
PredictPLUS
PredictPLUS to dostępny w handlu system regresji hybrydowej i sieci neuronowej przeznaczony dla branży internetowej kontroli jakości. System wykorzystuje algorytm selekcji zmiennych genetycznych i mieszaninę regresji częściowych najmniejszych kwadratów (PLS), sieci neuronowych i systemów rozmytych PLS w celu opracowania optymalnych modeli.
Podkładowy
Warstwę F2 sieci ART można aktywować wewnętrznie przed przedstawieniem wzorca wejściowego. To powoduje, że warstwa F1 jest wrażliwa na określone wzorce wejściowe.
Prymitywny
Oznacza podstawowy, niepodzielny symbol, koncepcję lub wypowiedź w języku lub systemie logicznym. Na przykład podstawową jednostką mowy angielskiej jest fonem. W języku komputerowym znak "+", wskazujący na operację dodawania, jest podstawowym symbolem. W logice prymitywy obejmują takie łączniki jak AND, OR, NOT i IMPLIES.
Principal Components Analysis (PCA) : Analiza głównych składników (PCA)
Analiza głównych składników jest techniką ekstrakcji cech i redukcji danych. Wyodrębnia najlepsze funkcje liniowe macierzy atrybutów, gdzie "najlepsze" mierzy się w kategoriach całkowitej uwzględnionej zmiany. Każdy kolejny składnik jest prostopadły do wszystkich wcześniej wyodrębnionych składników. Na wykresie rozrzutu na rysunku P.3 pierwszy główny składnik spada wzdłuż głównej osi danych, a drugi składnik jest do niego ortogonalny. Powinno być oczywiste, że prosty PCA to proste skalowanie i obrót oryginalnych osi danych
Principal Components Regression : Regresja głównych składników
Niektóre algorytmy uczenia maszynowego upraszczają problem bardzo dużej liczby predyktorów, przeprowadzając analizę głównych elementów na predyktorach i używając większych elementów w analizie. Ma to dodatkową zaletę obliczeniową polegającą na posiadaniu niezależnych komponentów, które mogą uprościć i ustabilizować obliczenie.
Principal Curves and Surfaces : Główne krzywe i powierzchnie
Główne krzywe i powierzchnie są nieliniowym rozszerzeniem głównej analizy składowej. W przypadku głównych składników technika wyodrębnia "najlepsze" liniowe kombinacje macierzy danych. Analiza krzywej głównej wyodrębni serię gładkich krzywych ortogonalnych, które najlepiej podsumują lub modelują macierz wejściową. Analiza powierzchni stanowi rozszerzenie struktur wyższego rzędu i bezpośrednio wyodrębnia elastyczną powierzchnię z danych; z drugiej strony analiza krzywej głównej wyodrębnia niejawną powierzchnię, ponieważ powierzchnia prognozy jest sumą wszystkich ortogonalnych krzywych głównych. Powiązana technika, zwana nieliniową analizą głównych składników (NLPCA), została zaimplementowana przy użyciu sieci neuronowych. Wszystkie trzy z tych technik będą odtwarzać główne składniki, gdy dane rzeczywiście pochodzą z przestrzeni liniowej.
PRISM
System monitorowania oszustw związanych z kartami kredytowymi. Został on częściowo opracowany na podstawie zastosowania technik Discovery w bazach danych (KDD)
Probabilistic Context Free Grammar (PCFG) : Gramatyka probabilistyczna bez kontekstu (PCFG)
Są to gramatyki opracowane z dużych baz tekstowych. Gramatyki przypisują prawdopodobieństwa różnym produkcjom w gramatyce. Jeśli gramatyki są opracowywane przy użyciu nadzorowanego uczenia się (tj. Korpusu z tagowanym tekstem), prawdopodobieństwa można bezpośrednio oszacować, licząc różne produkcje i być może wygładzając lub w inny sposób przetwarzając wyniki. W przypadku korpusu bez nadzoru należy zastosować pewną formę strategii szacowania i maksymalizacji
Probabilistyczne Wnioskowanie
Wnioskowanie probabilistyczne jest procesem wnioskowania prawdopodobieństw zainteresowania w modelu (bayesowskim) na podstawie wartości (konfiguracji) innych atrybutów w modelu. W przypadku prostszych modeli, takich jak drzewo regresji lub model drzewa decyzyjnego, może to być dość prosty problem. W przypadku bardziej złożonych modeli, takich jak sieć bayesowska, dokładne wnioskowanie może być dość trudne i może wymagać albo przybliżeń, albo podejść opartych na próbkowaniu, takich jak metody Markov Chain Monte Carlo (MCMC).
Probabilistyczny Model
Model probabilistyczny to model, który pozwala obliczyć prawdopodobieństwo każdej poprawnie sformułowanej propozycji, którą można utworzyć z propozycji elementarnych w modelu.
Probabilistyczna sieć neuronowa (PNN)
Sieć neuronowa, sugerowana przez Donalda Spechta, która wykorzystuje skrzynie treningowe jako ukryte jednostki. Przypadki wejściowe są następnie porównywane z każdą ukrytą jednostką i jednostka strzela (zwraca jedną), jeśli dane wejściowe są "wystarczająco blisko". Odległość między znormalizowanym wejściem a każdym przypadkiem jest zazwyczaj mierzona za pomocą funkcji radialnej podstawy (RBF), takiej jak rozkład Gaussa. Odległość jest mierzona w odniesieniu do parametru szerokości pasma lub wygładzania, zwykle jednowymiarowego. Technika ta jest równoważna statystycznej technice analizy dyskryminacyjnej jądra.
Probabilities Expert Systems Knowledge and Inference (PESKI)
PESKI to nowa ogólna powłoka systemów ekspertowych. Jest dostępny bezpłatnie jako silnik wnioskowania, pozyskiwanie, weryfikacja i weryfikacja bazy wiedzy oraz narzędzia Data Mining. Celem jest połączenie teorii prawdopodobieństwa i systemów ekspertowych.
Prawdopodobieństwo
Prawdopodobieństwo to metoda reprezentowania niepewności co do zdań lub zdarzeń. Reprezentuje niepewność dotyczącą zdania w skali od 0 do 1, przy czym 0 oznacza całkowitą pewność, że zdanie jest fałszywe lub wydarzenie nie wystąpi, a wartość jeden będzie odwrotna. Formalnie miara prawdopodobieństwa jest zgodna z aksjomatami Kołmogorowa. Istnieją dwie główne szkoły myślenia na temat znaczenia prawdopodobieństwa. Częstokroć przyjmują wąską interpretację prawdopodobieństwa, dopuszczając jedynie hipotetycznie powtarzalne zdarzenia lub eksperymenty jako kwantyfikowalne według prawdopodobieństwa, podczas gdy Bayesianie przyjmują szerszą interpretację, która pozwala na rozumowanie zdarzeń i propozycji "jednorazowych" w oparciu o aktualną wiedzę o naturze. Interpretacja Bayesowska jest najczęściej stosowana w sztucznej inteligencji, podczas gdy interpretacja Frequentist jest najczęściej nauczana na kursach statystycznych. Etykieta "Bayesian" wynika z centralnej roli, jaką odgrywa twierdzenie Bayesa w tym zastosowaniu prawdopodobieństwa. Pozwala to uzasadniać skutki od przyczyn i zachęca do stosowania miar prawdopodobieństwa w celu opisania rzekomo ustalonych zdarzeń lub twierdzeń, które nie są dozwolone przez częstych. Prawdopodobieństwo tych zdarzeń odzwierciedla raczej stan wiedzy na temat zdarzenia, niż twierdzenie, że nieznane zdarzenie może się różnić. Na przykład Bayesjanin nie miałby żadnych wątpliwości co do prawdopodobieństwa, że dana kostka, rzucona i ukryta przed jego wzrokiem, to na przykład szóstka. Frequentist nie byłby w stanie wypowiedzieć takiego stwierdzenia, woląc mówić o swojej pewności co do metody, gdy zastosuje się ją do hipotetycznie dużej liczby powtarzanych eksperymentów. W końcu działałyby w podobny sposób. Gdy dostępne są dane długoterminowe, Bayesianie i osoby często jeżdżące uzyskują takie same szacunki.
Prawdopodobieństwa Ocena
Proces uzyskiwania prawdopodobieństwa reprezentującego stopień niepewności lub przekonania jest określany jako ocena prawdopodobieństwa. Jeśli istnieją modele fizyczne lub dane, można ich użyć do oszacowania wartości w modelach. Często jednak prawdopodobieństwo musi zostać określone przez osobę lub grupę. Istnieje wiele różnych technik wywoływania tych prawdopodobieństw, wykorzystujących jakąś formę wyobrażenia o możliwych danych, analogiczne rozumowanie lub oszacowanie "uczciwych" kursów bukmacherskich. Mogą one prowadzić do zestawów rozkładów prawdopodobieństw, a tym samym do trybu quasi-bayesowskiego
Prawdopodobieństwa funkcja gęstości
W przypadku zmiennych ciągłych rozkład prawdopodobieństwa jest definiowany w przedziałach lub zestawach. Najczęstszą definicją jest skumulowany rozkład prawdopodobieństwa lub jego pochodna - funkcja gęstości prawdopodobieństwa.
Prawdopodobieństwa Rozkład
Tabela lub algorytm do kojarzenia wartości prawdopodobieństwa ze stanem systemu. Zgodnie z konwencją wszystkie wartości są większe lub równe zero, a ich suma dla całego systemu wynosi jeden. Na przykład rozkład prawdopodobieństwa dla rzetelnej sześciościennej matrycy przypisałby wartość 1/6 każdej stronie. Dowolny rozkład prawdopodobieństwa przypisuje do matrycy dowolny zestaw sześciu liczb nieujemnych, tak że ich suma będzie równa jeden. Gdy stany są indeksowane przez jedną zmienną lub klucz, rozkład jest zwykle określany jako rozkład jednowymiarowy. Gdy stany są indeksowane przez wiele zmiennych, określa się to mianem rozkładu wielowymiarowego. Rozkłady prawdopodobieństwa są również charakteryzowane jako ciągłe, dyskretne lub mieszane, w zależności od tego, czy powiązane z nimi zmienne są ciągłe, dyskretne czy mieszane. Przykładami mogą być wiek, płeć i wiek skrzyżowane z płcią. Pamiętaj, że wiek w latach, miesiącach, tygodniach, a nawet dniach jest naprawdę dyskretny, mimo że zwykle są traktowane jako ciągłe.
Prawdopodobieństwa Drzewo
Drzewo prawdopodobieństwa to drzewo zdarzeń lub działań z prawdopodobieństwami związanymi z łukami. Zapewnia wygodny sposób reprezentowania i obliczania prawdopodobieństw związanych ze złożonymi zdarzeniami lub stanami
Prawdopodobnie poprawny model uczenia się (PAC)
Model uczenia się prawdopodobnie w przybliżeniu poprawny (PAC) to model uczenia maszynowego, który próbuje ograniczyć poziom błędu modelu, aby z prawdopodobieństwem P błąd w końcowej regule dla koncepcji był mniejszy niż pewna określona wartość e. Model zakłada, że może uczyć się z jakiegoś zewnętrznego źródła, które przedstawi losowe próbki z przestrzeni atrybutów, wybranych zgodnie z nieznanym rozkładem w przestrzeni atrybutów. Losowe pobieranie próbek i nieznany rozkład są wymagane do obliczenia wartości P. Zwykle zakłada się, że rozkład jest stacjonarny w czasie. Modele PAC mogą skutecznie nauczyć się pojęć, które można przedstawić za pomocą kombinacji atrybutów binarnych.
PROBART
Probabalistyczna sieć ARTMAP, która może uczyć się na hałaśliwych danych.
Problemów Redukcja
Redukcja problemów jest ogólnym terminem określającym technikę rozkładania trudnego problemu na mniejsze, prostsze. Może to być rekurencyjne, dopóki system rozwiązywania problemów nie wygeneruje łańcucha prostych rozwiązań ogólnego problemu. Przykładem jest system matematyczny, taki jak Mathematica, który może rozwiązać pozornie złożony problem matematyczny poprzez zredukowanie problemu początkowego (np. Całki) do prostszego problemu poprzez zastosowanie szeregu reguł i tożsamości.
Proceduralny Język
Język komputerowy, taki jak C ++ lub FORTRAN, który wymaga od programisty krok po kroku procedur używanych do rozwiązania problemu.
Przedstawicielstwo proceduralne
Warsztat wykorzystująca reprezentację proceduralną (w przeciwieństwie do reprezentacji deklaratywnej) reprezentuje wiedzę jako szereg procedur i powiązanych struktur danych. Przykładem może być Baza wiedzy zawierająca procedurę "osoby". Ta procedura zawierałaby listę osób, takich jak Sokrates, Arystoteles, Archie Bunker i Platon. Po wykonaniu z argumentem "Kartezjusza" procedura person przeszuka listę osób i zwróci "False". Dalsza procedura zwana "śmiertelną" mogłaby na tym opierać się o listę rzeczy śmiertelnych, w tym funkcję osób (). Następnie wywołanie śmiertelne ("Platon") w końcu wywoła osobę ("Platon") i zwróci "Prawda". Ta forma reprezentacji ma tę zaletę, że wyraźnie kieruje metodą i kolejnością oceny zapytań, ale może być bardzo trudny do zmiany, gdy dodaje się nowy fakt. Opracowano metody hybrydowe, takie jak wywoływanie ukierunkowane, aby pokonać ograniczenia tej formy reprezentacji.
Produkcja
Reguła, która przetwarza dane wejściowe i tworzy sekwencję symboli końcowych i nieterminalnych, które można również przekazać do dalszych produkcji. Reguły stosowane przez kompilator lub system ekspercki są często nazywane produkcjami.
Produkcyjny System
Metoda reprezentacji wiedzy, w której wiedza jest reprezentowana jako zbiór reguł i konsekwencji lub jako działania, które można podjąć, gdy reguła jest prawdziwa. Ta forma reprezentacji jest powszechnie stosowana w systemach eksperckich.
Produktów Zestaw
Zestaw dwóch zestawów produktów, oznaczonych A i B, jest nowym zestawem, w którym każdy element w nowym zestawie jest parą, z jednym terminem z A i B. Każda możliwa para elementów z A i B jest zawarta w produkcie zestaw.
Programowania Asystent
System programowania zapewniający wsparcie i / lub porady dla programisty w nieklerycznych aspektach programowania.
Projekcyjne Sieci
Forma sieci neuronowej regresji pogoni za projekcją, w której podsieci są używane do oszacowania transformacji nieliniowych.
Projection Pursuit Regression : Regresja pogoni za projekcją
Wykonywanie projekcji jest formą nadzorowanego uczenia się. To statystyki oraz technika uczenia maszynowego, która iteracyjnie szuka gładkich liniowych kombinacji atrybutów w celu przewidzenia odpowiedzi. Uogólnia model addytywny, który szuka liniowych kombinacji wygładzonych atrybutów. Ostatnio wykazano, że w pewnym sensie technicznym omija "przekleństwo wymiarowości".
Prolog
Język Prolog służy do programowania logicznego i był używany w japońskim projekcie komputerowym piątej generacji. A. Colmerauer opracował Prolog w 1970 roku na uniwersytecie w Marsylii.
Propositional Logic : Logika zdań
Sposób wnioskowania ze zdań. Biorąc pod uwagę sekwencję zdań, logika zdań próbuje wywnioskować dalsze przyimki na podstawie zdań i reguł wnioskowania zdań. Jeśli różni się od Predicate Logic tym, że nie próbuje wyciągać wniosków na temat osób lub klas.
Prospektywnych Danych Analiza
Proces modelowania zaprojektowany do przewidywania przyszłych zdarzeń na podstawie wcześniejszych wyników lub atrybutów
Prospector : Poszukiwacz
System ekspercki, który zinterpretował dane mineralne i może być wykorzystany do znalezienia złóż rudy na podstawie danych geologicznych. Duda Hart i inni napisali Prospector pod koniec lat 70. w SRI International.
Proteus
Wczesny (1974) program, w którym powstały doskonałe teksty analizujące gry w kółko i krzyżyk.
Proteza
W tym kontekście wspomagane komputerowo urządzenie mechaniczne, które zastępuje lub rozszerza naturalną funkcję człowieka. Przykładem może być wózek inwalidzki kierowany głosem lub wszczepiony chip do kierowania ruchem mięśni w sztucznej kończynie.
Prototypowe Wektory
Kategoria prototypów w sieciach ART, które są reprezentowane jako wektory.
Proximity Sensor : Czujnik zbliżeniowy
Urządzenie wykrywające warunki otoczenia w pobliżu robota. Mogą one pozwolić robotowi nawigować w nieuporządkowanym lub nieznanym środowisku lub "wyczuć" warunki nieprzyjazne dla środowiska (np. pożar, zimno, półka).
Przycinanie
Techniki stosowane do zmniejszania wielkości przestrzeni poszukiwań lub drzew klasyfikacji i regresji nazywane są technikami przycinania. Zazwyczaj obejmują one monitorowanie niektórych kryteriów, które powinny zmniejszyć lub zatrzymać wyszukiwanie lub usunąć gałęzie, gdy zaczną się zwiększać.
PUFF
PUFF to program do diagnozowania wyników badań płucnych. Jest produkowany od późnych lat siedemdziesiątych. Baza wiedzy została później włączona do komercyjnego produktu "Pulmonary Consult".
Pulcinella
Pulcinella to system do budowania, modyfikowania i oceny modeli niepewności przy użyciu szerokiej gamy systemów niepewności. Zawierał on moduły rachunku zdań, teorii prawdopodobieństwa, teorii przekonań Dempstera-Shafera i teorii możliwości, i można go rozszerzyć na inne systemy. Pulcinella oddziela wiedzę strukturalną (tj. Relacje między pojęciami i atrybutami) od ilościowej reprezentacji niepewności, umożliwiając tym samym ocenę tego samego modelu przy użyciu wielu systemów niepewności

Quasi-bayesowska Teoria
Bayesowskie metody reprezentowania niepewności w problemach decyzyjnych i wnioskowania zakładają, że niepewność może być reprezentowana przez pojedynczy rozkład prawdopodobieństwa. Jednak w praktyce często trudno jest określić pojedynczy rozkład dla stanów atrybutów. Może to być spowodowane niepełną znajomością atrybutów lub niezdolnością lub brakiem chęci określenia pojedynczego rozkładu. Teoria quasi-bayesowska oferuje uogólnienie klasycznej teorii bayesowskiej w celu uwzględnienia tych sytuacji, umożliwiając operacje na zbiorze rozkładów. W szczególności, ponieważ dotyczy operacji liniowych na tych rozkładach (np. średnich zysków lub strat), działa z wypukłymi zbiorami rozkładów.
Quasi-uporządkowanie
Jeśli relacja binarna na niektórych elementach zbioru jest przechodnia i zwrotna, ale niekoniecznie asymetryczna, nazywa się to quasi-porządkiem. Quasi-porządkowanie można przekształcić w częściowe uporządkowanie, grupując razem elementy, które są symetryczne (tj. Zarówno ArB, jak i BrA są prawdziwe).
Question Answering : Odpowiedzi na pytania
Badanie lub zdolność programu, takiego jak Systemy Ekspeckie do udzielania odpowiedzi na pytania dotyczące wniosków, wniosków lub wiedzy. Wymaga umiejętności rozumienia pytań w języku naturalnym i generowania tekstu w języku naturalnym.
Queue : Kolejka
rZestaw obiektów uporządkowany tak, aby pierwszy obiekt wprowadzony do kolejki był również pierwszym obiektem usuniętym. Ta właściwość jest również określana jako "pierwsze wejście, pierwsze wyjście" (FIFO).

Radial Basis Function (RBF)
Alternatywa dla wspólnych funkcji liniowych leżących u podstaw wielu technik modelowania, takich jak (uogólnione) modele regresji i sieci neuronowe. W tych modelach (wstępna) odpowiedź jest obliczana w każdym węźle, podobnie jak suma produktów między wektorem masy a wektorami wejściowymi. W modelu RBF odpowiedź jest (ważoną) sumą odległości między punktami wejściowymi a wagami, które teraz reprezentują punkty "idealne" lub "jądro". Można to zastosować w modelach regresji przy użyciu splajnów cienkich płyt, sieci neuronowych i modeli partycjonowania rekurencyjnego. Funkcja odległości różni się w zależności od modelu, ale dwie popularne klasy to modele rozpadu (splajny cienkich płyt i funkcje odległości Gaussa) i modele przedziałowe (CART), w których funkcja zwraca odpowiedź 0/1. Funkcja odległości jest czasami skalowana przez parametr zwany "szerokością", co jest nieco analogiczne do odchylenia stosowanego w perceptronach.
Rainbow
Rainbow to program uczenia maszynowego, który dokonuje klasyfikacji dokumentów. Wykorzystuje "przedstawienie słów" do analizy danych i klasyfikator Bayesa do klasyfikacji dokumentów docelowych.
Rapid Application Development (RAD)
Zamiast spędzać dużo czasu analizując problem, a następnie opracowując rozwiązanie, system RAD kładzie nacisk na szybkie przyrostowe ulepszenia z "akceptowalnego" prototypu. Narzędzia te są zazwyczaj oparte na graficznym interfejsie użytkownika i umożliwiają szybkim kompilatorom przyrostowym testowanie bieżącego stanu projektu. RAD jest ważny w wielu systemach Data Mining lub OnLine Analytical Processing (OLAP), w których cel analizy zmienia się szybko, a intensywne wysiłki na rzecz optymalizacji określonej struktury lub zapytania prowadziłyby do odpowiedzi na stare pytania.
Rapidly Adapting Lateral Position Handler (RALPH) : Szybko dostosowujący się uchwyt do pozycji bocznej (RALPH)
RALPH to oparty na sieci neuronowej system autonomicznej nawigacji pojazdu. Został zaprojektowany, aby poradzić sobie z różnorodnymi warunkami drogowymi i może szybko uczyć się od ludzkich kierowców. Niedawno ukończył ponad 98 procent jazdy w Ameryce. W tym teście jego ludzie byli przede wszystkim potrzebni do interwencji, aby zapobiec zjeżdżaniu z ramp i przejeżdżaniu wolniejszych pojazdów.
Random Sub-sampling : Losowe podpróbkowanie
Losowe podpróbkowanie to ogólna nazwa technik takich jak walidacja krzyżowa. Podobnie jak techniki poza próbą, modele są testowane na danych, które nie zostały wykorzystane w fazie uczenia się w celu oszacowania "prawdziwego" błędu. Jednak losowe techniki podpróbkowania powtarzają ten proces wiele razy, aby uzyskać lepszą ocenę procesu, a w procedurach takich jak walidacja krzyżowa oszacować "hiper-parametry".
Random World Model : Losowy model świata
Model rozumowania, który zakłada, że wszystkie podstawowe zdarzenia są równie prawdopodobne. Znany również jako "zasada niewystarczającego rozumowania". Podstawowe założenie stojące za teorią zbiorów przybliżonych.
RankBoost
RankBoost jest rozszerzeniem podstawowej metodologii ADABoost, która została zmodyfikowana w celu obsługi danych szkoleniowych, które zawierają częściowe uporządkowanie. Przykładem mogą być oceny filmów lub książek, w których każdy respondent zamawia (szereguje) niewielki podzbiór dostępnych filmów / książek. Algorytm RankBoost wyprowadza połączone uporządkowanie które próbuje zachować oryginalne zamówienia.
RaPiD
RaPiD jest opartym na wiedzy asystentem w zakresie projektowania ruchomych protez częściowych (RPD). Wykorzystuje techniki baz danych logicznych, deklaratywną grafikę i krytykę, a także specjalistyczną wiedzę projektową, aby zapewnić interfejs graficzny w stylu projektowania komputerowego (styl CAD), zarówno do użytku instruktażowego, jak i profesjonalnego.
Ratio Attribute : Atrybut współczynnika
Atrybut wartościowany na podstawie przyjmuje wartości, dla których wartość bezwzględna jest znacząca i ma prawdziwe zero, takie jak waga lub liczba. Stosunki tych liczb odnoszą się do stosunków wielkości fizycznych. Tłumaczenie lub skalowanie tych liczb zmieniłoby ich znaczenie. Atrybut współczynnika może mieć wartość ciągłą lub dyskretną (np. licznik)
Racjonalna monotoniczność
Racjonalna monotoniczność jest odmianą logiki monotonicznej, która pozwala zachować istniejące wnioski, ilekroć nowych informacji nie można zignorować na podstawie istniejących wniosków
Real Time Operation System (RTOS) : System operacyjny w czasie rzeczywistym (RTOS)
System operacyjny w czasie rzeczywistym jest zaprojektowany do reagowania na dane z (w przybliżeniu) taką samą prędkością, z jaką przybywa. Wymaga to, aby system kładł nacisk raczej na szybkość niż kompletność lub elastyczność, powiedzmy, stacji roboczej. Ten ostatni może wymagać szybkości obliczeniowej, ale zazwyczaj nie musi reagować natychmiast i stale na serię zdarzeń wejściowych. System operacyjny czasu rzeczywistego jest zawsze zaprojektowany tak, aby reagował na dane wejściowe w określonym (krótkim) przedziale czasowym, gdy stacja robocza nie jest.
Rozumowanie
Ten termin może mieć wiele znaczeń. Może odnosić się do umiejętności wyciągania wniosków z zestawu faktów lub założeń, umiejętności analizowania lub organizowania informacji, umiejętności rozwiązywania problemów i umiejętności przekonywania. W takiej czy innej formie jest to podstawa dla większości programów AI, z godnym uwagi wyjątkiem ostatniego znaczenia.
Rozumowanie, przyczynowość
Rozumowanie zachowania systemów w celu wyjaśnienia przyczyn przeszłych zdarzeń lub przejścia z obecnego stanu do przyszłych zdarzeń.
Reasoning, Default : Uzasadnienie, domyślnie
Ogólny termin określający zdolność systemu wnioskowania do wyciągania wniosków, które nie są ścisłymi konsekwencjami obecnego stanu. Domyślna zdolność wnioskowania pozwala systemowi nadal działać na częściowych danych. Implementacja różni się w zależności od projektanta systemu, ponieważ nie ma twardej definicji domyślnego rozumowania. Zwykle przyjmuje formę lokalnych uogólnień lub domniemań, które próbują wypełnić wszelkie luki w wiedzy. Niektóre systemy logiczne, które można tu zastosować, obejmują logikę monotoniczną i logikę niemonotoniczną oraz logikę bayesowską, rozmytą lub podobną opartą na miarach pewności lub niepewności. Takie systemy mogą również wykorzystywać systemy selekcji przekonań do wybierania spośród alternatywnych systemów przekonań oraz odpowiednich metod weryfikacji tych przekonań, gdy dostępne będą dodatkowe informacje.
Rozumowanie, precyzja i niedokładność
Systemy uzasadnienia można opisać za pomocą precyzji, jakiej używają przy podejmowaniu jakichkolwiek kroków uzasadnienia. Na najbardziej precyzyjnym końcu są systemy rozumowania, które dotyczą wyłącznie logicznie poprawnych relacji znanych z pewnością. Oczywistym przykładem mogą być klasyczne systemy arystotelesowskie, matematyka i inne klasyczne systemy logiczne. W takich przypadkach wnioski są prawdziwe, jeśli przesłanki są prawdziwe. Na drugim końcu są systemy probabilistyczne lub rozmyte, które rozumują o rzeczach, które są albo źle zdefiniowane i / lub nieznane z całą pewnością. W tych systemach dodatkowe informacje o prawdziwości, pewności lub precyzji przesłanek są uwzględniane przy obliczaniu i ocenie wszelkich wniosków. Niedokładne systemy są stosowane w wielu systemach ekspertowych i kontrolerach systemów wbudowanych.
Reasoning System : System wnioskowania
Termin na system komputerowy lub podsystem, który może wykonywać zadania związane z rozumowaniem. Taki system zwykle obejmuje schemat reprezentacji wiedzy, zestaw reguł wnioskowania i silnik wnioskowania, który dokonuje właściwego rozumowania. Przykłady obejmują system ekspercki, taki jak system diagnozy medycznej lub twierdzenie twierdzenia. Reprezentacja może się różnić w zależności od przedmiotu i rodzaju przeprowadzanego rozumowania. Na przykład system rozumowania, który pozwala na niedokładność, będzie również potrzebował metod przechowywania i uzasadniania niedokładności, a także reprezentowania zdań i symboli, o których system rozumuje. Schemat reprezentacji wiedzy będzie zależeć od konkretnej zastosowanej logiki. Na przykład system rozumowania, który pozwala na niepewność lub niedokładność, będzie musiał śledzić miarę niepewności oprócz propozycji, symboli i celów, które śledziłby precyzyjny system.
Rekurencyjnych Danych Struktura
Struktura, taka jak drzewo lub lista, którą można zdefiniować na podstawie operacji rekurencyjnych na jej elementach. Na przykład drzewo można zbudować, łącząc dwa (lub więcej) drzewa jako poddrzewa istniejącego elementu.
Rekurencyjne Partycjonowanie
Partycjonowanie rekurencyjne to algorytm do generowania drzew klasyfikacji i drzew decyzyjnych. Począwszy od węzła głównego reprezentującego wszystkie dane testowe, dane są dzielone na dwa lub więcej węzłów potomnych, które tworzą kompletną partycję danych w węźle nadrzędnym. Proces powtarza się osobno dla danych w każdym z węzłów potomnych i tak dalej, dopóki nie zostaną spełnione określone kryteria zakończenia. Ta technika okazała się bardzo skuteczna w opracowywaniu dokładnych klasyfikatorów i predyktorów, a szeroko dostępne implementacje obejmują automatyczne wykrywanie interakcji (AID), CHAID, drzewa klasyfikacji i regresji (CART), C4.5 i KnowledgeSeeker, a także inne programy uczenia maszynowego. Te wdrożenia stanowią również podstawę do wzmocnienia i innych technik wyładowań łukowych.
Recursive Transition Network (RTN)
Sposób reprezentowania reguł języka w formie, którą można skutecznie wykorzystać na komputerze. Sieć składa się ze stanów (węzłów) i (dopuszczalnych) przejść do innych stanów. Stany wskazują, które części zdania lub frazy zostały rozpoznane, a przejścia wskazują, które nowe podstruktury są dozwolone. Przejścia dyktują również nowy stan, do którego system przejdzie po rozpoznaniu określonej podkonstrukcji.
Redukcja
Teoria zbiorów przybliżonych zajmuje się między innymi zmniejszaniem liczby atrybutów w tabeli informacyjnej (bazie danych) poprzez znajdowanie zbędnych atrybutów. Zestaw atrybutów X, które definiują te same relacje nierozerwalności (klasy równoważności) jak większy zestaw atrybutów Y, jest redukcją zbioru oryginalnego. Gdy redukcja jest najmniejszą możliwą redukcją dla zestawu atrybutów, nazywa się ją redukcją minimalną. Zauważ, że ani redukcja, ani minimalna redukcja Y nie są unikalne. Atrybut występujący we wszystkich redukcjach znajduje się w rdzeniu.
Redundant Attributes : Nadmiarowe atrybuty
W teorii zbiorów szorstkich nadmiarowymi atrybutami są te, których nie ma w żadnej redukcji.
Redzone Robotics, Inc.
Redzone Robotics, Inc. to firma zajmująca się robotyką, która produkuje roboty, które mogą przedostawać się do niebezpiecznych i niedostępnych miejsc w celu kontroli i naprawy. Ich produkty obejmują:

•  Fury

Robot kontrolny zaprojektowany do wchodzenia do zbiorników paliwa i podobnych konstrukcji oraz przeprowadzania kontroli. Fury jest zbudowany z segmentowanych części, takich jak wąż lub owad, dzięki czemu może dostać się do zbiorników przez otwory o średnicy zaledwie czterech cali. Wykorzystuje przyczepność magnetyczną, dzięki czemu może poruszać się po bokach i wokół wnętrza zbiornika.

•  Houdini
Houdini to składany robot zaprojektowany do wchodzenia na obszary jądrowe i wykonywania różnych zadań związanych z czyszczeniem i inspekcją. Może rozpaść się na mniejszy rozmiar podczas manewrowania w ciasnych obszarach, a następnie przekształcić się w dużego robota, zdolnego do spychania szlamu i innych niebezpiecznych materiałów.

•  Pioneer
Obecnie opracowywany, Pioneer jest "zahartowanym" robotem inspekcyjnym i roboczym zaprojektowanym do wchodzenia do zanieczyszczonego środowiska nuklearnego, takiego jak miejsca w Czarnobylu i Three Mile Island. Strony te mogą szybko zdegradować normalne roboty, szczególnie ich okablowanie, czujniki i koła.
Referencje
Obiekt jest referencją, gdy jego jedyną funkcją jest wskazywanie na inny obiekt lub jego zawartość. Ta funkcja pozwala programowi łatwo manipulować i przechowywać kolekcje obiektów przez odniesienie, a nie manipulować ich zawartością. Pozwala także na kolekcje "anonimowych" przedmiotów, których liczba i treść są znane tylko w czasie wykonywania.
Referencje, bezpłatne i powiązane
Termin używany w programowaniu. Powiązane odniesienie do zmiennej występuje, gdy zmienna jest wymieniona w kontekście, w którym ma wartość. Wolne odwołanie występuje, gdy zmienna jest wymieniona w kontekście, w którym jej wartość jest nieznana (np. Zewnętrzne odwołanie w funkcji).
Reflectance Pattern : Wzór odbicia
Wzór odbicia to obserwacja, której atrybuty zostały znormalizowane, aby ich wartości się sumowały
Reflexive : Zwrotny
Związek binarny R jest zwrotny, jeśli związek aRa jest prawdziwy. Przykładem może być relacja "jest równa". Przeciwnym przykładem może być relacja "jest mniejsza niż". Ten związek nazywa się "nierefleksyjnym".
Regresja
Regresja zwykle odnosi się do procesu opracowywania modelu empirycznego (opartego na danych) do przewidywania i / lub wyjaśniania jednego lub więcej atrybutów w bazie danych lub zestawie danych. Najczęściej jest związany z prostym modelem liniowym (y = mx + b) nauczanym na większości kursów wprowadzających do statystyki; te same pomysły zostały rozszerzone w wielu kierunkach, w tym na problemy z klasyfikacją. Kiedy nacisk kładziony jest na testowanie hipotez i proste modele, wynikiem regresji jest zazwyczaj kilka parametrów, które zapewniają bezpośredni związek między zmiennymi wejściowymi a przewidywanymi zmiennymi (lub klasyfikacją). W innych sytuacjach nacisk kładzie się na wyjaśnienie tak dużej zmienności zmiennych wyjściowych, jak "rozsądne" ze zmiennych wejściowych. W tym przypadku istnieje wiele "zaawansowanych" technik, takich jak wygładzanie splajnów, drzew decyzyjnych, sieci neuronowych i tak dalej, dla których istnieje wiele "wolnych" parametrów. Znaczenie któregokolwiek z tych parametrów może być niejasne. Wiele technik Data Mining polega na odmianach znanych technik regresji.
Regresji Metody
Metody regresji są używane do generowania funkcji, które odnoszą zestaw zmiennych wejściowych, często nazywanych zmiennymi niezależnymi, do niektórych zmiennych wyjściowych, często nazywanych zmiennymi zależnymi. Funkcja jest zwykle określana jako "funkcja regresji". Techniki te leżą u podstaw wielu odkryć wiedzy w bazach danych (KDD) i urządzeniach. Procesy uczenia się. Wiele osób zna regresję w jej elementarnej formie, znanej również jako "prosta regresja liniowa". W tej postaci zmienna Y o wartości rzeczywistej jest przewidywana przez wartość X poprzez równanie postaci Y = a + bX, gdzie aib są stałymi. Jednak regresję rozszerzono znacznie poza pierwotną koncepcję. Istnieją między innymi formy regresji do klasyfikacji, drzew decyzyjnych i ogólnej regresji nieliniowej. Przykładami mogą być wielowymiarowe regresje logistyczne, drzewa klasyfikacji i regresji oraz ich liczne uogólnienia, a także sieci neuronowe typu feed-forward
Regresor
Regresor to atrybut lub zmienna używana do przewidywania wartości innej zmiennej. Wykorzystuje się go na podstawie analizy regresji, w której regresory służą do przewidywania atrybutu docelowego (zależnego), często za pomocą modelu liniowego.
Relacyjne przetwarzanie analityczne OnLine (ROLAP)
Relacyjne przetwarzanie analityczne OnLine polega na użyciu standardowych struktur relacyjnych baz danych do przetwarzania analitycznego OnLine (OLAP) i eksploracji danych. Może to ograniczyć wydajność MDDB w ograniczonym zakresie kosztów rozwoju Relatywna najmniej ogólna generalizacja. W programowaniu logiki indukcyjnej względnie najmniej ogólne uogólnienie dwóch klauzul jest najmniej ogólne, które jest bardziej ogólne niż każda z klauzul odnosząca się do podstawowej wiedzy o systemie.
Relaksacyjne Procedury
Procedura relaksacyjna polega na użyciu formuł relaksacyjnych do iteracyjnego obliczania wartości sieci węzłów. Każdy węzeł jest inicjowany na dowolną wartość, a wartość węzłów jest powoli zmniejszana w stosunku do tych wartości poprzez ponowne obliczenie nowej wartości na podstawie ważonej kombinacji jego bieżącej wartości i wartości prognozowanej obliczonej z sąsiednich węzłów. Gdy nowa wartość zostanie wprowadzona do węzła lub zestawu węzłów, ta sama procedura jest stosowana, dopóki sieć się nie ustabilizuje. Ograniczenia można dodawać, tworząc określone relacje między węzłami i dodając stałe węzły.
Relevance Diagram : Schemat trafności
Diagram istotności jest specjalną formą diagramu wpływu, który zawiera tylko informacje probabilistyczne, bez narzędzi i innych informacji na diagramie wpływu. Jest to forma siatki Bayesa.
Reprezentacja
Reprezentacja jest zbiorem konwencji o tym, jak opisać klasę rzeczy. Reprezentacja składa się zasadniczo z czterech części:

1. leksykon, który określa, które symbole są w nim słownictwo;
2. część strukturalna, która opisuje ograniczenia symboli;
3. zbiór metod lub procedur, które pozwalają manipulować symbolami i uzyskiwać z nich zapytania; i
4. semantyka, która określa znaczenie symboli i ich relacje.
Rankingu Zmiana
W systemach pisma ręcznego i rozpoznawania tekstu zadanie zmiany rankingu umożliwia uszeregowanie interpretacji kandydatów opracowanych przez osobę rozpoznającą zgodnie z modelem językowym.
Rescaling : Przeskalowanie
Ściśle mówiąc, przeskalowanie polega na pomnożeniu lub podzieleniu zmiennej przez pewną stałą. Często używany w znaczeniu standaryzacji.
Resetuj Wave
Fala zerowania w sieci ART jest niespecyficznym sygnałem dla warstwy F2, który wyłącza wszelkie aktywne F2 na czas prezentacji prądu wejściowego p
Rozkład
Rozdzielczość jest regułą stosowaną w logicznym wnioskowaniu. Stwierdza, że jeśli istnieje aksjomat postaci (A OR B) i inny postaci (Not (B) OR C), to (A lub C) logicznie
Rezonans
Kiedy sieć ART dopasowuje skrzynkę do profilu, mówi się, że rezonuje
Rezonansu Ograniczenie
Strategie ograniczania rezonansu ograniczają zautomatyzowany program wnioskowania, odrzucając wnioski, które nie pasują (ignorując zmienne) do jednego ze wzorców, zwanych rezonatorami wybranymi przez badacza.
Resonance Restriction : Strategia ograniczeń
Strategie ograniczania są stosowane w automatycznych systemach wnioskowania w celu ograniczenia przestrzeni wniosków, które można rozważyć. Dzięki temu przestrzeń wniosków nie rośnie dziko
Resubstitution Error : Błąd ponownej podstawienia
Błąd ponownego podstawienia modelu to błąd zmierzony na danych użytych do wyszkolenia modelu. Ponieważ model jest zoptymalizowany dla tego konkretnego zestawu danych, jego błąd jest zwykle znacznie niższy niż błąd w niezależnej próbce z tej samej grupy docelowej, a zatem może być dość mylący. Lepszą miarę błędu modelu uzyskuje się na podstawie próby zatrzymania.
Rete Algorytm
Algorytm dopasowywania Rete jest algorytmem szybkiego dopasowywania wzorców służącym do porównywania zestawu wzorców z zestawem obiektów. Jest używany w systemach eksperckich i innych systemach opartych na regułach do wyszukiwania zestawu reguł, aby wybrać, które pasują do bieżącego zestawu danych. W typowym systemie opartym na regułach klauzule IF nie zmieniają się szybko, a metoda Rete wykorzystuje to poprzez "zapamiętywanie" zestawu dopasowań i dopasowań częściowych z ostatniego przejścia przez bazę reguł. Wykorzystuje również wspólne wzorce w te przypadki, kompilując reguły w celu wyeliminowania wspólnych podporządkowuje się regułom, dzięki czemu może działać na całym zestawie reguł jednocześnie.
Retrospektywna analiza danych
Proces modelowania zaprojektowany w celu zrozumienia przeszłych trendów lub wydarzeń. Częstym problemem w analizie danych lub eksploracji danych jest to, że celem jest przewidywanie przyszłych zdarzeń na podstawie przeszłych zdarzeń, ale wszystkie dane są oparte na przeszłych zdarzeniach. Powszechnym rozwiązaniem jest weryfikacja krzyżowa analizy za pomocą próbkowania, "wstrzymania się" lub analizy ładowania początkowego. Każda z tych technik próbuje dostarczyć "nowe" dane, wykorzystując tylko część bazy danych, wykorzystując tylko część danych do utworzenia danych, a następnie wykorzystując resztę do zweryfikowania modelu.
Ripple Down Zasady (RDR)
Reguły Ripple Down (RDR) zapewniają środek, który pozwala ekspertowi domeny zbudować system oparty na regułach bez szkolenia w zakresie inżynierii wiedzy. Baza wiedzy zawiera reguły, jeśli formularz JEŻELI [warunek] NASTĘPNIE [wniosek] PONIEWAŻ [] Z WYJĄTKIEM [wyjątków]. Jeśli reguła uruchomi się fałszywie, użytkownik może dodać wyjątek do listy wyjątków. Jeśli się nie uruchomi, do reguły można dodać warunek inny. Zasady Ripple Down stanowią podstawę raportów dotyczących patologii systemu interpretacyjnego Expert Expert System (PIERS) Expert System i zostały zaimplementowane w algorytmie INDUCT-RDR Machine Learning
R-MINI
Algorytm do generowania minimalnych reguł klasyfikacji. Jest to adaptacja algorytmu MINI w celu zminimalizowania dwupoziomowej logiki i funkcji przełączania stosowanych w projektowaniu VLSI.
Robot
Robot to system ogólnego zastosowania, który może wykonywać wiele zadań w warunkach, które z góry mogą nie być znane. Roboty mogą obejmować takie elementy, jak czujniki i inne urządzenia wejściowe, komputerowy kontroler i niektóre formy siłowników, takie jak mechaniczna ręka lub wiertło, które może wykorzystać w swoim otoczeniu. Japończycy podzielili roboty przemysłowe na pięć kategorii: manipulatory niewolników obsługiwane przez ludzi, manipulatory o ograniczonej sekwencji, roboty "uczyć i odtwarzać", roboty sterowane komputerowo i roboty "inteligentne". Stowarzyszenie Przemysłu Robotycznego Stanów Zjednoczonych definiuje robota jako "programowalny, wielofunkcyjny manipulator (lub urządzenie) przeznaczony do przesuwania materiału, części, narzędzi lub specjalistycznych urządzeń poprzez zmienne zaprogramowane ruchy do wykonywania różnych zadań".
Robotyka

Badanie robotów, ich budowy i sterowania.
Rocchio Algorytm
Algorytm Rocchio to algorytm odkrywania wiedzy w tekście (KDT) do klasyfikacji tekstowej. Dokument przeznaczony do klasyfikacji jest reprezentowany przez "wektor cech" terminów indeksujących, przy czym częstotliwość każdego terminu jest zastępowana przez wynik ważony, który sumuje się do jednego we wszystkich terminach indeksujących. Kategorie docelowe są również reprezentowane przez "prototypowe" wektory cech, a dokument zostanie sklasyfikowany jako należący do kategorii, jeśli jego wektor cech jest "zbliżony" do wektora prototypu.
Rosetta
Rosetta to zestaw narzędzi do analizy tabel atrybutów kategorycznych w ramach teorii zbiorów przybliżonych. Obsługuje przeglądanie i wstępne przetwarzanie danych, generowanie redukcji i generowanie reguł oraz sprawdzanie i wyodrębnianie reguł. Wersja graficznego interfejsu użytkownika (GUI) działa w systemach Windows 95 i Windows NT. Bezpłatna wersja niekomercyjna jest dostępna pod Uniform Resource Locator (URL) poniżej.
ROSIE
Narzędzie programowe zaprojektowane na początku lat 80. w Rand Corporation w celu wsparcia budowy systemu eksperckiego. Jest to oparty na regułach system zorientowany na procedury, który może stać się systemem eksperckim z dodatkiem Bazy wiedzy.
Rough Set Data Analysis (RSDA) : Analiza danych Rough Set (RSDA)
Metoda analizy wykorzystująca teorię zbiorów przybliżonych w celu zmniejszenia zbioru predyktorów i utworzenia górnego i dolnego przybliżenia do atrybutów decyzji.
Rough Set Theory : Teoria zgrubnego zestawu
Teoria zbiorów przybliżonych zapewnia podejście oparte na próbach do radzenia sobie z niejasnością i niepewnością. W przeciwieństwie do podejść probabilistycznych i rozmytych, które do działania wymagają rozkładów prawdopodobieństwa, funkcji przekonań lub funkcji członkostwa, model zbiorów przybliżonych wykorzystuje jedynie górne i dolne przybliżenia obserwowanych danych. W pewnym sensie jest to "częstotliwośćowa" wersja systemu bayesowskiego. Punktem wyjściowym zgrubnego zestawu jest tabela obserwacji zwana tabelą informacyjną, z atrybutami podzielonymi na "atrybuty warunku", które są opisowe i "atrybuty decyzyjne". Czasami są one po prostu nazywane atrybutami i decyzjami. Analiza zbiorów przybliżonych próbuje zredukować dane w tej tabeli do szeregu klas równoważności zwanych "relacjami nierozdzielności".
RSES
RSES to komercyjny program do eksploracji i analizy danych, który wykorzystuje Rough Set Theory do wydobywania reguł z zestawów danych. Zawiera wiele algorytmów wyszukiwania i może podzielić ciągłe atrybuty.
Reguły Podstawa
Baza danych reguł IF-Then wykorzystywana w systemie eksperckim.
Reguł Indukcja
Forma analizy danych mająca na celu opracowanie reguł lub związków między atrybutami poprzez analizę odpowiednich baz danych, a nie z modeli teoretycznych. Indukcja reguł zwykle odnosi się do klauzul "jeśli-to", chociaż inne modele predykcyjne mogą zapewniać "reguły" do podsumowywania danych.
Reguł Zestaw
Alternatywną formą danych wyjściowych dla programów klasyfikujących drzewa jest uproszczony zestaw reguł klasyfikacji zwanych zestawem reguł. Zazwyczaj są one w formie, którą można zaimportować do innych programów (np. Kod C) lub sformatować do odczytu.
Run-time Typing : Pisanie w czasie wykonywania
Zdolność programu do określania typu zmiennych w czasie wykonywania, co oznacza, że może on zmieniać się między uruchomieniami. Większość języków obsługuje pisanie w czasie kompilacji, gdzie typ zmiennej jest ustawiany podczas kompilacji programu. Saddle Point
W teorii gier sytuacja, w której minimalne maksymalne straty dla jednego gracza są takie same, jak maksymalne minimalne straty dla innego gracza.
SahmAlert
SahmAlert to system ekspercki oparty na języku C (oparty na CLIPS), który służy do identyfikacji mikroorganizmów o nietypowych wzorcach oporności na antybiotyki.
Schemat
Schemat to pełny opis atrybutów i dopuszczalnych wartości atrybutów w modelu. Może również obejmować zależności i relacje między atrybutami. W algorytmach genetycznych schemat jest szablonem (takim jak wzór bitowy z symbolami wieloznacznymi), który pasuje do niektórych genomów.
Schema Theorem : Twierdzenie o schemacie
Twierdzenie pokazujące, że algorytm genetyczny daje wykładniczo rosnącą liczbę prób rozrodczych ponadprzeciętnym schematem. Ponieważ każdy chromosom zawiera bardzo wiele schematów, szybkość przetwarzania schematu w populacji jest bardzo wysoka.
Schemat
Opracowany w 1970 roku, Scheme jest ważnym dialektem LISP i od tego czasu stał się jednym z głównych dialektów LISP.
Schwartza Kryteria Informacyjne
Kryteria informacyjne Schwartza, znane również jako Bayesian Information Criteria (BIC), to adaptacja kryteriów informacyjnych Akaike (AIC), która dotyczy wady tego środka, w której większe zbiory danych z tego samego źródła danych szybko zwiększają swoją złożoność ( tj. liczba parametrów w modelu). AIC definiuje się jako sumę -2 * prawdopodobieństwa logarytmu danych plus dwukrotność liczby parametrów w modelu. Schwartz wyprowadził powiązane kryteria, które używają log (N) razy liczbę parametrów zamiast dwukrotności tej liczby. Ponieważ kara umowna rośnie wraz z wielkością próby, znacznie spowalnia wzrost złożoności modelu.
Scoring Rule : Reguła punktacji
Reguła punktacji to ogólny termin na metodę, która przypisuje wynik numeryczny wynikowi pewnego algorytmu, umożliwiając porównanie wielu odpowiedzi zgodnie z ogólną miarą "dobroci". Jednym z przykładów może być podobieństwo w systemie wnioskowania opartego na analizie przypadków (CBR), który ocenia, jak blisko poprzednie sprawy były do obecnego problemu. Druga to kwadratowa (lub bezwzględna) różnica do pomiaru różnicy między prognozą modelu a rzeczywistym wynikiem. W pierwszym przypadku wysoki wynik oznaczałby, że przedmiot był zbliżony do konkretnego przypadku, aw drugim przypadku wysoki wynik oznaczałby, że prognoza była daleka od celu.
Scrubmate
Scrubmate to autonomiczny robot czyszczący dla instytucji. Jest zdolny do zadań takich jak mycie podłóg i czyszczenie toalet.
Segmentacja
Segmentacja odnosi się do procesu identyfikacji jednorodnych podgrup w tabeli danych. Jest często używany w kontekście marketingowym do opisywania podgrup konsumentów, które zachowują się podobnie i mogą być traktowane jako (nieco) jednorodna podgrupa. Selection Bias : Błąd nastawienia
Systematyczna różnica między populacją docelową a próbą danych. Na przykład Data Mining w bazach danych skarg klientów ma charakter selekcyjny, ponieważ dane wychwytują tylko klientów, którzy byli zmotywowani i mogli skontaktować się z producentem w sprawie ich skargi, i nie wychwytuje skarg ani klientów, którzy nie byli zmotywowani ani nie byli w stanie.
Self Organizing Map (SOM) : Mapa samoorganizująca się (SOM)
Samoorganizująca się mapa jest formą sieci Kohonena, która układa swoje klastry w (zwykle) dwuwymiarową siatkę, tak że wektory słownika (centra skupień), które są blisko siebie na siatce, są również blisko w k-wymiarach przestrzeń funkcji. Odwrotna sytuacja niekoniecznie jest prawdą, ponieważ wektory słownikowe znajdujące się blisko przestrzeni cech mogą nie znajdować się blisko siatki. Mapa jest podobna pod względem koncepcji do map utworzonych za pomocą technik opisowych, takich jak skalowanie wielowymiarowe (MDS)
Samostabilizacja
Właściwość sieci neuronowych (np. Modele ART). Gdy sieć ćwiczy w skończonej liczbie przypadków, różne wagi powinny stopniowo się stabilizować.
Semantyczna Analiza
Analiza semantyczna jest wykorzystywana w przetwarzaniu języka naturalnego w celu określenia znaczenia analizowanego tekstu, w przeciwieństwie do analizy składniowej, która koncentruje się na określeniu użycia słowa (np. Czasownik, rzeczownik).
Semantyczna Gramatyka
Gramatyka, w której kategorie odnoszą się zarówno do pojęć semantycznych, jak i składniowych
Semantyczna Pamięć
Termin wprowadzony do AI przez Quilliana jako część jego modeli pamięci. Informacje są przechowywane w sieci, gdzie każdy węzeł reprezentuje rozpoznawanie słów, a łuki łączą powiązane słowa. Jest to również określane jako sieć semantyczna lub pamięć asocjacyjna. Quillian zaproponował te modele jako sposób wyjaśnienia skojarzonego aspektu ludzkiej pamięci, gdzie myśl o "Bracie Sue" prowadzi do innych rzeczy, które są o nim znane, jeśli on istnieje.
Semantyka
Semantyka języka lub schematu reprezentacji wiedzy jest znaczeniem związanym z symbolami lub faktami języka lub reprezentacji wiedzy
Sensitivity : Wrażliwość
Wrażliwość reguły klasyfikacji jest miarą jej zdolności do poprawnego klasyfikowania obserwacji do określonej kategorii. Definiuje się go jako stosunek liczby wyników dodatnich do liczby wyników dodatnich w zestawie testowym. Ta wartość jest zwykle odwrotnie związana ze specyfiką testu dla danego zestawu danych i określonej reguły klasyfikacji. Zauważ, że ta miara różni się od dodatniej wartości predykcyjnej reguły, która jest miarą prawdopodobieństwa, że dodatnia jest prawdziwie dodatnia. Jeśli istnieje wiele kategorii klasyfikacji, każda kategoria będzie miała własną czułość, swoistość i dodatnią wartość predykcyjną.
Sensitivity Analysis : Analiza wrażliwości
Analiza wrażliwości to ogólny termin używany w odniesieniu do procesu zmieniania kluczowych parametrów lub zależności w modelu w celu ustalenia, jak wrażliwe są wnioski na (zakładane lub szacowane) wartości parametrów lub danych wejściowych.
Sequence-based Analysis : Analiza oparta na sekwencji
Podobnie jak i często synonimem analizy szeregów czasowych, analiza sekwencji przygląda się uporządkowanemu postępowi obiektów i próbuje przewidzieć wartości dalszych elementów w szeregu. Termin ten jest czasem używany w Data Mining w odniesieniu do analizy powiązanych serii zakupów, ale może być również stosowany w medycynie i biologii.
Sekwencji Wydobywanie
Eksploracja sekwencji jest rozszerzeniem Data Mining na dane oparte na czasie. W tym kontekście reguły asocjacji miałyby postać "jeśli wystąpi A, wówczas B wystąpi w czasie T."
Set
Podstawowa kolekcja obiektów. W klasycznym "wyraźnym" zestawie obiekt jest albo członkiem zestawu, albo nie. Obiekty (i zestawy) można dodawać do zbioru lub odejmować od niego, a liczbę obiektów w (skończonym) zestawie można policzyć.
Seth
Seth to system ekspercki zaprojektowany w celu udzielania porad na temat leczenia i monitorowania przypadków zatrucia narkotykami.
Set of Support Strategies : Zestaw strategii wsparcia
W zautomatyzowanych systemach wnioskowania można zastosować zestaw strategii wsparcia, aby ograniczyć ścieżki, które może obrać program. Badacz zapewnia początkowy zestaw klauzul na liście wsparcia i ogranicza program do wykonywania wnioskowania, gdy wszystkie bieżące klauzule są uzupełnieniem listy. Nowe klauzule można dodawać do zestawu klauzul wsparcia w miarę postępu rozumowania.
Set Point Control : Kontrola wartości zadanej
W robotyce lub teorii sterowania kontrola lub regulacja wartości zadanej wiąże się z problemami związanymi z doprowadzeniem systemu do określonej wartości zadanej i jej utrzymaniem.
S-wyrażenie
W LISP wyrażenie S (wyrażenie symboliczne) jest atomem, listą lub zbiorem wyrażeń S otoczonych nawiasami.
Shafer-Shenoy Architektura
Metoda propagacji danych poprzez reprezentację drzewa łączenia siatki przekonań, która oblicza wszystkie uzyskane marginesy jednocześnie.
Shift Register
Używany w literaturze dotyczącej sieci neuronowych do wskazywania wartości atrybutów, które są poprzednią wartością innej wartości. Na przykład w aplikacji giełdowej ceny z poprzedniego dnia mogą być przechowywane w rejestrze zmian.
Shopbot
Internetowe narzędzie Data Mining, które uczy się pozyskiwać informacje o produktach od dostawców World Wide Web (WWW).
Short-term Memory : Pamięć krótkotrwała
W sieci neuronowej bieżący stan systemu.
Sygnału Funkcja
Ograniczona funkcja monotoniczna nie zmniejszająca się. Funkcja wyjściowa z węzłów w funkcjach sieci neuronowej to funkcje sygnałowe. Ograniczony warunek mówi, że funkcja będzie zawsze w pewnym zakresie, a monotoniczny warunek nie-malejący mówi, że większe wejścia zawsze będą generować wyjście co najmniej tak duże, jak mniejsze wejście. Typowe przykłady obejmują funkcje logistyczne, funkcje progowe i liniowe funkcje progowe.
Stanu sygnału przestrzeń
Termin używany w dyskusji o sieciach neuronowych, przestrzeń stanu sygnału to przestrzeń zdefiniowana przez wszystkie możliwe wyjścia modelu. Gdyby model miał jeden ciągły ograniczony wynik, jego przestrzenią stanu byłby ten ograniczony przedział. Z dwoma takimi wyjściami przestrzeń stanu może tworzyć prostokąt z trzema hiperprostokątami lub sześcianami i tak dalej.
Simple HTML Ontology Extension (SHOE) : Proste rozszerzenie ontologii HTML (SHOE)
SHOE jest prostym językiem reprezentacji wiedzy opartym na języku hipertekstowym (HTML). Jego celem jest zapewnienie autorom możliwości dodania możliwości reprezentacji wiedzy do stron WWW, w celu zwiększenia użyteczności sieci. W przeciwieństwie do formatu KIF (Knowledge Interchange Format), ma ograniczoną semantykę, aby umożliwić łatwą analizę. SHOE zawiera dwie kategorie tagów: jedną do konstruowania prostych ontologii, a drugą do używania ontologii na stronie. Jako przykład tego pierwszego, ontologia może zadeklarować, że istnieją "istoty" typu "pies" i że "pies" może mieć właściwość o nazwie "imię"; ten drugi może zadeklarować, że dokument WWW dotyczy "pies" o imieniu "Lassie".
Simpsona Paradoks
Paradoks Simpsona pojawia się, gdy zestaw danych wydaje się potwierdzać powiązanie dwóch elementów na jednym poziomie analizy, ale znika po dalszej subanalizie tych samych danych. Zwykle występuje w danych obserwacyjnych i "znalezionych" danych gromadzonych do innych celów. Przykładem może być silny związek między płcią kupującego a zakupem, powiedzmy, kawy. Jeśli dane zostaną dalej zbadane, może się okazać, że zakup kawy był związany z liczbą zakupionych przedmiotów oraz że kobiety i mężczyźni po prostu mieli koszyki o różnych rozmiarach, ale każdy kupował kawę z jednakową częstotliwością, biorąc pod uwagę liczbę zakupionych przedmiotów. Pojawienie się skojarzenia na jednym poziomie (płeć kupującego) jest przykładem paradoksu Simpsona i jest w tym przypadku spowodowane ukrytymi powiązaniami z prawdziwym czynnikiem sprawczym, liczbą przedmiotów zakupionych podczas jednej podróży.
Symulowanego wyżarzania
Technika maksymalizacji / minimalizacji oparta na Monte Carlo stosowana w przypadku złożonych problemów z wieloma parametrami i ograniczeniami. Naśladuje on proces wyżarzania, który rozpoczyna się od wysokotemperaturowej mieszanki metalu i powoli chłodzi mieszankę, umożliwiając tworzenie optymalnych struktur w miarę stygnięcia materiału. Procedura symulowanego wyżarzania losowo generuje dużą liczbę możliwych rozwiązań, zachowując zarówno dobre, jak i złe rozwiązania. Są one losowo zaburzone i mogą zastąpić istniejące rozwiązania, nawet jeśli są gorsze. Wraz z postępem symulacji wymagania dotyczące zastąpienia istniejącego rozwiązania lub pozostania w basenie stają się coraz surowsze, naśladując powolne chłodzenie wyżarzania metalicznego. Ostatecznie proces daje niewielki zestaw optymalnych rozwiązań.
Single Instruction Multiple Datastream (SIMD) : Pojedyncza instrukcja Multiple Datastream (SIMD)
Pojedyncza instrukcja Multiple Datastream (SIMD) to architektura komputerowa, w której istnieje wiele procesorów, z których każdy wykonuje ten sam zestaw obliczeń na własnych danych.
Singly Connected
Niektóre schematy propagacji sieci wymagają pojedynczego połączenia sieci, co oznacza, że istnieje tylko jedna ścieżka między dowolnymi dwoma węzłami. Byłoby to spełnione na przykład w modelu, który mógłby być reprezentowany przez drzewo.
Schemat w liczbie pojedynczej
Załóżmy, że X jest zbiorem skończonym z częściowym uporządkowaniem R między jego elementami. Wykres G jest pojedynczym diagramem elementów w X, jeśli niektóre lub wszystkie elementy X tworzą węzły wykresu G. Jeśli na wykresie istnieje łuk między parą różnych węzłów aib, aRb w częściowym uporządkowaniu . Wykres G reprezentuje relację R na X, jeśli G ma wszystkie elementy dla zbioru X ma swoje węzły, i jest kompletnym diagramem pojedynczym, jeśli wszystkie relacje w częściowo uporządkowanym zbiorze są reprezentowane przez łuki na wykresie. Specjalna forma niekompletna dla pojedynczego wykresu jest nazywany diagramem Hassego. Dwa typowe przykłady pojedynczych diagramów to wykresy drzew zdarzeń lub drzew decyzyjnych oraz wykres reprezentujący zestaw logicznych implikacji.
SIPE
System planowania operacji na pokładzie lotniskowca (1984).
SKICAT
Aplikacja używana przez astronomów do przeprowadzania odkrywania wiedzy na temat zdjęć nieba. System wykorzystuje techniki analizy obrazu do katalogowania i klasyfikowania obiektów nieba. We wczesnej aplikacji (1996 r.), Wykorzystując bazę danych zawierającą wiele bajtów, zebraną podczas drugiego badania nieba w Obserwatorium Palomar, udało jej się przewyższyć zarówno ludzi, jak i tradycyjne programy w klasyfikacji słabych obiektów na niebie.
Skolema Funkcja
W formalnym wnioskowaniu dowody rozdzielczości wymagają wyeliminowania kwantyfikatorów egzystencjalnych. Funkcja Skolem umożliwia systemowi zastąpienie istniejącej kwalifikowanej frazy, takiej jak istnieje (y) [A (x, y) i B (y)] frazą A (x, C (x)) i B (C (x)), gdzie C (x) należy rozumieć jako funkcję x, która zwraca wartość y spełniającą pierwszą klauzulę.
Slab : Płyta
Alternatywna nazwa warstwy w sieci neuronowej.
Slice
W probabilistycznych systemach ekspertowych każda tabela w warunkach warunkowych jest nazywana wycinkiem. Termin ten jest analogicznie używany w Data Mining, aby wskazać podzbiór zmiennych.
Slice Sampling
Metoda pobierania próbek z arbitralnie ograniczonego ciągłego rozkładu. Wartość początkowa jest pobierana z rozkładu jednorodnego i określana jest gęstość przy tej wartości f (z0). Każda wartość zi z f(zi)≥ f(z0) jest teraz możliwą do przyjęcia wartością. Próbkowanie jest powtarzane. Jeśli f(zj) ≠ f(z0), granica przedziału próbkowania jest zmniejszona. Jeśli f(zi) ≥ f(z0), bieżąca wartość z jest akceptowana.
Slots
W systemach opartych na ramkach slotyy wyznaczają pozycje możliwych wartości lub łącza do innych obiektów. W tabeli bazy danych pola dla pozycji w tabeli odpowiadałyby możliwym atrybutom i byłyby wypełniane według wartości pól. W modelu pracowniczym mogą istnieć przedziały dla nazwiska pracownika, numeru pracownika, rodzaju pracownika i tak dalej.
SMART
Hierarchiczna sieć ART zdolna do uczenia się spójnych hierarchii klastrów.
Smeta Reguła
Reguła Smeta zapewnia metodę tworzenia wspólnych funkcji przekonań z funkcji przekonań warunkowych. Zapewnia metodę konstruowania połączonych funkcji przekonań z zestawu bayesowskich funkcji przekonań warunkowych. Jest również znany jako reguła osadzania warunkowego Smeta
Smoothing :Wygładzanie
Wygładzanie jest nieparametrycznym procesem szacowania funkcji i prawdopodobieństw. Podstawowym założeniem jest to, że szacunki dla wartości, które są "blisko siebie", powinny również mieć "podobne" wartości. Klasyczny rodzaj wygładzania zastąpiłby oszacowanie prawdopodobieństwa (ważoną) średnią "surowych" prawdopodobieństw we wszystkich pobliskich punktach. Technika ta jest szczególnie przydatna w "empirycznych" algorytmach uczenia się, w których ze względu na ograniczenia czasowe lub rozmiarowe można obserwować tylko ograniczony zestaw treningowy. Wygładzanie wyników pozwala przenieść część "uczenia się" na niezauważone kombinacje. W kontekście szacowania regresji lub funkcji, ocena empiryczna oszacowałaby wartość funkcji w danym punkcie na podstawie danych w tym punkcie, podczas gdy wygładzone oszacowanie wykorzystałoby średnią wszystkich "pobliskich" punktów.
SNOB
SNOB to program do nienadzorowanej klasyfikacji, grupowania lub modelowania danych wielowymiarowych. SNOB zastosował algorytm minimalnej długości opisu, aby automatycznie określić liczbę klas i ich predyktorów. Algorytm ten zamiast używać wszystkich atrybutów, takich jak niektóre wcześniejsze techniki statystyczne, określa, który atrybuty są przydatne dla określonej klasy lub podzbioru klas. SNOB jest napisany w FORTRAN 77 i jest dostępny za darmo.
SNOMED
SNOMED to usystematyzowana nomenklatura medycyny ludzkiej i weterynaryjnej to ręcznie skonstruowany schemat klasyfikacji, który zapewnia hierarchiczną strukturę informacji o medycynie. Został on wykorzystany jako podstawa ontologii w systemach takich jak Inteligentny Analizator Tekstu Metropolitan Life (MITA).
Soar
Soar to język programowania AI i system architektoniczny, który implementuje teorię poznania. Zapewnia architekturę rozwiązywania problemów i uczenia się w oparciu o wiedzę. Może wchodzić w interakcje ze środowiskiem zewnętrznym. Reprezentuje wiedzę "stałą" poprzez reguły produkcji i wiedzę tymczasową jako obiekty o atrybutach i wartościach. Jedyny mechanizm uczenia się nazywa się dzieleniem. Jego głównym celem była konstrukcja inteligentnych agentów i środek modelowania myślenia. Został on wykorzystany do planowania produkcji, kontroli robotyki i nauczania języka naturalnego.
Softmax
Rodzaj funkcji aktywacji, która jest używana w sieciach neuronowych, gdy grupa węzłów musi spełniać wspólne ograniczenie, na przykład sumowanie jednego. W przypadku grupy (wyjściowych) węzłów, które muszą sumować się do jednego (np. Prawdopodobieństwo klasyfikacji), należy dodać nową warstwę wyjściową, która przyjmuje surową warstwę wyjściową (przyjmowaną jako dodatnią) i normalizuje każde z danych wyjściowych o sumę wyjścia. Podejście to można uogólnić na inne ograniczenia wyniku. Przykład dla trzech wejść A, B i C dałby prawdopodobieństwo klasyfikacji klasy powiązanej z A jako
C(A) = A / A + B + C

Soft Selection : Miękki wybór
Wybór przez zmniejszenie proporcji zgodnie z poziomem sprawności w algorytmie genetycznym
Soft Split : Miękki podział
W klasycznych modelach drzewa podział w węźle jest zakończony; to znaczy, pojedynczy przypadek może podążać tylko za jednym węzłem w dół drzewa. "Miękki podział" uogólnia tę ideę i pozwala na propagację pojedynczego przypadku w wielu węzłach o różnych wagach. Pojedyncza obserwacja jest zatem podzielona na wiele "kawałków" z powiązanymi wagami. Ostateczna prognoza lub klasyfikacja byłaby wówczas ważoną kombinacją prognoz ostatecznych elementów.
Software Agent : Agent oprogramowania
Termin "Agent oprogramowania" został wymyślony, aby opisać robota programowego, byt, który "mieszka" w komputerze lub w sieci komputerów. Agent miałby pewną inteligencję lub rozumienie określonego obszaru i byłby w stanie samodzielnie wykonywać instrukcje i wchodzić w interakcje zarówno z ludźmi, jak i innymi agentami lub systemami. Zwykle oczekuje się, że agent wykaże się pewną inteligencją w zrozumieniu wypowiedzi użytkownika na temat problemu lub celu i zastosuje pewien stopień adaptacyjnego uzasadnienia w znalezieniu rozwiązania.
Software, Belief Network : Oprogramowanie, sieć przekonań
Obszerna lista skomentowanych programów do budowy i manipulacji siecią przekonań, siecią Bayesian, diagramem wpływu lub probabilistycznym modelem graficznym znajduje się na stronie http://bayes.stat.washington.edu/almond/belief.htm. Obejmuje to hiperłącza oraz informacje o cenach oprogramowania, odkrywanie wiedzy w bazach danych (KDD). Obszerna lista domen publicznych, badań i systemów komercyjnych do eksploracji danych i odkrywania wiedzy znajduje się na stronie http://www.kdnuggets.com/siftware.html
Sojourner
Sojourner to mikro-robot rozsławiony przez misję Mars Pathfinder z 1997 roku. Był w stanie przeprowadzić autonomiczną nawigację, unikanie zagrożeń i liczne eksperymenty na powierzchni Marsa
Sorties Paradox : Paradoks zbiegów
Klasyczny paradoks czasami wykorzystywany w obronie metod logiki rozmytej. Przykładem jest stos piasku Zenona. Jeśli usuniesz pojedyncze ziarno, nadal będzie to stos. Powtórz proces i ostatecznie nie ma stosu piasku. Kiedy stos traci swoją "pilność", ponieważ wcześniejsza operacja wykazała, że usunięcie ziarna piasku nie zmienia stosu? Podobnie jak w przypadku wielu paradoksów, opiera się na luźnych definicjach i / lub określonym punkcie widzenia.
Sparse Data Problem : Problem rzadkich danych
Częstym problemem dla statystycznych i innych empirycznych technik uczenia się jest rzadki problem danych. Jeśli uczenie się ogranicza się do prostych zliczeń częstotliwości "zdarzeń" w zestawach treningowych, model zawsze będzie źle się zachowywał przy nowych danych wejściowych, które wprowadzają powiązane, ale "nowe" zdarzenia. Im bardziej szczegółowy staje się oryginalny model, tym więcej danych jest wymaganych do nauki (szacowania) różnych części modelu; dlatego ilość danych obsługujących dowolną część staje się coraz mniejsza. W praktyce oznacza to po prostu wkład ,że dane rzadko obejmują wszystkie możliwe przypadki. Jednym podejściem do rozwiązania tego problemu jest wykorzystanie wiedzy teoretycznej w celu dodania struktury do modelu empirycznego lub zastosowanie technik wygładzania w celu "uzupełnienia" brakujących danych.
Specyficzność
Specyfika reguły klasyfikacji jest miarą zdolności reguły do prawidłowego klasyfikowania przypadków "ujemnych". Jest to stosunek liczby prawdziwych negatywów w zestawie testowym podzielony przez całkowitą liczbę negatywów w tym zestawie. Zauważ, że nie jest prawdopodobne, że negatywna klasyfikacja jest w rzeczywistości przypadkiem ujemnym. To ostatnie zależy od odsetka przypadków dodatnich i ujemnych w zestawie docelowym.
Spektralna Analiza
Forma analizy szeregów czasowych, która traktuje obserwowaną sekwencję zdarzeń lub pomiarów jako analogiczną do sygnału radiowego lub podobnego. Przyjmuje się, że sygnał jest mieszanką "czystych" sygnałów o różnych częstotliwościach, a model szacuje moc (amplitudę) przy różnych częstotliwościach. Zazwyczaj sygnały są reprezentowane przez szereg Fouriera, mieszaninę funkcji sinus i cosinus. Można również użyć innych funkcji podstawowych, takich jak funkcje Hadamarda (które przyjmują wartości 1 i -1) lub falki.
Speech Recognition : Rozpoznawanie mowy
Obszar ten jest również określany jako automatyczne rozpoznawanie mowy (ASR) i dotyczy procesu dzielenia ciągłej mowy na dyskretną serię rozpoznawanych słów. Komplikuje go różnorodność wymowy słów różnych mówców i tego samego mówcy w różnych okolicznościach. Inne problemy obejmują homonimy (drodzy kontra jelenie) i pokrewne formy dwuznaczności (młodzież w Azji i eutanazja), a także nawarstwianie się i inne formy skurczu (howareya i jak się masz).
Spline
Spline jest funkcją matematyczną zdefiniowaną w zwartym obszarze o (ciągłym) zakresie zmiennych. Jest generalnie ciągły i często jest reprezentowany przez funkcję wielomianową niskiego rzędu (lub jej całkę). Węzły splajnu są punktami przegięcia. Jego stopień jest miarą liczby ciągłych instrumentów pochodnych. Funkcje te leżą u podstaw wielu eksploracji danych oraz regresji nieparametrycznej lub półparametrycznej. Ponieważ są one zdefiniowane tylko w obszarze pełnego zakresu atrybutów, umożliwiają one dobrze dostosowanie funkcji do danych w ich regionie wsparcia bez silnego wpływu na wyniki w regionach poza tym regionem. Techniki, takie jak drzewa klasyfikacji i regresji (CART) i C4.5, które rekurencyjnie dzielą przestrzeń atrybutów, można uznać za rekurencyjne funkcje splajnu z splajnami zerowego rzędu (wartości stałe) pasującymi do każdego regionu. Atrybuty w każdym tak zdefiniowanym podregionie można następnie wyszukać w poszukiwaniu dalszych miejsc do podziału tego region adaptacyjnie dla lepszego przewidywania.
Split-sample Validation : Walidacja podzielonej próbki
Metoda szacowania błędu w technikach automatycznego modelowania, takich jak sieci neuronowe, partycjonowanie rekurencyjne i wyszukiwanie danych. Dane są podzielone na dwie części, większą część do oszacowania i małą próbkę trzymaną do oszacowania prawdziwego błędu. Technika ta jest najlepiej stosowana, gdy dostępna jest bardzo duża ilość danych, ponieważ zmniejsza rozmiar danych treningowych.
Spurious Correlation : Korelacja pozorna
W eksploracji danych i innych formach uczenia maszynowego analiza może wygenerować wiele bezsensownych lub bezsensownych skojarzeń. Można je nazwać "fałszywymi korelacjami". Mogą występować jako artefakt źródła danych (np. Osoby z dobrym kredytem) lub w wyniku ukrytego powiązania ze zmienną (np. Dobry kredyt z własnością niektórych przedmiotów, gdy oba są wynikiem wysokiego dochodu) lub po prostu z powodu na przypadek. Niektóre powszechne strategie zmniejszania prawdopodobieństwa ich wystąpienia to podstratyfikacja danych dotyczących "znaczących" atrybutów lub techniki podzielonej próby i walidacja krzyżowa. Innym podejściem byłoby podniesienie kryteriów akceptacji, aby odfiltrować więcej hałaśliwych skojarzeń.
Stabilność-plastyczność Dylemat
Fraza odnosząca się do kompromisu między posiadaniem algorytmu uczenia maszynowego, który jest stabilny w obecności hałaśliwych sygnałów wejściowych (stabilność) i wrażliwy na nowe dane wejściowe (plastyczność).
Stos
Zestaw obiektów uporządkowanych w taki sposób, że ostatni (najnowszy) obiekt dodany do zestawu jest kolejnym, który należy usunąć. To zamówienie jest również określane jako Last In Last Out lub LIFO.
Standaryzacja
Zmienna numeryczna może być znormalizowana poprzez odjęcie "średniej" lub innego środka, a następnie podzielenie przez jej zakres lub odchylenie standardowe. Dzielenie przez zakres daje nową zmienną w zakresie [0, 1], a dzielenie przez odchylenie standardowe daje zmienną o wariancji jednostkowej. Standaryzacja pozwala na stosowanie technik, które wymagają, aby zmienne były w zakresie [0, 1], takich jak niektóre funkcje aktywacyjne w sieciach neuronowych i dekompozycje bazowe splajnu. Może także poprawić stabilność numeryczną techniki.
State Space : Przestrzeń stanu
Ogólny termin odnoszący się do przestrzeni matematycznej zdefiniowanej przez zbiór wszystkich możliwych stanów aspektu systemu. Na przykład układ z czterema wejściowymi czujnikami binarnymi miałby 2 ^ 4 = 16 stanów na wejściowej "przestrzeni stanów".
State-space Representation : Reprezentacja przestrzeni stanu
Reprezentacja przestrzeni stanu to metoda reprezentowania zarówno bieżącego stanu systemu, jak i przestrzeni możliwych działań lub przejść do nowych stanów. Często są one reprezentowane odpowiednio jako węzły i łuki na wykresie. Węzły utrzymują pełny opis bieżącego stanu systemu, a łuki definiują możliwe działania. W analizie Means-Ends celem jest przeniesienie systemu ze stanu początkowego do określonego stanu celu.
Statystyczne Wnioskowanie
Rozumowanie oparte na matematyce prawdopodobieństwa i statystykach, które można wykorzystać do rozważenia hipotez dotyczących pewnego stanu.
Statystyczne Zapytanie
W badaniu algorytmów uczenia maszynowego na zaszumionych danych kwerenda statystyczna to para składająca się z kwerendy i tolerancji błędu. Zapytanie ma postać ograniczonego regionu przestrzeni atrybutów (Tweety jest żółte i ma dziób) oraz klasy (Tweety to ptak.) Zapytanie można przekazać do wyroczni statystycznej, która zwraca prawdopodobieństwo, że zapytanie jest prawdziwe w ramach danej tolerancji.
Statystyka Oracle
Wyrocznia statystyczna to funkcja, która zwraca przybliżenie do prawidłowego prawdopodobieństwa, że określone zapytanie statystyczne jest prawdziwe. Przybliżenie mieści się w określonej tolerancji e rzeczywistego prawdopodobieństwa. Wyrocznia statystyczna musi zostać zdefiniowana dla klasy koncepcji i rozkładu w przestrzeni instancji. Wyrocznia może operować próbkami z dużej bazy danych lub z głośnego źródła danych.
STM
Skrót używany w dyskusji sieci ART w odniesieniu do pamięci krótkoterminowej.
Strategiczna Niepewność
Kiedy agent nie wie, w jaki sposób jego działania wpłyną na jego otoczenie lub środowisko zmieni się nieprzewidywalnie, staje w obliczu strategicznej niepewności.
Strateg
Dostępny w handlu program graficzny do budowy i analizy modeli Bayesian Belief Networks i hierarchicznych diagramów wpływu. Obsługuje dowolne zapytania łączone, marginalne i warunkowe.
STRIPS
Program do rozwiązywania problemów, które może napotkać robot. Wykorzystuje logikę proposycyjną do reprezentowania stanów bieżących i docelowych oraz analizę Means-End w celu uzyskania rozwiązania.
Strukturalnego Model równania
Model równania strukturalnego jest techniką modelowania, powszechnie stosowaną w naukach społecznych i behawioralnych do reprezentowania związków między zestawami zmiennych ukrytych. Modele zakładają istnienie zmiennych podstawowych, zwanych zmiennymi ukrytymi lub czynnikami, które wpływają na zmienne obserwowalne; zmienne te są klasyfikowane jako "egzogeniczne" (niezależne) lub "endogenne" (zależne). Modele te poprzedzają bardziej nowoczesne metody, takie jak modele niezależności i rozmyte mapy poznawcze.
Struktura, dane
Złożony typ danych złożony z innych typów danych, który może być prosty lub złożony.
Sublattice
Podsiatka L 0 sieci L jest podzbiorem sieci L tak, że elementy x y i x y są w L 0 za każdym razem, gdy x i y są w L 0 .
Subsethood
W logice rozmytej podrozdział S (A, B) jest miarą stopnia, w jakim zbiór A jest podzbiorem innego zbioru rozmytego B. Jest to stosunek liczby rozmytych przecięcia A i B do liczby rozmytej z A. Zauważ, że B może być właściwym (wyraźnym) podzbiorem A, ale nadal ma dobrze zdefiniowaną wartość dla S (A, B). Jest podobny do pojęcia prawdopodobieństwa warunkowego P (B | A).
Subsumption Architektura
R. Brooks z MIT opracował Subsumption Architecture jako nowatorskie podejście do sterowania robotami. Zamiast centralnego sterowania szczegółowo kontrolującego każde działanie, architektura ta ma podejście oddolne, budując bardzo małe jednostki sterujące, które mają zdefiniowany cykl odruchów, i łączy je razem w hierarchii warstwowej. Każde zachowanie jest modelowane przez matchine stanu skończonego z tylko kilkoma stanami. Takie podejście okazało się skuteczne w opracowywaniu robotów wykazujących inteligencję na poziomie owadów.
Strategie sumowania
Subsumacja to strategia kontroli nadmiarowości w zautomatyzowanych systemach wnioskowania. Subsumacja umożliwia programowi odrzucenie określonej instrukcji w obecności bardziej ogólnej instrukcji. Odmiana subsumcji wstecznej pozwala programowi odrzucić zachowane informacje, gdy nowo wydedukowane informacje są logicznie bardziej ogólne.
Subtautolgy
Subtautolgia w klauzuli jest właściwym subtermem klauzuli, która jest prawdziwa. Eliminacja subtautologi to strategia ograniczeń, którą można zastosować w zautomatyzowanych systemach wnioskowania.
Sumy iloczynu Algorytm
Algorytm sumy iloczynu jest metodą propagacji prawdopodobieństwa w pojedynczo połączonych sieciach bayesowskich. Zamiast korzystania z pełnej reprezentacji wielowymiarowej stosuje się model faktoryzowany, który rozkłada prawdopodobieństwo wielowymiarowe na kombinacje produktów i sum.
Superimposition Fraud : Oszustwa nakładania się
Wykrywanie oszustw jest bardzo aktywnym obszarem w Data Mining. Oszustwa nakładające się to metody popełniania oszustw poprzez "piggy-backing" na legalnym koncie. Jednym z przykładów może być praktyka "surfowania na ramionach" w celu nauki numerów PIN lub numerów kart kredytowych. Po uzyskaniu tej informacji złodziej spróbuje szybko ją wykorzystać i zdobyć towary lub pieniądze. System wykrywania oszustw musi szybko wykrywać zmiany w stosunku do normalnego zachowania. Data Mining służy do odkrywania tych wzorców.
Supervised Learning : Nadzorowana nauka
Celem nadzorowanego uczenia się jest przetworzenie przez komputer zestawu danych, których atrybuty zostały podzielone na dwie grupy, i uzyskanie związku między wartościami jednego a wartościami drugiego. Te dwie grupy są czasami nazywane odpowiednio predyktorem i celami. W terminologii statystycznej są one nazywane odpowiednio zmiennymi niezależnymi i zależnymi. Uczenie jest "nadzorowane", ponieważ rozróżnienie między predyktorami a zmiennymi docelowymi jest wybierane przez badacza lub inną zewnętrzną agencję (np. Proces eksploracji danych). Niektóre przykłady obejmują różne formy analizy regresji (logistyczne i liniowe), gdzie badacz określa także funkcjonalną formę relacji, której należy się nauczyć, klasyfikację i drzewa decyzyjne, które próbują podzielić przestrzeń zmiennych docelowych na podzbiory, które są jednorodne w odniesieniu do zmiennych docelowych. Kolejne przykłady to sieci neuronowe ze sprzężeniem zwrotnym.
Support Function : Funkcja wsparcia
Teoria Dempstera-Shafera zawiera hierarchię funkcji wsparcia jako specjalnych przypadków funkcji przekonań. Prosta funkcja podporowa odpowiada "" materiałowi dowodowemu, którego dokładnym i pełnym efektem jest podparcie podzestawu A w stopniu s. "Oddzielna funkcja podporowa to taka, którą można uzyskać przez połączenie prostych funkcji podporowych; ogólną funkcją podporową jest taki, który można wygenerować z oddzielnej funkcji podporowej poprzez" "zgrubienie" jej ramy rozróżniania. Funkcje podporowe można uogólnić na funkcje quasi-podporowe, biorąc pod uwagę sekwencję funkcji podporowych o przeciwstawnej wadze, która rośnie do nieskończoności, gdy sekwencja przechodzi w nieskończoność. Granicą tej sekwencji jest quasi-pomocnicza funkcja.
Support Threshold : Próg wsparcia
Dolna granica odsetka przypadków w bazie danych (lub innej populacji), dla których obowiązują obie strony reguły asocjacji. Reguła asocjacji obejmująca dziesięć procent wierszy w bazie danych spełniałaby również kryteria posiadania co najmniej pięciu procent wsparcia. Mówi się, że zestaw atrybutów binarnych obejmuje bazę danych i próg wsparcia, jeśli wszyscy członkowie zestawu są prawdziwi w co najmniej części populacji.
Symbol (LISP)
W LISP symbol jest obiektem, który zawiera dodatkowe informacje poza parą identyfikator / lokalizacja zmiennej. Oprócz położenia, które jest nazywane komórką wartości, może mieć związane z nią inne właściwości, takie jak metody i funkcje.
Synaptyczna Macierz
W sieciach neuronowych prostokątny stół pokazujący połączenia między dwoma zestawami neuronów. Każdy rząd reprezentowałby pojedynczy neuron w pierwszym zestawie, podczas gdy każda kolumna reprezentowałaby neuron w drugim zestawie. Zatem element w i-tym rzędzie i j-tej kolumnie opisałby połączenie między i-tym neuronem w pierwszej grupie i j-tym neuronem w drugim zestawie.
Składniowa Niejednoznaczność
Jeśli faza wejściowa lub zdanie mogą być reprezentowane przez kilka różnych drzew parsowania, mówi się, że dane wejściowe wykazują dwuznaczność składniową. Zasadniczo komplikuje to przetwarzanie danych wejściowych i może prowadzić do zupełnie innych znaczeń od tych samych danych wejściowych.
Składniowa Analiza
Technika analizowania języka naturalnego, która przypisuje składniowe znaczniki roli do tekstu wejściowego. Składniowa rola słowa lub frazy może być później wykorzystana do określenia znaczenia danych wejściowych. Analizowany tekst jest często przedstawiany jako drzewo analizy, w którym zdanie wejściowe jest dzielone na coraz bardziej precyzyjne części.

Tabula Rasa Metoda
Algorytm uczenia maszynowego, który rozpoczyna się bez wcześniejszej znajomości przedmiotu poza podstawowymi mechanizmami uczenia się na podstawie danych wejściowych. Chociaż dodanie wcześniejszej wiedzy może przyspieszyć, a w inny sposób poprawić zdolność uczenia się algorytmu, metody tabula rasa okazały się dość skuteczne i ogólnie są łatwe do wdrożenia i przetestowania.
Tabelaryczny Rozkład
Rozkład prawdopodobieństwa jest tabelaryczny, gdy jest określony w tabeli zawierającej wartość prawdopodobieństwa dla każdej konfiguracji atrybutów, z którymi jest skojarzony. Zwykle różni się od rozkładu algorytmicznego, który jest oceniany na podstawie algorytmu.
Tail : Ogon
Funkcja LISP, która zwraca wszystkie elementy listy oprócz pierwszego.
Tail Strategies : Strategie ogona
Jedną strategią, którą może zastosować zautomatyzowany system wnioskowania do wybierania klauzul do dalszej oceny, jest preferowanie klauzul krótkich. W systemach takich jak OTTER strategia ogona służy do wybierania dwóch klauzul terminowych, których drugi termin (ogon) jest krótki.
TAN Bayes
Klasyfikator Tree Augmented Na?ve Bayes. Naiwni klasyfikatorzy Bayesa zakładają, że zmienne predykcyjne są niezależne od danej klasy. Model Bayesa TAN dopuszcza ograniczoną formę zależności, tak że każda zmienna predykcji może zależeć od jednej innej zmiennej predykcji (bez cykli na wykresie, biorąc pod uwagę klasę.
Taksonomia
Taksonomia to hierarchiczna organizacja członków domeny atrybutów. Zazwyczaj jest prezentowany na drzewie. Klasyfikacje są wyczerpujące i rozłączne.
Telecommunication Alarm-Sequence Analyzer (TASA) : Analizator sekwencji alarmowych (TASA)
Telekomunikacyjny analizator sekwencji alarmowych został zbudowany w połowie lat 90. jako wspólne przedsięwzięcie producenta sprzętu telekomunikacyjnego z trzema firmami sieci telefonicznej. Program wykorzystuje Knowledge Discovery to Databases (KDD) do analizy strumieni alarmów w celu zlokalizowania częstych epizodów alarmowych i zapewnia dla nich reguły identyfikacji. Duża liczba reguł wygenerowanych w ten sposób jest następnie dalej analizowana przy użyciu narzędzi do grupowania, przycinania i zamawiania w celu udoskonalenia i uporządkowania tych reguł.
Template Matching : Dopasowywanie wzorców
Technika analizy obrazu, która porównuje obrazy wejściowe z przechowywanym zestawem szablonów. Najlepszym dopasowaniem jest rozpoznany element. Ma ograniczoną wrażliwość na hałas i, w celu rozpoznawania postaci, zmiany stylu.
Temporal Reasoning : Rozumowanie czasowe
Termin na logikę, który rozwija ogólną teorię czasu. System ten wymaga sposobu opisania tego, co jest prawdą i fałszem w czasie, a także opisu znaczenia prawdziwej zmiany.
Terminala Symbol
Symbol terminala jest symbolem w gramatyce, z którym nie wiążą się żadne dalsze reguły produkcji.
Testowy Zestaw
Podczas uczenia sieci neuronowej, drzew klasyfikacji i regresji (CART) i innych modeli dane używane do oceny ukończonego modelu są określane jako zestaw testowy. Najlepiej byłoby, gdyby był on oddzielny od zestawu szkoleniowego, który jest używany do dopasowania modelu, oraz od dowolnego zestawu sprawdzania poprawności, który służy do dostrajania ogólnej struktury lub złożoności modelu.
TETRAD II
Wielomodułowy program, który wykorzystuje modele ścieżek i sieć Bayesian do konstruowania i eksplorowania związków przyczynowych w danych. Program opiera się na aksjomatycznym związku między strukturą przyczynową a niezależnością statystyczną.
THAID
Późniejsza wersja programu automatycznego wykrywania interakcji (AID).
Theorem Proving System (TPS) : System dowodzenia twierdzeń (TPS)
System dowodzenia twierdzeń zautomatyzowane systemy logiczne pierwszego rzędu. Może działać w trybie automatycznym, interaktywnym i mieszanym. Może tłumaczyć dowody ekspansji na naturalne dowody dedukcji, aw niektórych przypadkach tłumaczyć dowody dedukcji na dowody ekspansji. Może również rozwiązywać problemy z unifikacją w logice wyższego rzędu. Uproszczona wersja o nazwie Educational Theorem Proving System (ETPS) zapewnia interaktywność konstrukcji naturalnych dowodów dedukcyjnych.
Theory Patching : Poprawka do teorii
Patchowanie teorii jest formą rewizji teorii, która pozwala na rewizję poszczególnych elementów teorii danej domeny w celu poprawnego sklasyfikowania wszystkich przykładów szkolenia. Różni się od standardowych problemów uczenia się (uczenie maszynowe) tym, że teorię traktuje się jako tylko częściowo poprawialną, a nie wymienną.
Threshold Function : Funkcja progowa
Funkcja sygnału, która wytwarza sygnał, gdy sygnał wejściowy przekroczy określony próg. Wykres wyniku progowego względem jego danych wejściowych przypominałby krok; dlatego jest czasami nazywany funkcją krokową. Jest stosowany w sieciach neuronowych i jako transformacja zmiennej wejściowej w innych modelach.
Threshold(ed) Linear Function : Progowa Funkcja liniowa
Funkcja sygnału złożona z ograniczonej funkcji liniowej. Ilekroć dane wejściowe przekraczają określony poziom, dane wyjściowe są ograniczone do maksimum i podobnie, gdy dane wyjściowe spadną poniżej określonej wartości. Służy jako funkcja wyjściowa w sieci neuronowej
Time Invariant Systems : Systemy niezmienne czasowe
W robotyce system, który można opisać w kategoriach jego aktualnego stanu, który może zawierać informacje o prędkości, bez względu na jego przeszłość lub dokładniej pochodzenie czasowe. Gdy system ma pamięć (np. pęd lub prędkość), układ ten może być niezmienny w czasie, włączając miary pamięci jako część zmiennej stanu opisującej układ.
Time Series Analysis : Analiza szeregów czasowych
Specjalna forma analizy danych, w której obserwacje są sekwencjami w czasie. Celem takiej analizy jest ustalenie reguł przewidywania przyszłej obserwacji w szeregu. Często różni się to od regularnej analizy danych ze względu na czas uporządkowania zdarzeń i (zakładaną) korelację zdarzeń z ich przeszłością.
Time Series Data : Dane szeregów czasowych
Dane pobrane z uporządkowanych sekwencji zdarzeń lub pomiarów. Ponieważ wartości są często skorelowane, dane zwykle wymagają specjalnych technik analitycznych .
Top-down : Z góry na dół
Wyszukiwanie z góry na dół jest podobne do wyszukiwania łańcuchowego wstecznego lub wyszukiwania opartego na celach, ponieważ metoda rozpoczyna się od końcowego celu i bieżącego stanu. Odgórne próby pracy wstecz od celu do obecnego stanu w celu znalezienia ścieżki, która pozwala przejść z obecnego stanu. W odgórnej analizie rozpoczyna się od celu i analizuje wszystkie reguły lub kroki, które mogłyby bezpośrednio do niego doprowadzić. Dla każdej reguły, która kwalifikuje się jako możliwy poprzednik, algorytm następnie wyszukuje swojego poprzednika i tak dalej, aż do osiągnięcia bieżącego stanu lub wyczerpania wszystkich możliwości.
Top-down Pathways : Ścieżki z góry na dół
Ważone połączenia z warstwy F2 sieci ART do warstwy F1.
Toronto Virtual Enterprise (TOVE)
Projekt TOVE jest ontologią specyficzną dla domeny, zaprojektowaną do modelowania przedsiębiorstw. Projekt ma kilka powiązanych ze sobą ontologii dla różnych części przedsiębiorstwa, które są powiązane ze sobą aksjomatami i relacjami. Niektóre z ontologii obejmują działania, czas, produkty i organizacje.
Treningowy Zestaw
Podczas opracowywania sieci neuronowej, drzew klasyfikacji i regresji (CART) lub innej metody samouczącej dane są zwykle dzielone na dwa lub trzy podzbiory. Największy z nich, zestaw treningowy, służy do dopasowania do modelu. Drugi lub dwa są wykorzystywane do sprawdzania poprawności i oceny modelu.
Transdukcja
Niektóre uczenia maszynowe i algorytmy statystyczne pozwalają systemowi utrzymywać wiele równoczesnych hipotez (modeli) na temat stanu ich światów, przy czym każda hipoteza jest ważona prawdopodobieństwem lub powiązanymi miarami. W tej sytuacji system może przewidywać pewne decyzje lub przyszłe dane poprzez transdukcję. Aby dokonać prognozy dotyczącej niektórych przyszłych danych, system dokonuje prognozy dla każdej stosownej hipotezy, a następnie tworzy średnią ważoną prognoz, gdzie wagi są proporcjonalne do prawdopodobieństwa poszczególnych modeli. Jest to w przeciwieństwie do technik, które wymagają wyboru jednej hipotezy na pewnym etapie procesu uczenia się / modelowania. W tym przypadku model jest zwykle wybierany według niektórych kryteriów optymalizacyjnych, takich jak kryterium Maximum A Posteriori (MAP), MINIMAX, Zasada minimalnej długości opisu (MDLP) lub Kryterium średniego błędu kwadratowego (MSE).
Transformacyjna Gramatyka
Teoria języków ludzkich, która głosi, że każde zdanie w tym języku może zostać wygenerowane przez serię przekształceń podstawowego zestawu zdań.
Tagowanie transformacyjne
Technika drugiego rzędu do analizy języka naturalnego. Po początkowym otagowaniu zdania tekstowego tagger transformacyjny zacząłby stosować reguły transformacji do początkowych tagów, aby usprawnić parsowanie danych.
Traveling Salesman Problem : Problem sprzedawcy podróży
Klasyczny problem w optymalizacji i planowaniu. "Podróżujący sprzedawca" musi odwiedzić kilka "miast" w określonych lokalizacjach. Problem polega na wybraniu trasy, która minimalizuje całkowitą przebytą odległość, w tym powrót do punktu początkowego.
Tree : Drzewo
Częściowo uporządkowany zestaw, w którym każdy obiekt jest rodzicem lub dzieckiem innych obiektów i żaden obiekt nie jest rodzicem żadnego z jego przodków. Terminy rodzic / dziecko / przodkowie są metaforami prostej relacji uporządkowania. Jeśli obiekt A poprzedza obiekt B, to obiekt A jest "rodzicem" B, a B jest "dzieckiem" B. A jest przodkiem B, podobnie jak każdy przodek A.
Tree Recursion : Rekurencja drzewa
Rekurencja drzewa jest specjalną formą rekurencji, w której każdy poziom oceny wykonuje wiele rekurencyjnych wywołań do tej samej funkcji lub procedury. Służy na przykład przy opracowywaniu drzewa klasyfikacyjnego.
Triangulowane Wykresy
Wykres jest triangulowany, jeśli każdy cykl o długości 4 lub więcej na wykresie ma akord. Triangulacja jest wymagana do obliczenia wielu właściwości modelu graficznego
Truth-value : Wartość prawdy
Wartość prawdziwości zdania jest miarą prawdy zdania. Klasyczna logika binarna dopuszcza wartości True (1) lub False (0). Inne logiki wielowartościowe lub ciągłe, takie jak logika wielowartościowa Łukasiewicza, logika prawdopodobieństwa lub logika rozmyta, dopuszczają wartości pośrednie w przedziale (0, 1). Wartości prawdy są ważne w propagowaniu i obliczaniu wartości niepewności
Tuple
Krotka to zbiór atrybutów lub wartości atrybutów.
Twoing
Twoing to wieloklasowe kryteria podziału wprowadzone w programie Drzewa Klasyfikacji i Regresji (CART). Przypomnij sobie, że CART produkuje tylko podziały binarne. Kryteria podziału znajdują binarną nadklasę dostępnych klas w każdym węźle, która maksymalizuje kryteria podziału. Same kryteria podwójnego obliczania są ważoną kwadratową sumą ponad klasami w węzłach absolutnej różnicy między prawdopodobieństwem, że każda klasa znajduje się w lewym węźle, a prawdopodobieństwem, że znajduje się w prawym węźle.
2/3 Rule : Reguła 2/3
Reguła obliczania wydajności każdego węzła w warstwie F1 sieci ART. Co najmniej dwa z trzech wejść (wzorzec wejściowy, kontrola wzmocnienia G1, prototyp odgórny) muszą być aktywne, aby węzeł mógł być aktywny.


Uncertainty Propagation : Propagacja niepewności
Propagacja niepewności odnosi się do procesu aktualizacji lub przeglądu miar niepewności zestawu zdań lub atrybutów z powodu zmian w założeniu lub informacji o powiązanych twierdzeniach lub atrybutach. W niektórych kontekstach propagacja jest oddzielona od rewizji, gdzie ten drugi termin jest używany w odniesieniu do wzajemnej zmiany niepewności dla zestawu zdań, gdy nowa wiedza jest wprowadzana do systemu.
Uncertainty Sampling : Pobieranie próbek niepewności
Metoda wyboru przypadków do trenowania klasyfikatorów, które wytwarzają dane probabilistyczne. Po wstępnym szkoleniu klasyfikatora w programie przebiega szereg obserwacji, które są uszeregowane według niepewności prognoz. Najbardziej niepewne są wybierane, odpowiednio klasyfikowane i wykorzystywane do dalszego szkolenia klasyfikatora. Można to powtarzać, aż klasyfikator wykona zadowalająco.
Unconditional Independence : Bezwarunkowa niezależność
Dwa atrybuty są bezwarunkowo niezależne, jeśli ich wspólne prawdopodobieństwa są iloczynem ich niezależnych prawdopodobieństw w danej dziedzinie. Niezależność oznacza brak korelacji. Odwrotna sytuacja nie jest prawdą
Underlap : Zakładka
Zakładka jest rozmytym rozmiarem zbioru M (A ? not (A)), przedłużeniem wyrazistego zbioru pojęcia liczności. Miara ta służy do definiowania rozmytej entropii zbioru.
Undirected Graph : Niekierowany wykres
Niekierowany wykres to wykres, który zawiera skończoną liczbę węzłów, a także niekierowane połączenia między niektórymi z tych węzłów.
Unidirectional Network : Sieć jednokierunkowa
Połączona jednowarstwowa sieć neuronowa. Gdy macierz synaptyczna jest symetryczna, sieć tworzy dwukierunkową pamięć asocjacyjną (BAM).
Unified Medical Language System (UMLS)
Ontologia UMLS jest systemem ontologii medycznej zaprojektowanym w celu ułatwienia wyszukiwania i integracji wielu medycznych systemów informacyjnych. Ma hierarchię pojęć obejmującą 135 pojęć medycznych, a także sieć semantyczną, która reprezentuje dodatkowe relacje między kategoriami.
Unifier
Reprezentując informacje w formie klauzuli, substytut literałów A i B, dających odpowiednio C i D, uważa się za jedność, jeśli C = D. Mówi się, że podstawienie oznacza "ujednolicenie" literałów A i B oraz mówi się, że literały są jednoznaczne. Jeśli istnieje podstawienie takie, że wszystkie inne podstawienia unifikujące są szczególnymi przypadkami tego unifikatora, to unifikator nazywa się najbardziej ogólnym unifikatorem (MGU).
Union : Suma zbiorów
Połączenie dwóch zbiorów A i B (zapisane jako A B). Zestaw zawiera wszystkie pojedyncze kopie dowolnych elementów - A lub B. Jest to również funkcja LISP, która przyjmuje dwie listy jako argumenty i zwraca listę zawierającą elementy znajdujące się na jednej z oryginalnych list, bez duplikatów.
Unikalne założenie nazwy
Uproszczone założenie stosowane w wiedzy i bazie danych, które zakłada, że każdy element ma unikalną nazwę, dzięki czemu można założyć, że przedmioty o różnych nazwach reprezentują różne rzeczy.
Uniwersalny kwantyfikator
"Uniwersalny kwantyfikator" w logice jest kwantyfikatorem sugerującym "dla wszystkich" w zdaniu. Stwierdza, że relacja obowiązuje dla wszystkich wystąpień zdania. Często jest reprezentowany przez odwrócony kapitał A.
Universe
Zestaw wszystkich przypadków w określonej domenie aplikacji.
Uczenie się bez nadzoru
Celem uczenia się bez nadzoru jest przetworzenie przez komputer zestawu danych i wyodrębnienie struktury odpowiadającej danemu problemowi. Może to przybierać różne formy. W analizie skupień i niektórych formach szacowania gęstości celem jest znalezienie małej liczby "grup" obserwacji o prostej strukturze. Graficzne i inne formy modeli zależności zmniejszają zależności między zmiennymi do mniejszej liczby. W sieciach neuronowych uczenie się bez nadzoru jest formą analizy skupień lub szacowania gęstości, w której sieć jest szkolona w zakresie odtwarzania danych wejściowych. Jest również określany jako automatyczne skojarzenie. Najważniejsze techniki obejmują sieci Kohonen i naukę hebrajskiego
Upper Approximation : Górna aproksymacja
W teorii zbiorów przybliżonych górne przybliżenie pojęcia X jest najmniejszym definiowalnym zbiorem zawierającym pojęcie X. Na przykład, jeśli badamy bazę danych o ryzykach kredytowych, górne przybliżenie do klasy (koncepcji) złych ryzyk kredytowych, być najmniejszym zestawem atrybutów, które zawierały wszystkie przypadki oznaczone jako złe ryzyko kredytowe. Miarą tego zestawu jest jakość górnego przybliżenia. Jest to równoważne funkcji wiarygodności Dempstera-Shafera i jest obliczane jako stosunek liczby przypadków w górnym przybliżeniu do całkowitej liczby przypadków w bazie danych.
Upper Envelope : Górna koperta
Górna obwiednia dla zdania jest maksimum (wypukłego) zestawu prawdopodobieństw związanych z twierdzeniem.
Upper Expectation : Wyższe oczekiwania
Maksymalne oczekiwanie względem (wypukłego) zestawu prawdopodobieństw.
Upward Closure : Zamknięcie w górę
Kolekcja zbiorów jest zamknięta w górę w odniesieniu do właściwości, jeśli, gdy zestaw P ma właściwość, wszystkie zestawy zawierające P mają tę właściwość. Przykładem może być zależność w analizie koszyka rynkowego. Kiedy wiadomo, że zestaw elementów jest zależny, wiadomo, że każdy większy zestaw zawierający te elementy jest również zależny.
UR Rozdzielczość
Rozdzielczość UR jest regułą wnioskowania, którą można zastosować w zautomatyzowanych systemach wnioskowania. Koncentruje się na dwóch lub więcej klauzulach, wymagając, aby jedna z klauzul (jądro) zawierała co najmniej dwa literały, a pozostałe (satelity) zawierały dokładnie jeden literał. W skrócie, wyciąga się wniosek, jeśli można znaleźć unifikator (podstawienie terminów) zmiennych, który po zastosowaniu tworzy identyczne (z wyjątkiem przeciwnych znaków) pary literałów, jeden literał z jądra z drugim z satelity. Konkluzja jest wyciągana przez ignorowanie sparowanych literałów, jednoczesne zastosowanie unifikatora do jądra i satelitów i zjednoczenie powstałych literałów.
Użyteczność
Użyteczność akcji jest liczbową miarą wartości wyniku wynikającego z podjęcia tej akcji. Zazwyczaj wiele systemów działa w celu maksymalizacji ich użyteczności. Wiele systemów uczenia maszynowego zakłada, że wszystkie działania (prognozy, klasyfikacje) można ocenić za pomocą jednego wyniku i podjąć działania mające na celu maksymalizację tej wartości. Alternatywne warunki obejmują nagrody, wypłaty, koszty i straty. Te dwa ostatnie są bardziej powszechne w teorii gier i teorii ekonomii (np. Metody minimax). Powiązanym terminem, często używanym przy omawianiu procedur maksymalizacji i minimalizacji, jest funkcja obiektywna. Jest to również miara wartości i jest (zazwyczaj addytywną) kombinacją narzędzi modelu dla zestawu przypadków.
Uttleya Maszyna
Maszyna Uttley to specjalny rodzaj Perceptronu, sugerowany przez A. M. Uttleya. Porównując aktywację "sąsiednich" kanałów w sieci i stosując techniki bayesowskie do aktualizacji wag, był w stanie ograniczyć liczbę kanałów wejściowych wymaganych w sieci Perceptron. Wykazał również, że włączenie lokalnego sprzężenia zwrotnego między perceptronami zmniejszyło liczbę perceptronów i wymagało aktywnej klasyfikacji wzorów.

Validation Set : Zestaw walidacyjny
Podczas uczenia sieci neuronowej, drzew klasyfikacji i regresji (CART) i innych modeli, część danych jest często trzymana i wykorzystywana do wyboru niektórych ogólnych parametrów modelu, takich jak liczba warstw w sztucznej sieci neuronowej ( ANN) i głębokość drzewa w modelu CART. Dane te są często nazywane zestawem walidacyjnym lub zestawem projektowym, w którym wybrany model jest montowany za pomocą zestawu szkoleniowego.
Valuation Network : Sieć wyceny
Graficzna reprezentacja sieci przekonań, która wprowadza różne typy węzłów w celu przedstawienia szerszej różnorodności relacji wielowymiarowych, niż można to zrobić w standardowym grafie acyklicznym kierowanym (DAG).
Valuation : Wyceny
Wyceny są uogólnieniem idei funkcji przekonań i prawdopodobieństwa oraz zapewniają odwzorowanie zestawu wyników w ramach rozeznania na wartości liczbowe. Wycena ma trzy właściwości. Obsługuje kombinację, dzięki czemu można łączyć dwie wyceny w tej samej ramce. Umożliwia projekcję (rozszerzenia i marginalizacje), aby można było zmienić ramy rozeznania. Spełnia pewne wymagania, na podstawie których można łączyć operacje łączenia i rzutowania. Funkcją spełniającą te warunki można manipulować za pomocą algorytmu fuzji i propagacji Shafer-Shenoy.
Vapnika-Chervonenkisa Wymiar
Wymiar Vapnik-Chervonenkis jest miarą złożoności koncepcji w uczeniu maszynowym i służy do nałożenia niższych granic na możliwości uczenia się koncepcji. Zasadniczo opisuje rozmiar największego zestawu, tak że klasa koncepcyjna realizuje wszystkie możliwe dychotomie próbki. Innymi słowy, dla próbki o wielkości d, istnieją 2 ^ d możliwe podzbiory tej próbki. Jeśli każdy podzbiór może zostać uznany za pozytywny dla jakiegoś przykładu pojęcia, wówczas klasa pojęcia zdychotomizuje próbkę.
Variational Inference : Wnioskowanie wariacyjne
Wnioskowanie wariacyjne jest techniką aproksymacyjną, którą można zastosować, gdy obliczenie dokładne lub Monte Carlo jest niemożliwe. W przypadku modelu sieciowego z ukrytymi zmiennymi h i obserwowanymi (widocznymi) zmiennymi v, rozwiązanie wariacyjne przybliżałoby Pr (h | v) z pewną możliwą do przełknięcia Q (h | v), gdzie Q (h | v) minimalizuje pewną odległość miara (np. względna entropia) w odniesieniu do Pr (h | v).
Vector Optimization : Optymalizacja wektorowa
Problem optymalizacji, w którym wiele celów musi być spełnionych (lub zmaksymalizowanych).
Vector-quantization Networks : Sieci kwantyzacji wektorowej
Sieci kwantyzacji wektorowej są formą nienadzorowanych sieci neuronowych Kohonena podobnych do analizy skupień k-średnich. Każda jednostka odpowiada klasterowi. Kiedy uczymy się nowego przypadku, najbliższy wektor książki kodowej (środek klastra) jest przesuwany o określoną część wzdłuż wektora między nim a nowym przypadkiem, gdzie proporcja jest określana przez szybkość uczenia się algorytmu.
VentEx
VentEx, obecnie w trakcie oceny, to oparty na wiedzy system wspomagania i monitorowania decyzji stosowany w terapii respiratora.
Vienna Expert System for Parental Nutrition of Neonates (VIEPNN) : Wiedeński system ekspercki dla żywienia rodziców noworodków (VIEPNN)
VIE-PNN to system ekspercki do projektowania dietetycznych schematów żywienia noworodków.
Vigilance : Czujność
Sieci ART używają parametru czujności, aby określić, jak dobrze przypadek wejściowy musi pasować do prototypu kandydata. Służy do zmiany liczby i wielkości kategorii rozwijanych przez sieć
Virtual Attribute : Atrybut wirtualny
Atrybut wirtualny to taki, którego wartości nie są obserwowane ani liczone, ale są obliczane na podstawie innych atrybutów. Często są one obliczane jako przybliżenia pojęć lub w celu uproszczenia analizy. Jako przykład proxy koncepcji, inne modele mogą sugerować, że określona funkcja obserwowalnych atrybutów reprezentuje bogactwo osoby, a funkcja bogactwa może być obliczona dla wszystkich przypadków w bazie danych do późniejszej analizy, powiedzmy, patrząc na algorytm wyszukiwania danych dla wzorów zakupów. Przykładem tego drugiego byłoby załamanie się dyskretnego atrybutu zawierającego lata nauki w zmienną nominalną z niewielką liczbą kategorii.
Virtual Reality Modeling Language (VRML) : Język modelowania rzeczywistości wirtualnej (VRML)
VRML to język używany do przechowywania specyfikacji przestrzeni trójwymiarowej. Opis sceny VRML byłby używany na przykład przez przeglądarkę WWW (WWW) do renderowania sceny i zmiany obrazu lub wykonania innych działań w reakcji na dane wejściowe osoby.
Voxel : Woksel
Woksel, analogiczny do piksela (q.v.), jest najmniejszą jednostką w komputerowym renderowaniu woluminu, na przykład na obrazie wygenerowanym z pliku VRML.

Wake-sleep Algorithm : Algorytm czuwania
Algorytm czuwania-snu jest formą uogólnionego algorytmu EM, który można wykorzystać do szkolenia maszyn Helmholtza. Podczas "fazy uśpienia" sieć rozpoznawania jest szkolona, aby rozpoznawać losowe dane wyjściowe z sieci generatywnej. Podczas "fazy wzbudzenia" sieć generatywna jest dostosowywana, aby zmaksymalizować logarytm widzialnych zmiennych i ukrytych zmiennych wytwarzanych przez sieć rozpoznawania. Faza uśpienia jest analogiczna do kroku Oczekiwania w algorytmie EM, podczas gdy faza wzbudzenia uogólnia krok Maksymalizacji.
Walker
Walker był prototypowym robotem ambulatoryjnym z wczesnych lat 80., który wykazał się umiejętnością używania owadów (sześciostronnych) ruchów.
Weakly Learnable : Słabo uczący się
Klasa koncepcji jest słabo możliwa do nauczenia przez algorytm uczenia maszynowego L, jeśli algorytm L zwraca, z co najmniej ustalonym prawdopodobieństwem, regułę uczenia, która ma mniej niż ustalone maksimum dla dowolnego rozkładu w przestrzeni atrybutów. Zakłada się, że algorytm uczenia L może uzyskać dostęp do wyroczni statystycznej, która zwraca średnią koncepcję dla dowolnego X. Różni się to od modeli uczenia Prawdopodobnie w przybliżeniu poprawnych (PAC), które wymagają, aby algorytm uczenia mógł zwrócić regułę dla dowolnego dowolnie dużego zaufanie i / lub arbitralnie mały poziom błędu. Schapire i Freund wykazali, że słabo uczącą się klasę koncepcyjną można przekształcić w klasę koncepcyjną PAC za pomocą wzmocnienia.
Wearable Computer Systems : Poręczne systemy komputerowe
Jak sugeruje ten termin, są to systemy komputerowe zaprojektowane do noszenia lub łatwego przenoszenia. System do noszenia umożliwia użytkownikowi obejście zwykłych ograniczeń stanowiska roboczego, eksperta opartego na systemie serwera lub inteligentnego agenta. Są one obecnie w fazie aktywnego rozwoju i zostały wykorzystane głównie w aplikacjach pionowych, takich jak konserwacja samolotów lub analiza zapasów. Systemy mogą obejmować zarówno prosty komputer typu "palm", taki jak Palm Pilot, ze specjalistycznymi bazami danych i programami decyzyjnymi (np. Analiza opcji), a także systemy noszone na "biodrach" i wyposażone w monitory montowane na głowie, a także specjalistyczne urządzenia wejściowe (np. "twiddler"). Nowsze systemy mogą zawierać modemy bezprzewodowe, aby umożliwić ciągły dostęp do Internetu i innych specjalistycznych źródeł informacji, takich jak kanały giełdowe lub bazy danych pacjentów.
Weight Decay : Rozpad wagi
Forma kary zminimalizowanej stosowana w celu zmniejszenia nadmiernego dopasowania w technikach modelowania, takich jak sieci neuronowe. Zamiast próbować zminimalizować tylko błąd modelu, technika próbuje zminimalizować ważoną sumę błędów i złożoności modelu. Rozpad masy jest specjalną formą kary za złożoność, zwykle stanowiącą sumę kwadratów wag w modelu. Ta forma kary ma tendencję do zmniejszania dużych współczynników na korzyść mniejszych współczynników. Wielkość skurczu zależy od parametru kontrolującego kompromis między minimalizacją błędu a karą. Jest to czasami określane jako stała rozpadu.
Wagi Eliminacja
Alternatywa dla rozpadu masy w sieciach neuronowych. Zamiast karać model za duże współczynniki, które mają tendencję do powodowania dużej liczby małych współczynników, eliminacja wagi wykorzystuje sumę stosunku każdego ciężaru do kwadratu podzieloną przez jego kwadrat i stałą sumę (w2 / (w2 + c)). Termin ten ma tendencję do zmniejszania małych współczynników bardziej niż większych współczynników, na które stała nie ma wpływu. Ta technika jest również przydatna w przypadku modeli podzbiorów lub predyktorów przycinania.
Waga dowodu
Ciężar dowodów to ogólna nazwa miar, które oceniają dane i hipotezy. Kilka przykładów obejmuje:
• logarytm wiarygodności
Waga twierdzenia H dostarczonego przez dowód E wynosi W (H: E) = log (P (E | H) / P (E |! H)). Ten ostatni termin jest logarytmem wskaźnika prawdopodobieństwa. Można go również przepisać jako różnicę między logarytmem (kursy późniejsze) a logem (kursy wcześniejsze).
•  szanse na przekonania
Ciężar dowodu dla hipotezy H w funkcji przekonania jest log (Prawdopodobieństwo (H) / Niejasność (H)). Kiedy porównuje się dwie hipotezy, ciężar dowodu na obecność H1 względem H2 wynosi log (PL (H1 | E) / PL (H2 | E)) - log (PL (H1) / PL (H2)), co uogólnia poprzednią definicję obejmować funkcje przekonań.
Ważenia ograniczania strategie
Strategie ograniczeń ważenia są stosowane w zautomatyzowanych systemach wnioskowania w celu ograniczenia złożoności klauzul lub równań, które można wykorzystać do przeprowadzenia wnioskowania. Gdy złożoność formuły przekracza określoną złożoność, jest ona usuwana z dalszego rozważania
Windowing : Okienkowanie
Okno to termin, który może mieć wiele znaczeń w kontekście uczenia maszynowego. Został on użyty w kontekście ID3 i C4.5 w odniesieniu do procesu wyboru podpróbki oryginalnych danych i opracowania modelu. Model jest testowany na podstawie pozostałych danych, a jeśli jego wydajność nie jest zadowalająca, część "awarii" danych testowych jest dołączana do oryginalnej podpróbki i model jest modernizowany. Tę procedurę wyboru można powtarzać, dopóki model nie będzie wystarczająco dobrze dopasowany. Skuteczność tej techniki zależy od dziedziny i danych. Alternatywnym zastosowaniem tego samego terminu są szeregi czasowe i techniki pochodzące z "lokalnych" modeli (np. Modele regresji wygładzania). W tym kontekście okno opisuje obszar wokół punktu prognozy i tylko przypadki mieszczące się w tym oknie są używane do tworzenia lokalnych prognoz. Te okna często różnicuą ważenie obserwacji w oknie, tak aby obserwacje "bliskie" celowi były ważone bardziej niż obserwacje "dalekie". Rozmiar okna można wybrać za pomocą technik ponownego próbkowania, takich jak walidacja krzyżowa
Wise Wire
Wise Wire to komercyjny rozwój technologii uczenia maszynowego pokazany w oprogramowaniu News Weeder. To ostatnie oprogramowanie było w stanie przewidzieć zainteresowanie czytelników różnymi artykułami. Korporacja Wise Wire została założona w celu rozszerzenia i wykorzystania tej technologii, oferując narzędzia do automatycznego przeglądania i sortowania artykułów pod kątem ich zainteresowania różnymi kategoriami
Współczynnik błędów słów (WER)
Powszechnie stosowana miara wydajności w rozpoznawaniu mowy, Word Error Rate (WER) to stosunek liczby nieprawidłowo rozpoznanych lub nierozpoznanych słów do całkowitej liczby faktycznie wypowiedzianych słów.
Word N-Gram (WNG) Re-ranking : Zmiana kolejności słów N-Gram (WNG)
Zmiana kolejności słów N-Gram (WNG) to technika zmiany kolejności, która wybiera zestaw słów-kandydatów o najwyższym prawdopodobieństwie sukcesji parami. Biorąc pod uwagę zestaw kandydatów na słowo 1, słowo 2 i słowo 3, model WNG wybrałby potrójną, która zmaksymalizowała P (słowo 1) P (słowo 2 | słowo 1) P (słowo 3 | słowo 2).
Word Sense Disambiguation : Ujednoznacznienie sensu słowa
Jednym z ważnych zadań podrzędnych w analizie semantycznej języka naturalnego jest ujednoznacznienie zmysłu słowa, w którym program musi ustalić, które z kilku możliwych znaczeń wyrażenia jest poprawne. Na przykład w zdaniu "Świnie są we zagrodzie" słowo "pióro" może oznaczać obudowę lub urządzenie do pisania. Program wykonujący analizę semantyczną musiałby ustalić, że zdanie odnosi się do ogrodzenia dla zwierząt.
Wordnet
Wordnet to ręcznie konstruowana ontologia leksykalna. Obiekty leksykalne są uporządkowane semantycznie, przy czym centralnym obiektem jest zbiór synonimów. Obecnie istnieje około 70 000 zestawów synonimów. Każdy jest zorganizowany w hierarchii. Wordnet zapewnia taksonomię, ale nie zawiera żadnych pojęć ani aksjomatów.
Word-Tag Model (WTM) : Model słowny (WTM)
Model Word-Tag (WTM) jest uogólnieniem modelu Word N-Gram (WNG). Przypisuje znaczniki składniowe do każdego z kandydujących słów i traktuje sekwencję słów jako Ukryty model Markowa (HMM). Prawdopodobieństwo tego słowa jest teraz funkcją tylko znacznika, a system wyszukuje odpowiednią sekwencję znaczników maksymalne prawdopodobieństwo.
Work Envelope
Obszar wokół (nieruchomego) robota, do którego można dotrzeć za pomocą jego ramienia roboczego. W zależności od konfiguracji robota może być prostokątny, cylindryczny lub kulisty. Jego zdolność do poruszania się i manipulowania w tej kopercie zależy od jej stopni swobody.
wxCLIPS
wxCLIPS jest rozszerzeniem do systemu eksperckiego CLIPS (C Language Integration Production System), zmodyfikowanym do pracy w środowisku sterowanym zdarzeniami. Wspiera rozwój wieloplatformowych powłok graficznych.

Xbaies
Darmowy program do budowania bayesowskich sieci przekonań. Modele mogą mieć strukturę graficzną łańcucha, w tym zarówno Directed Acyclic Graph (DAG), jak i niekierowane wykresy. Może obejmować priory i może propagować dowody.
Zero-Sum Games :Gry o zerowej sumie
Gra (lub inna sytuacja), w której istnieje stała ilość zasobów, dzięki czemu gracze mogą tylko zwiększyć swój udział (lub zmniejszyć straty), zabierając część innym graczom.






Odwiedzin: 5489
Dzisiaj: 15
On-line: 1
Strona istnieje: 508 dni
Ładowanie: 0.034 sek


[ 1745 ]