Nou în teoria recunoașterii modelelor. Limbi pentru descrierea metodelor de luare a deciziilor

Duminica, 29 martie 2015

În prezent, există multe sarcini în care se cere să se ia o decizie în funcție de prezența unui obiect în imagine sau să-l clasifice. Abilitatea de a „recunoaște” este considerată principala proprietate a ființelor biologice, în timp ce sistemele informatice nu posedă pe deplin această proprietate.

Luați în considerare elementele generale ale modelului de clasificare.

Clasă- un set de obiecte care au proprietăți comune. Pentru obiectele din aceeași clasă, se presupune prezența „asemănării”. Pentru sarcina de recunoaștere poate fi definit un număr arbitrar de clase, mai mult de 1. Numărul de clase este notat cu numărul S. Fiecare clasă are propria etichetă de identificare a clasei.

Clasificare- procesul de atribuire a etichetelor de clasă obiectelor, conform unei descrieri a proprietăților acestor obiecte. Un clasificator este un dispozitiv care primește un set de caracteristici ale unui obiect ca intrare și ca rezultat produce o etichetă de clasă.

Verificare- procesul de potrivire a unei instanțe de obiect cu un singur model de obiect sau descriere de clasă.

Sub cale vom înțelege denumirea zonei în spațiul atributelor, în care sunt afișate multe obiecte sau fenomene ale lumii materiale. semn- o descriere cantitativă a unei anumite proprietăți a obiectului sau fenomenului studiat.

caracteristică spațiu acesta este un spațiu N-dimensional definit pentru o anumită sarcină de recunoaștere, unde N este un număr fix de caracteristici măsurate pentru orice obiect. Vectorul din spațiul caracteristic x corespunzător obiectului problemei de recunoaștere este un vector N-dimensional cu componente (x_1,x_2,…,x_N), care sunt valorile caracteristicilor pentru obiectul dat.

Cu alte cuvinte, recunoașterea modelelor poate fi definită ca atribuirea datelor inițiale unei anumite clase prin extragerea trăsăturilor sau proprietăților esențiale care caracterizează aceste date din masa generală de detalii irelevante.

Exemple de probleme de clasificare sunt:

  • recunoașterea caracterelor;
  • recunoaștere a vorbirii;
  • stabilirea unui diagnostic medical;
  • Prognoza meteo;
  • recunoaștere facială
  • clasificarea documentelor etc.

Cel mai adesea, materialul sursă este imaginea primită de la cameră. Sarcina poate fi formulată ca obținerea de vectori caracteristici pentru fiecare clasă din imaginea considerată. Procesul poate fi privit ca un proces de codare, care constă în atribuirea unei valori fiecărei caracteristici din spațiul de caracteristici pentru fiecare clasă.

Dacă luăm în considerare 2 clase de obiecte: adulți și copii. Ca caracteristici, puteți alege înălțimea și greutatea. După cum reiese din figură, aceste două clase formează două mulțimi care nu se intersectează, care pot fi explicate prin caracteristicile alese. Cu toate acestea, nu este întotdeauna posibil să alegeți parametrii măsurați corecti ca caracteristici ale claselor. De exemplu, parametrii selectați nu sunt potriviți pentru crearea unor clase care nu se suprapun de jucători de fotbal și baschetbalist.

A doua sarcină de recunoaștere este selectarea trăsăturilor caracteristice sau a proprietăților din imaginile originale. Această sarcină poate fi atribuită preprocesării. Dacă luăm în considerare sarcina recunoașterii vorbirii, putem distinge trăsături precum vocalele și consoanele. Atributul trebuie să fie o proprietate caracteristică a unei anumite clase, fiind în același timp comun acestei clase. Semne care caracterizează diferențele dintre - semne interclase. Caracteristicile comune tuturor claselor nu conțin informații utile și nu sunt considerate caracteristici în problema recunoașterii. Alegerea caracteristicilor este una dintre sarcinile importante asociate cu construirea unui sistem de recunoaștere.

După ce caracteristicile sunt determinate, este necesar să se determine procedura optimă de decizie pentru clasificare. Luați în considerare un sistem de recunoaștere a modelelor conceput pentru a recunoaște diferite clase M, notate ca m_1,m_2,...,m 3. Apoi putem presupune că spațiul imaginii este format din M regiuni, fiecare conținând puncte corespunzătoare unei imagini dintr-o clasă. Atunci problema recunoașterii poate fi considerată ca construcția granițelor care separă M clase pe baza vectorilor de măsurare acceptați.

Rezolvarea problemei preprocesării imaginii, extragerea caracteristicilor și problema obținerii soluției și clasificării optime este de obicei asociată cu necesitatea evaluării unui număr de parametri. Aceasta duce la problema estimării parametrilor. În plus, este evident că extragerea caracteristicilor poate folosi informații suplimentare bazate pe natura claselor.

Compararea obiectelor se poate face pe baza reprezentării lor sub formă de vectori de măsură. Este convenabil să reprezentați datele de măsurare ca numere reale. Apoi, asemănarea vectorilor caracteristici a două obiecte poate fi descrisă folosind distanța euclidiană.

unde d este dimensiunea vectorului caracteristic.

Există 3 grupuri de metode de recunoaștere a modelelor:

  • Comparație de probă. Acest grup include clasificarea după cea mai apropiată medie, clasificarea după distanța până la cel mai apropiat vecin. Metodele de recunoaștere structurală pot fi, de asemenea, incluse în grupul de comparație al eșantionului.
  • Metode statistice. După cum sugerează și numele, metodele statistice folosesc unele informații statistice atunci când rezolvă o problemă de recunoaștere. Metoda determină apartenența unui obiect la o anumită clasă pe baza probabilității.În unele cazuri, aceasta se rezumă la determinarea probabilității a posteriori ca un obiect să aparțină unei anumite clase, cu condiția ca trăsăturile acestui obiect să fi luat valorile. Un exemplu este metoda Bayesiană a regulilor de decizie.
  • Rețele neuronale. O clasă separată de metode de recunoaștere. O trăsătură distinctivă față de ceilalți este capacitatea de a învăța.

Clasificare după cea mai apropiată medie

În abordarea clasică a recunoașterii modelelor, în care un obiect necunoscut pentru clasificare este reprezentat ca un vector de trăsături elementare. Un sistem de recunoaștere bazat pe caracteristici poate fi dezvoltat în diferite moduri. Acești vectori pot fi cunoscuți de sistem în prealabil ca urmare a antrenamentului sau prevăzuți în timp real pe baza unor modele.

Un algoritm simplu de clasificare constă în gruparea datelor de referință de clasă folosind vectorul așteptării clasei (media).

unde x(i,j) este j-a caracteristică de referință a clasei i, n_j este numărul de vectori de referință ai clasei i.

Atunci obiectul necunoscut va aparține clasei i dacă este mult mai aproape de vectorul de așteptare al clasei i decât de vectorii de așteptare ai altor clase. Această metodă este potrivită pentru problemele în care punctele fiecărei clase sunt situate compact și departe de punctele altor clase.

Dificultăți vor apărea dacă clasele au o structură puțin mai complexă, de exemplu, ca în figură. În acest caz, clasa 2 este împărțită în două secțiuni care nu se suprapun, care sunt descrise slab de o singură valoare medie. De asemenea, clasa 3 este prea alungită, eșantioanele din clasa a 3-a cu valori mari ale coordonatelor x_2 sunt mai aproape de valoarea medie a clasei 1 decât a clasei a 3-a.

Problema descrisă în unele cazuri poate fi rezolvată prin modificarea calculului distanței.

Vom lua în considerare caracteristica „împrăștierii” valorilor clasei - σ_i, de-a lungul fiecărei direcții de coordonate i. Abaterea standard este egală cu rădăcina pătrată a varianței. Distanța euclidiană la scară dintre vectorul x și vectorul de așteptare x_c este

Această formulă de distanță va reduce numărul erorilor de clasificare, dar, în realitate, majoritatea problemelor nu pot fi reprezentate de o clasă atât de simplă.

Clasificare după distanță până la cel mai apropiat vecin

O altă abordare a clasificării este de a atribui un vector caracteristic necunoscut x clasei de care acest vector este cel mai aproape de un eșantion separat. Această regulă se numește regula vecinului cel mai apropiat. Clasificarea celui mai apropiat vecin poate fi mai eficientă chiar și atunci când clasele sunt complexe sau când clasele se suprapun.

Această abordare nu necesită ipoteze despre modelele de distribuție a vectorilor caracteristici în spațiu. Algoritmul folosește doar informații despre mostrele de referință cunoscute. Metoda soluției se bazează pe calcularea distanței x până la fiecare probă din baza de date și găsirea distanței minime. Avantajele acestei abordări sunt evidente:

  • oricând puteți adăuga noi mostre în baza de date;
  • structurile de date arbore și grilă reduc numărul de distanțe calculate.

În plus, soluția va fi mai bună dacă căutați în baza de date nu un vecin cel mai apropiat, ci k. Apoi, pentru k > 1, oferă cea mai bună probă de distribuție a vectorilor în spațiul d-dimensional. Cu toate acestea, utilizarea eficientă a valorilor k depinde de faptul dacă există suficient în fiecare regiune a spațiului. Dacă există mai mult de două clase, atunci este mai dificil să iei decizia corectă.

Literatură

  • M. Castrillon, . O. Deniz, . D. Hernández și J. Lorenzo, „A comparison of face and facial feature detectors based on the Viola-Jones general object detection framework”, International Journal of Computer Vision, nr.22, pp. 481-494, 2011.
  • Y.-Q. Wang, „O analiză a algoritmului de detectare a feței Viola-Jones”, Jurnalul IPOL, 2013.
  • L. Shapiro și D. Stockman, Computer vision, Binom. Laboratorul de cunoștințe, 2006.
  • Z. N. G., Metode de recunoaștere și aplicarea lor, Radio sovietică, 1972.
  • J. Tu, R. Gonzalez, Principii matematice ale recunoașterii modelelor, Moscova: „Mir” Moscova, 1974.
  • Khan, H. Abdullah și M. Shamian Bin Zainal, „Algoritm eficient de detecție a ochilor și a gurii folosind combinația de viola jones și detectarea pixelilor culorii pielii” Jurnalul Internațional de Inginerie și Științe Aplicate, nr. 3 nr 4, 2013.
  • V. Gaede și O. Gunther, „Multidimensional Access Methods”, ACM Computing Surveys, pp. 170-231, 1998.

Capitolul 3: Analiza analitică a recunoașterii modelelor și a metodelor de luare a deciziilor

Teoria recunoașterii modelelor și automatizarea controlului

Principalele sarcini ale recunoașterii modelelor adaptive

Recunoașterea este un proces de informare implementat de un convertor de informații (canal de informare inteligent, sistem de recunoaștere) care are o intrare și o ieșire. Intrarea sistemului este informații despre ce caracteristici au obiectele prezentate. Ieșirea sistemului afișează informații despre clasele (imagini generalizate) cărora sunt alocate obiectele recunoscute.

Atunci când se creează și se operează un sistem automat de recunoaștere a modelelor, o serie de sarcini sunt rezolvate. Să luăm în considerare pe scurt și simplu aceste sarcini. Rețineți că formulările acestor sarcini, și setul în sine, nu coincid cu diferiți autori, deoarece într-o anumită măsură depinde de modelul matematic specific pe care se bazează acest sau acel sistem de recunoaștere. În plus, unele sarcini din anumite modele de recunoaștere nu au o soluție și, în consecință, nu sunt puse.

Sarcina oficializării domeniului subiectului

De fapt, această sarcină este o sarcină de codificare. Este compilată o listă de clase generalizate, care poate include implementări specifice ale obiectelor, precum și o listă de caracteristici pe care aceste obiecte, în principiu, le pot avea.

Sarcina de a forma un eșantion de antrenament

Eșantionul de instruire este o bază de date care conține descrieri ale implementărilor specifice ale obiectelor în limbajul de caracteristici, completate cu informații despre apartenența acestor obiecte la anumite clase de recunoaștere.

Sarcina instruirii sistemului de recunoaștere

Eșantionul de antrenament este utilizat pentru a forma imagini generalizate ale claselor de recunoaștere pe baza generalizării informațiilor despre ce caracteristici au obiectele eșantionului de antrenament care aparțin acestei clase și altor clase.

Problema reducerii dimensiunii spațiului caracteristic

După antrenamentul sistemului de recunoaștere (obținerea statisticilor privind distribuția frecvențelor caracteristicilor pe clasă), devine posibil să se determine pentru fiecare caracteristică valoarea acesteia pentru rezolvarea problemei de recunoaștere. După aceea, caracteristicile mai puțin valoroase pot fi eliminate din sistemul de caracteristici. Apoi sistemul de recunoaștere trebuie reantrenat, deoarece, ca urmare a înlăturării unor caracteristici, statisticile de distribuție a caracteristicilor rămase pe clasă se modifică. Acest proces poate fi repetat, adică fi iterativ.

Sarcina de recunoaștere

Sunt recunoscute obiectele unui eșantion de recunoscut, care, în special, pot consta dintr-un singur obiect. Eșantionul de recunoaștere este format în mod similar cu cel de antrenament, dar nu conține informații despre apartenența obiectelor la clase, deoarece tocmai aceasta este determinată în procesul de recunoaștere. Rezultatul recunoașterii fiecărui obiect este o distribuție sau o listă a tuturor claselor de recunoaștere în ordinea descrescătoare a gradului de similitudine a obiectului recunoscut cu acestea.

Sarcina de control al calității de recunoaștere

După recunoaștere, adecvarea acestuia poate fi stabilită. Pentru obiectele eșantionului de antrenament, acest lucru se poate face imediat, deoarece pentru ele se știe pur și simplu cărei clase aparțin. Pentru alte obiecte, aceste informații pot fi obținute ulterior. În orice caz, probabilitatea medie reală de eroare pentru toate clasele de recunoaștere poate fi determinată, precum și probabilitatea de eroare la atribuirea unui obiect recunoscut unei anumite clase.

Rezultatele recunoașterii trebuie interpretate ținând cont de informațiile disponibile despre calitatea recunoașterii.

Sarcina de adaptare

Dacă, în urma procedurii de control al calității, se constată că aceasta este nesatisfăcătoare, atunci descrierile obiectelor recunoscute incorect pot fi copiate din eșantionul de recunoscut în cel de instruire, completate cu informații de clasificare adecvate și utilizate pentru remodelarea deciziei. reguli, adică luat in considerare. Mai mult, dacă aceste obiecte nu aparțin claselor de recunoaștere existente, ceea ce ar putea fi motivul recunoașterii lor incorecte, atunci această listă poate fi extinsă. Ca urmare, sistemul de recunoaștere se adaptează și începe să clasifice adecvat aceste obiecte.

Problemă de recunoaștere inversă

Sarcina recunoașterii este ca pentru un obiect dat, în funcție de caracteristicile sale cunoscute, sistemul să-și stabilească apartenența la o clasă necunoscută anterior. În problema recunoașterii inverse, dimpotrivă, pentru o anumită clasă de recunoaștere, sistemul determină care trăsături sunt cele mai caracteristice obiectelor acestei clase și care nu sunt (sau care obiecte din eșantionul de antrenament aparțin acestei clase).

Sarcini de cluster și analiză constructivă

Clusterele sunt astfel de grupuri de obiecte, clase sau caracteristici care în cadrul fiecărui cluster sunt cât mai asemănătoare, iar între diferite clustere sunt cât mai diferite.

Un construct (în contextul considerat în această secțiune) este un sistem de clustere opuse. Astfel, într-un anumit sens, constructele sunt rezultatul unei analize de cluster a clusterelor.

În analiza clusterului, gradul de similitudine și diferență a obiectelor (clase, caracteristici) este măsurat cantitativ, iar această informație este folosită pentru clasificare. Rezultatul analizei cluster este însăși clasificarea obiectelor pe clustere. Această clasificare poate fi reprezentată sub formă de rețele semantice.

Sarcina analizei cognitive

În analiza cognitivă, informațiile despre asemănarea și diferența dintre clase sau trăsături sunt de interes pentru cercetător în sine, și nu pentru a le folosi pentru clasificare, ca în analiza cluster și constructivă.

Dacă două clase de recunoaștere sunt caracterizate de aceeași trăsătură, atunci aceasta contribuie la asemănarea acestor două clase. Dacă pentru una dintre clase această caracteristică este necaracteristică, atunci aceasta contribuie la diferență.

Dacă două semne se corelează între ele, atunci într-un anumit sens pot fi considerate ca un singur semn, iar dacă sunt anticorelate, atunci ca fiind diferite. Ținând cont de această circumstanță, prezența diferitelor trăsături în diferite clase aduce, de asemenea, o anumită contribuție la asemănarea și diferența lor.

Rezultatele analizei cognitive pot fi prezentate sub forma unor diagrame cognitive.

Metode de recunoaștere a modelelor și caracteristicile acestora

Principii de clasificare a metodelor de recunoaștere a modelelor

Recunoașterea modelelor este sarcina de a construi și aplica operații formale asupra reprezentărilor numerice sau simbolice ale obiectelor din lumea reală sau ideală, ale căror rezultate ale soluției reflectă relațiile de echivalență dintre aceste obiecte. Relaţiile de echivalenţă exprimă apartenenţa obiectelor evaluate la unele clase, considerate ca unităţi semantice independente.

La construirea algoritmilor de recunoaștere, clasele de echivalență pot fi stabilite de un cercetător care își folosește propriile idei semnificative sau folosește informații suplimentare externe despre asemănarea și diferența dintre obiecte în contextul problemei care se rezolvă. Apoi se vorbește de „recunoaștere cu profesorul”. Altfel, i.e. când un sistem automatizat rezolvă o problemă de clasificare fără a implica informații externe de instruire, se vorbește de clasificare automată sau „recunoaștere nesupravegheată”. Majoritatea algoritmilor de recunoaștere a modelelor necesită o putere de calcul foarte semnificativă, care poate fi furnizată doar de tehnologia computerizată de înaltă performanță.

Diverși autori (Yu.L. Barabash, V.I. Vasiliev, A.L. Gorelik, V.A. Skripkin, R. Duda, P. Hart, L.T. Kuzin, F.I. Peregudov, F.P. Tarasenko, F. E. Temnikov, J. Tu, R. Gonzalez, P. Winston, K. Fu, Ya. Z. Tsypkin și alții) oferă o tipologie diferită a metodelor de recunoaștere a modelelor. Unii autori fac distincție între metodele parametrice, neparametrice și euristice, în timp ce alții evidențiază grupuri de metode bazate pe școlile istorice și tendințele din domeniu. De exemplu, în lucrarea, care oferă o imagine de ansamblu academică a metodelor de recunoaștere, este utilizată următoarea tipologie de metode de recunoaștere a modelelor:

  • metode bazate pe principiul separării;
  • metode statistice;
  • metode construite pe baza „funcțiilor potențiale”;
  • metode de calcul a notelor (votare);
  • metode bazate pe calculul propozițional, în special pe aparatul algebrei logicii.

Această clasificare se bazează pe diferența dintre metodele formale de recunoaștere a modelelor și, prin urmare, luarea în considerare a abordării euristice a recunoașterii, care a primit o dezvoltare completă și adecvată în sistemele expert, este omisă. Abordarea euristică se bazează pe cunoștințe greu de formalizat și pe intuiția cercetătorului. În același timp, cercetătorul însuși determină ce informații și cum ar trebui să folosească sistemul pentru a obține efectul de recunoaștere dorit.

O tipologie similară a metodelor de recunoaștere cu grade diferite de detaliu se găsește în multe lucrări despre recunoaștere. În același timp, binecunoscutele tipologii nu țin cont de o caracteristică foarte semnificativă, care reflectă specificul modului în care sunt reprezentate cunoștințele despre domeniul de studiu folosind orice algoritm formal de recunoaștere a modelelor.

D.A. Pospelov (1990) identifică două modalități principale de reprezentare a cunoștințelor:

  • intensional, sub forma unei scheme de conexiuni între atribute (trăsături).
  • extensională, cu ajutorul unor fapte specifice (obiecte, exemple).

Reprezentarea intensională surprinde tiparele și relațiile care explică structura datelor. În ceea ce privește sarcinile de diagnosticare, o astfel de fixare constă în determinarea operațiunilor asupra atributelor (trăsăturilor) obiectelor care conduc la rezultatul diagnosticului necesar. Reprezentările intenționale sunt implementate prin operații asupra valorilor atributelor și nu implică operații asupra faptelor informaționale specifice (obiectelor).

La rândul lor, reprezentările extensive ale cunoștințelor sunt asociate cu descrierea și fixarea unor obiecte specifice din aria subiectului și sunt implementate în operațiuni, ale căror elemente sunt obiecte ca sisteme integrale.

Este posibil să facem o analogie între reprezentările intensionale și extensive ale cunoașterii și mecanismele care stau la baza activității emisferelor stângă și dreaptă ale creierului uman. Dacă emisfera dreaptă este caracterizată de o reprezentare prototipică holistică a lumii înconjurătoare, atunci emisfera stângă operează cu modele care reflectă conexiunile atributelor acestei lumi.

Cele două moduri fundamentale de reprezentare a cunoștințelor descrise mai sus ne permit să propunem următoarea clasificare a metodelor de recunoaștere a modelelor:

  • metode intensionale bazate pe operatii cu atribute.
  • metode extensive bazate pe operații cu obiecte.

Este necesar să subliniem că existența acestor două (și doar două) grupuri de metode de recunoaștere: cele care operează cu trăsături și cele care operează cu obiecte, este profund firească. Din acest punct de vedere, nici una dintre aceste metode, luate separat de cealaltă, nu face posibilă formarea unei reflectări adecvate a domeniului subiectului. Potrivit autorilor, între aceste metode există o relație de complementaritate în sensul lui N. Bohr, prin urmare, sistemele de recunoaștere promițătoare ar trebui să asigure implementarea ambelor metode, și nu oricare dintre ele.

Astfel, clasificarea metodelor de recunoaștere propusă de D. A. Pospelov se bazează pe legile fundamentale care stau la baza modului uman de cunoaștere în general, ceea ce îl plasează într-o poziție cu totul aparte (privilegiată) față de alte clasificări, care arată mai ușor și mai artificial.

Metode Intensionale

O trăsătură distinctivă a metodelor intensionale este aceea că ele folosesc diferite caracteristici ale caracteristicilor și relațiile lor ca elemente ale operațiunilor în construcția și aplicarea algoritmilor de recunoaștere a modelelor. Astfel de elemente pot fi valori individuale sau intervale de valori ale caracteristicilor, valori medii și variații, matrice de relații de caracteristici etc., asupra cărora sunt efectuate acțiuni, exprimate într-o formă analitică sau constructivă. În același timp, obiectele din aceste metode nu sunt considerate unități informaționale integrale, ci acționează ca indicatori pentru evaluarea interacțiunii și comportamentului atributelor lor.

Grupul de metode intensionale de recunoaștere a modelelor este extins, iar împărțirea sa în subclase este oarecum arbitrară.

Metode bazate pe estimări ale densităților de distribuție a valorilor caracteristicilor

Aceste metode de recunoaștere a modelelor sunt împrumutate din teoria clasică a deciziilor statistice, în care obiectele de studiu sunt considerate ca realizări ale unei variabile aleatoare multidimensionale distribuite în spațiul caracteristic conform unor legi. Ele se bazează pe schema Bayesiană de luare a deciziilor, care face apel la probabilitățile a priori ale obiectelor aparținând uneia sau alteia clase de recunoscut și densitățile de distribuție condiționată a valorilor vectorului caracteristic. Aceste metode sunt reduse la determinarea raportului de probabilitate în diferite zone ale spațiului caracteristic multidimensional.

Grupul de metode bazat pe estimarea densităților de distribuție a valorilor caracteristicilor este direct legat de metodele de analiză discriminantă. Abordarea bayesiană a luării deciziilor este una dintre cele mai dezvoltate în statistica modernă, așa-numitele metode parametrice, pentru care expresia analitică a legii distribuției (în acest caz, legea normală) este considerată cunoscută și doar o mică parte. numărul de parametri (vectori medii și matrice de covarianță) trebuie estimat.

Principalele dificultăți în aplicarea acestor metode sunt necesitatea de a reține întregul eșantion de antrenament pentru a calcula estimări ale densităților locale de distribuție a probabilității și sensibilitatea ridicată la nereprezentativitatea eșantionului de antrenament.

Metode bazate pe ipoteze despre clasa funcțiilor de decizie

În acest grup de metode se consideră cunoscută forma generală a funcției de decizie și se dă calitatea funcțională a acesteia. Pe baza acestei funcționale, cea mai bună aproximare a funcției de decizie se găsește din secvența de antrenament. Cele mai comune sunt reprezentările funcțiilor de decizie sub formă de polinoame liniare și neliniare generalizate. Calitatea funcțională a regulii de decizie este de obicei asociată cu eroarea de clasificare.

Principalul avantaj al metodelor bazate pe ipoteze despre clasa funcțiilor de decizie este claritatea formulării matematice a problemei de recunoaștere ca problemă de găsire a unui extremum. Diversitatea metodelor acestui grup este explicată prin gama largă de funcționale de calitate a regulilor de decizie și algoritmi de căutare extremum. O generalizare a algoritmilor considerați, care includ, în special, algoritmul lui Newton, algoritmii de tip perceptron etc., este metoda de aproximare stocastică.

Au fost studiate destul de bine posibilitățile algoritmilor de gradient pentru găsirea unui extremum, în special în grupul regulilor de decizie liniare. Convergența acestor algoritmi a fost dovedită doar în cazul în care clasele de obiecte recunoscute sunt afișate în spațiul caracteristic prin structuri geometrice compacte.

Calitatea suficient de ridicată a regulii de decizie poate fi obținută folosind algoritmi care nu au o demonstrație matematică riguroasă a convergenței soluției la extremul global. Astfel de algoritmi includ un grup mare de proceduri de programare euristică reprezentând direcția modelării evolutive. Modelarea evolutivă este o metodă bionică împrumutată din natură. Se bazează pe utilizarea unor mecanisme cunoscute de evoluție pentru a înlocui procesul de modelare semnificativă a unui obiect complex cu modelarea fenomenologică a evoluției acestuia. Un reprezentant binecunoscut al modelării evolutive în recunoașterea modelelor este metoda de contabilizare de grup a argumentelor (MGUA). GMDH se bazează pe principiul auto-organizării, iar algoritmii GMDH reproduc schema selecției în masă.

Cu toate acestea, atingerea scopurilor practice în acest caz nu este însoțită de extragerea de noi cunoștințe despre natura obiectelor recognoscibile. Posibilitatea extragerii acestor cunoștințe, în special cunoștințe despre mecanismele de interacțiune a atributelor (trăsăturilor), este limitată aici fundamental de structura dată a unei astfel de interacțiuni, fixată în forma aleasă a funcțiilor decisive.

Metode booleene

Metodele logice de recunoaștere a modelelor se bazează pe aparatul algebrei logice și permit operarea cu informații conținute nu numai în caracteristicile individuale, ci și în combinații de valori ale caracteristicilor. În aceste metode, valorile oricărui atribut sunt considerate evenimente elementare.

În cea mai generală formă, metodele logice pot fi caracterizate ca un fel de căutare a modelelor logice în eșantionul de instruire și formarea unui anumit sistem de reguli de decizie logică (de exemplu, sub forma conjuncțiilor de evenimente elementare), fiecare dintre care are propria sa greutate. Grupul de metode logice este divers și include metode de complexitate și profunzime diferite de analiză. Pentru caracteristicile dihotomice (booleene), sunt populare așa-numitele clasificatoare de tip arbore, metoda de testare fără margini, algoritmul Bark etc.

Algoritmul Kora, ca și alte metode logice de recunoaștere a modelelor, este destul de laborios în ceea ce privește calculul, deoarece este necesară o enumerare completă la selectarea conjuncțiilor. Prin urmare, atunci când se aplică metode logice, se impun cerințe ridicate privind organizarea eficientă a procesului de calcul, iar aceste metode funcționează bine cu dimensiuni relativ mici ale spațiului de caracteristici și numai pe computere puternice.

Metode lingvistice (structurale).

Metodele lingvistice de recunoaștere a modelelor se bazează pe utilizarea unor gramatici speciale care generează limbaje care pot fi folosite pentru a descrie un set de proprietăți ale obiectelor recunoscute.

Pentru diferite clase de obiecte se disting elemente nederivate (atomice) (subimagini, semne) și posibile relații între ele. Gramatica se referă la regulile de construire a obiectelor din aceste elemente nederivate.

Astfel, fiecare obiect este o colecție de elemente nederivate, „legate” între ele într-un fel sau altul, sau, cu alte cuvinte, printr-o „propoziție” a unui „limbaj”. Aș dori să subliniez în mod deosebit valoarea ideologică foarte semnificativă a acestui gând.

Prin analizarea (parsarea) unei „propoziții”, se determină „corectitudinea” sintactică a acesteia sau, echivalent, dacă o gramatică fixă ​​care descrie o clasă poate genera o descriere existentă a unui obiect.

Totuși, sarcina de a recupera (defini) gramatici dintr-un anumit set de enunțuri (propoziții – descrieri de obiecte) care generează un anumit limbaj este greu de formalizat.

Metode de extensie

În metodele acestui grup, spre deosebire de direcția intensională, fiecărui obiect studiat i se acordă o valoare diagnostică independentă într-o măsură mai mare sau mai mică. La baza lor, aceste metode sunt apropiate de abordarea clinică, care consideră oamenii nu ca un lanț de obiecte clasificate în funcție de unul sau altul indicator, ci ca sisteme integrale, fiecare dintre ele fiind individual și având o valoare diagnostică specială. O astfel de atitudine atentă față de obiectele de studiu nu permite excluderea sau pierderea informațiilor despre fiecare obiect individual, ceea ce apare atunci când se aplică metodele de direcție intențională, folosind obiecte doar pentru a detecta și fixa modelele de comportament ale atributelor lor.

Principalele operații în recunoașterea modelelor folosind metodele discutate sunt operațiunile de determinare a asemănării și diferenței obiectelor. Obiectele din grupul specificat de metode joacă rolul de precedente de diagnosticare. În același timp, în funcție de condițiile unei anumite sarcini, rolul unui precedent individual poate varia în limitele cele mai largi: de la participarea principală și definitorie la participarea foarte indirectă la procesul de recunoaștere. La rândul lor, condițiile problemei pot necesita participarea unui număr diferit de precedente de diagnosticare pentru o soluție de succes: de la unul în fiecare clasă recunoscută la întreaga dimensiune a eșantionului, precum și diferite moduri de a calcula măsurile de similitudine și diferență de obiecte. Aceste cerințe explică împărțirea în continuare a metodelor extensiale în subclase.

Metoda de comparare a prototipurilor

Aceasta este cea mai simplă metodă de recunoaștere extensivă. Este utilizat, de exemplu, în cazul în care clasele recunoscute sunt afișate în spațiul caracteristicilor prin grupări geometrice compacte. În acest caz, centrul grupării geometrice a clasei (sau obiectul cel mai apropiat de centru) este de obicei ales ca punct prototip.

Pentru a clasifica un obiect necunoscut, se găsește prototipul cel mai apropiat de acesta, iar obiectul aparține aceleiași clase cu acest prototip. Evident, nu se formează imagini de clasă generalizate în această metodă.

Diferite tipuri de distanțe pot fi utilizate ca măsură a proximității. Adesea pentru caracteristicile dihotomice se folosește distanța Hamming, care în acest caz este egală cu pătratul distanței euclidiene. În acest caz, regula de decizie pentru clasificarea obiectelor este echivalentă cu o funcție de decizie liniară.

Acest fapt trebuie remarcat în mod deosebit. Demonstrează clar legătura dintre prototip și reprezentarea indicativă a informațiilor despre structura datelor. Folosind reprezentarea de mai sus, de exemplu, orice scară de măsurare tradițională, care este o funcție liniară a valorilor caracteristicilor dihotomice, poate fi considerată un prototip de diagnostic ipotetic. La rândul său, dacă analiza structurii spațiale a claselor recunoscute ne permite să concluzionam că acestea sunt compacte din punct de vedere geometric, atunci este suficient să înlocuim fiecare dintre aceste clase cu un prototip, care este de fapt echivalent cu un model de diagnostic liniar.

În practică, desigur, situația este adesea diferită de exemplul idealizat descris. Un cercetător care intenționează să aplice o metodă de recunoaștere bazată pe comparație cu prototipurile claselor de diagnostic se confruntă cu probleme dificile.

În primul rând, este alegerea unei măsuri de proximitate (metrică), care poate schimba semnificativ configurația spațială a distribuției obiectelor. În al doilea rând, o problemă independentă este analiza structurilor multidimensionale ale datelor experimentale. Ambele probleme sunt deosebit de acute pentru cercetător în condiții de dimensiune mare a spațiului caracteristic, ceea ce este tipic pentru problemele reale.

k metoda vecinului apropiat

Metoda k cei mai apropiati vecini pentru rezolvarea problemelor de analiză discriminantă a fost propusă pentru prima dată în 1952. Este după cum urmează.

Când se clasifică un obiect necunoscut, se găsește un număr dat (k) de alte obiecte care sunt cele mai apropiate din punct de vedere geometric de el în spațiul caracteristic (cei mai apropiati vecini) cu aparținând deja cunoscute la clase de recunoscut. Decizia de a atribui un obiect necunoscut unei anumite clase de diagnostic este luată prin analizarea informațiilor despre această apartenență cunoscută a vecinilor săi cei mai apropiați, de exemplu, folosind o simplă numărare a voturilor.

Inițial, metoda k cei mai apropiați vecini a fost considerată o metodă neparametrică pentru estimarea raportului de probabilitate. Pentru această metodă se obțin estimări teoretice ale eficacității sale în comparație cu clasificatorul bayesian optim. Se dovedește că probabilitățile de eroare asimptotică pentru metoda k cel mai apropiat vecin depășesc erorile regulii Bayes de cel mult două ori.

Când se utilizează metoda k vecini cei mai apropiați pentru recunoașterea modelelor, cercetătorul trebuie să rezolve problema dificilă a alegerii unei metrici pentru a determina proximitatea obiectelor diagnosticate. Această problemă în condițiile dimensiunii mari a spațiului caracteristic este extrem de agravată din cauza laboriozității suficiente a acestei metode, care devine semnificativă chiar și pentru calculatoarele performante. Prin urmare, aici, ca și în metoda de comparare a prototipurilor, este necesar să se rezolve problema creativă a analizei structurii multidimensionale a datelor experimentale pentru a minimiza numărul de obiecte reprezentând clase de diagnostic.

Necesitatea reducerii numărului de obiecte din eșantionul de antrenament (precedentele de diagnostic) este un dezavantaj al acestei metode, deoarece reduce reprezentativitatea eșantionului de antrenament.

Algoritmi pentru calcularea notelor („vot”)

Principiul de funcționare al algoritmilor de evaluare (ABO) este acela de a calcula priorități (scoruri de similaritate) care caracterizează „proximitatea” obiectelor recunoscute și de referință conform sistemului de ansambluri de caracteristici, care este un sistem de subseturi ale unui set dat de caracteristici. .

Spre deosebire de toate metodele considerate anterior, algoritmii pentru calcularea estimărilor operează cu descrieri de obiecte într-un mod fundamental nou. Pentru acești algoritmi, obiectele există simultan în subspații foarte diferite ale spațiului caracteristic. Clasa ABO aduce ideea utilizării caracteristicilor la concluzia sa logică: deoarece nu se știe întotdeauna care combinații de caracteristici sunt cele mai informative, în ABO gradul de similitudine al obiectelor se calculează comparând toate combinațiile posibile sau anumite combinații de caracteristici. incluse în descrierile obiectelor.

Combinațiile utilizate de atribute (subspații) se numesc seturi suport sau seturi de descrieri parțiale ale obiectelor. Este introdus conceptul de proximitate generalizată între obiectul recunoscut și obiectele eșantionului de antrenament (cu o clasificare cunoscută), care se numesc obiecte de referință. Această proximitate este reprezentată de o combinație a proximității obiectului recunoscut cu obiectele de referință calculate pe seturi de descrieri parțiale. Astfel, ABO este o extensie a metodei k vecini cei mai apropiati, în care proximitatea obiectelor este luată în considerare doar într-un spațiu de caracteristici dat.

O altă extensie a ABO este aceea că în acești algoritmi se formulează problema determinării asemănării și diferenței obiectelor ca una parametrică și se selectează etapa de stabilire a ABO în funcție de eșantionul de antrenament, la care valorile optime ale sunt selectați parametrii introduși. Criteriul de calitate este eroarea de recunoaștere și literalmente totul este parametrizat:

  • reguli pentru calcularea proximității obiectelor după caracteristici individuale;
  • reguli pentru calcularea proximității obiectelor în subspații caracteristice;
  • gradul de importanță a unui anumit obiect de referință ca precedent de diagnostic;
  • semnificația contribuției fiecărui set de referință de caracteristici la evaluarea finală a similitudinii obiectului recunoscut cu orice clasă de diagnostic.

Parametrii răcitorului de aer sunt stabiliți sub formă de valori de prag și (sau) ca greutăți ale componentelor indicate.

Posibilitățile teoretice ale ABO sunt cel puțin nu mai mici decât cele ale oricărui alt algoritm de recunoaștere a modelelor, deoarece cu ajutorul ABO pot fi implementate toate operațiunile imaginabile cu obiectele studiate.

Dar, așa cum se întâmplă de obicei, extinderea potențialităților întâmpină mari dificultăți în implementarea lor practică, mai ales în etapa de construire (tuning) algoritmi de acest tip.

Au fost observate dificultăți separate mai devreme când s-a discutat despre metoda k vecini cei mai apropiați, care ar putea fi interpretată ca o versiune trunchiată a ABO. Poate fi considerat și într-o formă parametrică și reduce problema la găsirea unei metrici ponderate de tipul selectat. În același timp, aici apar deja întrebări teoretice complexe și probleme asociate cu organizarea unui proces de calcul eficient pentru probleme de dimensiuni înalte.

Pentru ABO, dacă încercați să utilizați complet capacitățile acestor algoritmi, aceste dificultăți cresc de multe ori.

Problemele notate explică faptul că, în practică, utilizarea ABO pentru rezolvarea problemelor de dimensiuni înalte este însoțită de introducerea oricăror restricții și ipoteze euristice. În special, există un exemplu de utilizare a lui ABO în psihodiagnostic, în care a fost testată o versiune de ABO, care este de fapt echivalentă cu metoda k vecini cei mai apropiați.

Colectivuri cu reguli decisive

La sfârșitul revizuirii metodelor de recunoaștere a modelelor, să ne oprim asupra unei alte abordări. Acestea sunt așa-numitele reguli ale echipelor de decizie (CRC).

Deoarece diferiți algoritmi de recunoaștere se comportă diferit pe același eșantion de obiecte, se pune în mod natural întrebarea cu privire la o regulă de decizie sintetică care utilizează în mod adaptiv punctele forte ale acestor algoritmi. Regula de decizie sintetică folosește o schemă de recunoaștere pe două niveluri. La primul nivel funcționează algoritmii de recunoaștere privat, ale căror rezultate sunt combinate la al doilea nivel în blocul de sinteză. Cele mai comune metode ale unei astfel de combinații se bazează pe alocarea domeniilor de competență ale unui anumit algoritm. Cel mai simplu mod de a găsi domenii de competență este împărțirea a priori a spațiului de atribute pe baza considerentelor profesionale ale unei anumite științe (de exemplu, stratificarea eșantionului în funcție de un anumit atribut). Apoi, pentru fiecare dintre zonele selectate, se construiește propriul algoritm de recunoaștere. O altă metodă se bazează pe utilizarea analizei formale pentru a determina zonele locale ale spațiului caracteristic ca vecinătăți de obiecte recunoscute pentru care a fost dovedit succesul unui anumit algoritm de recunoaștere.

Cea mai generală abordare a construirii unui bloc de sinteză consideră indicatorii rezultați ai algoritmilor parțiali ca caracteristici inițiale pentru construirea unei noi reguli de decizie generalizate. În acest caz, pot fi utilizate toate metodele de mai sus de direcții intensionale și extensiale în recunoașterea modelelor. Eficienți pentru rezolvarea problemei creării unui set de reguli de decizie sunt algoritmii logici de tip „Kora” și algoritmii de calcul al estimărilor (ABO), care stau la baza așa-numitei abordări algebrice, care oferă cercetare și o descriere constructivă a algoritmi de recunoaștere, în cadrul cărora se încadrează toate tipurile existente de algoritmi.

Analiza comparativă a metodelor de recunoaștere a modelelor

Să comparăm metodele de recunoaștere a modelelor descrise mai sus și să evaluăm gradul de adecvare a acestora la cerințele formulate în Secțiunea 3.3.3 pentru modelele SDA pentru sisteme de control automate adaptive pentru sisteme complexe.

Pentru rezolvarea problemelor reale din grupul de metode ale direcţiei intensionale au valoare practică metodele parametrice şi metodele bazate pe propuneri pe forma funcţiilor decisive. Metodele parametrice stau la baza metodologiei tradiționale de construire a indicatorilor. Aplicarea acestor metode în probleme reale este asociată cu impunerea unor restricții puternice asupra structurii datelor, care conduc la modele de diagnostic liniare cu estimări foarte aproximative ale parametrilor acestora. Atunci când utilizează metode bazate pe ipoteze despre forma funcțiilor de decizie, cercetătorul este, de asemenea, forțat să apeleze la modele liniare. Acest lucru se datorează dimensiunii mari a spațiului caracteristic, care este tipică pentru problemele reale, care, odată cu creșterea gradului funcției de decizie polinomială, dă o creștere uriașă a numărului de membri ai săi cu o creștere concomitentă problematică a calitatea recunoașterii. Astfel, proiectând aria de aplicare potențială a metodelor de recunoaștere intențională la probleme reale, obținem o imagine care corespunde metodologiei tradiționale bine stabilite a modelelor de diagnostic liniare.

Proprietățile modelelor de diagnostic liniare, în care indicatorul de diagnostic este reprezentat de o sumă ponderată a caracteristicilor inițiale, sunt bine studiate. Rezultatele acestor modele (cu normalizare corespunzătoare) sunt interpretate ca distanțe de la obiectele studiate până la un hiperplan din spațiul caracteristic sau, echivalent, ca proiecții ale obiectelor pe o linie dreaptă din spațiul dat. Prin urmare, modelele liniare sunt adecvate doar pentru configurații geometrice simple ale regiunilor de spațiu caracteristic în care sunt mapate obiecte din diferite clase de diagnosticare. Cu distribuții mai complexe, aceste modele nu pot reflecta în mod fundamental multe caracteristici ale structurii de date experimentale. În același timp, astfel de caracteristici pot oferi informații de diagnosticare valoroase.

În același timp, apariția în orice problemă reală a structurilor multidimensionale simple (în special, distribuțiile normale multidimensionale) ar trebui privită mai degrabă ca o excepție decât ca o regulă. Adesea, clasele de diagnostic se formează pe baza unor criterii externe complexe, ceea ce implică automat eterogenitatea geometrică a acestor clase în spațiul caracteristicilor. Acest lucru este valabil mai ales pentru criteriile de „viață” care sunt cel mai frecvent întâlnite în practică. În astfel de condiții, utilizarea modelelor liniare fixează doar cele mai „aspre” modele de informații experimentale.

Utilizarea metodelor extensive nu este asociată cu nicio presupunere cu privire la structura informațiilor experimentale, cu excepția faptului că în cadrul claselor recunoscute trebuie să existe unul sau mai multe grupuri de obiecte care sunt oarecum similare, iar obiectele din clase diferite trebuie să difere unele de altele în unele cazuri. cale. Este evident că pentru orice dimensiune finită a eșantionului de antrenament (și nu poate fi diferită), această cerință este întotdeauna îndeplinită pur și simplu pentru că există diferențe aleatorii între obiecte. Diferite măsuri de proximitate (distanță) a obiectelor din spațiul caracteristic sunt utilizate ca măsuri de similitudine. Prin urmare, utilizarea eficientă a metodelor de recunoaștere a modelelor extensive depinde de cât de bine sunt determinate aceste măsuri de proximitate, precum și de ce obiecte din eșantionul de antrenament (obiecte cu o clasificare cunoscută) joacă rolul de precedente de diagnostic. Rezolvarea cu succes a acestor probleme dă un rezultat care se apropie de limitele teoretic realizabile ale eficienței recunoașterii.

Avantajele metodelor extensive de recunoaștere a modelelor se opun, în primul rând, complexitatea tehnică ridicată a implementării lor practice. Pentru spațiile caracteristice cu dimensiuni mari, sarcina aparent simplă de a găsi perechi de puncte cele mai apropiate se transformă într-o problemă serioasă. De asemenea, mulți autori notează ca o problemă necesitatea amintirii unui număr suficient de mare de obiecte reprezentând clase recognoscibile.

În sine, aceasta nu este o problemă, dar este percepută ca o problemă (de exemplu, în metoda k cei mai apropiati vecini) pentru că, la recunoașterea fiecărui obiect, are loc o enumerare completă a tuturor obiectelor din eșantionul de antrenament.

Prin urmare, este recomandabil să se aplice modelul sistemului de recunoaștere, în care problema unei enumerări complete a obiectelor eșantionului de antrenament în timpul recunoașterii este eliminată, deoarece se efectuează o singură dată când se formează imagini generalizate ale claselor de recunoaștere. În recunoașterea în sine, obiectul identificat este comparat numai cu imagini generalizate ale claselor de recunoaștere, al căror număr este fix și nu depinde deloc de dimensiunea eșantionului de antrenament. Această abordare vă permite să măriți dimensiunea eșantionului de antrenament până la obținerea calității înalte necesare a imaginilor generalizate, fără teama că aceasta ar putea duce la o creștere inacceptabilă a timpului de recunoaștere (deoarece timpul de recunoaștere în acest model nu depinde de dimensiunea antrenamentului la toate). mostre).

Problemele teoretice ale aplicării metodelor de recunoaștere extensivă sunt legate de problemele de căutare a grupurilor informative de trăsături, găsirea unor metrici optime pentru măsurarea asemănării și diferențelor obiectelor și analiza structurii informațiilor experimentale. În același timp, soluționarea cu succes a acestor probleme permite nu numai proiectarea unor algoritmi de recunoaștere eficienți, ci și realizarea tranziției de la cunoașterea extensivă a faptelor empirice la cunoașterea intensională a tiparelor structurii lor.

Tranziția de la cunoașterea extensivă la cunoașterea intensională are loc în stadiul în care a fost deja construit un algoritm de recunoaștere formală și a fost demonstrată eficacitatea acestuia. Apoi se efectuează studiul mecanismelor prin care se realizează eficiența obținută. Un astfel de studiu, asociat cu analiza structurii geometrice a datelor, poate duce, de exemplu, la concluzia că este suficient să înlocuiți obiectele care reprezintă o anumită clasă de diagnosticare cu un reprezentant tipic (prototip). Acest lucru este echivalent, după cum sa menționat mai sus, cu scara tradițională de diagnostic liniară. De asemenea, este posibil să fie suficient să înlocuiți fiecare clasă de diagnosticare cu mai multe obiecte care au sens ca reprezentanți tipici ai unor subclase, ceea ce este echivalent cu construirea unui evantai de scale liniare. Există și alte opțiuni, care vor fi discutate mai jos.

Astfel, o analiză a metodelor de recunoaștere arată că în prezent au fost dezvoltate teoretic o serie de metode diferite de recunoaștere a modelelor. Literatura de specialitate oferă o clasificare detaliată a acestora. Cu toate acestea, pentru majoritatea acestor metode, implementarea lor software este absentă, iar acest lucru este profund natural, s-ar putea spune chiar „predeterminat” de caracteristicile metodelor de recunoaștere în sine. Acest lucru poate fi judecat prin faptul că astfel de sisteme sunt puțin menționate în literatura de specialitate și în alte surse de informare.

În consecință, problema aplicabilității practice a anumitor metode de recunoaștere teoretică pentru rezolvarea problemelor practice cu dimensiuni de date reale (adică destul de semnificative) și pe computere moderne reale rămâne insuficient dezvoltată.

Împrejurarea de mai sus poate fi înțeleasă dacă ne amintim că complexitatea modelului matematic crește exponențial complexitatea implementării software a sistemului și în aceeași măsură reduce șansele ca acest sistem să funcționeze în practică. Aceasta înseamnă că numai sisteme software bazate pe modele matematice destul de simple și „transparente” pot fi implementate pe piață. Prin urmare, un dezvoltator interesat de replicarea produsului său software abordează problema alegerii unui model matematic nu din punct de vedere pur științific, ci ca pragmatist, ținând cont de posibilitățile de implementare a software-ului. El consideră că modelul ar trebui să fie cât mai simplu posibil, ceea ce înseamnă că ar trebui implementat la costuri mai mici și cu o calitate mai bună, și ar trebui să funcționeze (să fie practic eficient).

În acest sens, sarcina implementării în sistemele de recunoaștere a unui mecanism de generalizare a descrierilor obiectelor aparținând aceleiași clase, i.e. mecanism de formare a imaginilor compacte generalizate. Este evident că un astfel de mecanism de generalizare va permite „comprimarea” oricărui eșantion de antrenament din punct de vedere al dimensiunii la o bază de imagini generalizate cunoscute dinainte din punct de vedere al dimensiunii. Acest lucru ne va permite, de asemenea, să stabilim și să rezolvăm o serie de probleme care nici măcar nu pot fi formulate în astfel de metode de recunoaștere, cum ar fi comparația cu metoda prototipului, metoda k vecini cei mai apropiați și ABO.

Acestea sunt sarcinile:

  • determinarea contribuției informaționale a caracteristicilor la portretul informațional al unei imagini generalizate;
  • analiza cluster-constructivă a imaginilor generalizate;
  • determinarea încărcării semantice a caracteristicii;
  • analiza cluster-constructivă semantică a caracteristicilor;
  • o comparație semnificativă a imaginilor de clasă generalizate între ele și a caracteristicilor între ele (diagrame cognitive, inclusiv diagrame Merlin).

Metoda care a făcut posibilă rezolvarea acestor probleme distinge și sistemul de perspectivă bazat pe acesta de alte sisteme, la fel cum compilatorii diferă de interpreți, deoarece datorită formării imaginilor generalizate în acest sistem de perspectivă, timpul de recunoaștere este independent de dimensiunea eșantionului de antrenament. Se știe că existența acestei dependențe conduce la un timp practic inacceptabil al computerului petrecut pentru recunoaștere în metode precum metoda k vecinilor cei mai apropiați, ABO și CLD la astfel de dimensiuni ale eșantionului de antrenament, când putem vorbi despre suficiente statistici. .

În încheierea unei scurte treceri în revistă a metodelor de recunoaștere, prezentăm esența celor de mai sus într-un tabel rezumativ (Tabelul 3.1), care conține o scurtă descriere a diferitelor metode de recunoaștere a modelelor în următorii parametri:

  • clasificarea metodelor de recunoaștere;
  • domenii de aplicare a metodelor de recunoaștere;
  • clasificarea limitărilor metodelor de recunoaştere.
Clasificarea metodelor de recunoaștere Zona de aplicare Limitări (dezavantaje)
Metode intensive de recunoaștere Metode bazate pe estimări ale densităților de distribuție a valorilor caracteristicilor (sau asemănări și diferențe între obiecte) Probleme cu o distribuție cunoscută, de obicei normală, necesitatea de a colecta statistici mari Necesitatea de a enumera întregul set de antrenament în timpul recunoașterii, sensibilitate ridicată la nereprezentativitatea setului de antrenament și artefacte
Metode bazate pe ipoteze despre clasa funcțiilor de decizie Clasele ar trebui să fie bine separabile, sistemul de caracteristici ar trebui să fie ortonormal Forma funcției de decizie trebuie cunoscută în prealabil. Imposibilitatea luării în considerare a noilor cunoștințe despre corelațiile dintre trăsături
Metode booleene La selectarea regulilor de decizie logică (conjuncții), este necesară o enumerare completă. Complexitate de calcul ridicată
Metode lingvistice (structurale). Probleme de dimensiuni reduse ale spațiului caracteristic Sarcina de restaurare (definire) a gramaticii dintr-un anumit set de enunțuri (descrieri ale obiectelor) este dificil de formalizat. Probleme teoretice nerezolvate
Metode extensive de recunoaștere Metoda de comparare a prototipurilor Probleme de dimensiuni reduse ale spațiului caracteristic Dependență ridicată a rezultatelor clasificării de măsurile de distanță (metrice). Valoare optimă necunoscută
k metoda vecinului apropiat Dependență ridicată a rezultatelor clasificării de măsurile de distanță (metrice). Necesitatea unei enumerări complete a eșantionului de formare în timpul recunoașterii. Complexitatea computațională
Algoritmi de calcul a notelor (votare) AVO Probleme de mică dimensiune în ceea ce privește numărul de clase și caracteristici Dependența rezultatelor clasificării de măsura distanței (metrică). Necesitatea unei enumerări complete a eșantionului de formare în timpul recunoașterii. Complexitatea tehnică ridicată a metodei
Colectivuri cu reguli decisive (CRC) Probleme de mică dimensiune în ceea ce privește numărul de clase și caracteristici Complexitatea tehnică foarte mare a metodei, numărul nerezolvat de probleme teoretice, atât în ​​determinarea domeniilor de competență ale anumitor metode, cât și în anumite metode în sine.

Tabelul 3.1 - Tabel rezumativ de clasificare a metodelor de recunoaștere, compararea domeniilor lor de aplicare și limitări

Rolul și locul recunoașterii modelelor în automatizarea managementului sistemelor complexe

Sistemul de control automat este format din două părți principale: obiectul de control și sistemul de control.

Sistemul de control îndeplinește următoarele funcții:

  • identificarea stării obiectului de control;
  • desfasurarea unei actiuni de control bazata pe scopurile managementului, tinand cont de starea obiectului de control si a mediului;
  • oferind un efect de control asupra obiectului de control.

Recunoașterea modelelor nu este altceva decât identificarea stării unui obiect.

Prin urmare, posibilitatea utilizării sistemului de recunoaștere a modelelor în etapa identificării stării obiectului de control pare destul de evidentă și firească. Cu toate acestea, acest lucru poate să nu fie necesar. Prin urmare, se pune întrebarea în ce cazuri este recomandabil să se folosească sistemul de recunoaștere în sistemul de control automat și în care nu este.

Conform datelor din literatură, în multe sisteme de control automat dezvoltate anterior și moderne în subsistemele de identificare a stării obiectului de control și de generare a acțiunilor de control, sunt utilizate modele matematice deterministe de „numărare directă”, care determină fără ambiguitate și pur și simplu ce trebuie face cu obiectul de control dacă are anumiți parametri externi.

În același timp, întrebarea cu privire la modul în care acești parametri sunt relaționați cu anumite stări ale obiectului de control nu este ridicată sau rezolvată. Această poziție corespunde punctului de vedere, care constă în faptul că relația lor unu-la-unu este acceptată „în mod implicit”. Prin urmare, termenii: „parametri ai obiectului de control” și „starea obiectului de control” sunt considerați sinonimi, iar conceptul de „stare a obiectului de control” nu este deloc introdus în mod explicit. Totuși, este evident că, în cazul general, relația dintre parametrii observați ai obiectului de control și starea acestuia este dinamică și probabilistă.

Astfel, sistemele tradiționale de control automatizate sunt în esență sisteme de control parametrice, adică. sisteme care gestionează nu stările obiectului de control, ci doar parametrii observabili ai acestuia. Decizia asupra acțiunii de control este luată în astfel de sisteme ca și cum ar fi „orb”, adică. fără a forma o imagine holistică a obiectului de control și a mediului în starea lor actuală, precum și fără a prezice dezvoltarea mediului și reacția obiectului de control la anumite acțiuni de control asupra acestuia, acționând concomitent cu influența prevăzută a mediului. .

Din pozițiile dezvoltate în această lucrare, termenul de „luare a deciziilor” în sensul modern este cu greu aplicabil sistemelor tradiționale de control automatizat. Cert este că „luarea deciziilor”, cel puțin, implică o viziune holistică a unui obiect din mediu, și nu numai în starea lor actuală, ci și în dinamică și în interacțiune atât între ele, cât și cu sistemul de control, presupune luarea în considerare a diferitelor opțiuni alternative pentru dezvoltarea acestui întreg sistem, precum și îngustarea diversității (reducerea) acestor alternative pe baza anumitor criterii țintă. Nimic din toate acestea, evident, nu este în ACS tradițional, sau este, ci într-o formă simplificată.

Desigur, metoda tradițională este adecvată și aplicarea ei este destul de corectă și justificată în cazurile în care obiectul de control este într-adevăr un sistem stabil și rigid determinat, iar influența mediului asupra acestuia poate fi neglijată.

Cu toate acestea, în alte cazuri, această metodă este ineficientă.

Dacă obiectul de control este dinamic, atunci modelele care stau la baza algoritmilor săi de control devin rapid inadecvate, deoarece relația dintre parametrii de intrare și de ieșire se modifică, precum și setul de parametri esențiali în sine. În esență, aceasta înseamnă că sistemele tradiționale de control automatizate sunt capabile să controleze starea obiectului de control numai în apropierea punctului de echilibru prin intermediul acțiunilor slabe de control asupra acestuia, de exemplu. prin metoda micilor perturbaţii. Departe de starea de echilibru, din punct de vedere tradițional, comportamentul obiectului de control pare imprevizibil și incontrolabil.

Dacă nu există o relație neechivocă între parametrii de intrare și de ieșire ai obiectului de control (adică între parametrii de intrare și starea obiectului), cu alte cuvinte, dacă această relație are o natură probabilistică pronunțată, atunci modelele deterministe, în despre care se presupune că rezultatul măsurării unui anumit parametru este pur și simplu număr, inițial neaplicabil. În plus, forma acestei relații poate fi pur și simplu necunoscută și atunci este necesar să se pornească de la cea mai generală presupunere: că este probabilistică sau deloc definită.

Un sistem de control automat construit pe principii tradiționale poate funcționa doar pe baza unor parametri, ale căror modele de relații sunt deja cunoscute, studiate și reflectate în modelul matematic, în acest studiu a fost stabilită sarcina de a dezvolta astfel de metode de proiectare a controlului automatizat. sisteme care vor permite crearea de sisteme care să identifice și să stabilească cei mai importanți parametri și să determine natura legăturilor dintre aceștia și stările obiectului de control.

În acest caz, este necesar să se aplice metode de măsurare mai dezvoltate și adecvate situației reale:

  • clasificare sau recunoaștere a modelelor (învățare pe baza unui eșantion de antrenament, adaptabilitatea algoritmilor de recunoaștere, adaptabilitatea seturilor de clase și a parametrilor studiați, selectarea parametrilor cei mai semnificativi și reducerea dimensiunii descrierii cu menținerea unei redundanțe date etc.);
  • măsurători statistice, când rezultatul măsurării unui anumit parametru nu este un singur număr, ci o distribuție de probabilitate: o modificare a unei variabile statistice nu înseamnă o modificare a valorii acesteia în sine, ci o modificare a caracteristicilor distribuției de probabilitate a valorile sale.

Ca urmare, sistemele de control automatizate bazate pe abordarea deterministă tradițională practic nu funcționează cu obiecte de control dinamice complexe, multiparametrice slab determinate, cum ar fi, de exemplu, sistemele macro și micro-socio-economice într-o economie dinamică a „ perioada de tranziție”, elita ierarhică și grupurile etnice, societatea și electoratul, fiziologia și psihicul uman, ecosistemele naturale și artificiale și multe altele.

Este foarte semnificativ faptul că, la mijlocul anilor 80, școala lui I.Prigozhin a dezvoltat o abordare, conform căreia, în dezvoltarea oricărui sistem (inclusiv a unei persoane), alternează perioade în care sistemul se comportă fie ca „în mare parte determinist”, sau ca „în mare parte aleatoriu”. Desigur, un sistem de control real trebuie să gestioneze stabil obiectul de control nu numai în secțiunile „deterministe” ale istoriei sale, ci și în punctele în care comportamentul său ulterioar devine extrem de incert. Numai acest lucru înseamnă că este necesar să se dezvolte abordări ale managementului sistemelor în comportamentul cărora există un mare element de aleatorie (sau ceea ce în prezent este descris matematic drept „aleatorie”).

Prin urmare, compoziția sistemelor de control automate promițătoare care asigură controlul sistemelor complexe dinamice multiparametrice slab deterministe, ca verigi funcționale esențiale, va include aparent subsisteme pentru identificarea și prezicerea stărilor mediului și a obiectului de control, bazate pe metode de inteligență artificială. (în primul rând recunoașterea modelelor), metode de sprijinire a luării deciziilor și teoria informației.

Să luăm în considerare pe scurt problema utilizării sistemelor de recunoaștere a imaginii pentru a lua o decizie cu privire la o acțiune de control (această problemă va fi discutată mai detaliat mai târziu, deoarece este cea cheie pentru această lucrare). Dacă luăm ținta și alte stări ale obiectului de control ca clase de recunoaștere, iar factorii care îl influențează ca trăsături, atunci se poate forma o măsură a relației dintre factori și stări în modelul de recunoaștere a modelelor. Aceasta permite obținerea de informații despre factorii care contribuie sau împiedică trecerea acestuia în această stare, pe baza unei stări date a obiectului de control și, pe această bază, elaborarea unei decizii asupra acțiunii de control.

Factorii pot fi împărțiți în următoarele grupe:

  • caracterizarea preistoriei obiectului de control;
  • caracterizarea stării curente a obiectului de control;
  • factori de mediu;
  • factori tehnologici (gestionați).

Astfel, sistemele de recunoaștere a imaginilor pot fi utilizate ca parte a unui sistem de control automat: în subsisteme de identificare a stării unui obiect de control și generare de acțiuni de control.

Acest lucru este util atunci când obiectul de control este un sistem complex.

Luarea unei decizii asupra acțiunii de control în sistemul de control automatizat

Soluția problemei sintezei sistemelor de control automate adaptive prin sisteme complexe este luată în considerare în această lucrare, ținând cont de numeroase și profunde analogii între metodele de recunoaștere a modelelor și luarea deciziilor.

Pe de o parte, sarcina recunoașterii modelelor este o decizie privind apartenența unui obiect de recunoscut la o anumită clasă de recunoaștere.

Pe de altă parte, autorii propun să considere problema luării deciziilor ca o problemă inversă a decodării sau o problemă inversă a recunoașterii modelelor (vezi secțiunea 2.2.2).

Comunitatea ideilor de bază care stau la baza metodelor de recunoaștere a modelelor și de luare a deciziilor devine deosebit de evidentă atunci când le analizăm din punctul de vedere al teoriei informației.

Varietate de sarcini de luare a deciziilor

Luarea deciziilor ca realizare a unui scop

Definiție: luarea unei decizii („alegerea”) este o acțiune asupra unui set de alternative, în urma căreia setul inițial de alternative se restrânge, de exemplu. este redusă.

Alegerea este o acțiune care dă scop oricărei activități. Prin acte de alegere se realizează subordonarea tuturor activităților unui scop specific sau unui set de scopuri interconectate.

Astfel, pentru ca actul de alegere să devină posibil, sunt necesare următoarele:

  • generarea sau descoperirea unui set de alternative pentru a face o alegere;
  • determinarea scopurilor pentru atingerea cărora se face alegerea;
  • dezvoltarea și aplicarea unei metode de comparare a alternativelor între ele, de ex. determinarea unui rating de preferință pentru fiecare alternativă în funcție de anumite criterii, permițând evaluarea indirectă a modului în care fiecare alternativă îndeplinește obiectivul.

Lucrările moderne în domeniul suportului decizional au relevat o situație caracteristică, care constă în faptul că formalizarea completă a găsirii celei mai bune (într-un anumit sens) soluție este posibilă numai pentru probleme bine studiate, relativ simple, în timp ce în practică, Problemele slab structurate sunt mai frecvente, pentru care nu au fost dezvoltați algoritmi complet formalizați (cu excepția enumerarii exhaustive și încercări și erori). Cu toate acestea, profesioniștii cu experiență, competenți și capabili fac adesea alegeri care se dovedesc a fi destul de bune. Prin urmare, tendința actuală în practica de luare a deciziilor în situații naturale este de a combina capacitatea unei persoane de a rezolva probleme neformalizate cu capacitățile metodelor formale și modelării computerizate: sisteme interactive de sprijinire a deciziei, sisteme expert, adaptativ om-mașină automatizat. sisteme de control, rețele neuronale și sisteme cognitive.

Luarea deciziilor ca eliminare a incertitudinii (abordarea informațională)

Procesul de obținere a informațiilor poate fi considerat ca o scădere a incertitudinii ca urmare a primirii unui semnal, iar cantitatea de informații - ca o măsură cantitativă a gradului de eliminare a incertitudinii.

Dar ca urmare a alegerii unui subset de alternative din set, i.e. ca urmare a luării unei decizii se întâmplă același lucru (scăderea incertitudinii). Aceasta înseamnă că fiecare alegere, fiecare decizie generează o anumită cantitate de informație și, prin urmare, poate fi descrisă în termeni de teoria informației.

Clasificarea problemelor de luare a deciziilor

Multiplicitatea sarcinilor de luare a deciziilor se datorează faptului că fiecare componentă a situației în care se realizează luarea deciziilor poate fi implementată în moduri calitativ diferite.

Iată doar câteva dintre aceste opțiuni:

  • setul de alternative, pe de o parte, poate fi finit, numărabil sau continuu, iar pe de altă parte, poate fi închis (adică complet cunoscut) sau deschis (inclusiv elemente necunoscute);
  • alternativele pot fi evaluate după unul sau mai multe criterii, care, la rândul lor, pot fi cantitative sau calitative;
  • modul de selecție poate fi unic (o singură dată), sau multiplu, repetitiv, incluzând feedback cu privire la rezultatele selecției, de ex. permițând învățarea algoritmilor de luare a deciziilor, ținând cont de consecințele alegerilor anterioare;
  • consecințele alegerii fiecărei alternative pot fi cunoscute cu precizie dinainte (alegerea sub certitudine), au o natură probabilistică atunci când probabilitățile de rezultate posibile sunt cunoscute după alegerea (alegerea sub risc) sau au un rezultat ambiguu cu probabilități necunoscute (alegerea sub incertitudine);
  • responsabilitatea pentru alegere poate fi absentă, individuală sau de grup;
  • gradul de consecvență al obiectivelor într-o alegere de grup poate varia de la coincidența completă a intereselor părților (alegere cooperativă) până la opusul acestora (alegerea într-o situație conflictuală). Sunt posibile și opțiuni intermediare: un compromis, o coaliție, un conflict în creștere sau stingere.

Diverse combinații ale acestor opțiuni duc la numeroase probleme de luare a deciziilor care au fost studiate în grade diferite.

Limbi pentru descrierea metodelor de luare a deciziilor

Unul și același fenomen poate fi vorbit în diferite limbi, cu diferite grade de generalitate și adecvare. Până în prezent, au existat trei limbi principale pentru descrierea alegerii.

Cel mai simplu, mai dezvoltat și mai popular este limbajul de criterii.

Limbajul criteriilor

Numele acestui limbaj este asociat cu ipoteza de bază că fiecare alternativă individuală poate fi evaluată printr-un anumit număr (un singur), după care compararea alternativelor se reduce la o comparație a numerelor lor corespunzătoare.

Fie, de exemplu, (X) o mulțime de alternative și x o alternativă definită aparținând acestei mulțimi: x∈X. Atunci se consideră că pentru tot x poate fi dată o funcție q(x), care se numește criteriu (criteriu de calitate, funcție obiectiv, funcție de preferință, funcție de utilitate etc.), care are proprietatea că dacă alternativa x 1 este preferabil x 2 (notat: x 1 > x 2), apoi q (x 1) > q (x 2).

În acest caz, alegerea se reduce la găsirea unei alternative cu cea mai mare valoare a funcției de criteriu.

Cu toate acestea, în practică, utilizarea unui singur criteriu pentru compararea gradului de preferință al alternativelor se dovedește a fi o simplificare nejustificată, întrucât o luare în considerare mai detaliată a alternativelor duce la necesitatea evaluării acestora nu în funcție de una, ci în funcție de multe. criterii care pot fi de altă natură și calitativ diferite unele de altele.

De exemplu, la alegerea celui mai acceptabil tip de aeronavă pentru pasageri și organizația de operare pe anumite tipuri de rute, comparația se realizează simultan după mai multe grupe de criterii: tehnice, tehnologice, economice, sociale, ergonomice etc.

Problemele multicriteriale nu au o soluție generală unică. Prin urmare, sunt propuse multe modalități de a da unei probleme multicriteriale o formă particulară care să permită o singură soluție generală. Desigur, aceste soluții sunt în general diferite pentru diferite metode. Prin urmare, poate că principalul lucru în rezolvarea unei probleme multicriteriale este justificarea acestui tip de formulare.

Sunt utilizate diverse opțiuni pentru simplificarea problemei de selecție multicriterială. Să enumerăm câteva dintre ele.

  1. Maximizarea condiționată (nu se găsește extremul global al criteriului integral, ci extremul local al criteriului principal).
  2. Căutați o alternativă cu proprietăți date.
  3. Găsirea mulțimii Pareto.
  4. Reducerea unei probleme cu mai multe criterii la una cu un singur criteriu prin introducerea unui criteriu integral.

Să luăm în considerare mai detaliat formularea formală a metodei de reducere a unei probleme multicriteriale la una cu un singur criteriu.

Introducem criteriul integral q 0 (x) ca functie scalara a argumentului vectorial:

q 0 (x) = q 0 ((q 1 (x), q 2 (x), ..., q n (x)).

Criteriul integral face posibilă ordonarea alternativelor după q 0 , evidențiind astfel pe cea mai bună (în sensul acestui criteriu). Forma funcției q 0 este determinată de cât de specific ne imaginăm contribuția fiecărui criteriu la criteriul integral. De obicei se folosesc funcții aditive și multiplicative:

q 0 = ∑a i ⋅q i /s i

1 - q 0 = ∏(1 - b i ⋅q i /s i)

Coeficienții s i oferă:

  1. Adimensionalitate sau o singură dimensiune a numărului a i ⋅q i /s i (diferite criterii particulare pot avea dimensiuni diferite, iar atunci este imposibil să se efectueze operații aritmetice asupra lor și să le reducă la un criteriu integral).
  2. Normalizarea, adică prevederea condiției: b i ⋅q i /s i<1.

Coeficienții a i și b i reflectă contribuția relativă a anumitor criterii q i la criteriul integral.

Deci, într-un cadru multicriterial, problema luării unei decizii privind alegerea uneia dintre alternative se reduce la maximizarea criteriului integral:

x * = arg max(q 0 (q 1 (x), q 2 (x), ..., q n (x)))

Principala problemă în formularea multicriterială a problemei decizionale este că este necesară găsirea unei astfel de forme analitice a coeficienților a i și b i , care să ofere următoarele proprietăți ale modelului:

  • un grad ridicat de adecvare a domeniului subiectului și a punctului de vedere al experților;
  • dificultăți de calcul minime în maximizarea criteriului integral, i.e. calculul acestuia pentru diferite alternative;
  • stabilitatea rezultatelor maximizării criteriului integral de la mici perturbări ale datelor inițiale.
  • Stabilitatea soluției înseamnă că o mică modificare a datelor inițiale ar trebui să conducă la o mică modificare a valorii criteriului integral și, în consecință, la o mică modificare a deciziei luate. Astfel, dacă datele inițiale sunt practic aceleași, atunci decizia ar trebui luată fie la fel, fie foarte aproape.

Limbajul de selecție binară secvențială

Limbajul relațiilor binare este o generalizare a limbajului multicriterial și se bazează pe faptul că atunci când evaluăm o alternativă, această evaluare este întotdeauna relativă, i.e. explicit sau mai adesea implicit, alte alternative din setul studiat sau din populația generală sunt folosite ca bază sau cadru de referință pentru comparație. Gândirea umană se bazează pe căutarea și analiza contrariilor (constructelor), așa că ne este întotdeauna mai ușor să alegem una dintre cele două opțiuni opuse decât o opțiune dintr-un set mare și deloc dezordonat.

Astfel, principalele ipoteze ale acestui limbaj se rezumă la următoarele:

  • o singură alternativă nu este evaluată, adică nu este introdusă funcția de criteriu;
  • pentru fiecare pereche de alternative, se poate stabili într-un fel că una dintre ele este preferabilă celeilalte, sau că sunt echivalente sau incomparabile;
  • relația de preferință în orice pereche de alternative nu depinde de celelalte alternative prezentate pentru alegere.

Există diferite moduri de a specifica relații binare: directă, matriceală, folosind grafice de preferințe, metoda secțiunilor etc.

Relațiile dintre alternativele unei perechi sunt exprimate prin conceptele de echivalență, ordine și dominanță.

Funcții generalizate ale limbajului de alegere

Limbajul funcțiilor de alegere se bazează pe teoria mulțimilor și permite operarea cu mapări ale mulțimilor la submulțimile lor corespunzătoare diferitelor alegeri fără a fi nevoie de a enumera elemente. Acest limbaj este foarte general și poate permite descrierea oricărei opțiuni. Cu toate acestea, aparatul matematic al funcțiilor de alegere generalizată este în prezent dezvoltat și testat doar pe probleme care au fost deja rezolvate folosind abordări criteriale sau binare.

alegerea grupului

Să existe un grup de oameni care au dreptul de a lua parte la luarea deciziilor colective. Să presupunem că acest grup ia în considerare un set de alternative și fiecare membru al grupului își face alegerea. Sarcina este de a dezvolta o soluție care într-un anumit fel coordonează alegerile individuale și într-un anumit sens exprimă „opinia generală” a grupului, adică. luată ca o alegere de grup.

Desigur, deciziile de grup diferite vor corespunde unor principii diferite de coordonare a deciziilor individuale.

Regulile de coordonare a deciziilor individuale într-o alegere de grup se numesc reguli de vot. Cea mai frecventă este „regula majorității”, în care decizia de grup este luată de alternativa care primește cele mai multe voturi.

Trebuie înțeles că o astfel de decizie reflectă doar prevalența diferitelor puncte de vedere în grup, și nu o opțiune cu adevărat optimă, pentru care nimeni nu poate vota deloc. „Adevărul nu se stabilește prin vot”.

În plus, există așa-numitele „paradoxuri ale votului”, dintre care cel mai faimos este paradoxul lui Arrow.

Aceste paradoxuri pot duce, și uneori duc, la caracteristici foarte neplăcute ale procedurii de vot: de exemplu, există cazuri în care grupul nu poate lua deloc o singură decizie (nu există cvorum sau fiecare votează pentru propria opțiune unică etc.) .), iar uneori (în cazul votului în mai multe etape) minoritatea își poate impune voința majorității.

Alegerea sub Incertitudine

Certitudinea este un caz special de incertitudine și anume: este o incertitudine aproape de zero.

În teoria modernă a alegerii, se crede că există trei tipuri principale de incertitudine în problemele de luare a deciziilor:

  1. Incertitudinea informațională (statistică) a datelor inițiale pentru luarea deciziilor.
  2. Incertitudinea consecințelor luării deciziilor (alegerea).
  3. Vagitatea în descrierea componentelor procesului decizional.

Să le considerăm în ordine.

Incertitudine informațională (statistică) în datele inițiale

Datele obținute despre domeniul subiectului nu pot fi considerate ca fiind absolut exacte. În plus, este evident că aceste date nu ne interesează în sine, ci doar ca semnale care, poate, poartă anumite informații despre ceea ce ne interesează cu adevărat. Astfel, este mai realist să considerăm că avem de-a face cu date nu doar zgomotoase și inexacte, ci și indirecte și, eventual, incomplete. În plus, aceste date nu privesc întreaga populație (generală) studiată, ci doar un anumit subset al acesteia, despre care am putut de fapt să colectăm date, dar în același timp dorim să tragem concluzii despre întreaga populație, și vrem să cunoaștem și gradul de fiabilitate al acestor concluzii.

În aceste condiţii se foloseşte teoria deciziilor statistice.

Există două surse principale de incertitudine în această teorie. În primul rând, nu se știe ce distribuție respectă datele originale. În al doilea rând, nu se știe ce distribuție are mulțimea (populația generală) despre care dorim să tragem concluzii din submulțimea acesteia care formează datele inițiale.

Procedurile statistice sunt procedurile de luare a deciziilor care înlătură ambele tipuri de incertitudine.

Trebuie remarcat faptul că există o serie de motive care duc la aplicarea incorectă a metodelor statistice:

  • inferențe statistice, ca oricare altele, au întotdeauna o anumită fiabilitate sau certitudine. Dar, spre deosebire de multe alte cazuri, fiabilitatea constatărilor statistice este cunoscută și determinată în cursul cercetării statistice;
  • calitatea solutiei obtinute in urma aplicarii procedurii statistice depinde de calitatea datelor initiale;
  • datele care nu au caracter statistic nu ar trebui să fie supuse prelucrării statistice;
  • este necesar să se utilizeze proceduri statistice corespunzătoare nivelului de informații a priori despre populația studiată (de exemplu, nu ar trebui să aplicați metode de analiză a varianței datelor non-Gauss). Dacă distribuția datelor originale este necunoscută, atunci trebuie fie să o stabilească, fie să folosească mai multe metode diferite și să compare rezultatele. Dacă sunt foarte diferite, aceasta indică inaplicabilitatea unora dintre procedurile utilizate.

Incertitudinea consecințelor

Atunci când consecințele alegerii unei alternative sunt determinate în mod unic de alternativa în sine, atunci nu putem distinge între o alternativă și consecințele ei, luând de la sine înțeles că alegerea unei alternative, noi de fapt alegem consecințele acesteia.

Totuși, în practica reală, de multe ori se confruntă cu o situație mai complexă, când alegerea uneia sau alteia alternative determină în mod ambiguu consecințele alegerii făcute.

În cazul unui set discret de alternative și rezultate la alegere, cu condiția ca setul de rezultate posibile să fie comun tuturor alternativelor, putem presupune că diferitele alternative diferă unele de altele în distribuția probabilităților de rezultat. Aceste distribuții de probabilitate, în cazul general, pot depinde de rezultatele alegerii alternativelor și de rezultatele care au avut loc efectiv ca urmare a acestora. În cel mai simplu caz, rezultatele sunt la fel de probabile. Rezultatele în sine au de obicei semnificația de câștiguri sau pierderi și sunt cuantificate.

Dacă rezultatele sunt egale pentru toate alternativele, atunci nu există nimic de ales. Dacă sunt diferite, atunci alternativele pot fi comparate prin introducerea unor estimări cantitative pentru ele. Varietatea problemelor din teoria jocurilor este asociată cu o alegere diferită a caracteristicilor numerice ale pierderilor și câștigurilor ca urmare a alegerii alternativelor, diferitelor grade de conflict între părțile care aleg alternative etc.

Considerați acest tip de incertitudine ca incertitudine vagă

Orice problemă de alegere este un scop de restrângere a setului de alternative. Atât o descriere formală a alternativelor (lista lor în sine, o listă a atributelor sau parametrilor lor), cât și o descriere a regulilor de comparare a acestora (criterii, relații) sunt întotdeauna date în termeni de una sau alta scară de măsurare (chiar și atunci când cel care asta nu știe despre asta).

Se știe că toate scalele sunt neclare, dar în grade diferite. Termenul de „blurring” se referă la proprietatea scalelor, care constă în faptul că este întotdeauna posibil să se prezinte două alternative care se pot distinge, i.e. diferită într-o singură scară și imposibil de distins, adică sunt identice, în celălalt - mai neclare. Cu cât sunt mai puține gradații într-o anumită scară, cu atât este mai neclară.

Astfel, putem vedea clar alternativele și, în același timp, le putem clasifica vag, i.e. să fie ambigue cu privire la clasele cărora le aparțin.

Deja în prima lor lucrare privind luarea deciziilor într-o situație neclară, Bellman și Zadeh au prezentat ideea că atât obiectivele, cât și constrângerile ar trebui reprezentate ca seturi fuzzy (fuzzy) pe un set de alternative.

Despre unele limitări ale abordării optimizării

În toate problemele de selecție și metodele de luare a deciziilor considerate mai sus, problema a fost de a găsi cele mai bune în setul inițial în condiții date, adică. alternative optime într-un anumit sens.

Ideea de optimitate este ideea centrală a ciberneticii și a intrat ferm în practica de proiectare și operare a sistemelor tehnice. În același timp, această idee necesită o atitudine prudentă atunci când încercăm să o transferăm în domeniul managementului unor sisteme complexe, mari și slab determinate, precum, de exemplu, sistemele socio-economice.

Există motive întemeiate pentru această concluzie. Să luăm în considerare câteva dintre ele:

  1. Soluția optimă se dovedește adesea a fi instabilă, adică. modificări minore în condițiile problemei, datele de intrare sau constrângerile pot duce la selectarea unor alternative semnificativ diferite.
  2. Modelele de optimizare sunt dezvoltate numai pentru clase restrânse de sarcini destul de simple, care nu reflectă întotdeauna în mod adecvat și sistematic obiectele de control reale. Cel mai adesea, metodele de optimizare fac posibilă optimizarea doar a subsistemelor destul de simple și bine descrise formal ale unor sisteme mari și complexe, de ex. permite doar optimizarea locală. Cu toate acestea, dacă fiecare subsistem al unui sistem mare funcționează optim, aceasta nu înseamnă deloc că sistemul în ansamblu va funcționa și el optim. Prin urmare, optimizarea unui subsistem nu duce neapărat la comportamentul acestuia, care este cerut de acesta atunci când optimizează sistemul în ansamblu. Mai mult, uneori optimizarea locală poate duce la consecințe negative pentru întregul sistem. Prin urmare, la optimizarea subsistemelor și a sistemului în ansamblu, este necesar să se determine arborele obiectivelor și subscopurilor și prioritatea acestora.
  3. Adesea, maximizarea criteriului de optimizare conform unui model matematic este considerată a fi scopul optimizării, dar în realitate scopul este optimizarea obiectului de control. Criteriile de optimizare și modelele matematice sunt întotdeauna legate de obiectiv doar indirect, adică. mai mult sau mai puțin adecvat, dar întotdeauna aproximativ.

Astfel, ideea de optimitate, care este extrem de fructuoasă pentru sistemele care se pretează la o formalizare matematică adecvată, trebuie transferată cu prudență în sistemele complexe. Desigur, modelele matematice care pot fi propuse uneori pentru astfel de sisteme pot fi optimizate. Totuși, trebuie să se țină cont întotdeauna de simplificarea puternică a acestor modele, care în cazul sistemelor complexe nu mai poate fi neglijată, precum și de faptul că gradul de adecvare al acestor modele în cazul sistemelor complexe este de fapt necunoscut. . Prin urmare, nu se știe ce semnificație pur practică are această optimizare. Practicitatea ridicată a optimizării în sistemele tehnice nu ar trebui să dea naștere iluziei că va fi la fel de eficientă în optimizarea sistemelor complexe. Modelarea matematică semnificativă a sistemelor complexe este foarte dificilă, aproximativă și inexactă. Cu cât sistemul este mai complex, cu atât ar trebui să fie mai atent ideea de optimizare a acestuia.

Prin urmare, atunci când elaborează metode de control pentru sisteme complexe, mari, slab determinate, autorii iau în considerare principalul lucru nu numai optimitatea abordării alese din punct de vedere matematic formal, ci și adecvarea acesteia la scop și însăși natura obiect de control.

Metode de selecție experți

În studiul sistemelor complexe apar adesea probleme care, din diverse motive, nu pot fi puse și rezolvate riguros folosind aparatul matematic dezvoltat în prezent. În aceste cazuri se apelează la serviciile experților (analiști de sistem), a căror experiență și intuiție ajută la reducerea complexității problemei.

Cu toate acestea, trebuie luat în considerare faptul că experții înșiși sunt sisteme extrem de complexe, iar activitățile lor depind și de multe condiții externe și interne. Prin urmare, în metodele de organizare a evaluărilor experților, se acordă multă atenție creării de condiții externe și psihologice favorabile pentru munca experților.

Următorii factori influențează munca unui expert:

  • responsabilitatea pentru utilizarea rezultatelor examinării;
  • știind că sunt implicați alți experți;
  • disponibilitatea informațiilor de contact între experți;
  • relațiile interpersonale ale experților (dacă există un contact de informații între aceștia);
  • interesul personal al expertului în rezultatele evaluării;
  • calitățile personale ale experților (stima de sine, conformitate, voință etc.)

Interacțiunea dintre experți le poate stimula sau inhiba activitatea. Prin urmare, în diferite cazuri, sunt utilizate diferite metode de examinare, care diferă prin natura interacțiunii experților între ei: sondaje și chestionare anonime și deschise, întâlniri, discuții, jocuri de afaceri, brainstorming etc.

Există diverse metode de prelucrare matematică a opiniilor experților. Experții sunt rugați să evalueze diferite alternative fie printr-un singur indicator, fie printr-un sistem de indicatori. În plus, li se cere să evalueze gradul de importanță al fiecărui indicator („greutatea” sau „contribuția” acestuia). Experților înșiși li se atribuie și un nivel de competență corespunzător contribuției fiecăruia dintre ei la opinia rezultată a grupului.

O metodă dezvoltată de lucru cu experți este metoda „Delphi”. Ideea principală a acestei metode este că critica și argumentarea au un efect benefic asupra expertului, dacă stima de sine nu este afectată și sunt prevăzute condiții care exclud confruntarea personală.

Trebuie subliniat faptul că există o diferență fundamentală în natura utilizării metodelor expert în sistemele expert și în suportul decizional. Dacă în primul caz, experții sunt obligați să oficializeze metodele de luare a deciziilor, atunci în al doilea - doar decizia în sine, ca atare.

Deoarece experții sunt implicați în implementarea tocmai a acelor funcții care în prezent fie nu sunt furnizate deloc de sistemele automate, fie sunt realizate mai rău decât de oameni, o direcție promițătoare în dezvoltarea sistemelor automate este automatizarea maximă a acestor funcții.

Sisteme automate de sprijinire a deciziilor

O persoană a folosit întotdeauna asistenți în luarea deciziilor: ei au fost pur și simplu furnizori de informații despre obiectul de control și consultanți (consilieri) care oferă opțiuni pentru decizii și analizează consecințele acestora. O persoană care ia decizii le lua întotdeauna într-un anumit mediu informațional: pentru un comandant militar, acesta este un cartier general, pentru un rector, un consiliu academic, pentru un ministru, un colegiu.

În vremea noastră, infrastructura informațională de luare a deciziilor este de neconceput fără sisteme automate de evaluare iterativă a deciziilor și în special sisteme de suport decizional (DDS - Decision Support Systems), adică. sisteme automate care sunt special concepute pentru a pregăti informațiile de care o persoană are nevoie pentru a lua o decizie. Dezvoltarea sistemelor de sprijinire a deciziilor se realizează, în special, în cadrul unui proiect internațional derulat sub auspiciile Institutului Internațional de Analiză a Sistemelor Aplicate din Laxenburg (Austria).

Alegerea în situații reale necesită efectuarea unui număr de operații, dintre care unele sunt efectuate mai eficient de către o persoană, iar altele de către o mașină. Combinația eficientă a avantajelor lor cu compensarea simultană a deficiențelor este întruchipată în sistemele automate de sprijinire a deciziilor.

O persoană ia decizii mai bine decât o mașină în condiții de incertitudine, dar pentru a lua decizia corectă, are nevoie și de informații adecvate (complete și de încredere) care caracterizează domeniul subiectului. Cu toate acestea, se știe că o persoană nu se descurcă bine cu cantități mari de informații „brute” neprocesate. Prin urmare, rolul mașinii în suportul decizional poate fi acela de a efectua pregătirea preliminară a informațiilor despre obiectul de control și factorii necontrolabili (mediu), pentru a ajuta la vizualizarea consecințelor luării anumitor decizii și, de asemenea, să prezinte toate aceste informații într-un mod vizual. şi mod convenabil.pentru luarea deciziilor formular.

Astfel, sistemele automate de sprijinire a deciziilor compensează punctele slabe ale unei persoane, eliberându-l de procesarea preliminară de rutină a informațiilor și îi oferă acestuia un mediu informațional confortabil în care își poate arăta mai bine punctele forte. Aceste sisteme sunt concentrate nu pe automatizarea funcțiilor decidentului (și, prin urmare, înstrăinarea acestor funcții de el și, prin urmare, responsabilitatea pentru deciziile luate, ceea ce este adesea inacceptabil), ci pe acordarea de asistență în găsirea unui solutie buna.

Sistemele vii, inclusiv oamenii, s-au confruntat în mod constant cu sarcina de a recunoaște modelele încă de la începuturile lor. În special, informațiile care provin de la organele de simț sunt procesate de creier, care, la rândul său, sortează informațiile, asigură luarea deciziilor și apoi, folosind impulsuri electrochimice, transmite semnalul necesar în continuare, de exemplu, către organele de mișcare. , care implementează acțiunile necesare. Apoi are loc o schimbare a mediului, iar fenomenele de mai sus apar din nou. Și dacă te uiți, atunci fiecare etapă este însoțită de recunoaștere.

Odată cu dezvoltarea tehnologiei informatice, a devenit posibil să se rezolve o serie de probleme care apar în procesul vieții, pentru a facilita, accelera, îmbunătăți calitatea rezultatului. De exemplu, funcționarea diferitelor sisteme de susținere a vieții, interacțiunea om-calculator, apariția sistemelor robotizate etc. Cu toate acestea, observăm că în prezent nu este posibil să se ofere un rezultat satisfăcător în unele sarcini (recunoașterea obiectelor similare cu mișcare rapidă). , text scris de mână).

Scopul lucrării: studierea istoriei sistemelor de recunoaștere a modelelor.

Indicați modificările calitative intervenite în domeniul recunoașterii modelelor, atât teoretice, cât și tehnice, indicând motivele;

Discutați despre metodele și principiile utilizate în calcul;

Dați exemple de perspective care sunt așteptate în viitorul apropiat.

1. Ce este recunoașterea modelelor?

Primele cercetări cu tehnologia computerizată au urmat practic schema clasică de modelare matematică – model matematic, algoritm și calcul. Acestea au fost sarcinile de modelare a proceselor care au loc în timpul exploziilor bombelor atomice, de calculare a traiectoriilor balistice, de aplicații economice și de altă natură. Cu toate acestea, pe lângă ideile clasice ale acestei serii, au existat și metode bazate pe o cu totul altă natură și, așa cum a arătat practica rezolvării unor probleme, acestea au dat adesea rezultate mai bune decât soluțiile bazate pe modele matematice prea complicate. Ideea lor a fost să renunțe la dorința de a crea un model matematic exhaustiv al obiectului studiat (mai mult, adesea era practic imposibil să se construiască modele adecvate), și în schimb să se mulțumească cu răspunsul doar la întrebări specifice care ne interesează și aceste răspunsuri ar trebui căutate din considerente comune unei clase largi de probleme. Cercetările de acest fel au inclus recunoașterea imaginilor vizuale, prognozarea randamentelor, nivelurile râurilor, problema distingerii dintre acvifere și petrol, folosind date geofizice indirecte etc. Un răspuns specific la aceste sarcini era necesar într-o formă destul de simplă, cum ar fi: de exemplu, dacă un obiect aparține uneia dintre clasele prefixate. Și datele inițiale ale acestor sarcini, de regulă, au fost date sub formă de informații fragmentare despre obiectele studiate, de exemplu, sub forma unui set de obiecte preclasificate. Din punct de vedere matematic, aceasta înseamnă că recunoașterea modelelor (și această clasă de probleme a fost numită în țara noastră) este o generalizare de anvergură a ideii de extrapolare a funcției.

Importanța unei astfel de formulări pentru științele tehnice este fără îndoială, iar acest lucru în sine justifică numeroase studii în acest domeniu. Cu toate acestea, problema recunoașterii modelelor are și un aspect mai larg pentru știința naturii (cu toate acestea, ar fi ciudat dacă ceva atât de important pentru sistemele cibernetice artificiale nu ar fi important pentru cele naturale). Contextul acestei științe a inclus în mod organic întrebările puse de filozofii antici despre natura cunoștințelor noastre, capacitatea noastră de a recunoaște imagini, tipare, situații ale lumii din jurul nostru. De fapt, practic nu există nicio îndoială că mecanismele de recunoaștere a celor mai simple imagini, cum ar fi imaginile unui prădător periculos sau hrană care se apropie, s-au format mult mai devreme decât a apărut limbajul elementar și aparatul logic formal. Și nu există nicio îndoială că astfel de mecanisme sunt suficient de dezvoltate și la animalele superioare, care, în activitatea lor vitală, au nevoie urgentă și de capacitatea de a distinge un sistem destul de complex de semne ale naturii. Astfel, în natură, vedem că fenomenul gândirii și conștiinței se bazează în mod clar pe capacitatea de a recunoaște tipare, iar progresul ulterioar al științei inteligenței este direct legat de profunzimea înțelegerii legilor fundamentale ale recunoașterii. Înțelegând faptul că întrebările de mai sus depășesc cu mult definiția standard a recunoașterii modelelor (în literatura engleză, termenul de învățare supervizată este mai frecvent), este de asemenea necesar să înțelegem că au legături profunde cu acest lucru relativ îngust (dar încă departe). din epuizat) direcţie.

Chiar și acum, recunoașterea modelelor a intrat ferm în viața de zi cu zi și este una dintre cele mai vitale cunoștințe ale unui inginer modern. În medicină, recunoașterea modelelor îi ajută pe medici să facă diagnostice mai precise; în fabrici, este folosită pentru a prezice defectele în loturile de mărfuri. Sistemele biometrice de identificare personală ca nucleu algoritmic se bazează, de asemenea, pe rezultatele acestei discipline. Dezvoltarea ulterioară a inteligenței artificiale, în special proiectarea computerelor de generația a cincea capabile să comunice mai direct cu o persoană în limbi naturale pentru oameni și prin vorbire, este de neconceput fără recunoaștere. Aici, robotica, sistemele de control artificial care conțin sisteme de recunoaștere ca subsisteme vitale, sunt la îndemână.

De aceea, s-a acordat multă atenție dezvoltării recunoașterii modelelor încă de la început de către specialiști de diverse profiluri - cibernetică, neurofiziologi, psihologi, matematicieni, economiști etc. În mare parte din acest motiv, recunoașterea modernă a modelelor în sine se hrănește cu ideile acestor discipline. Fără a pretinde că este complet (și este imposibil să o pretindem într-un scurt eseu), vom descrie istoria recunoașterii modelelor, idei cheie.

Definiții

Înainte de a trece la principalele metode de recunoaștere a modelelor, dăm câteva definiții necesare.

Recunoașterea imaginilor (obiecte, semnale, situații, fenomene sau procese) este sarcina de a identifica un obiect sau de a determina oricare dintre proprietățile acestuia prin imagine (recunoaștere optică) sau înregistrare audio (recunoaștere acustică) și alte caracteristici.

Una dintre cele de bază este conceptul de set care nu are o formulare specifică. Într-un computer, o mulțime este reprezentată de un set de elemente nerepetate de același tip. Cuvântul „nerepetabil” înseamnă că un element din set fie este acolo, fie nu este acolo. Multimea universala cuprinde toate elementele posibile pentru problema rezolvata, multimea goala nu contine niciuna.

O imagine este o grupare de clasificare în sistemul de clasificare care unește (separează) un anumit grup de obiecte în funcție de un anumit atribut. Imaginile au o proprietate caracteristică, care se manifestă prin faptul că cunoașterea unui număr finit de fenomene din același set face posibilă recunoașterea unui număr arbitrar de mare a reprezentanților săi. Imaginile au proprietăți obiective caracteristice, în sensul că diferiți oameni care învață din material de observație diferit, în cea mai mare parte, clasifică aceleași obiecte în același mod și independent unul de celălalt. În formularea clasică a problemei recunoașterii, mulțimea universală este împărțită în părți-imagini. Fiecare mapare a oricărui obiect la organele de percepție ale sistemului de recunoaștere, indiferent de poziția sa față de aceste organe, este de obicei numită o imagine a obiectului, iar seturile de astfel de imagini, unite prin unele proprietăți comune, sunt imagini.

Metoda de atribuire a unui element oricărei imagini se numește regulă de decizie. Un alt concept important este metrica, o modalitate de a determina distanța dintre elementele unui set universal. Cu cât această distanță este mai mică, cu atât sunt mai asemănătoare obiectele (simboluri, sunete etc.) pe care le recunoaștem. De obicei, elementele sunt specificate ca un set de numere, iar metrica este specificată ca o funcție. Eficiența programului depinde de alegerea reprezentării imaginilor și de implementarea metricii, un algoritm de recunoaștere cu metrici diferite va face greșeli cu frecvențe diferite.

Învățarea este de obicei numită procesul de dezvoltare într-un sistem a unei anumite reacții la grupuri de semnale externe identice prin influențarea în mod repetat a sistemului de corecție extern. O astfel de ajustare externă în antrenament este de obicei numită „încurajare” și „pedeapsă”. Mecanismul de generare a acestei ajustări determină aproape complet algoritmul de învățare. Auto-învățarea diferă de învățare prin aceea că aici nu sunt raportate informații suplimentare despre corectitudinea reacției la sistem.

Adaptarea este un proces de modificare a parametrilor și structurii sistemului, eventual și a acțiunilor de control, pe baza informațiilor curente, pentru a atinge o anumită stare a sistemului cu incertitudine inițială și condiții de funcționare în schimbare.

Învățarea este un proces, în urma căruia sistemul dobândește treptat capacitatea de a răspunde cu reacțiile necesare la anumite seturi de influențe externe, iar adaptarea este ajustarea parametrilor și structurii sistemului pentru a atinge calitatea necesară a controlul în condiţii de schimbări continue ale condiţiilor externe.

Exemple de sarcini de recunoaștere a modelelor: - Recunoașterea literelor;

Și semne. Astfel de sarcini sunt rezolvate destul de des, de exemplu, atunci când traversați sau conduceți o stradă la semafoare. Recunoașterea culorii unui semafor aprins și cunoașterea regulilor de circulație vă permite să luați decizia corectă dacă să traversați sau nu strada în acest moment.

În procesul evoluției biologice, multe animale au rezolvat probleme cu ajutorul aparatului vizual și auditiv. recunoasterea formelor suficient de bun. Crearea sistemelor artificiale recunoasterea formelor rămâne o problemă teoretică și tehnică dificilă. Necesitatea unei astfel de recunoașteri apare într-o varietate de domenii - de la afaceri militare și sisteme de securitate până la digitizarea tuturor tipurilor de semnale analogice.

În mod tradițional, sarcinile de recunoaștere a imaginii sunt incluse în domeniul de aplicare a sarcinilor de inteligență artificială.

Direcții în recunoașterea modelelor

Există două direcții principale:

  • Studiul abilităților de recunoaștere pe care le posedă ființele vii, explicarea și modelarea acestora;
  • Dezvoltarea teoriei și metodelor de construcție a dispozitivelor destinate rezolvării problemelor individuale în probleme aplicate.

Expunerea formală a problemei

Recunoașterea modelelor este atribuirea datelor inițiale unei anumite clase prin evidențierea trăsăturilor esențiale care caracterizează aceste date din masa totală de date neesențiale.

Atunci când pun probleme de recunoaștere, ei încearcă să folosească limbajul matematic, încercând, spre deosebire de teoria rețelelor neuronale artificiale, unde baza este obținerea unui rezultat prin experiment, să înlocuiască experimentul cu raționament logic și dovezi matematice.

Cel mai adesea, imaginile monocrome sunt luate în considerare în problemele de recunoaștere a modelelor, ceea ce face posibilă considerarea unei imagini ca o funcție pe un plan. Dacă luăm în considerare un punct stabilit pe un plan T, unde funcția X(X,y) exprimă în fiecare punct al imaginii caracteristica sa - luminozitate, transparență, densitate optică, atunci o astfel de funcție este o înregistrare formală a imaginii.

Setul tuturor funcțiilor posibile X(X,y) la suprafata T- există un model al ansamblului tuturor imaginilor X. Prezentarea conceptului asemănăriîntre imagini, puteți seta sarcina de recunoaștere. Forma specifică a unei astfel de setari depinde puternic de etapele ulterioare ale recunoașterii, în conformitate cu una sau alta abordare.

Metode de recunoaștere a modelelor

Pentru recunoașterea optică a imaginii, puteți aplica metoda de iterare peste tipul unui obiect la diferite unghiuri, scale, decalaje etc. Pentru litere, trebuie să iterați peste font, proprietățile fontului etc.

A doua abordare este de a găsi conturul obiectului și de a examina proprietățile acestuia (conectivitate, prezența colțurilor etc.)

O altă abordare este utilizarea rețelelor neuronale artificiale. Această metodă necesită fie un număr mare de exemple ale sarcinii de recunoaștere (cu răspunsuri corecte), fie o structură specială a rețelei neuronale care ține cont de specificul acestei sarcini.

Perceptron ca metodă de recunoaștere a modelelor

F. Rosenblatt, introducând conceptul de model cerebral, a cărui sarcină este de a arăta cum pot apărea fenomene psihologice într-un sistem fizic, a cărui structură și proprietăți funcționale sunt cunoscute - a descris cel mai simplu experimente de discriminare. Aceste experimente sunt în întregime legate de metodele de recunoaștere a modelelor, dar diferă prin faptul că algoritmul de soluție nu este determinist.

Cel mai simplu experiment, pe baza căruia este posibil să se obțină informații semnificative din punct de vedere psihologic despre un anumit sistem, se rezumă la faptul că modelul este prezentat cu doi stimuli diferiți și trebuie să răspundă la aceștia în moduri diferite. Scopul unui astfel de experiment poate fi acela de a studia posibilitatea discriminării lor spontane de către sistem în absența intervenției experimentatorului sau, dimpotrivă, de a studia discriminarea forțată, în care experimentatorul încearcă să învețe sistemul să efectueze clasificarea necesară.

Într-un experiment de învățare, perceptronul este prezentat de obicei cu o anumită secvență de imagini, care include reprezentanți ai fiecăreia dintre clasele care trebuie distinse. Conform unor reguli de modificare a memoriei, alegerea corectă a reacției este întărită. Apoi stimulul de control este prezentat perceptronului și se determină probabilitatea de a obține răspunsul corect pentru stimulii din această clasă. În funcție de faptul că stimulul de control selectat se potrivește sau nu cu una dintre imaginile care au fost utilizate în secvența de antrenament, se obțin rezultate diferite:

  • 1. Dacă stimulul de control nu coincide cu niciunul dintre stimulii de învățare, atunci experimentul este asociat nu numai cu discriminare pură, dar include și elemente generalizări.
  • 2. Dacă stimulul de control excită un anumit set de elemente senzoriale care sunt complet diferite de acele elemente care au fost activate sub influența stimulilor prezentați anterior din aceeași clasă, atunci experimentul este un studiu generalizare pură .

Perceptronii nu au capacitatea de generalizare pură, dar funcționează destul de satisfăcător în experimentele de discriminare, mai ales dacă stimulul de control se potrivește suficient de strâns cu unul dintre modelele despre care perceptronul a acumulat deja ceva experiență.

Exemple de probleme de recunoaștere a modelelor

  • Recunoașterea literelor.
  • Recunoașterea codurilor de bare.
  • Recunoașterea numerelor de înmatriculare.
  • Recunoaștere facială.
  • Recunoaștere a vorbirii.
  • Recunoașterea imaginilor.
  • Recunoașterea zonelor locale ale scoarței terestre în care se află zăcăminte minerale.

Programe de recunoaștere a modelelor

Vezi si

Note

Legături

  • Yuri Lifshits. Curs „Probleme moderne de informatică teoretică” - prelegeri despre metodele statistice de recunoaștere a modelelor, recunoașterea feței, clasificarea textelor
  • Journal of Pattern Recognition Research (Journal of Pattern Recognition Research)

Literatură

  • David A. Forsyth, Jean Pons Viziune computerizată. Abordare modernă = Computer Vision: A Modern Approach. - M.: „Williams”, 2004. - S. 928. - ISBN 0-13-085198-1
  • George Stockman, Linda Shapiro Computer vision = Computer Vision. - M.: Binom. Laboratorul de cunoștințe, 2006. - S. 752. - ISBN 5947743841
  • A.L. Gorelik, V.A. Skripkin, Metode de recunoaștere, M .: Liceu, 1989.
  • Sh.-K. Cheng, Principii de proiectare a sistemelor informatice vizuale, M.: Mir, 1994.

Fundația Wikimedia. 2010 .

- în tehnologie, o direcție științifică și tehnică asociată cu dezvoltarea metodelor și construcția de sisteme (inclusiv pe baza unui calculator) pentru a stabili apartenența unui obiect (subiect, proces, fenomen, situație, semnal) la unul dintre pre...... Dicţionar enciclopedic mare

Una dintre noile regiuni cibernetică. Conţinutul teoriei lui R. despre. este extrapolarea proprietăților obiectelor (imaginilor) aparținând mai multor clase la obiecte care le sunt într-un anumit sens apropiate. De obicei, când predă un automat R. despre. există ... ... Enciclopedia Geologică

Engleză recunoaștere, imagine; limba germana Gestalt alterkennung. O ramură a ciberneticii matematice care dezvoltă principii și metode de clasificare și identificare a obiectelor descrise printr-un set finit de trăsături care le caracterizează. antinazi. Enciclopedie ...... Enciclopedia Sociologiei

Recunoasterea formelor- metoda de studiu a obiectelor complexe cu ajutorul calculatorului; constă în selectarea caracteristicilor și dezvoltarea unor algoritmi și programe care permit computerelor să clasifice automat obiectele în funcție de aceste caracteristici. De exemplu, pentru a determina care ...... Dicţionar economic şi matematic

- (tehnic), o direcție științifică și tehnică asociată cu dezvoltarea metodelor și construcția de sisteme (inclusiv a celor bazate pe computer) pentru a stabili apartenența unui obiect (subiect, proces, fenomen, situație, semnal) la unul dintre pre...... Dicţionar enciclopedic

RECUNOASTEREA FORMELOR- o secțiune de cibernetică matematică care dezvoltă metode de clasificare, precum și de identificare a obiectelor, fenomenelor, proceselor, semnalelor, situațiilor tuturor acelor obiecte care pot fi descrise printr-un set finit de anumite trăsături sau proprietăți,... Enciclopedia sociologică rusă

recunoasterea formelor- Recunoaștere 160 de modele: Identificarea reprezentărilor și configurațiilor formelor folosind mijloace automate

  • tutorial

De mult mi-am dorit să scriu un articol general care să conțină elementele de bază ale recunoașterii imaginilor, un fel de ghid despre metodele de bază, care să spună când să le aplici, ce sarcini rezolvă, ce se poate face seara pe genunchi și la ce este mai bine să nu te gândești fără să ai o echipă de oameni în 20.

De mult scriu câteva articole despre recunoașterea optică, așa că de câteva ori pe lună îmi scriu diverse persoane cu întrebări pe această temă. Uneori ai senzația că trăiești cu ei în lumi diferite. Pe de o parte, înțelegi că o persoană este cel mai probabil un profesionist într-un subiect conexe, dar știe foarte puține despre metodele de recunoaștere optică. Și cel mai enervant este că încearcă să aplice o metodă dintr-un domeniu de cunoaștere apropiat, ceea ce este logic, dar nu funcționează complet în Recunoașterea imaginilor, dar nu înțelege acest lucru și este foarte jignit dacă începe să-i spună ceva din foarte de bază. Și având în vedere că a spune de la bază este mult timp, ceea ce de multe ori nu există, devine și mai trist.

Acest articol este conceput astfel încât o persoană care nu s-a ocupat niciodată de metode de recunoaștere a imaginii să poată, în 10-15 minute, să-și creeze în cap o anumită imagine de bază a lumii corespunzătoare subiectului și să înțeleagă în ce direcție ar trebui să sape. Multe dintre metodele descrise aici sunt aplicabile procesării radar și audio.
Voi începe cu câteva principii pe care începem întotdeauna să le spunem unui potențial client sau unei persoane care dorește să înceapă să facă Recunoaștere optică:

  • Când rezolvați o problemă, mergeți întotdeauna de la cel mai simplu. Este mult mai ușor să atârnați o etichetă portocalie pe o persoană decât să urmăriți o persoană, evidențiind-o în cascade. Este mult mai ușor să luați o cameră cu o rezoluție mai mare decât să dezvoltați un algoritm de super-rezoluție.
  • O declarație strictă a problemei în metodele de recunoaștere optică este ordine de mărime mai importantă decât în ​​problemele de programare a sistemului: un cuvânt în plus în TK poate adăuga 50% din muncă.
  • În problemele de recunoaștere, nu există soluții universale. Nu puteți crea un algoritm care pur și simplu „recunoaște orice inscripție”. Un semn pe stradă și o foaie de text sunt obiecte fundamental diferite. Este probabil posibil să se realizeze un algoritm general (iată un exemplu bun de la Google), dar acest lucru va necesita o cantitate imensă de muncă din partea unei echipe mari și va consta din zeci de subrutine diferite.
  • OpenCV este biblia, care are multe metode și cu care poți rezolva 50% din volumul aproape oricărei probleme, dar OpenCV este doar o mică parte din ceea ce se poate face în realitate. Într-un studiu, s-a scris în concluzii: „Problema nu este rezolvată prin metode OpenCV, prin urmare, este de nerezolvat”. Încercați să evitați acest lucru, să nu fiți leneși și să evaluați cu sobru sarcina curentă de fiecare dată de la zero, fără a utiliza șabloane OpenCV.
Este foarte dificil să dai un fel de sfaturi universale sau să spui cum să creezi un fel de structură în jurul căreia să poți construi o soluție la probleme arbitrare de viziune computerizată. Scopul acestui articol este de a structura ceea ce poate fi folosit. Voi încerca să împart metodele existente în trei grupuri. Primul grup este prefiltrarea și pregătirea imaginii. Al doilea grup este procesarea logică a rezultatelor de filtrare. Al treilea grup sunt algoritmii de luare a deciziilor bazați pe procesare logică. Granițele dintre grupuri sunt foarte arbitrare. Pentru a rezolva o problemă, este departe de a fi întotdeauna necesar să se aplice metode din toate grupurile; uneori sunt suficiente două, iar uneori chiar una.

Lista metodelor prezentate aici nu este completă. Îmi propun să adaug în comentarii metode critice pe care nu le-am scris și să atribuie fiecăruia câte 2-3 cuvinte însoțitoare.

Partea 1. Filtrare

În acest grup, am plasat metode care vă permit să selectați zonele de interes din imagini fără a le analiza. Cele mai multe dintre aceste metode aplică un fel de transformare uniformă tuturor punctelor din imagine. La nivel de filtrare, imaginea nu este analizată, dar punctele care sunt filtrate pot fi considerate ca zone cu caracteristici deosebite.
Binarizarea pragului, selectarea zonei histogramei
Cea mai simplă transformare este binarizarea imaginii de către prag. Pentru imaginile RGB și în tonuri de gri, pragul este valoarea culorii. Există probleme ideale în care o astfel de transformare este suficientă. Să presupunem că doriți să selectați automat elementele de pe o coală albă de hârtie:




Alegerea pragului prin care are loc binarizarea determină în mare măsură procesul de binarizare în sine. În acest caz, imaginea a fost binarizată de culoarea medie. De obicei, binarizarea se face cu un algoritm care selectează adaptiv un prag. Un astfel de algoritm poate fi alegerea așteptării sau a modului. Și puteți alege cel mai mare vârf al histogramei.

Binarizarea poate da rezultate foarte interesante atunci când lucrați cu histograme, inclusiv situația dacă luăm în considerare o imagine nu în RGB, ci în HSV. De exemplu, segmentați culorile de interes. Pe acest principiu, este posibil să se construiască atât un detector de etichete, cât și un detector de piele umană.
Filtrare clasică: Fourier, LPF, HPF
Metodele clasice de filtrare de la radar și procesarea semnalului pot fi aplicate cu succes într-o varietate de sarcini de recunoaștere a modelelor. Metoda tradițională în radar, care nu este aproape niciodată folosită în imagini în forma sa pură, este transformata Fourier (mai precis, FFT). Una dintre puținele excepții în care se utilizează transformata Fourier 1D este compresia imaginii. Pentru analiza imaginii, o transformare unidimensională nu este de obicei suficientă, trebuie să utilizați o transformare bidimensională mult mai intensivă în resurse.

Puțini oameni o calculează, de obicei, este mult mai rapid și mai ușor să folosești convoluția regiunii de interes cu un filtru gata făcut, ascuțit la frecvențe înalte (HPF) sau joase (LPF). O astfel de metodă, desigur, nu permite analiza spectrului, dar într-o sarcină specifică de procesare video, de obicei nu este necesară o analiză, ci un rezultat.


Cele mai simple exemple de filtre care pun accent pe frecvențele joase (filtru Gaussian) și frecvențele înalte (filtru Gabor).
Pentru fiecare punct de imagine, se selectează o fereastră și se înmulțește cu un filtru de aceeași dimensiune. Rezultatul unei astfel de convoluții este noua valoare a punctului. La implementarea LPF și HPF, se obțin imagini de acest tip:



Wavelets
Dar ce se întâmplă dacă folosim o funcție caracteristică arbitrară pentru convoluția cu semnalul? Apoi se va numi „Wavelet Transform”. Această definiție a waveleturilor nu este corectă, dar în mod tradițional, în multe echipe, analiza wavelet este căutarea unui model arbitrar într-o imagine folosind convoluția cu un model al acestui model. Există un set de funcții clasice utilizate în analiza wavelet. Acestea includ wavelet Haar, Morlet wavelet, wavelet mexican și așa mai departe. Primitivele Haar, despre care au existat mai multe dintre articolele mele anterioare ( , ), se referă la astfel de funcții pentru un spațiu bidimensional.


Mai sus sunt 4 exemple de wavelets clasice. wavelet 3D Haar, wavelet 2D Meyer, wavelet Mexican Hat, wavelet Daubechies. Un bun exemplu de utilizare a interpretării extinse a wavelets este problema găsirii unei sclipici în ochi, pentru care sclipirea în sine este o wavelet:

Undele clasice sunt de obicei folosite pentru compresia imaginii sau pentru clasificarea lor (care va fi descrisă mai jos).
Corelație
După o astfel de interpretare liberă a waveleturilor din partea mea, merită menționată corelația reală care stă la baza acestora. La filtrarea imaginilor, acesta este un instrument indispensabil. O aplicație clasică este corelarea fluxului video pentru a găsi offset-uri sau fluxuri optice. Cel mai simplu detector de schimbare este, într-un fel, un corelator de diferență. Acolo unde imaginile nu se corelează, era mișcare.

Filtrarea funcției
O clasă interesantă de filtre este funcțiile de filtrare. Acestea sunt filtre pur matematice care vă permit să detectați o funcție matematică simplă într-o imagine (linie, parabolă, cerc). Se construiește o imagine acumulativă, în care pentru fiecare punct al imaginii originale este desenat un set de funcții care o generează. Cea mai clasică transformare este transformarea Hough pentru linii. În această transformare, pentru fiecare punct (x;y), se trasează o mulțime de puncte (a;b) ale dreptei y=ax+b, pentru care egalitatea este adevărată. Obțineți imagini frumoase:


(primul plus pentru cel care găsește mai întâi o captură în poză și o astfel de definiție și o explică, al doilea plus pentru cel care spune primul ce se arată aici)
Transformarea Hough vă permite să găsiți orice funcții parametrizabile. De exemplu cercuri. Există o transformare modificată care vă permite să căutați orice formă. Această transformare este teribil de pasionată de matematicieni. Dar atunci când procesăm imagini, nu funcționează întotdeauna. Viteză foarte mică, sensibilitate foarte mare la calitatea binarizării. Chiar și în situații ideale, am preferat să mă descurc cu alte metode.
Omologul transformării Hough pentru linii este transformarea Radon. Se calculează prin FFT, care oferă un câștig de performanță într-o situație în care sunt multe puncte. În plus, poate fi aplicat unei imagini nebinarizate.
Filtrarea conturului
O clasă separată de filtre este filtrarea marginilor și a conturului. Căile sunt foarte utile atunci când dorim să trecem de la lucrul cu o imagine la lucrul cu obiectele din imaginea respectivă. Când un obiect este destul de complex, dar bine distins, atunci de multe ori singura modalitate de a lucra cu el este să-i selectezi contururile. Există o serie de algoritmi care rezolvă problema filtrării conturului:

Cel mai des folosit este Kenny, care funcționează bine și a cărui implementare este în OpenCV (Sobel este și el acolo, dar caută mai rău contururile).



Alte filtre
Mai sus sunt filtre, ale căror modificări ajută la rezolvarea a 80-90% din sarcini. Dar, pe lângă ele, există filtre mai rare folosite în sarcinile locale. Există zeci de astfel de filtre, nu le voi enumera pe toate. De interes sunt filtrele iterative (de exemplu, un model de aspect activ), precum și transformările ridgelet și curvlet, care sunt un aliaj de filtrare și analiză wavelet clasice în domeniul transformării radonului. Transformarea beamlet funcționează frumos la granița transformării wavelet și a analizei logice, permițându-vă să evidențiați contururile:

Dar aceste transformări sunt foarte specifice și adaptate pentru sarcini rare.

Partea 2. Procesarea logică a rezultatelor de filtrare

Filtrarea oferă un set de date adecvate pentru prelucrare. Dar adesea nu puteți pur și simplu să luați și să utilizați aceste date fără a le procesa. În această secțiune, vor exista câteva metode clasice care vă permit să treceți de la imagine la proprietățile obiectelor sau la obiectele în sine.
Morfologie
Trecerea de la filtrare la logică, după părerea mea, este metodele morfologiei matematice ( , , ). De fapt, acestea sunt cele mai simple operații de creștere și erodare a imaginilor binare. Aceste metode vă permit să eliminați zgomotul dintr-o imagine binară prin creșterea sau scăderea elementelor disponibile. Pe baza morfologiei matematice, există algoritmi de conturare, dar de obicei folosesc un fel de algoritmi hibridi sau algoritmi în conjuncție.
analiza conturului
În secțiunea de filtrare au fost deja menționați algoritmi pentru obținerea limitelor. Limitele rezultate sunt pur și simplu transformate în contururi. Pentru algoritmul Canny acest lucru se întâmplă automat, pentru alți algoritmi este necesară o binarizare suplimentară. Puteți obține un contur pentru un algoritm binar, de exemplu, cu algoritmul gândac.
Conturul este o caracteristică unică a unui obiect. Adesea, acest lucru vă permite să identificați obiectul de-a lungul conturului. Există un aparat matematic puternic care vă permite să faceți acest lucru. Aparatul se numește analiză de contur ( , ).

Sincer să fiu, nu am reușit niciodată să aplic analiza conturului în probleme reale. Sunt necesare condiții prea ideale. Fie nu există graniță, fie este prea mult zgomot. Dar, dacă trebuie să recunoașteți ceva în condiții ideale, atunci analiza conturului este o opțiune excelentă. Funcționează foarte repede, matematică frumoasă și logică ușor de înțeles.
Puncte singulare
Punctele cheie sunt caracteristici unice ale unui obiect care permit obiectului să fie asociat cu el însuși sau cu clase de obiecte similare. Există zeci de moduri de a selecta astfel de puncte. Unele metode scot în evidență puncte speciale în cadrele învecinate, unele după o perioadă lungă de timp și când lumina se schimbă, unele vă permit să găsiți puncte speciale care rămân așa chiar și atunci când obiectul se rotește. Să începem cu metode care ne permit să găsim puncte speciale care nu sunt atât de stabile, dar sunt calculate rapid, iar apoi vom merge într-o complexitate crescândă:
Clasa întâi. Puncte singulare care sunt stabile pentru câteva secunde. Astfel de puncte sunt folosite pentru a ghida un obiect între cadrele video adiacente sau pentru a converge imaginile de la camerele învecinate. Aceste puncte includ maxime locale ale imaginii, colțuri din imagine (cel mai bun dintre detectoare, poate, detectorul Haris), puncte la care sunt atinse maximele de dispersie, anumiți gradienți etc.
Clasa a doua. Puncte singulare care sunt stabile la schimbarea luminii și mișcări mici ale obiectului. Astfel de puncte servesc în primul rând pentru formarea și clasificarea ulterioară a tipurilor de obiecte. De exemplu, un clasificator pentru pietoni sau un clasificator facial este produsul unui sistem construit doar pe astfel de puncte. Unele dintre waveletele menționate anterior pot fi baza pentru astfel de puncte. De exemplu, primitivele Haar, căutarea strălucirii, căutarea altor caracteristici specifice. Aceste puncte includ puncte găsite prin metoda histogramelor de gradienți direcționali (HOG).
Clasa a treia. puncte stabile.Știu doar două metode care dau stabilitate completă și despre modificările lor. Acestea sunt SURF și SIFT. Acestea vă permit să găsiți puncte cheie chiar și atunci când rotiți imaginea. Calcularea unor astfel de puncte durează mai mult decât alte metode, dar pentru un timp destul de limitat. Din păcate, aceste metode sunt brevetate. Deși, în Rusia este imposibil să brevetați algoritmi, deci folosiți-l pentru piața internă.

Partea 3. Antrenament

A treia parte a poveștii va fi dedicată metodelor care nu funcționează direct cu imaginea, dar care vă permit să luați decizii. Practic, acestea sunt diferite metode de învățare automată și de luare a deciziilor. Recent, Yandyks a postat un curs pe acest subiect pe Habr, există o selecție foarte bună acolo. Iată-l în versiunea text. Pentru un studiu serios al subiectului, vă recomand cu tărie să le priviți. Aici voi încerca să identific câteva metode de bază utilizate în mod specific în recunoașterea modelelor.
În 80% din situații, esența învățării în problema recunoașterii este următoarea:
Există o probă de testare pe care există mai multe clase de obiecte. Să fie prezența/absența unei persoane din fotografie. Pentru fiecare imagine, există un set de caracteristici care au fost evidențiate de anumite caracteristici, fie că este Haar, HOG, SURF sau un wavelet. Algoritmul de învățare trebuie să construiască un astfel de model, conform căruia va putea analiza noua imagine și va putea decide care dintre obiecte se află în imagine.
Cum se face? Fiecare dintre imaginile de testare este un punct în spațiul caracteristic. Coordonatele sale sunt greutatea fiecărei caracteristici din imagine. Fie semnele noastre: „Prezența ochilor”, „Prezența unui nas”, „Prezența a două mâini”, „Prezența urechilor”, etc. Vom aloca toate aceste semne cu detectoarele pe care le avem, care sunt antrenate pe părți ale corpului asemănătoare omului. Pentru o persoană într-un astfel de spațiu, punctul corect va fi . Pentru maimuță, punct pentru cal. Clasificatorul este antrenat pe un eșantion de exemple. Dar nu toate fotografiile au arătat mâini, altele nu aveau ochi, iar în a treia maimuța avea un nas uman din cauza unei erori de clasificare. Clasificatorul uman antrenabil împarte automat spațiul caracteristicilor astfel încât să spună: dacă prima caracteristică se află în intervalul 0,5 În esență, scopul clasificatorului este de a desena în spațiul caracteristic zonele caracteristice obiectelor de clasificare. Așa va arăta aproximarea succesivă a răspunsului pentru unul dintre clasificatori (AdaBoost) în spațiul bidimensional:


Există mulți clasificatori. Fiecare dintre ele funcționează mai bine în unele dintre sarcinile sale. Sarcina de a selecta un clasificator pentru o anumită sarcină este în mare măsură o artă. Iată câteva poze frumoase pe această temă.
Caz simplu, separare unidimensională
Să luăm un exemplu de cel mai simplu caz de clasificare, când spațiul caracteristic este unidimensional și trebuie să separăm 2 clase. Situația apare mai des decât ar părea: de exemplu, atunci când trebuie să distingeți două semnale sau să comparați un model cu un eșantion. Să presupunem că avem un eșantion de antrenament. În acest caz, se obține o imagine, în care axa X va fi o măsură a asemănării, iar axa Y va fi numărul de evenimente cu o astfel de măsură. Când obiectul dorit este similar cu el însuși, se obține un gaussian stâng. Când nu se aseamănă - corect. Valoarea X=0,4 separă probele astfel încât o decizie eronată să minimizeze probabilitatea de a lua orice decizie greșită. Căutarea unui astfel de separator este sarcina clasificării.


Mică notă. Criteriul care minimizează eroarea nu va fi întotdeauna optim. Următorul grafic este un grafic al unui sistem real de recunoaștere a irisului. Pentru un astfel de sistem, criteriul este ales în așa fel încât să minimizeze probabilitatea de admitere falsă a unui străin la obiect. O astfel de probabilitate se numește „eroare de primul fel”, „probabilitate de alarmă falsă”, „fals pozitiv”. În literatura engleză „Rata de acces fals”.
) AdaBusta este unul dintre cele mai comune clasificatoare. De exemplu, cascada Haar este construită pe ea. Utilizat de obicei atunci când este necesară clasificarea binară, dar nimic nu împiedică predarea pentru mai multe clase.
SVM ( , , , ) Unul dintre cele mai puternice clasificatoare cu multe implementări. În principiu, pe sarcinile de învățare pe care le-am întâlnit, a funcționat similar cu adabusta. Este considerat destul de rapid, dar antrenamentul său este mai dificil decât cel al Adabustei și necesită alegerea miezului corect.

Există, de asemenea, rețele neuronale și regresie. Dar pentru a le clasifica pe scurt și a arăta cum diferă, este nevoie de un articol mult mai mare decât acesta.
________________________________________________
Sper că am reușit să ofer o privire de ansamblu rapidă a metodelor utilizate fără a mă scufunda în matematică și descriere. Poate asta va ajuta pe cineva. Deși, desigur, articolul este incomplet și nu există niciun cuvânt despre lucrul cu imagini stereo, sau despre LSM cu filtrul Kalman sau despre abordarea adaptivă Bayesiană.
Dacă vă place articolul, atunci voi încerca să fac a doua parte cu o selecție de exemple despre cum sunt rezolvate problemele existente de ImageRecognition.

Și, în sfârșit

Ce să citești?
1) Odată mi-a plăcut foarte mult cartea „Procesarea digitală a imaginii” de B. Yana, care este scrisă simplu și clar, dar în același timp se dă aproape toată matematica. Bun pentru familiarizarea cu metodele existente.
2) Clasicul genului este R Gonzalez, R. Woods „Digital Image Processing”. Din anumite motive, mi-a fost mai greu decât primul. Mult mai puțină matematică, dar mai multe metode și imagini.
3) „Prelucrarea și analiza imaginilor în problemele de viziune artificială” - scrisă pe baza unui curs predat la una din catedrele PhysTech. O mulțime de metode și descrierea lor detaliată. Dar, după părerea mea, cartea are două mari minusuri: cartea este puternic axată pe pachetul software care îi este atașat, în carte de prea multe ori descrierea unei metode simple se transformă în junglă matematică, din care este greu de luat. scoateți schema structurală a metodei. Dar autorii au creat un site convenabil, unde este prezentat aproape tot conținutul - wiki.technicalvision.ru Adaugă etichete