Depinisyon ng pagkilala ng pattern. Pag-uuri ayon sa pinakamalapit na mean

Ang mga buhay na sistema, kabilang ang mga tao, ay patuloy na nahaharap sa problema ng pagkilala sa pattern mula noong kanilang hitsura. Sa partikular, ang impormasyon na nagmumula sa mga pandama ay pinoproseso ng utak, na kung saan ay nag-uuri ng impormasyon, tinitiyak ang paggawa ng desisyon, at pagkatapos, gamit ang mga electrochemical impulses, nagpapadala ng kinakailangang signal, halimbawa, sa mga organo ng paggalaw, na nagpapatupad ng mga kinakailangang aksyon. Pagkatapos ay nagbabago ang kapaligiran, at naganap muli ang mga phenomena sa itaas. At kung titingnan mo, ang bawat yugto ay may kasamang pagkilala.

Sa pag-unlad ng teknolohiya ng computer, naging posible na malutas ang isang bilang ng mga problema na lumitaw sa proseso ng buhay, upang mapadali, mapabilis, at mapabuti ang kalidad ng resulta. Halimbawa, ang pagpapatakbo ng iba't ibang mga sistema ng suporta sa buhay, pakikipag-ugnayan ng tao-computer, ang paglitaw ng mga robotic system, atbp. Gayunpaman, tandaan namin na kasalukuyang hindi posible na magbigay ng isang kasiya-siyang resulta sa ilang mga gawain (pagkilala sa mabilis na gumagalaw na mga katulad na bagay , sulat-kamay na teksto).

Layunin ng gawain: pag-aralan ang kasaysayan ng mga sistema ng pagkilala sa imahe.

Ipahiwatig ang mga pagbabago sa husay na naganap sa larangan ng pagkilala sa pattern, parehong teoretikal at teknikal, na nagpapahiwatig ng mga dahilan;

Talakayin ang mga pamamaraan at prinsipyong ginagamit sa pag-compute;

Magbigay ng mga halimbawa ng mga prospect na inaasahan sa malapit na hinaharap.

1. Ano ang pattern recognition?

Ang mga unang pag-aaral sa teknolohiya ng computer ay pangunahing sumunod sa klasikal na pamamaraan ng pagmomolde ng matematika - modelo ng matematika, algorithm at pagkalkula. Ito ang mga gawain ng pagmomodelo ng mga prosesong nagaganap sa panahon ng mga pagsabog ng atomic bomb, pagkalkula ng mga ballistic trajectories, pang-ekonomiya at iba pang mga aplikasyon. Gayunpaman, bilang karagdagan sa mga klasikal na ideya ng seryeng ito, ang mga pamamaraan na batay sa isang ganap na naiibang kalikasan ay lumitaw, at tulad ng ipinakita ng kasanayan sa paglutas ng ilang mga problema, madalas silang nagbibigay ng mas mahusay na mga resulta kaysa sa mga solusyon batay sa sobrang kumplikadong mga modelo ng matematika. Ang kanilang ideya ay upang talikuran ang pagnanais na lumikha ng isang kumpletong modelo ng matematika ng bagay na pinag-aaralan (bukod dito, kadalasan ay halos imposible na makabuo ng sapat na mga modelo), at sa halip ay masiyahan sa sagot lamang sa mga partikular na katanungan na interesado tayo, at upang hanapin ang mga sagot na ito mula sa mga pagsasaalang-alang na karaniwan sa isang malawak na uri ng mga problema. Ang ganitong uri ng pananaliksik ay kinabibilangan ng pagkilala sa mga visual na larawan, pagtataya ng mga ani ng pananim, mga antas ng ilog, ang gawain ng pagkilala sa oil-bearing at aquifers batay sa hindi direktang geophysical data, atbp. Ang isang tiyak na sagot sa mga gawaing ito ay kinakailangan sa isang medyo simpleng anyo, tulad ng , halimbawa, kung ang isang bagay ay kabilang sa isa sa mga pre-fixed na klase. At ang paunang data ng mga gawaing ito, bilang panuntunan, ay ibinigay sa anyo ng fragmentary na impormasyon tungkol sa mga bagay na pinag-aaralan, halimbawa, sa anyo ng isang hanay ng mga pre-classified na bagay. Mula sa isang punto ng matematika, nangangahulugan ito na ang pagkilala sa pattern (at ganito ang tawag sa klase ng mga problema sa ating bansa) ay isang malawak na paglalahat ng ideya ng extrapolation ng function.

Ang kahalagahan ng naturang pahayag para sa mga teknikal na agham ay walang pag-aalinlangan, at ito mismo ay nagbibigay-katwiran sa maraming pag-aaral sa lugar na ito. Gayunpaman, ang problema ng pagkilala sa pattern ay mayroon ding mas malawak na aspeto para sa natural na agham (gayunpaman, magiging kakaiba kung ang isang bagay na napakahalaga para sa mga artipisyal na cybernetic system ay walang kahalagahan para sa mga natural). Kasama rin sa konteksto ng agham na ito ang mga organikong tanong ng mga sinaunang pilosopo tungkol sa kalikasan ng ating kaalaman, ang ating kakayahang makilala ang mga imahe, pattern, at sitwasyon sa nakapaligid na mundo. Sa katunayan, may maliit na pagdududa na ang mga mekanismo para sa pagkilala sa pinakasimpleng mga imahe, tulad ng mga larawan ng isang paparating na mapanganib na mandaragit o pagkain, ay nabuo nang mas maaga kaysa sa paglitaw ng elementarya na wika at pormal na lohikal na kagamitan. At walang alinlangan na ang mga naturang mekanismo ay lubos na binuo sa mas mataas na mga hayop, na din sa kanilang mga aktibidad sa buhay ay agad na nangangailangan ng kakayahang makilala ang isang medyo kumplikadong sistema ng mga palatandaan ng kalikasan. Kaya, sa kalikasan nakikita natin na ang kababalaghan ng pag-iisip at kamalayan ay malinaw na nakabatay sa kakayahang makilala ang mga imahe, at ang karagdagang pag-unlad ng agham ng katalinuhan ay direktang nauugnay sa lalim ng pag-unawa sa mga pangunahing batas ng pagkilala. Ang pag-unawa sa katotohanan na ang mga isyu sa itaas ay higit pa sa karaniwang kahulugan ng pagkilala sa pattern (sa panitikan sa wikang Ingles ang terminong pinangangasiwaang pag-aaral ay mas karaniwan), kinakailangan ding maunawaan na mayroon silang malalim na koneksyon sa medyo makitid na ito (ngunit pa rin malayo sa naubos) direksyon.

Sa ngayon, ang pagkilala sa pattern ay naging mahalagang bahagi ng pang-araw-araw na buhay at isa sa pinakamahalagang kaalaman ng isang modernong inhinyero. Sa medisina, ang pattern recognition ay nakakatulong sa mga doktor na gumawa ng mas tumpak na mga diagnosis; sa mga pabrika, ginagamit ito upang mahulaan ang mga depekto sa mga batch ng mga produkto. Ang biometric personal identification system bilang kanilang algorithmic core ay nakabatay din sa mga resulta ng disiplinang ito. Ang karagdagang pag-unlad ng artificial intelligence, lalo na ang disenyo ng ikalimang henerasyong mga computer na may kakayahang mas direktang komunikasyon sa mga tao sa mga wikang natural sa mga tao at sa pamamagitan ng pagsasalita, ay hindi maiisip nang walang pagkilala. Ito ay isang bato lamang mula sa robotics at artipisyal na mga sistema ng kontrol na naglalaman ng mga sistema ng pagkilala bilang mahahalagang subsystem.

Iyon ang dahilan kung bakit ang pag-unlad ng pagkilala sa pattern mula sa simula ay nakakaakit ng maraming pansin mula sa mga espesyalista ng iba't ibang mga profile - cybernetics, neurophysiologist, psychologist, mathematician, economist, atbp. Ito ay higit sa lahat para sa kadahilanang ito na ang modernong pagkilala sa pattern mismo ay pinalakas ng mga ideya ng mga disiplinang ito. Nang hindi inaangkin ang pagkakumpleto (at imposibleng angkinin ito sa isang maikling sanaysay), ilalarawan namin ang kasaysayan ng pagkilala ng pattern at mga pangunahing ideya.

Mga Kahulugan

Bago magpatuloy sa mga pangunahing pamamaraan ng pagkilala ng pattern, ipinakita namin ang ilang mga kinakailangang kahulugan.

Ang pagkilala sa pattern (mga bagay, signal, sitwasyon, phenomena o proseso) ay ang gawain ng pagtukoy ng isang bagay o pagtukoy ng alinman sa mga katangian nito mula sa imahe nito (optical recognition) o audio recording (acoustic recognition) at iba pang mga katangian.

Ang isa sa mga pangunahing ay ang konsepto ng set, na walang tiyak na pagbabalangkas. Sa isang computer, ang isang set ay kinakatawan bilang isang set ng mga hindi umuulit na elemento ng parehong uri. Ang salitang "hindi umuulit" ay nangangahulugan na ang ilang elemento sa set ay naroroon o wala. Ang isang unibersal na hanay ay kinabibilangan ng lahat ng mga elementong posible para sa problemang niresolba; ang isang walang laman na hanay ay hindi naglalaman ng anuman.

Ang imahe ay isang pagpapangkat ng pag-uuri sa isang sistema ng pag-uuri na nagsasama-sama (nagha-highlight) ng isang partikular na pangkat ng mga bagay ayon sa isang tiyak na pamantayan. Ang mga imahe ay may katangian na pag-aari, na nagpapakita ng sarili sa katotohanan na ang pamilyar sa isang may hangganan na bilang ng mga phenomena mula sa parehong hanay ay ginagawang posible na makilala ang isang di-makatwirang malaking bilang ng mga kinatawan nito. Ang mga imahe ay may mga katangian ng layunin na katangian sa kahulugan na ang iba't ibang mga tao, na sinanay sa iba't ibang materyal sa pagmamasid, sa karamihan ng bahagi ay nag-uuri ng parehong mga bagay sa parehong paraan at independyente sa bawat isa. Sa klasikal na pagbabalangkas ng problema sa pagkilala, ang unibersal na hanay ay nahahati sa mga bahagi ng imahe. Ang bawat pagmamapa ng isang bagay sa mga perceptive na organo ng sistema ng pagkilala, anuman ang posisyon nito na nauugnay sa mga organ na ito, ay karaniwang tinatawag na isang imahe ng bagay, at ang mga hanay ng mga naturang imahe, na pinagsama ng ilang karaniwang mga katangian, ay mga imahe.

Ang paraan ng pagtatalaga ng isang elemento sa anumang imahe ay tinatawag na isang mapagpasyang panuntunan. Ang isa pang mahalagang konsepto ay ang sukatan, isang paraan ng pagtukoy ng distansya sa pagitan ng mga elemento ng isang unibersal na hanay. Kung mas maliit ang distansyang ito, mas magkakatulad ang mga bagay (mga simbolo, tunog, atbp.) - kung ano ang kinikilala natin. Karaniwan, ang mga elemento ay tinukoy bilang isang hanay ng mga numero, at ang sukatan ay tinukoy bilang isang function. Ang pagiging epektibo ng programa ay nakasalalay sa pagpili ng representasyon ng imahe at pagpapatupad ng sukatan; ang isang algorithm ng pagkilala na may iba't ibang sukatan ay magkakamali sa iba't ibang mga frequency.

Ang pag-aaral ay karaniwang tinatawag na proseso ng pagbuo sa isang tiyak na sistema ng isa o ibang reaksyon sa mga grupo ng mga panlabas na magkaparehong signal sa pamamagitan ng paulit-ulit na impluwensya sa sistema ng mga panlabas na pagsasaayos. Ang ganitong mga panlabas na pagsasaayos sa pagsasanay ay karaniwang tinatawag na "mga gantimpala" at "mga parusa". Ang mekanismo para sa pagbuo ng pagsasaayos na ito ay halos ganap na tinutukoy ang algorithm ng pag-aaral. Ang pag-aaral sa sarili ay naiiba sa pagsasanay na dito ay hindi ibinigay ang karagdagang impormasyon tungkol sa kawastuhan ng reaksyon sa system.

Ang adaptasyon ay ang proseso ng pagbabago ng mga parameter at istraktura ng system, at posibleng kontrolin ang mga aksyon, batay sa kasalukuyang impormasyon upang makamit ang isang tiyak na estado ng system sa ilalim ng paunang kawalan ng katiyakan at pagbabago ng mga kondisyon ng operating.

Ang pag-aaral ay isang proseso bilang isang resulta kung saan ang sistema ay unti-unting nakakakuha ng kakayahang tumugon sa mga kinakailangang reaksyon sa ilang mga hanay ng mga panlabas na impluwensya, at ang pagbagay ay ang pagsasaayos ng mga parameter at istraktura ng system upang makamit ang kinakailangang kalidad ng kontrol. sa harap ng patuloy na pagbabago sa mga panlabas na kondisyon.

Mga halimbawa ng mga gawain sa pagkilala ng pattern: - Pagkilala ng titik;

Lektura Blg. 17.MGA PARAAN NG PAGKILALA NG PATTERN

Ang mga sumusunod na grupo ng mga pamamaraan ng pagkilala ay nakikilala:

Mga Paraan ng Proximity Function

Mga pamamaraan ng discriminant function

Mga pamamaraan ng pagkilala sa istatistika.

Pamamaraang pangwika

Heuristic na pamamaraan.

Ang unang tatlong pangkat ng mga pamamaraan ay nakatuon sa pagsusuri ng mga tampok na ipinahayag bilang mga numero o vector na may mga numerical na bahagi.

Ang isang pangkat ng mga pamamaraang pangwika ay nagbibigay ng pagkilala ng pattern batay sa pagsusuri ng kanilang istruktura, na inilarawan ng mga kaukulang tampok na istruktura at ang mga ugnayan sa pagitan nila.

Pinagsasama ng pangkat ng mga heuristic na pamamaraan ang mga katangiang pamamaraan at lohikal na pamamaraan na ginagamit ng mga tao sa pagkilala ng pattern.

Mga Paraan ng Proximity Function

Ang mga pamamaraan ng pangkat na ito ay batay sa paggamit ng mga function na tinatantya ang sukat ng kalapitan sa pagitan ng kinikilalang imahe at ng vector x* = (x* 1 ,….,x*n), at mga reference na larawan ng iba't ibang klase, na kinakatawan ng mga vector x i = (x i 1 ,…, x i n), i= 1,…,N, Saan ako – numero ng klase ng larawan.

Ang pamamaraan ng pagkilala ayon sa pamamaraang ito ay binubuo ng pagkalkula ng distansya sa pagitan ng punto ng kinikilalang imahe at bawat isa sa mga punto na kumakatawan sa reference na imahe, i.e. sa pagkalkula ng lahat ng mga halaga d i , i= 1,…,N. Ang imahe ay kabilang sa isang klase kung saan ang halaga d i may pinakamaliit na kahalagahan sa lahat i= 1,…,N .

Isang function na nagtatalaga ng bawat pares ng mga vector x i, x* tunay na numero bilang sukatan ng kanilang kalapitan, i.e. ang pagtukoy sa distansya sa pagitan nila ay maaaring maging arbitrary. Sa matematika, ang naturang function ay tinatawag na metric of space. Dapat itong matugunan ang mga sumusunod na axiom:

r(x,y)=r(y,x);

r(x,y) > 0 kung x hindi pantay y At r(x,y)=0 kung x=y;

r(x,y) <=r(x,z)+r(z,y)

Ang mga nakalistang axiom ay nasiyahan, sa partikular, sa pamamagitan ng mga sumusunod na function

a i= 1/2 , j=1,2,…n.

b i=sum, j=1,2,…n.

c i=max abs ( x ix j *), j=1,2,…n.

Ang una sa kanila ay tinatawag na Euclidean norm ng isang vector space. Alinsunod dito, ang mga puwang kung saan ang tinukoy na function ay ginagamit bilang isang sukatan ay tinatawag na Euclidean space.

Kadalasan, pinipili ang root mean square difference sa mga coordinate ng kinikilalang imahe bilang isang proximity function x* at pamantayan x i, ibig sabihin. function

d i = (1/n) kabuuan( x i jx j *) 2 , j=1,2,…n.

Magnitude d i geometrically interpreted bilang parisukat ng distansya sa pagitan ng mga punto sa tampok na espasyo, na nauugnay sa dimensyon ng espasyo.

Madalas lumalabas na ang iba't ibang mga tampok ay hindi pantay na mahalaga sa pagkilala. Upang isaalang-alang ang sitwasyong ito kapag kinakalkula ang mga proximity function, ang mga pagkakaiba ng coordinate na tumutugma sa mas mahahalagang tampok ay pinarami ng malalaking coefficient, at sa mga hindi gaanong mahalaga - ng mas maliit.

Sa kasong ito d i = (1/n) kabuuan w j (x i jx j *) 2 , j=1,2,…n,

saan w j– weighting coefficients.

Ang pagpapakilala ng mga weighting coefficient ay katumbas ng pag-scale ng mga axes ng feature space at, nang naaayon, pag-stretch o pag-compress ng space sa ilang direksyon.

Ang ipinahiwatig na mga pagpapapangit ng puwang ng tampok ay nagpapatuloy sa layunin ng paglalagay ng mga punto ng mga reference na imahe sa paraang tumutugma sa pinaka maaasahang pagkilala sa mga kondisyon ng isang makabuluhang scatter ng mga imahe ng bawat klase sa paligid ng punto ng reference na imahe. .

Ang mga pangkat ng mga larawan ay malapit sa isa't isa (mga kumpol ng mga larawan) sa espasyo ng tampok ay tinatawag na mga kumpol, at ang gawain ng pagtukoy sa mga naturang grupo ay tinatawag na isang clustering problem.

Ang gawain ng pagtukoy ng mga kumpol ay inuri bilang isang hindi pinangangasiwaang gawain sa pagkilala ng pattern, i.e. sa mga problema sa pagkilala sa kawalan ng isang halimbawa ng tamang pagkilala.

Mga pamamaraan ng discriminant function

Ang ideya ng mga pamamaraan ng pangkat na ito ay upang bumuo ng mga function na tumutukoy sa mga hangganan sa espasyo ng mga imahe na naghahati sa espasyo sa mga lugar na naaayon sa mga klase ng mga imahe. Ang pinakasimpleng at madalas na ginagamit na mga function ng ganitong uri ay mga function na linearly depende sa mga halaga ng mga tampok. Sa tampok na espasyo tumutugma sila sa paghahati ng mga ibabaw sa anyo ng mga hyperplane. Sa kaso ng isang two-dimensional na feature space, ang isang tuwid na linya ay gumaganap bilang isang separating function.

Ang pangkalahatang anyo ng linear decision function ay ibinibigay ng formula

d(x)=w 1 x 1 + w 2 x 2 +…+w n x n +w n +1 = Wx+w n

saan x- vector ng imahe, w=(w 1 , w 2 ,…w n) – vector ng weighting coefficients.

Sa kaso ng paghahati sa dalawang klase X 1 at X 2 discriminant function d(x) nagbibigay-daan sa pagkilala alinsunod sa panuntunan:

x nabibilang X 1 kung d(x)>0;

x nabibilang X 2 kung d(x)<0.

Kung d(x)=0, pagkatapos ay mayroong isang kaso ng kawalan ng katiyakan.

Sa kaso ng paghahati sa ilang mga klase, maraming mga pag-andar ang ipinakilala. Sa kasong ito, ang bawat klase ng mga imahe ay itinalaga ng isang tiyak na kumbinasyon ng mga palatandaan ng pag-andar ng diskriminasyon.

Halimbawa, kung ang tatlong discriminant function ay ipinakilala, ang sumusunod na opsyon para sa pagtukoy ng mga klase ng imahe ay posible:

x nabibilang X 1 kung d 1 (x)>0,d 2 (x)<0,d 3 (x)<0;

x nabibilang X 2 kung d(x)<0,d 2 (x)>0,d 3 (x)<0;

x nabibilang X 3 kung d(x)<0,d 2 (x)<0,d 3 (x)>0.

Ipinapalagay na para sa iba pang mga kumbinasyon ng mga halaga d 1 (x),d 2 (x),d 3 (x) mayroong isang kaso ng kawalan ng katiyakan.

Ang isang variation ng discriminant function method ay ang decision function method. Sa loob nito, kung magagamit m ipinapalagay na umiiral ang mga klase m mga function d i(x), tinatawag na mapagpasyahan, na kung x nabibilang X i, Iyon d i(x) > d j(x) para sa lahat j hindi pantay i, mga. mapagpasyang function d i(x) ay may pinakamataas na halaga sa lahat ng mga function d j(x), j=1,...,n..

Ang isang paglalarawan ng pamamaraang ito ay maaaring maging isang classifier batay sa pagtatantya ng pinakamababang distansya ng Euclidean sa tampok na espasyo sa pagitan ng punto ng larawan at ng pamantayan. Ipakita natin.

Euclidean na distansya sa pagitan ng feature vector ng kinikilalang larawan x at ang vector ng reference na imahe ay tinutukoy ng formula || x ix|| = 1/2 , j=1,2,…n.

Vector x itatalaga sa klase i, kung saan ang halaga || x ix*|| minimal.

Sa halip na distansya, maaari mong ihambing ang parisukat ng distansya, i.e.

||x ix|| 2 = (x ix)(x ix) t = x x- 2x x i +x i x i

Dahil ang halaga x x pareho para sa lahat i, pinakamababang function || x ix|| 2 ay mag-tutugma sa maximum ng function ng desisyon

d i(x) = 2x x i -x i x i.

yan ay x nabibilang X i, Kung d i(x) > d j(x) para sa lahat j hindi pantay i.

yun. ang minimum na distance classifying machine ay batay sa linear decision functions. Ang pangkalahatang istraktura ng naturang makina ay gumagamit ng mga mapagpasyang function ng form

d i (x)=w i 1 x 1 + w i 2 x 2 +…+w sa x n +w i n +1

Maaari itong biswal na kinakatawan ng kaukulang block diagram.

Para sa isang makina na nagsasagawa ng pag-uuri batay sa pinakamababang distansya, ang mga sumusunod na pagkakapantay-pantay ay nananatili: w ij = -2x i j , w i n +1 = x i x i.

Ang katumbas na pagkilala sa pamamagitan ng discriminant function method ay maaaring isagawa sa pamamagitan ng pagtukoy sa mga discriminant function bilang mga pagkakaiba. d ij (x)=d i (x)‑dj (x).

Ang bentahe ng discriminant function method ay ang simpleng istraktura ng recognition machine, pati na rin ang posibilidad ng pagpapatupad nito pangunahin sa pamamagitan ng nakararami sa mga linear na bloke ng desisyon.

Ang isa pang mahalagang bentahe ng paraan ng discriminant function ay ang kakayahang awtomatikong sanayin ang isang makina para sa tamang pagkilala batay sa ibinigay na (pagsasanay) na sample ng mga larawan.

Kasabay nito, ang awtomatikong pag-aaral ng algorithm ay naging napaka-simple kumpara sa iba pang mga paraan ng pagkilala.

Para sa mga kadahilanang ito, ang paraan ng discriminant function ay nakakuha ng malawak na katanyagan at kadalasang ginagamit sa pagsasanay.

Mga pamamaraan ng self-training para sa pagkilala ng pattern

Isaalang-alang natin ang mga pamamaraan para sa pagbuo ng isang discriminant function para sa isang naibigay na (pagsasanay) sample na may kaugnayan sa problema ng paghahati ng mga imahe sa dalawang klase. Kung ang dalawang hanay ng mga imahe ay ibinigay, ayon sa pagkakabanggit sa mga klase A at B, kung gayon ang solusyon sa problema ng pagbuo ng isang linear discriminant function ay hinahangad sa anyo ng isang vector ng weighting coefficients W=(w 1 ,w 2 ,...,w n,w n+1), na may pag-aari na para sa anumang larawan ang mga sumusunod na kundisyon ay natutugunan:

x kabilang sa klase A kung >0, j=1,2,…n.

x kabilang sa klase B kung<0, j=1,2,…n.

Kung ang set ng pagsasanay ay binubuo ng N mga larawan ng parehong klase, ang gawain ay bumababa sa paghahanap ng isang vector w na nagsisiguro sa bisa ng sistema ng hindi pagkakapantay-pantay. Kung ang sample ng pagsasanay ay binubuo ng N mga larawan ng parehong mga klase, ang gawain ay bumaba sa paghahanap ng vector w, tinitiyak ang bisa ng sistema ng hindi pagkakapantay-pantay

x 1 1 w i+x 21 w 2 +...+x n 1 w n+w n +1 >0;

x 1 2 w i+x 22 w 2 +...+x n 2 w n+w n +1 <0;

x 1 iw i+x 2i w 2 +...+x ni w n+w n +1 >0;

................................................

x 1 Nw i +x 2N w 2 +...+x nN w n +w n + 1>0;

Dito x i=(x i 1 ,x i 2 ,...,x i n ,x i n+ 1 ) - vector ng mga halaga ng tampok ng imahe mula sa sample ng pagsasanay, ang sign > ay tumutugma sa mga vector ng imahe x, na kabilang sa klase A, at ang tanda< - векторам x, kabilang sa klase B.

Kinakailangang vector w umiiral kung ang mga klase A at B ay mapaghihiwalay at hindi umiiral kung hindi man. Mga halaga ng bahagi ng vector w ay maaaring matagpuan nang maaga, sa yugto bago ang pagpapatupad ng hardware ng SRO, o direkta ng SRO mismo sa panahon ng operasyon nito. Ang huli sa mga pamamaraang ito ay nagbibigay ng higit na kakayahang umangkop at awtonomiya ng SRO. Isaalang-alang natin ito gamit ang halimbawa ng isang device na tinatawag na percentron. naimbento noong 1957 ng American scientist na si Rosenblatt. Ang isang eskematiko na representasyon ng percentron, na nagsisiguro na ang isang imahe ay itinalaga sa isa sa dalawang klase, ay ipinakita sa sumusunod na figure.

Retina S Retina A Retina R

oh oh x 1

oh oh x 2

oh oh x 3

o (sum)-------> R(reaksyon)

oh oh x i

oh oh x n

oh oh x n +1

Ang aparato ay binubuo ng mga retinal sensory elements S, na random na konektado sa mga nag-uugnay na elemento ng retina A. Ang bawat elemento ng pangalawang retina ay gumagawa lamang ng output signal kung ang isang sapat na bilang ng mga sensory element na konektado sa input nito ay nasa isang excited na estado. Buong tugon ng system R ay proporsyonal sa kabuuan ng mga reaksyon ng mga elemento ng associative retina na kinuha na may ilang mga timbang.

Itinalaga ni x i reaksyon i ika-uugnay na elemento at sa pamamagitan ng w i- koepisyent ng timbang ng reaksyon i ika-uugnay na elemento, ang reaksyon ng system ay maaaring isulat bilang R=sum( w j x j), j=1,..,n. Kung R>0, kung gayon ang imaheng ipinakita sa system ay kabilang sa klase A, at kung R<0, то образ относится к классу B. Описание этой процедуры классификации соответствует рассмотренным нами раньше принципам классификации, и, очевидно, перцентронная модель распознавания образов представляет собой, за исключением сенсорной сетчатки, реализацию линейной дискриминантной функции. Принятый в перцентроне принцип формирования значений x 1 , x 2 ,...,x n tumutugma sa ilang algorithm para sa pagbuo ng mga tampok batay sa mga signal mula sa mga pangunahing sensor.

Sa pangkalahatan, maaaring mayroong ilang mga elemento R, na bumubuo ng reaksyon ng perceptron. Sa kasong ito, pinag-uusapan nila ang pagkakaroon ng isang retina sa perceptron R mga elementong tumutugon.

Ang percentron scheme ay maaaring pahabain sa kaso kapag ang bilang ng mga klase ay higit sa dalawa, sa pamamagitan ng pagtaas ng bilang ng mga elemento ng retinal. R hanggang sa bilang ng mga nakikilalang klase at ang pagpapakilala ng isang bloke para sa pagtukoy ng maximum na reaksyon alinsunod sa diagram na ipinakita sa figure sa itaas. Sa kasong ito, ang imahe ay itinalaga sa klase na may numero i, Kung R i>Rj, para sa lahat j.

Ang proseso ng pagsasanay sa percentron ay binubuo ng pagpili ng mga halaga ng mga weighting coefficient w j upang ang output signal ay tumutugma sa klase kung saan kabilang ang kinikilalang imahe.

Isaalang-alang natin ang algorithm ng pagkilos ng percentron gamit ang halimbawa ng pagkilala sa mga bagay ng dalawang klase: A at B. Ang mga bagay ng klase A ay dapat may katumbas na halaga R= +1, at klase B - ang halaga R= -1.

Ang algorithm ng pag-aaral ay ang mga sumusunod.

Kung ang susunod na larawan x kabilang sa klase A, ngunit R<0 (имеет место ошибка распознавания), тогда коэффициенты w j na may mga indeks kung saan tumutugma ang mga halaga x j>0, tumaas ng ilang halaga dw, at ang natitirang mga coefficient w j nabawasan ng dw. Sa kasong ito, ang halaga ng reaksyon R tumatanggap ng pagtaas patungo sa mga positibong halaga nito, na naaayon sa tamang pag-uuri.

Kung x kabilang sa klase B, ngunit R>0 (may error sa pagkilala), pagkatapos ay ang mga coefficient w j na may mga indeks na tumutugma sa x j<0, увеличивают на dw, at ang natitirang mga coefficient w j nabawasan ng parehong halaga. Sa kasong ito, ang halaga ng reaksyon R tumatanggap ng pagtaas patungo sa mga negatibong halaga na tumutugma sa tamang pag-uuri.

Ang algorithm sa gayon ay gumagawa ng pagbabago sa vector ng mga timbang w kung at kung ang imahe ay ipinakita sa k-th na hakbang sa pagsasanay, ay hindi wastong inuri kapag ginagawa ang hakbang na ito, at iniiwan ang vector ng mga timbang w walang pagbabago kung naiuri nang tama. Ang patunay ng convergence ng algorithm na ito ay ipinakita sa [Tu, Gonzalez]. Ang ganitong pagsasanay ay sa huli (na may tamang pagpili dw at linear separability ng mga klase ng imahe) ay humahantong sa vector w, tinitiyak ang tamang pag-uuri.

Mga pamamaraan ng pagkilala sa istatistika.

Ang mga pamamaraan ng istatistika ay batay sa pagliit ng posibilidad ng error sa pag-uuri. Probability P ng maling pag-uuri ng isang imahe na isinumite para sa pagkilala, na inilarawan ng isang feature vector x, ay tinutukoy ng formula

P = kabuuan [ p(i)prob( D(x)+i | x klase i)]

saan m- bilang ng mga klase,

p(i) = probe ( x kabilang sa klase i) - isang priori na posibilidad na mapabilang sa isang arbitrary na imahe x Upang i ika-klase (dalas ng paglitaw ng mga larawan i-ika-klase),

D(x) - isang function na gumagawa ng desisyon sa pag-uuri (vector ng mga tampok x tumutugma sa numero ng klase i mula sa set (1,2,..., m}),

prob( D(x) hindi pantay i| x kabilang sa klase i) - posibilidad ng kaganapan " D(x) hindi pantay i" kapag natugunan ang kondisyon ng pagiging miyembro x klase i, ibig sabihin. posibilidad ng paggawa ng maling desisyon ng function D(x) para sa isang naibigay na halaga x, pag-aari i-ika-klase.

Maipapakita na ang posibilidad ng maling pag-uuri ay umabot sa pinakamababa kung D(x)=i kung at kung lamang p(x|ip(i)>p(x|jp(j), para sa lahat i+j, Saan p(x|i) - density ng pamamahagi ng imahe i-klase sa feature space.

Ayon sa tuntunin sa itaas, ang punto x nabibilang sa klase kung saan tumutugma ang maximum na halaga p(i) p(x|i), ibig sabihin. produkto ng naunang probabilidad (dalas) ng paglitaw ng mga larawan i-klase at density ng pamamahagi ng imahe i-klase sa feature space. Ang ipinakita na tuntunin sa pag-uuri ay tinatawag na Bayesian, dahil ito ay sumusunod mula sa Bayes formula na kilala sa probability theory.

Halimbawa. Hayaang kailanganin na makilala ang mga discrete signal sa output ng isang channel ng impormasyon na napapailalim sa ingay.

Ang bawat input signal ay kumakatawan sa isang 0 o 1. Bilang resulta ng signal transmission, ang halaga ay lilitaw sa output ng channel x, na pinatong ng Gaussian noise na may zero mean at variance b.

Para mag-synthesize ng classifier na nagsasagawa ng signal recognition, gagamitin namin ang Bayesian classification rule.

Pagsasamahin namin ang mga signal na kumakatawan sa mga iyon sa klase No. 1, at mga signal na kumakatawan sa mga zero sa klase No. 2. Ipaalam ito nang maaga na sa average sa bawat 1000 signal a ang mga signal ay kumakatawan sa mga yunit at b signal - zero. Kung gayon ang mga halaga ng isang priori na posibilidad ng paglitaw ng mga signal ng ika-1 at ika-2 klase (mga isa at mga zero), ayon sa pagkakabanggit, ay maaaring kunin nang pantay.

p(1)=a/1000, p(2)=b/1000.

kasi ang ingay ay Gaussian, i.e. sumusunod sa normal (Gaussian) na batas sa pamamahagi, pagkatapos ay ang density ng pamamahagi ng mga larawan ng unang klase depende sa halaga x, o, na parehong bagay, ang posibilidad na makuha ang halaga ng output x kapag ang isang signal 1 ay inilapat sa input, ito ay tinutukoy ng expression

p(x¦1) =(2pib) -1/2 exp(-( x-1) 2 /(2b 2)),

at ang density ng pamamahagi depende sa halaga x mga larawan ng pangalawang klase, i.e. posibilidad na makuha ang halaga ng output x kapag ang isang signal 0 ay inilapat sa input, ito ay tinutukoy ng expression

p(x¦2)= (2pib) -1/2 exp(- x 2 /(2b 2)),

Ang paggamit ng panuntunan ng desisyon ng Bayesian ay humahantong sa konklusyon na ang isang signal ng klase 2 ay nailipat, i.e. ang null ay naipasa kung

p(2) p(x¦2) > p(1) p(x¦1)

o, mas partikular, kung

b exp(- x 2 /(2b 2)) > a exp(-( x-1) 2 /(2b 2)),

Ang paghahati sa kaliwang bahagi ng hindi pagkakapantay-pantay sa kanan, nakukuha natin

(b/a) exp((1-2 x)/(2b 2)) >1,

kung saan pagkatapos kumuha ng logarithms ay makikita natin

1-2x> 2b 2 ln(a/b)

x< 0.5 - б 2 ln(a/b)

Mula sa nagresultang hindi pagkakapantay-pantay ay sumusunod na kapag a=b, ibig sabihin. na may katumbas na priori probabilities ng paglitaw ng mga signal 0 at 1, ang imahe ay itinalaga ang halaga 0 kapag x<0.5, а значение 1, когда x>0.5.

Kung alam nang maaga na ang isa sa mga signal ay lumilitaw nang mas madalas at ang iba ay mas madalas, i.e. sa kaso ng hindi pantay na mga halaga a At b, ang threshold ng tugon ng classifier ay nagbabago sa isang direksyon o iba pa.

Kaya kapag a/b=2.71 (na tumutugma sa 2.71 beses na mas madalas na paghahatid ng mga yunit) at b 2 =0.1, ang imahe ay itinalaga ang halaga 0 kung x<0.4, и значение 1, если x>0.4. Kung walang impormasyon tungkol sa naunang mga probabilidad sa pamamahagi, maaaring gamitin ang mga pamamaraan ng pagkilala sa istatistika, na batay sa mga panuntunan sa pag-uuri maliban sa Bayesian.

Gayunpaman, sa pagsasagawa, ang mga pamamaraan batay sa mga panuntunan ng Bayes ay ang pinaka-karaniwan dahil sa kanilang higit na kahusayan, at dahil din sa katotohanan na sa karamihan ng mga problema sa pagkilala ng pattern posible na magtakda ng isang priori na probabilidad ng paglitaw ng mga imahe ng bawat klase.

Mga pamamaraang pangwika ng pagkilala ng pattern.

Ang mga pamamaraan ng linggwistika ng pagkilala ng pattern ay batay sa pagsusuri ng paglalarawan ng isang idealized na imahe, na ipinakita sa anyo ng isang graph o isang chain ng mga character, na isang parirala o pangungusap ng isang tiyak na wika.

Isaalang-alang ang mga ideyal na larawan ng mga titik na nakuha bilang resulta ng unang yugto ng pagkilala sa wika na inilarawan sa itaas. Ang mga idealized na imaheng ito ay maaaring tukuyin sa pamamagitan ng mga paglalarawan ng mga graph, na ipinakita, halimbawa, sa anyo ng mga koneksyon matrice, tulad ng ginawa sa halimbawang tinalakay sa itaas. Ang parehong paglalarawan ay maaaring kinakatawan ng isang parirala ng isang pormal na wika (expression).

Halimbawa. Hayaang magbigay ng tatlong larawan ng letrang A, na nakuha bilang resulta ng paunang pagproseso ng imahe. Tukuyin natin ang mga larawang ito sa pamamagitan ng mga identifier na A1, A2 at A3.

Upang ilarawan ang mga ipinakitang larawan ayon sa wika, gagamitin namin ang PDL (Picture Description Language). Kasama sa bokabularyo ng PDL ang mga sumusunod na simbolo:

1. Mga pangalan ng pinakasimpleng larawan (primitives). Tulad ng inilapat sa kaso na isinasaalang-alang, ang mga primitive at ang kanilang kaukulang mga pangalan ay ang mga sumusunod.

Mga larawan sa anyo ng isang linyang nakadirekta:

pataas at umalis (le F t), hilaga (hilaga), pataas at sa kanan (kanan), silangan).

Mga Pangalan: L, N, R, E.

2. Mga simbolo ng binary operations. (+,*,-) Ang kanilang kahulugan ay tumutugma sa sunud-sunod na koneksyon ng primitives (+), ang koneksyon ng mga simula at pagtatapos ng primitives (*), ang koneksyon ng mga dulo lamang ng primitives (-).

3. Kanan at kaliwang bracket. ((,)) Binibigyang-daan ka ng mga panaklong na matukoy ang pagkakasunud-sunod ng mga operasyon sa isang expression.

Ang itinuturing na mga larawang A1, A2 at A3 ay inilalarawan sa wikang PDL, ayon sa pagkakabanggit, sa pamamagitan ng mga sumusunod na expression.

T(1)=R+((R-(L+N))*E-L

T(2)=(R+N)+((N+R)-L)*E-L

T(3)=(N+R)+(R-L)*E-(L+N)

Matapos mabuo ang linguistic na paglalarawan ng imahe, kinakailangan, gamit ang ilang pamamaraan ng pagkilala, upang pag-aralan kung ang imaheng ito ay kabilang sa klase ng interes sa amin (klase ng mga titik A), i.e. May ilang istraktura man o wala ang larawang ito. Upang gawin ito, una sa lahat, kinakailangan upang ilarawan ang klase ng mga imahe na may istraktura na interesado sa amin.

Malinaw, ang titik A ay palaging naglalaman ng mga sumusunod na elemento ng istruktura: isang kaliwang binti, isang kanang binti, at isang ulo. Tawagan natin ang mga elementong ito na STL, STR, TR, ayon sa pagkakabanggit.

Pagkatapos sa wikang PDL ang klase ng karakter A - SIMB A ay inilarawan ng expression

SIMB A = STL + TR - STR

Ang kaliwang "binti" ng STL ay palaging isang kadena ng mga elemento R at N, na maaaring isulat ng ganito

STL ‑> R ¦ N ¦ (STL + R)¦ (STL + N)

(Ang STL ay ang character na R o N, o isang string na nakuha sa pamamagitan ng pagdaragdag ng mga character na R o N sa pinagmulang string ng STL)

Ang kanang "binti" ng STR ay palaging isang kadena ng mga elemento L at N, na maaaring isulat tulad nito, i.e.

STR ‑> L¦N¦ (STR + L)¦(STR + N)

Ang ulo na bahagi ng titik - TR ay isang saradong tabas na binubuo ng elemento E at mga chain tulad ng STL at STR.

Sa PDL, ang istraktura ng TR ay inilarawan ng expression

TR ‑> (STL - STR) * E

Sa wakas ay nakuha namin ang sumusunod na paglalarawan ng letrang klase A:

SIMB A ‑> (STL + TR - STR),

STL ‑> R¦N¦ (STL + R)¦(STL + N)

STR ‑> L¦N¦ (STR + L)¦(STR + N)

TR ‑> (STL - STR) * E

Ang pamamaraan ng pagkilala sa kasong ito ay maaaring ipatupad bilang mga sumusunod.

1. Ang expression na naaayon sa imahe ay inihambing sa reference na istraktura STL + TR - STR.

2. Ang bawat elemento ng istraktura STL, TR, STR, kung maaari, i.e. kung ang paglalarawan ng larawan ay maihahambing sa pamantayan, ang ilang subexpression mula sa expression na T(A) ay itinutugma. Halimbawa,

para sa A1: STL=R, STR=L, TR=(R-(L+N))*E

para sa A2: STL = R + N, STR = L, TR = ((N + R) - L) * E

para sa A3: STL = N + R, STR = L + N, TR = (R - L) * E 3.

Ang mga expression na STL, STR, TR ay inihambing sa kanilang mga kaukulang istruktura ng sanggunian.

4. Kung ang istraktura ng bawat expression na STL, STR, TR ay tumutugma sa pamantayan, ang isang konklusyon ay ginawa na ang imahe ay kabilang sa klase ng titik A. Kung sa alinman sa mga yugto 2, 3, 4 isang pagkakaiba sa pagitan ng istraktura ng nasuri expression at ang pamantayan ay nakita, ang isang konklusyon ay iginuhit na ang imahe ay hindi nabibilang sa klase ng SIMB A. Ang paghahambing ng mga istruktura ng expression ay maaaring isagawa gamit ang mga algorithmic na wika LISP, PLANER, PROLOG at iba pang katulad na mga wika ng artificial intelligence.

Sa halimbawang isinasaalang-alang, ang lahat ng mga chain ng STL ay binubuo ng mga simbolo na N at R, at ang mga chain ng STR ay binubuo ng mga simbolo na L at N, na tumutugma sa ibinigay na istraktura ng mga chain na ito. Ang istraktura ng TR sa mga imaheng isinasaalang-alang ay tumutugma din sa sanggunian, dahil ay binubuo ng "pagkakaiba" ng mga chain tulad ng STL, STR, "multiplied" ng simbolo E.

Kaya, dumating kami sa konklusyon na ang mga imahe na isinasaalang-alang ay kabilang sa klase SIMB A.


Synthesis ng fuzzy controller para sa DC electric drivesa kapaligiran ng MatLab

Synthesis ng fuzzy controller na may isang input at output.

Ang hamon ay makuha ang drive na sundin ang iba't ibang mga signal ng input nang tumpak. Ang pagbuo ng pagkilos ng kontrol ay isinasagawa ng isang malabo na controller, kung saan ang mga sumusunod na functional block ay maaaring makilala sa istruktura: isang fuzzifier, isang bloke ng mga patakaran at isang defuzzifier.

Fig.4 Generalized functional diagram ng isang system na may dalawang linguistic variable.

Fig.5 Schematic diagram ng fuzzy controller na may dalawang linguistic variable.

Ang fuzzy control algorithm sa pangkalahatang kaso ay isang pagbabago ng mga input variable ng fuzzy controller sa mga output variable nito gamit ang mga sumusunod na magkakaugnay na pamamaraan:

1. pagbabago ng mga input na pisikal na variable na natanggap mula sa pagsukat ng mga sensor mula sa control object tungo sa input linguistic variable ng isang fuzzy controller;

2. pagpoproseso ng mga lohikal na pahayag, na tinatawag na linguistic rules, patungkol sa input at output linguistic variable ng controller;

3. pagbabago ng output linguistic variable ng fuzzy controller sa physical control variable.

Isaalang-alang muna natin ang pinakasimpleng kaso, kapag dalawang linguistic variable lamang ang ipinakilala upang kontrolin ang servo drive:

Ang "anggulo" ay isang input variable;

Ang “control action” ay ang output variable.

Si-synthesize namin ang controller sa kapaligiran ng MatLab gamit ang Fuzzy Logic toolbox. Binibigyang-daan ka nitong lumikha ng malabo na hinuha at malabo na mga sistema ng pag-uuri sa loob ng kapaligiran ng MatLab, na may kakayahang isama ang mga ito sa Simulink. Ang pangunahing konsepto ng Fuzzy Logic Toolbox ay ang istraktura ng FIS - Fuzzy Inference System. Ang istraktura ng FIS ay naglalaman ng lahat ng kinakailangang data upang ipatupad ang functional mapping na "mga input-output" batay sa malabo na lohikal na inference ayon sa diagram na ipinapakita sa Fig. 6.


Larawan 6. Malabo na hinuha.

X - input malulutong na vector; - vector ng fuzzy set na tumutugma sa input vector X;
- ang resulta ng lohikal na inference sa anyo ng isang vector ng mga fuzzy set; Y - ang output na malinaw na vector.

Binibigyang-daan ka ng fuzzy module na bumuo ng mga fuzzy system ng dalawang uri - Mamdani at Sugeno. Sa mga system tulad ng Mamdani, ang base ng kaalaman ay binubuo ng mga patakaran ng form "Kung x 1 = mababa at x 2 = katamtaman, kung gayon y = mataas". Sa mga sistemang uri ng Sugeno, ang base ng kaalaman ay binubuo ng mga patakaran ng form “Kung x 1 = mababa at x 2 = katamtaman, kung gayon y = a 0 +a 1 x 1 +a 2 x 2 ". Kaya, ang pangunahing pagkakaiba sa pagitan ng mga sistema ng Mamdani at Sugeno ay nakasalalay sa iba't ibang paraan ng pagtukoy ng mga halaga ng output variable sa mga patakaran na bumubuo sa base ng kaalaman. Sa mga sistema ng uri ng Mamdani, ang mga halaga ng variable ng output ay tinukoy ng mga malabo na termino, sa mga sistema ng uri ng Sugeno - bilang isang linear na kumbinasyon ng mga variable ng input. Sa aming kaso, gagamitin namin ang sistema ng Sugeno, dahil ito lends mismo mas mahusay sa optimization.

Upang kontrolin ang servo drive, dalawang linguistic variable ang ipinakilala: "error" (ayon sa posisyon) at "control action". Ang una sa kanila ay ang input, ang pangalawa ay ang output. Tukuyin natin ang isang term set para sa mga tinukoy na variable.

Mga pangunahing bahagi ng malabo na lohikal na hinuha. Fuzzifier.

Para sa bawat linguistic variable, tinutukoy namin ang isang pangunahing hanay ng termino ng form, na kinabibilangan ng mga fuzzy set na maaaring italaga: negatibong mataas, negatibong mababa, zero, positibong mababa, positibong mataas.

Una sa lahat, suhetibo nating tukuyin kung ano ang ibig sabihin ng mga terminong "malaking error", "maliit na error", atbp., na tumutukoy sa mga function ng membership para sa kaukulang fuzzy set. Dito, sa ngayon, maaari ka lamang magabayan ng kinakailangang katumpakan, mga kilalang parameter para sa klase ng mga signal ng input at sentido komun. Wala pang nakapagmungkahi ng anumang mahigpit na algorithm para sa pagpili ng mga parameter ng mga function ng membership. Sa aming kaso, ang linguistic variable na "error" ay magiging ganito.

Fig.7. Lingguwistika variable na "error".

Ito ay mas maginhawa upang ipakita ang linguistic variable na "kontrol" sa anyo ng isang talahanayan:

Talahanayan 1

Block ng panuntunan.

Isaalang-alang natin ang pagkakasunud-sunod ng pagtukoy ng ilang panuntunan na naglalarawan sa ilang sitwasyon:

Ipagpalagay, halimbawa, na ang anggulo ng output ay katumbas ng input signal (ibig sabihin, ang error ay zero). Malinaw, ito ang nais na sitwasyon, at samakatuwid ay wala tayong kailangang gawin (ang kontrol na aksyon ay zero).

Ngayon isaalang-alang ang isa pang kaso: ang error sa posisyon ay mas malaki kaysa sa zero. Natural, dapat nating bayaran ito sa pamamagitan ng pagbuo ng malaking positibong signal ng kontrol.

yun. dalawang panuntunan ang ginawa, na maaaring pormal na tukuyin tulad ng sumusunod:

Kung error = null, yun pagkilos ng kontrol = zero.

Kung error = malaking positibo, yun kontrol na impluwensya = malaking positibo.

Fig.8. Pagbubuo ng kontrol na may maliit na positibong error sa posisyon.

Fig.9. Pagbuo ng kontrol na may error sa zero na posisyon.

Ang talahanayan sa ibaba ay nagpapakita ng lahat ng mga patakaran na naaayon sa lahat ng mga sitwasyon para sa simpleng kaso na ito.

talahanayan 2

Sa kabuuan, para sa isang malabo na controller na may n input at 1 output, maaaring tukuyin ang mga panuntunan sa kontrol, kung saan ang bilang ng mga fuzzy set para sa i-th input, ngunit para sa normal na paggana ng controller ay hindi kinakailangang gamitin ang lahat ng posible. mga panuntunan, ngunit maaari kang magtagumpay sa mas kaunti sa mga ito. Sa aming kaso, lahat ng 5 posibleng panuntunan ay ginagamit upang makabuo ng malabo na control signal.

Defuzzifier.

Kaya, ang magreresultang epekto U ay matutukoy ayon sa katuparan ng ilang tuntunin. Kung ang isang sitwasyon ay lumitaw kapag ang ilang mga panuntunan ay naisakatuparan nang sabay-sabay, ang resultang epekto U ay makikita ayon sa sumusunod na relasyon:

, kung saan ang n ay ang bilang ng mga na-trigger na panuntunan (defuzzification sa pamamagitan ng paraan ng sentro ng rehiyon), ikaw n– pisikal na halaga ng control signal na naaayon sa bawat fuzzy set UBO, UMo, UZ, Ump, UBP. mhindi(u)– antas ng pag-aari ng control signal u sa kaukulang fuzzy set Un=( UBO, UMo, UZ, Ump, UBP). Mayroon ding iba pang mga pamamaraan ng defuzzification kung saan ang output linguistic variable ay proporsyonal sa "pinakamalakas" o "pinakamahina" na panuntunan.

Imodelo natin ang proseso ng pagkontrol sa isang electric drive gamit ang fuzzy controller na inilarawan sa itaas.

Larawan 10. Block diagram ng system sa kapaligiranMatlab.

Larawan 11. Block diagram ng fuzzy controller sa isang environmentMatlab.

Larawan 12. Lumilipas na proseso sa ilalim ng isang hakbang na pagkilos.

kanin. 13. Lumilipas na proseso sa ilalim ng harmonic input action para sa isang modelo na may malabo na controller na naglalaman ng isang input linguistic variable.

Ang isang pagsusuri sa mga katangian ng drive na may synthesized control algorithm ay nagpapakita na ang mga ito ay malayo sa pinakamainam at mas masahol pa kaysa sa pag-synthesize ng kontrol sa pamamagitan ng iba pang mga pamamaraan (ang oras ng kontrol ay masyadong mahaba para sa isang solong hakbang na aksyon at ang error ay harmonic). Ito ay ipinaliwanag sa pamamagitan ng katotohanan na ang mga parameter ng mga function ng pagiging miyembro ay pinili nang arbitraryo, at tanging ang halaga ng error sa posisyon ang ginamit bilang mga input ng controller. Naturally, hindi maaaring pag-usapan ang anumang pinakamainam na resulta ng regulator. Samakatuwid, ang gawain ng pag-optimize ng fuzzy controller ay nagiging may kaugnayan upang makamit ang pinakamataas na posibleng mga tagapagpahiwatig ng kalidad ng kontrol. Yung. Ang gawain ay i-optimize ang layunin ng function f(a 1 ,a 2 …a n), kung saan ang a 1 ,a 2 …a n ay ang mga coefficient na tumutukoy sa uri at katangian ng fuzzy controller. Para ma-optimize ang fuzzy controller, gagamitin namin ang ANFIS block mula sa Matlab environment. Gayundin, ang isa sa mga paraan upang mapabuti ang mga katangian ng controller ay maaaring dagdagan ang bilang ng mga input nito. Gagawin nitong mas flexible ang regulator at pagbutihin ang pagganap nito. Magdagdag pa tayo ng isa pang input linguistic variable - ang rate ng pagbabago ng input signal (derivative nito). Ang bilang ng mga patakaran ay tataas nang naaayon. Pagkatapos ang circuit diagram ng regulator ay kukuha ng form:

Fig. 14 Schematic diagram ng fuzzy controller na may tatlong linguistic variable.

Hayaan ang halaga ng bilis ng signal ng input. Tinukoy namin ang pangunahing termino set Tn bilang:

Tn=("negatibo (BO)", "zero (Z)", "positibo (BP)").

Ang lokasyon ng membership function para sa lahat ng linguistic variable ay ipinapakita sa figure.

Larawan 15. Mga function ng membership ng linguistic variable na "error".

Larawan 16. Mga function ng membership ng linguistic variable na "bilis ng signal ng input".

Dahil sa pagdaragdag ng isa pang linguistic variable, ang bilang ng mga panuntunan ay tataas sa 3x5=15. Ang prinsipyo ng kanilang compilation ay ganap na katulad ng tinalakay sa itaas. Ang lahat ng mga ito ay ipinapakita sa sumusunod na talahanayan:

Talahanayan 3

Malabo na signal

pamamahala

Error sa posisyon

Bilis

Halimbawa, kung Kung error = zero at derivative ng input signal = malaking positibo, yun kontrol na impluwensya = maliit na negatibo.

Larawan 17. Pagbubuo ng kontrol sa ilalim ng tatlong variable na linguistic.

Dahil sa pagtaas ng bilang ng mga input at, nang naaayon, ang mga patakaran mismo, ang istraktura ng fuzzy controller ay magiging mas kumplikado.

Larawan 18. Block diagram ng fuzzy controller na may dalawang input.

Magdagdag ng larawan

Fig.20. Lumilipas na proseso sa ilalim ng harmonic input action para sa isang modelo na may malabo na controller na naglalaman ng dalawang input linguistic variable.

kanin. 21. Error signal sa ilalim ng harmonic input action para sa isang modelo na may fuzzy controller na naglalaman ng dalawang input linguistic variable.

Gayahin natin ang pagpapatakbo ng fuzzy controller na may dalawang input sa kapaligiran ng Matlab. Ang block diagram ng modelo ay magiging eksaktong kapareho ng sa Fig. 19. Mula sa graph ng lumilipas na proseso para sa isang harmonic input effect, makikita na ang katumpakan ng system ay tumaas nang malaki, ngunit sa parehong oras ang oscillation nito ay tumaas, lalo na sa mga lugar kung saan ang derivative ng output coordinate ay may kaugaliang sa zero. Malinaw, ang mga dahilan para dito, tulad ng nabanggit sa itaas, ay ang suboptimal na pagpili ng mga parameter ng function ng membership para sa parehong input at output linguistic variable. Samakatuwid, ino-optimize namin ang fuzzy controller gamit ang ANFISedit block sa kapaligiran ng Matlab.

Pag-optimize ng isang malabo na controller.

Isaalang-alang natin ang paggamit ng mga genetic algorithm upang ma-optimize ang isang malabo na controller. Ang mga genetic algorithm ay mga adaptive na paraan ng paghahanap na kamakailan ay madalas na ginagamit upang malutas ang mga problema sa functional optimization. Ang mga ito ay batay sa pagkakapareho sa mga genetic na proseso ng mga biological na organismo: ang mga biological na populasyon ay bubuo sa ilang henerasyon, sumusunod sa mga batas ng natural na pagpili at ayon sa prinsipyo ng "survival of the fittest", na natuklasan ni Charles Darwin. Sa pamamagitan ng paggaya sa prosesong ito, nagagawa ng mga genetic algorithm na "magbago" ng mga solusyon sa mga problema sa totoong mundo kung naaangkop ang pagkaka-code sa mga ito.

Gumagana ang mga genetic algorithm sa isang koleksyon ng "mga indibidwal"—isang populasyon—na ang bawat isa ay kumakatawan sa isang posibleng solusyon sa isang partikular na problema. Ang bawat indibidwal ay tinatasa sa pamamagitan ng sukatan ng kanyang "kakayahang umangkop" ayon sa kung gaano "kahusay" ang solusyon sa problemang nauugnay dito. Ang pinakakarapat-dapat na mga indibidwal ay maaaring "magparami" ng mga supling sa pamamagitan ng "pag-crossbreed" sa ibang mga indibidwal sa populasyon. Ito ay humahantong sa paglitaw ng mga bagong indibidwal na pinagsama ang ilan sa mga katangiang minana nila sa kanilang mga magulang. Ang hindi gaanong angkop na mga indibidwal ay mas malamang na magparami, kaya ang anumang katangiang taglay nila ay unti-unting mawawala sa populasyon.

Ito ay kung paano muling ginawa ang buong bagong populasyon ng mga magagawang solusyon, pagpili ng pinakamahusay na mga kinatawan ng nakaraang henerasyon, pagtawid sa kanila at pagkuha ng maraming bagong indibidwal. Ang bagong henerasyong ito ay naglalaman ng mas mataas na ratio ng mga katangiang taglay ng mabubuting miyembro ng nakaraang henerasyon. Kaya, mula sa henerasyon hanggang sa henerasyon, ang magagandang katangian ay kumakalat sa buong populasyon. Sa huli, ang populasyon ay magsasama-sama sa pinakamainam na solusyon sa problema.

Mayroong maraming mga paraan upang ipatupad ang ideya ng biological evolution sa loob ng balangkas ng genetic algorithm. Tradisyonal, ay maaaring katawanin bilang sumusunod na block diagram na ipinapakita sa Figure 22, kung saan:

1. Pagsisimula ng paunang populasyon - pagbuo ng isang naibigay na bilang ng mga solusyon sa problema, kung saan nagsisimula ang proseso ng pag-optimize;

2. Application ng crossover at mutation operator;

3. Mga kundisyon sa paghinto - kadalasan ang proseso ng pag-optimize ay nagpapatuloy hanggang sa matagpuan ang isang solusyon sa problema na may ibinigay na katumpakan, o hanggang sa matukoy na ang proseso ay nagtagpo (ibig sabihin, ang solusyon sa problema ay hindi bumuti sa huling N henerasyon).

Sa kapaligiran ng Matlab, ang mga genetic algorithm ay kinakatawan ng isang hiwalay na toolbox, pati na rin ng ANFIS package. Ang ANFIS ay isang abbreviation para sa Adaptive-Network-Based Fuzzy Inference System - adaptive fuzzy inference network. Ang ANFIS ay isa sa mga unang variant ng hybrid neuro-fuzzy network - isang espesyal na uri ng feed-forward neural network. Ang arkitektura ng isang neuro-fuzzy network ay isomorphic sa isang malabo na base ng kaalaman. Gumagamit ang mga neuro-fuzzy network ng mga naiba-iba na pagpapatupad ng mga triangular na pamantayan (multiplikasyon at probabilistic OR), pati na rin ang mga maayos na function ng membership. Nagbibigay-daan ito sa iyong gumamit ng mabilis at genetic na algorithm para sa pagsasanay ng mga neural network batay sa paraan ng backpropagation para sa pagse-set up ng mga neuro-fuzzy network. Ang arkitektura at mga panuntunan sa pagpapatakbo ng bawat layer ng ANFIS network ay inilarawan sa ibaba.

Ipinapatupad ng ANFIS ang Sugeno fuzzy inference system bilang isang limang-layer na feedforward neural network. Ang layunin ng mga layer ay ang mga sumusunod: ang unang layer ay ang mga tuntunin ng input variable; ang pangalawang layer - antecedents (mga lugar) ng malabo na mga panuntunan; ang ikatlong layer ay ang normalisasyon ng mga antas ng pagsunod sa mga patakaran; ang ikaapat na layer ay ang pagtatapos ng mga patakaran; ang ikalimang layer ay ang pagsasama-sama ng resulta na nakuha ayon sa iba't ibang mga patakaran.

Ang mga input ng network ay hindi inilalaan sa isang hiwalay na layer. Ipinapakita ng Figure 23 ang isang network ng ANFIS na may isang input variable ("error") at limang malabo na panuntunan. Para sa linguistic na pagsusuri ng input variable na "error", 5 termino ang ginamit.


Fig.23. IstrukturaANFIS-mga network

Ipakilala natin ang sumusunod na notasyon na kailangan para sa karagdagang presentasyon:

Hayaan ang mga input ng network;

y - output ng network;

Malabo na panuntunan na may sequence number r;

m - bilang ng mga patakaran;

Isang malabong termino na may function ng membership na ginagamit para sa linguistic na pagsusuri ng isang variable sa r-th na panuntunan (,);

Mga tunay na numero sa pagtatapos ng r-th rule (,).

Ang network ng ANFIS ay tumatakbo bilang mga sumusunod.

Layer 1. Ang bawat node sa unang layer ay kumakatawan sa isang termino na may hugis ng kampanang membership function. Ang mga input ng network ay konektado lamang sa kanilang mga termino. Ang bilang ng mga node sa unang layer ay katumbas ng kabuuan ng mga cardinality ng term set ng mga variable ng input. Ang output ng node ay ang antas kung saan ang halaga ng input variable ay kabilang sa kaukulang fuzzy term:

,

kung saan ang a, b at c ay mga na-configure na parameter ng function ng membership.

Layer 2. Ang bilang ng mga node sa pangalawang layer ay m. Ang bawat node sa layer na ito ay tumutugma sa isang malabo na panuntunan. Ang node ng pangalawang layer ay konektado sa mga node ng unang layer na bumubuo sa mga antecedent ng kaukulang panuntunan. Samakatuwid, ang bawat node sa pangalawang layer ay maaaring makatanggap mula 1 hanggang n input signal. Ang output ng node ay ang antas ng pagtupad sa panuntunan, na kinakalkula bilang produkto ng mga input signal. Tukuyin natin ang mga output ng mga node ng layer na ito sa pamamagitan ng , .

Layer 3. Ang bilang ng mga node sa ikatlong layer ay m din. Kinakalkula ng bawat node ng layer na ito ang relatibong antas ng katuparan ng fuzzy rule:

Layer 4. Ang bilang ng mga node sa ikaapat na layer ay m din. Ang bawat node ay konektado sa isang node ng ikatlong layer gayundin sa lahat ng mga input ng network (ang mga koneksyon na may mga input ay hindi ipinapakita sa Fig. 18). Kinakalkula ng ikaapat na layer node ang kontribusyon ng isang malabo na panuntunan sa output ng network:

Layer 5. Ang isang solong node sa layer na ito ay nagbubuod sa mga kontribusyon ng lahat ng mga panuntunan:

.

Ang mga karaniwang pamamaraan para sa pagsasanay ng mga neural network ay maaaring gamitin upang i-configure ang ANFIS network dahil ito ay gumagamit lamang ng mga naiba-iba na function. Karaniwan, ginagamit ang isang kumbinasyon ng gradient descent sa anyo ng backpropagation at least squares. Inaayos ng backpropagation algorithm ang mga parameter ng antecedents ng mga panuntunan, i.e. mga function ng membership. Ang mga koepisyent ng mga konklusyon ng panuntunan ay tinatantya gamit ang pinakamababang paraan ng mga parisukat, dahil ang mga ito ay linear na nauugnay sa output ng network. Ang bawat pag-ulit ng pamamaraan ng pag-setup ay isinasagawa sa dalawang hakbang. Sa unang yugto, ang isang sample ng pagsasanay ay ibinibigay sa mga input, at batay sa pagkakaiba sa pagitan ng nais at aktwal na pag-uugali ng network, ang pinakamainam na mga parameter ng mga node ng ika-apat na layer ay matatagpuan gamit ang iterative least squares method. Sa pangalawang yugto, ang natitirang nalalabi ay inililipat mula sa output ng network sa mga input, at ang mga parameter ng mga node ng unang layer ay binago gamit ang paraan ng backpropagation. Sa kasong ito, ang mga koepisyent ng konklusyon ng panuntunan na natagpuan sa unang yugto ay hindi nagbabago. Ang umuulit na pamamaraan ng pag-tune ay nagpapatuloy hanggang sa lumampas ang pagkakaiba sa isang paunang natukoy na halaga. Upang mag-set up ng mga function ng membership, bilang karagdagan sa paraan ng backpropagation, maaaring gamitin ang iba pang mga algorithm sa pag-optimize, halimbawa, ang pamamaraang Levenberg-Marquardt.

Fig.24. ANFISedit work area.

Subukan natin ngayon na i-optimize ang fuzzy controller para sa isang hakbang na aksyon. Ang gustong lumilipas na proseso ay may humigit-kumulang sumusunod na anyo:

Fig.25. Ninanais na proseso ng paglipat.

Mula sa graph na ipinapakita sa Fig. Ito ay sumusunod na karamihan sa mga oras na ang makina ay dapat gumana nang buong lakas upang matiyak ang pinakamataas na pagganap, at kapag papalapit sa nais na halaga, dapat itong magpreno nang maayos. Ginagabayan ng mga simpleng argumentong ito, kukunin namin ang sumusunod na sample ng mga halaga, na ipinakita sa ibaba sa anyo ng talahanayan, bilang isang sample ng pagsasanay:

Talahanayan 4


Halaga ng error

Kontrol na halaga

Halaga ng error

Kontrol na halaga

Halaga ng error

Kontrol na halaga


Fig.26. Uri ng sample ng pagsasanay.

Magsasagawa kami ng pagsasanay sa 100 hakbang. Ito ay higit pa sa sapat para sa convergence ng paraan na ginamit.

Fig.27. Ang proseso ng pagsasanay ng isang neural network.

Sa panahon ng proseso ng pag-aaral, ang mga parameter ng mga function ng pagiging miyembro ay nabuo sa paraang, para sa isang naibigay na halaga ng error, ang controller ay lumilikha ng kinakailangang kontrol. Sa lugar sa pagitan ng mga nodal point, ang control dependence sa error ay isang interpolation ng data ng talahanayan. Ang paraan ng interpolation ay depende sa kung paano sinanay ang neural network. Sa katunayan, pagkatapos ng pagsasanay, ang malabo na modelo ng controller ay maaaring katawanin bilang isang nonlinear na function ng isang variable, ang graph nito ay ipinakita sa ibaba.

Fig.28. Graph ng control versus position error sa loob ng controller.

Ang pagkakaroon ng nai-save ang mga nahanap na parameter ng mga function ng membership, ginagaya namin ang system gamit ang isang naka-optimize na fuzzy controller.


kanin. 29. Lumilipas na proseso sa ilalim ng harmonic input action para sa isang modelo na may na-optimize na fuzzy controller na naglalaman ng isang input linguistic variable.

Fig.30. Error signal sa ilalim ng harmonic input action para sa isang modelo na may fuzzy controller na naglalaman ng dalawang input linguistic variable.


Sinusundan nito mula sa mga graph na matagumpay ang pag-optimize ng fuzzy controller gamit ang neural network training. Ang pagkakaiba-iba at magnitude ng error ay makabuluhang nabawasan. Samakatuwid, ang paggamit ng isang neural network ay lubos na makatwiran para sa pag-optimize ng mga regulator na ang prinsipyo ng pagpapatakbo ay batay sa fuzzy logic. Gayunpaman, kahit na ang isang naka-optimize na controller ay hindi maaaring matugunan ang mga kinakailangan para sa katumpakan, kaya ipinapayong isaalang-alang ang isa pang paraan ng kontrol kapag ang malabo na controller ay hindi direktang kinokontrol ang bagay, ngunit pinagsasama ang ilang mga batas ng kontrol depende sa kasalukuyang sitwasyon.

Linggo, Mar 29, 2015

Sa kasalukuyan, maraming mga gawain kung saan kinakailangan na gumawa ng ilang desisyon depende sa pagkakaroon ng isang bagay sa imahe o pag-uri-uriin ito. Ang kakayahang "kilalanin" ay itinuturing na pangunahing pag-aari ng mga biyolohikal na nilalang, habang ang mga computer system ay hindi ganap na nagtataglay ng ari-arian na ito.

Tingnan natin ang mga pangkalahatang elemento ng modelo ng pag-uuri.

Klase- isang hanay ng mga bagay na may mga karaniwang katangian. Para sa mga bagay ng parehong klase, ang pagkakaroon ng "pagkakatulad" ay ipinapalagay. Para sa isang gawain sa pagkilala, maaaring tukuyin ang isang di-makatwirang bilang ng mga klase, na higit sa 1. Ang bilang ng mga klase ay tinutukoy ng bilang na S. Ang bawat klase ay may sariling pagtukoy sa label ng klase.

Pag-uuri- ang proseso ng pagtatalaga ng mga label ng klase sa mga bagay, ayon sa ilang paglalarawan ng mga katangian ng mga bagay na ito. Ang classifier ay isang device na tumatanggap ng set ng object attribute bilang input data at gumagawa ng class label bilang resulta.

Pagpapatunay- ang proseso ng pagmamapa ng isang object instance sa isang solong object model o class description.

Sa ilalim paraan mauunawaan natin ang pangalan ng lugar sa espasyo ng mga tampok kung saan ipinapakita ang maraming bagay o phenomena ng materyal na mundo. Tanda- isang quantitative na paglalarawan ng isang partikular na katangian ng bagay o phenomenon na pinag-aaralan.

Tampok na espasyo ito ay isang N-dimensional na espasyo na tinukoy para sa isang naibigay na gawain sa pagkilala, kung saan ang N ay isang nakapirming bilang ng mga nasusukat na tampok para sa anumang mga bagay. Ang isang vector mula sa feature space x na tumutugma sa object ng recognition task ay isang N-dimensional vector na may mga bahagi (x_1,x_2,…,x_N), na siyang mga feature value para sa object na ito.

Sa madaling salita, ang pagkilala ng pattern ay maaaring tukuyin bilang pagtatalaga ng pinagmumulan ng data sa isang partikular na klase sa pamamagitan ng pagtukoy ng mga makabuluhang tampok o katangian na nagpapakilala sa data na ito mula sa kabuuang masa ng mga hindi mahalagang detalye.

Ang mga halimbawa ng mga problema sa pag-uuri ay:

  • pagkilala sa karakter;
  • pagkilala sa pagsasalita;
  • pagtatatag ng medikal na diagnosis;
  • Ulat panahon;
  • pagkilala sa mukha
  • pag-uuri ng mga dokumento, atbp.

Kadalasan, ang pinagmulang materyal ay ang larawang natanggap mula sa camera. Ang problema ay maaaring mabalangkas bilang pagkuha ng mga tampok na vector para sa bawat klase sa imaheng isinasaalang-alang. Ang proseso ay maaaring tingnan bilang isang proseso ng pag-encode na nagsasangkot ng pagtatalaga ng halaga sa bawat feature mula sa feature space para sa bawat klase.

Kung isasaalang-alang natin ang 2 klase ng mga bagay: matatanda at bata. Maaari mong piliin ang taas at timbang bilang mga palatandaan. Tulad ng sumusunod mula sa figure, ang dalawang klase na ito ay bumubuo ng dalawang magkahiwalay na hanay, na maaaring ipaliwanag ng mga napiling tampok. Gayunpaman, hindi laging posible na piliin ang mga tamang sinusukat na parameter bilang mga tampok ng klase. Halimbawa, ang mga napiling parameter ay hindi angkop para sa paglikha ng magkakahiwalay na klase ng mga manlalaro ng football at mga manlalaro ng basketball.

Ang pangalawang gawain ng pagkilala ay upang kunin ang mga katangian o katangian mula sa mga pinagmulang larawan. Ang gawaing ito ay maaaring uriin bilang preprocessing. Kung isasaalang-alang natin ang gawain ng pagkilala sa pagsasalita, maaari nating makilala ang mga katangian tulad ng mga patinig at katinig. Ang katangian ay dapat na katangian ng isang partikular na klase, at sa parehong oras ay karaniwan sa klase na ito. Mga tampok na nagpapakilala sa mga pagkakaiba sa pagitan ng - mga tampok na interclass. Ang mga feature na karaniwan sa lahat ng klase ay hindi nagdadala ng kapaki-pakinabang na impormasyon at hindi itinuturing na mga feature sa gawain sa pagkilala. Ang pagpili ng tampok ay isa sa mga mahahalagang gawain na nauugnay sa pagbuo ng isang sistema ng pagkilala.

Kapag natukoy na ang mga tampok, dapat matukoy ang pinakamainam na pamamaraan ng pagpapasya para sa pag-uuri. Isaalang-alang natin ang isang sistema ng pagkilala ng pattern na idinisenyo upang makilala ang iba't ibang klase ng M, na tinutukoy bilang m_1,m_2,…,m 3. Pagkatapos ay maaari nating ipagpalagay na ang espasyo ng imahe ay binubuo ng mga rehiyon ng M, bawat isa ay naglalaman ng mga puntos na tumutugma sa isang imahe mula sa isang klase. Kung gayon ang problema sa pagkilala ay maaaring ituring bilang pagbuo ng mga hangganan na naghihiwalay sa mga klase ng M batay sa pinagtibay na mga vector ng pagsukat.

Ang paglutas sa problema ng preprocessing ng imahe, pagkuha ng tampok at ang problema sa pagkuha ng pinakamainam na solusyon at pag-uuri ay karaniwang nauugnay sa pangangailangan na tantyahin ang isang bilang ng mga parameter. Ito ay humahantong sa problema ng pagtatantya ng parameter. Bilang karagdagan, malinaw na ang feature extraction ay maaaring gumamit ng karagdagang impormasyon batay sa likas na katangian ng mga klase.

Ang mga bagay ay maaaring ihambing batay sa kanilang representasyon bilang mga vector ng pagsukat. Ito ay maginhawa upang kumatawan sa data ng pagsukat sa anyo ng mga tunay na numero. Pagkatapos ay ang pagkakatulad ng mga feature vector ng dalawang bagay ay maaaring ilarawan gamit ang Euclidean distance.

kung saan ang d ay ang dimensyon ng feature vector.

Mayroong 3 pangkat ng mga pamamaraan ng pagkilala ng pattern:

  • Paghahambing sa sample. Kasama sa pangkat na ito ang pag-uuri ayon sa pinakamalapit na average, pag-uuri ayon sa distansya sa pinakamalapit na kapitbahay. Ang mga pamamaraan ng pagkilala sa istruktura ay maaari ding isama sa pangkat ng paghahambing sa sample.
  • paraang istatistikal. Gaya ng ipinahihiwatig ng pangalan, ang mga pamamaraan ng istatistika ay gumagamit ng ilang istatistikal na impormasyon kapag nilulutas ang isang problema sa pagkilala. Tinutukoy ng pamamaraan kung ang isang bagay ay kabilang sa isang partikular na klase batay sa probabilidad. Sa ilang mga kaso, bumababa ito sa pagtukoy sa posterior probability ng isang bagay na kabilang sa isang partikular na klase, sa kondisyon na ang mga katangian ng bagay na ito ay nakakuha ng naaangkop na mga halaga. Ang isang halimbawa ay ang pamamaraan batay sa panuntunan ng desisyon ng Bayesian.
  • Mga neural network. Isang hiwalay na klase ng mga paraan ng pagkilala. Ang isang natatanging tampok mula sa iba ay ang kakayahang matuto.

Pag-uuri ayon sa pinakamalapit na mean

Sa klasikal na diskarte sa pagkilala ng pattern, kung saan ang isang hindi kilalang bagay para sa pag-uuri ay kinakatawan bilang isang vector ng mga elementarya na tampok. Ang isang feature-based na recognition system ay maaaring mabuo sa iba't ibang paraan. Ang mga vector na ito ay maaaring malaman ng system nang maaga bilang isang resulta ng pagsasanay o hinulaang sa real time batay sa ilang mga modelo.

Ang isang simpleng algorithm ng pag-uuri ay ang pagpangkat ng data ng sangguniang klase gamit ang vector ng inaasahan ng klase (mean).

kung saan ang x(i,j) ay ang jth reference feature ng class i, n_j ay ang bilang ng reference vectors ng class i.

Kung gayon ang isang hindi kilalang bagay ay mapabilang sa klase i kung ito ay mas malapit sa mathematical expectation vector ng class i kaysa sa mathematical expectation vectors ng ibang mga klase. Ang pamamaraang ito ay angkop para sa mga problema kung saan ang mga punto ng bawat klase ay matatagpuan nang compact at malayo sa mga punto ng iba pang mga klase.

Ang mga paghihirap ay lilitaw kung ang mga klase ay may bahagyang mas kumplikadong istraktura, halimbawa, tulad ng sa figure. Sa kasong ito, ang klase 2 ay nahahati sa dalawang magkahiwalay na seksyon na hindi maganda ang paglalarawan ng isang average na halaga. Gayundin, ang klase 3 ay masyadong pinahaba; ang mga sample ng klase 3 na may malalaking halaga ng coordinate x_2 ay mas malapit sa average na halaga ng klase 1 kaysa sa klase 3.

Ang inilarawan na problema sa ilang mga kaso ay maaaring malutas sa pamamagitan ng pagbabago ng pagkalkula ng distansya.

Isasaalang-alang namin ang katangian ng "scatter" ng mga halaga ng klase - σ_i, kasama ang bawat direksyon ng coordinate i. Ang standard deviation ay katumbas ng square root ng variance. Ang naka-scale na Euclidean na distansya sa pagitan ng vector x at ng inaasahang vector x_c ay

Ang formula ng distansya na ito ay magbabawas sa bilang ng mga error sa pag-uuri, ngunit sa katotohanan ang karamihan sa mga problema ay hindi maaaring kinakatawan ng gayong simpleng klase.

Pag-uuri ayon sa distansya sa pinakamalapit na kapitbahay

Ang isa pang diskarte sa pag-uuri ay ang magtalaga ng hindi kilalang feature vector x sa klase kung saan ang indibidwal na sample ang vector na ito ay pinakakapareho. Ang panuntunang ito ay tinatawag na pinakamalapit na tuntunin sa kapitbahay. Ang pinakamalapit na pag-uuri ng kapitbahay ay maaaring maging mas mahusay kahit na ang mga klase ay may mga kumplikadong istruktura o kapag ang mga klase ay nagsasapawan.

Ang diskarte na ito ay hindi nangangailangan ng mga pagpapalagay tungkol sa mga modelo ng pamamahagi ng mga tampok na vector sa espasyo. Ang algorithm ay gumagamit lamang ng impormasyon tungkol sa mga kilalang reference sample. Ang paraan ng solusyon ay batay sa pagkalkula ng distansya x sa bawat sample sa database at paghahanap ng pinakamababang distansya. Ang mga pakinabang ng pamamaraang ito ay halata:

  • maaari kang magdagdag ng mga bagong sample sa database anumang oras;
  • binabawasan ng mga istruktura ng data ng puno at grid ang bilang ng mga nakalkulang distansya.

Bilang karagdagan, ang solusyon ay magiging mas mahusay kung hahanapin natin ang database hindi para sa isang pinakamalapit na kapitbahay, ngunit para sa k. Pagkatapos, para sa k > 1, nagbibigay ito ng pinakamahusay na sampling ng pamamahagi ng mga vector sa d-dimensional na espasyo. Gayunpaman, ang mahusay na paggamit ng mga k value ay nakasalalay sa kung mayroong sapat na mga numero sa bawat rehiyon ng espasyo. Kung mayroong higit sa dalawang klase, nagiging mas mahirap na gumawa ng tamang desisyon.

Panitikan

  • M. Castrillon, . O. Deniz, . D. Hernández at J. Lorenzo, "Isang paghahambing ng mga detektor ng tampok na mukha at mukha batay sa Viola-Jones general object detection framework," International Journal of Computer Vision, blg. 22, pp. 481-494, 2011.
  • Y.-Q. Wang, "Isang Pagsusuri ng Viola-Jones Face Detection Algorithm," IPOL Journal, 2013.
  • L. Shapiro at D. Stockman, Computer Vision, Binom. Laboratory ng Kaalaman, 2006.
  • Z. N. G., Mga pamamaraan ng pagkilala at ang kanilang aplikasyon, Soviet Radio, 1972.
  • J. Tu, R. Gonzalez, Mga prinsipyo sa matematika ng pagkilala ng pattern, Moscow: "Mir" Moscow, 1974.
  • Khan, H. Abdullah at M. Shamian Bin Zainal, "Mahusay na algorithm ng pagtuklas ng mga mata at bibig gamit ang kumbinasyon ng viola jones at pagtukoy ng pixel ng kulay ng balat," International Journal of Engineering and Applied Sciences, No. Vol. 3 No. 4, 2013.
  • V. Gaede at O. Gunther, “Multidimensional Access Methods,” ACM Computing Surveys, pp. 170-231, 1998.

Pagsusuri ng mga umiiral na pamamaraan ng pagkilala ng pattern

L.P. Popova , AT TUNGKOL. Datiev

Ang kakayahang "kilalanin" ay itinuturing na pangunahing pag-aari ng mga tao, pati na rin ang iba pang mga nabubuhay na organismo. Ang pagkilala sa pattern ay isang sangay ng cybernetics na bumubuo ng mga prinsipyo at pamamaraan ng pag-uuri, pati na rin ang pagkilala sa mga bagay, phenomena, proseso, signal, sitwasyon - lahat ng mga bagay na maaaring ilarawan ng isang may hangganan na hanay ng ilang mga palatandaan o katangian na nagpapakilala sa bagay. .

Ang imahe ay isang paglalarawan ng isang bagay. Ang mga imahe ay may katangian na pag-aari, na nagpapakita ng sarili sa katotohanan na ang pamilyar sa isang may hangganan na bilang ng mga phenomena mula sa parehong hanay ay ginagawang posible na makilala ang isang di-makatwirang malaking bilang ng mga kinatawan nito.

Sa teorya ng pagkilala ng pattern, dalawang pangunahing direksyon ang maaaring makilala:

    ang pag-aaral ng mga kakayahan sa pagkilala na taglay ng mga tao at iba pang nabubuhay na organismo;

    pagbuo ng teorya at mga pamamaraan para sa paggawa ng mga aparato na idinisenyo upang malutas ang mga indibidwal na problema ng pagkilala ng pattern sa ilang mga lugar ng aplikasyon.

Dagdag pa, inilalarawan ng artikulo ang mga problema, prinsipyo at pamamaraan ng pagpapatupad ng mga sistema ng pagkilala ng imahe na nauugnay sa pagbuo ng pangalawang direksyon. Tinatalakay ng ikalawang bahagi ng artikulo ang mga pamamaraan ng neural network ng pattern recognition, na maaaring maiugnay sa unang direksyon ng teorya ng pattern recognition.

Mga problema sa pagbuo ng mga sistema ng pagkilala sa imahe

Ang mga problemang lumitaw kapag nagtatayo ng mga awtomatikong sistema ng pagkilala ng pattern ay karaniwang maaaring mauri sa ilang mga pangunahing lugar. Ang una sa mga ito ay nauugnay sa paglalahad ng inisyal na datos na nakuha bilang resulta ng pagsukat para sa bagay na makikilala.Ito problema sa pagiging sensitibo. Ang bawat sinusukat na halaga ay ilang "katangian ng isang imahe o bagay. Ipagpalagay natin, halimbawa, na ang mga imahe ay mga alphanumeric na character. Sa kasong ito, ang isang pagsukat ng retina, katulad ng ipinapakita sa Fig. 1(a), ay maaaring matagumpay na ginagamit sa sensor. Kung ang retina ay binubuo ng mga n-elemento, ang mga resulta ng pagsukat ay maaaring katawanin bilang isang vector ng pagsukat o isang vector ng imahe ,

kung saan ang bawat elemento xi, ay tumatagal, halimbawa, ang halaga 1 kung ang imahe ng isang simbolo ay dumaan sa i-th retinal cell, at ang halaga 0 kung hindi man.

Tingnan natin ang Fig. 2(b). Sa kasong ito, ang mga imahe ay tuluy-tuloy na pag-andar (tulad ng mga sound signal) ng variable t. Kung ang pagsukat ng mga halaga ng function ay isinasagawa sa mga discrete na puntos t1,t2, ..., tn, kung gayon ang vector ng imahe ay maaaring mabuo sa pamamagitan ng pagkuha ng x1= f(t1),x2=f(t2),... , xn = f(tn).

Figure 1. Pagsukat ng retina

Ang pangalawang problema ng pagkilala ng pattern ay nauugnay sa paghihiwalay ng mga katangian o katangian mula sa nakuhang source data at pagbabawas ng dimensyon ng pattern vectors. Ang problemang ito ay madalas na tinukoy bilang isang problema preprocessing at pagpili ng tampok.

Ang mga tampok ng isang klase ng mga larawan ay mga katangiang katangian na karaniwan sa lahat ng mga larawan ng isang partikular na klase. Ang mga tampok na nagpapakita ng mga pagkakaiba sa pagitan ng mga indibidwal na klase ay maaaring bigyang-kahulugan bilang mga tampok na interclass. Ang mga tampok na intraclass, na karaniwan sa lahat ng mga klase na isinasaalang-alang, ay hindi nagdadala ng kapaki-pakinabang na impormasyon mula sa punto ng view ng pagkilala at maaaring hindi isinasaalang-alang. Ang pagpili ng tampok ay itinuturing na isa sa mga mahahalagang gawain na nauugnay sa pagtatayo ng mga sistema ng pagkilala. Kung ang mga resulta ng pagsukat ay nagpapahintulot sa amin na makakuha ng kumpletong hanay ng mga natatanging tampok para sa lahat ng mga klase, ang aktwal na pagkilala at pag-uuri ng mga imahe ay hindi magdudulot ng anumang partikular na kahirapan. Ang awtomatikong pagkilala ay mababawasan sa isang simpleng proseso ng pagtutugma o mga pamamaraan tulad ng pag-scan ng talahanayan. Sa karamihan ng mga praktikal na problema sa pagkilala, gayunpaman, ang pagtukoy sa buong hanay ng mga natatanging tampok ay lumalabas na napakahirap, kung hindi imposible. Karaniwang posibleng kunin ang ilan sa mga tampok na diskriminasyon mula sa orihinal na data at gamitin ang mga ito upang pasimplehin ang proseso ng awtomatikong pagkilala sa pattern. Sa partikular, ang sukat ng mga vector ng pagsukat ay maaaring bawasan gamit ang mga pagbabagong nagpapababa ng pagkawala ng impormasyon.

Ang ikatlong problema na nauugnay sa pagtatayo ng mga sistema ng pagkilala ng pattern ay ang paghahanap ng pinakamainam na mga pamamaraan ng pagpapasya na kinakailangan para sa pagkilala at pag-uuri. Matapos ang data na nakolekta tungkol sa mga larawang makikilala ay kinakatawan ng mga punto o mga vector ng pagsukat sa espasyo ng larawan, hinahayaan namin ang makina na malaman kung aling klase ng mga larawan ang tumutugma sa data na ito. Hayaang ang makina ay idinisenyo upang makilala ang mga M na klase, na tinutukoy na w1, w2, ... ..., wm. Sa kasong ito, ang espasyo ng imahe ay maaaring ituring na binubuo ng mga M na rehiyon, na ang bawat isa ay naglalaman ng mga puntos na tumutugma sa mga larawan mula sa isang klase. Sa kasong ito, ang gawain sa pagkilala ay maaaring ituring bilang pagbuo ng mga hangganan ng mga lugar ng pagpapasya na naghihiwalay sa mga klase ng M batay sa mga nakarehistrong vector ng pagsukat. Hayaang tukuyin ang mga hangganang ito, halimbawa, sa pamamagitan ng mga function ng desisyon d1(x), d2(x),..., dm(x). Ang mga function na ito, na tinatawag ding discriminant functions, ay scalar at single-valued function ng imahe ng x. Kung di (x) > dj (x), ang imaheng x ay kabilang sa klase w1. Sa madaling salita, kung ang i-th decision function na di(x) ay may pinakamalaking halaga, kung gayon ang isang makabuluhang paglalarawan ng naturang awtomatikong scheme ng pag-uuri batay sa pagpapatupad ng proseso ng paggawa ng desisyon ay ipinapakita sa Fig. 2 (sa diagram na "GR" ay ang generator ng mga function ng desisyon).

Figure 2. Automatic classification scheme.

Ang mga mapagpasyang function ay maaaring makuha sa maraming paraan. Sa mga kaso kung saan mayroong kumpletong a priori na impormasyon tungkol sa mga kinikilalang larawan, ang mga function ng desisyon ay maaaring matukoy nang eksakto batay sa impormasyong ito. Kung may makukuha lamang na husay na impormasyon tungkol sa mga larawan, ang mga makatwirang pagpapalagay ay maaaring gawin tungkol sa anyo ng mga mapagpasyang function. Sa huling kaso, ang mga hangganan ng mga lugar ng solusyon ay maaaring makabuluhang lumihis mula sa mga tunay, at samakatuwid ito ay kinakailangan upang lumikha ng isang sistema na may kakayahang makamit ang isang kasiya-siyang resulta sa pamamagitan ng isang serye ng mga sunud-sunod na pagsasaayos.

Ang mga bagay (mga larawan) na makikilala at mauuri gamit ang isang awtomatikong sistema ng pagkilala ng pattern ay dapat na may isang hanay ng mga masusukat na katangian. Kapag para sa isang buong pangkat ng mga imahe ang mga resulta ng kaukulang mga sukat ay naging magkatulad, ang mga bagay na ito ay itinuturing na kabilang sa parehong klase. Ang layunin ng sistema ng pagkilala ng pattern ay, batay sa nakolektang impormasyon, matukoy ang isang klase ng mga bagay na may mga katangiang katulad ng mga sinusukat sa mga bagay na kinikilala. Ang katumpakan ng pagkilala ay nakasalalay sa dami ng diskriminasyong impormasyon na nakapaloob sa mga sinusukat na katangian at ang pagiging epektibo ng paggamit ng impormasyong ito.

      Mga pangunahing pamamaraan para sa pagpapatupad ng mga sistema ng pagkilala ng pattern

Ang pagkilala sa pattern ay tumutukoy sa problema ng pagbuo at paglalapat ng mga pormal na operasyon sa mga numerical o simbolikong representasyon ng mga bagay sa tunay o perpektong mundo, ang mga resulta nito ay sumasalamin sa pagkakapantay-pantay sa pagitan ng mga bagay na ito. Ang mga ugnayang equivalence ay nagpapahayag ng pagmamay-ari ng mga nasuri na bagay sa anumang klase, na itinuturing bilang mga independiyenteng semantic unit.

Kapag gumagawa ng mga algorithm ng pagkilala, ang mga klase ng equivalence ay maaaring tukuyin ng isang mananaliksik na gumagamit ng kanyang sariling makabuluhang ideya o gumagamit ng panlabas na karagdagang impormasyon tungkol sa pagkakapareho at pagkakaiba ng mga bagay sa konteksto ng problemang nilulutas. Pagkatapos ay pinag-uusapan nila ang tungkol sa "pagkilala sa isang guro." Kung hindi, i.e. Kapag nalutas ng isang awtomatikong system ang isang problema sa pag-uuri nang hindi gumagamit ng panlabas na impormasyon sa pagsasanay, nagsasalita kami ng awtomatikong pag-uuri o "hindi pinangangasiwaang pagkilala." Karamihan sa mga algorithm ng pagkilala ng pattern ay nangangailangan ng paggamit ng napakalaking kapangyarihan sa pag-compute, na maaari lamang ibigay ng teknolohiya ng computer na may mataas na pagganap.

Iba't ibang mga may-akda (Yu.L. Barabash, V.I. Vasiliev, A.L. Gorelik, V.A. Skripkin, R. Duda, P. Hart, L.T. Kuzin, F.I. Peregudov, F.P. Tarasenko, Temnikov F.E., Afonin V.A., Dmitriev V., R.T. Gonzalez, P. Winston, K. Fu, Ya.Z. Tsypkin, atbp.) ay nagbibigay ng ibang tipolohiya ng mga pamamaraan ng pagkilala sa pattern. Ang ilang mga may-akda ay nakikilala sa pagitan ng parametric, nonparametric at heuristic na mga pamamaraan, ang iba ay tumutukoy sa mga grupo ng mga pamamaraan batay sa makasaysayang itinatag na mga paaralan at mga uso sa larangang ito.

Kasabay nito, ang mga kilalang tipolohiya ay hindi isinasaalang-alang ang isang napaka makabuluhang katangian, na sumasalamin sa pagtitiyak ng paraan ng pagrepresenta ng kaalaman tungkol sa isang paksang lugar gamit ang anumang pormal na algorithm ng pagkilala ng pattern. Tinukoy ni D.A. Pospelov ang dalawang pangunahing paraan ng paglalahad ng kaalaman:

    Intensional na representasyon - sa anyo ng isang diagram ng mga koneksyon sa pagitan ng mga katangian (mga tampok).

    Extension na representasyon - gamit ang mga tiyak na katotohanan (mga bagay, mga halimbawa).

Dapat pansinin na ang pagkakaroon ng tiyak na dalawang grupong ito ng mga pamamaraan ng pagkilala: ang mga nagpapatakbo na may mga palatandaan at ang mga gumagana sa mga bagay, ay malalim na natural. Mula sa puntong ito ng pananaw, wala sa mga pamamaraang ito, na kinuha nang hiwalay mula sa iba, ay nagpapahintulot sa amin na bumuo ng isang sapat na pagmuni-muni ng lugar ng paksa. Sa pagitan ng mga pamamaraan na ito ay may kaugnayan ng complementarity sa kahulugan ng N. Bohr, samakatuwid, ang mga promising recognition system ay dapat magbigay ng pagpapatupad ng pareho ng mga pamamaraang ito, at hindi lamang isa sa mga ito.

Kaya, ang pag-uuri ng mga pamamaraan ng pagkilala na iminungkahi ni D.A. Pospelov ay batay sa mga pangunahing pattern na pinagbabatayan ng paraan ng pag-unawa ng tao sa pangkalahatan, na inilalagay ito sa isang ganap na espesyal (pribilehiyo) na posisyon kumpara sa iba pang mga pag-uuri, na laban sa background na ito ay mukhang mas magaan at artipisyal.

Intensyonal na pamamaraan

Ang isang natatanging tampok ng mga intensyon na pamamaraan ay ang paggamit nila ng iba't ibang mga katangian ng mga tampok at ang kanilang mga koneksyon bilang mga elemento ng mga operasyon kapag gumagawa at naglalapat ng mga algorithm ng pagkilala ng pattern. Ang mga nasabing elemento ay maaaring mga indibidwal na halaga o mga agwat ng mga halaga ng tampok, average na mga halaga at pagkakaiba-iba, mga matrice ng relasyon sa tampok, atbp., kung saan ang mga aksyon ay ginanap, na ipinahayag sa analytical o nakabubuo na anyo. Kasabay nito, ang mga bagay sa mga pamamaraang ito ay hindi itinuturing na integral na mga yunit ng impormasyon, ngunit kumikilos bilang mga tagapagpahiwatig para sa pagtatasa ng pakikipag-ugnayan at pag-uugali ng kanilang mga katangian.

Ang pangkat ng mga intensyon na pamamaraan para sa pagkilala ng pattern ay malawak, at ang paghahati nito sa mga subclass ay sa isang tiyak na lawak ay may kondisyon:

– mga pamamaraan batay sa mga pagtatantya ng mga density ng pamamahagi ng mga halaga ng tampok

– mga pamamaraan batay sa mga pagpapalagay tungkol sa klase ng mga function ng desisyon

- lohikal na pamamaraan

– mga pamamaraang pangwika (istruktural).

Mga pamamaraan batay sa mga pagtatantya ng mga density ng pamamahagi ng mga halaga ng tampok. Ang mga pamamaraan ng pagkilala ng pattern na ito ay hiniram mula sa klasikal na teorya ng mga desisyon sa istatistika, kung saan ang mga bagay ng pag-aaral ay itinuturing bilang mga pagsasakatuparan ng isang multidimensional na random na variable na ibinahagi sa feature space ayon sa ilang batas. Ang mga ito ay batay sa isang Bayesian na pamamaraan sa paggawa ng desisyon na umaapela sa isang priori probabilities ng mga bagay na kabilang sa isang partikular na kinikilalang klase at kondisyonal na densidad ng pamamahagi ng mga value ng feature na vector. Ang mga pamamaraang ito ay bumulusok sa pagtukoy ng ratio ng posibilidad sa iba't ibang lugar ng multidimensional na feature space.

Ang isang pangkat ng mga pamamaraan batay sa pagtatantya ng mga density ng pamamahagi ng mga halaga ng tampok ay direktang nauugnay sa mga pamamaraan ng pagsusuri ng diskriminasyon. Ang diskarte ng Bayesian sa paggawa ng desisyon ay isa sa mga pinaka-binuo na tinatawag na parametric na pamamaraan sa modernong istatistika, kung saan ang analytical expression ng batas sa pamamahagi (sa kasong ito, ang normal na batas) ay itinuturing na kilala at isang maliit na bilang lamang ng mga parameter ( ang mga vector ng mga average na halaga at covariance matrice) ay kinakailangang matantya.

Kasama rin sa pangkat na ito ang paraan ng pagkalkula ng ratio ng posibilidad para sa mga independiyenteng katangian. Ang pamamaraang ito, maliban sa pagpapalagay ng pagsasarili ng mga katangian (na sa katotohanan ay halos hindi natutupad), ay hindi nagpapalagay ng kaalaman sa functional form ng batas sa pamamahagi. Maaari itong maiuri bilang isang nonparametric na pamamaraan.

Iba pang mga nonparametric na pamamaraan, na ginagamit kapag ang hugis ng distribution density curve ay hindi alam at walang mga pagpapalagay tungkol sa kalikasan nito ay maaaring gawin sa lahat, ay sumasakop sa isang espesyal na posisyon. Kabilang dito ang kilalang paraan ng multidimensional histograms, ang pamamaraang "k-pinakamalapit na kapitbahay", ang Euclidean distance method, ang paraan ng mga potensyal na function, atbp., isang generalization kung saan ang pamamaraang tinatawag na "Parzen estimates". Ang mga pamamaraang ito ay pormal na gumagana sa mga bagay bilang mga integral na istruktura, ngunit depende sa uri ng gawain sa pagkilala, maaari silang kumilos sa parehong intensyon at extensional na anyo.

Sinusuri ng mga nonparametric na pamamaraan ang mga relatibong bilang ng mga bagay na nahuhulog sa mga ibinigay na dami ng multidimensional at gumagamit ng iba't ibang function ng distansya sa pagitan ng mga bagay sa set ng pagsasanay at mga bagay na kinikilala. Para sa mga quantitative na katangian, kapag ang kanilang bilang ay mas mababa kaysa sa sample size, ang mga operasyon na may mga bagay ay gumaganap ng isang intermediate na papel sa pagtantya ng mga lokal na density ng pamamahagi ng mga kondisyon na probabilities at mga bagay ay hindi nagdadala ng semantic load ng mga independiyenteng yunit ng impormasyon. Kasabay nito, kapag ang bilang ng mga tampok ay naaayon o mas malaki kaysa sa bilang ng mga bagay na pinag-aaralan, at ang mga tampok ay may katangiang husay o dichotomous, kung gayon ay hindi maaaring pag-usapan ang anumang lokal na pagtatantya ng mga density ng pamamahagi ng posibilidad. Sa kasong ito, ang mga bagay sa tinukoy na nonparametric na pamamaraan ay itinuturing na mga independiyenteng yunit ng impormasyon (integral na empirical na katotohanan) at ang mga pamamaraang ito ay nakakakuha ng kahulugan ng pagtatasa ng mga pagkakatulad at pagkakaiba ng mga bagay na pinag-aaralan.

Kaya, ang parehong mga teknolohikal na operasyon ng mga nonparametric na pamamaraan, depende sa mga kondisyon ng problema, ay may kahulugan sa alinman sa mga lokal na pagtatantya ng probability distribution density ng mga feature value, o mga pagtatantya ng pagkakapareho at pagkakaiba ng mga bagay.

Sa konteksto ng intensional na representasyon ng kaalaman, ang unang bahagi ng mga nonparametric na pamamaraan, bilang mga pagtatantya ng probability distribution density, ay isinasaalang-alang dito. Napansin ng maraming may-akda na sa pagsasagawa, gumagana nang maayos ang mga nonparametric na pamamaraan tulad ng mga Parzen estimator. Ang mga pangunahing kahirapan sa paggamit ng mga pamamaraang ito ay ang pangangailangang alalahanin ang buong sample ng pagsasanay upang kalkulahin ang mga pagtatantya ng mga lokal na densidad ng pamamahagi ng probabilidad at mataas na sensitivity sa pagiging hindi kinatawan ng sample ng pagsasanay.

Mga pamamaraan batay sa mga pagpapalagay tungkol sa klase ng mga function ng desisyon. Sa pangkat na ito ng mga pamamaraan, ang pangkalahatang anyo ng pagpapaandar ng pagpapasya ay itinuturing na kilala at ang pagganap ng kalidad nito ay tinukoy. Batay sa functional na ito, ang pinakamahusay na approximation ng function ng desisyon ay hinahanap sa sequence ng pagsasanay. Ang pinakakaraniwan ay ang mga representasyon ng mga function ng desisyon sa anyo ng mga linear at pangkalahatan na nonlinear polynomial. Ang paggana ng kalidad ng panuntunan ng desisyon ay karaniwang nauugnay sa error sa pag-uuri.

Ang pangunahing bentahe ng mga pamamaraan batay sa mga pagpapalagay tungkol sa klase ng mga function ng desisyon ay ang kalinawan ng matematikal na pagbabalangkas ng problema sa pagkilala bilang isang problema sa paghahanap para sa isang extremum. Ang solusyon sa problemang ito ay kadalasang nakakamit gamit ang ilang gradient algorithm. Ang iba't ibang mga pamamaraan sa pangkat na ito ay ipinaliwanag sa pamamagitan ng malawak na hanay ng mga pagpapaandar ng kalidad ng panuntunan sa pagpapasya at mga algorithm ng matinding paghahanap na ginamit. Ang isang generalization ng mga algorithm na isinasaalang-alang, na kinabibilangan, sa partikular, Newton's algorithm, perceptron-type algorithm, atbp., ay ang paraan ng stochastic approximation. Sa kaibahan sa mga parametric na pamamaraan ng pagkilala, ang tagumpay ng paggamit ng grupong ito ng mga pamamaraan ay hindi masyadong nakadepende sa pagkakaiba sa pagitan ng mga teoretikal na ideya tungkol sa mga batas ng pamamahagi ng mga bagay sa feature space at empirical reality. Ang lahat ng mga operasyon ay napapailalim sa isang pangunahing layunin - ang paghahanap ng sukdulan ng kalidad ng pagganap ng panuntunan ng desisyon. Kasabay nito, maaaring magkatulad ang mga resulta ng parametric at isinasaalang-alang na mga pamamaraan. Tulad ng ipinakita sa itaas, ang mga parametric na pamamaraan para sa kaso ng mga normal na distribusyon ng mga bagay sa iba't ibang klase na may pantay na covariance matrice ay humahantong sa mga linear na pag-andar ng desisyon. Tandaan din na ang mga algorithm para sa pagpili ng mga tampok na nagbibigay-kaalaman sa mga linear na diagnostic na modelo ay maaaring bigyang-kahulugan bilang mga espesyal na bersyon ng gradient algorithm para sa paghahanap ng mga extremum.

Ang mga kakayahan ng gradient extremum search algorithm, lalo na sa pangkat ng mga linear na panuntunan ng desisyon, ay lubos na pinag-aralan. Ang convergence ng mga algorithm na ito ay napatunayan lamang para sa kaso kapag ang mga kinikilalang klase ng object ay ipinapakita sa feature space ng mga compact na geometric na istruktura. Gayunpaman, ang pagnanais na makamit ang sapat na kalidad ng panuntunan ng desisyon ay madalas na masisiyahan sa tulong ng mga algorithm na walang mahigpit na mathematical na patunay ng convergence ng solusyon sa isang global extremum.

Kasama sa mga naturang algorithm ang isang malaking grupo ng mga heuristic programming procedure na kumakatawan sa direksyon ng evolutionary modeling. Ang evolutionary modeling ay isang bionic na pamamaraan na hiniram mula sa kalikasan. Ito ay batay sa paggamit ng mga kilalang mekanismo ng ebolusyon upang palitan ang proseso ng makabuluhang pagmomodelo ng isang kumplikadong bagay na may phenomenological modeling ng ebolusyon nito.

Ang isang kilalang kinatawan ng evolutionary modeling sa pattern recognition ay ang paraan ng group accounting of arguments (MGUA). Ang batayan ng GMDH ay ang prinsipyo ng self-organization, at ang GMDH algorithm ay nagpaparami ng scheme ng mass selection. Sa GMDH algorithm, ang mga miyembro ng isang pangkalahatang polynomial ay synthesize at pinili sa isang espesyal na paraan, na kung saan ay madalas na tinatawag na Kolmogorov-Gabor polynomial. Ang synthesis at pagpili na ito ay isinasagawa nang may pagtaas ng pagiging kumplikado, at imposibleng mahulaan nang maaga kung anong huling anyo ang magkakaroon ng pangkalahatang polynomial. Una, ang mga simpleng pairwise na kumbinasyon ng mga paunang tampok ay karaniwang isinasaalang-alang, kung saan ang mga equation ng mga function ng desisyon ay pinagsama-sama, kadalasan ay hindi mas mataas kaysa sa pangalawang pagkakasunud-sunod. Ang bawat equation ay sinusuri bilang isang independiyenteng pagpapaandar ng pagpapasya, at ang mga halaga ng mga parameter ng pinagsama-samang mga equation ay matatagpuan sa isang paraan o iba pa gamit ang sample ng pagsasanay. Pagkatapos, mula sa nagresultang hanay ng mga function ng pagpapasya, pipiliin ang ilan sa mga pinakamahusay. Ang kalidad ng mga function ng indibidwal na pagpapasya ay sinusuri sa isang control (validation) sample, na kung minsan ay tinatawag na prinsipyo ng panlabas na karagdagan. Ang mga napiling partial decision function ay higit na itinuturing bilang intermediate variable na nagsisilbing paunang argumento para sa isang katulad na synthesis ng mga bagong function ng desisyon, atbp. Ang proseso ng naturang hierarchical synthesis ay nagpapatuloy hanggang sa maabot ang sukdulan ng kalidad ng criterion ng decision function, na sa pagsasanay ay ipinapakita sa pagkasira ng kalidad na ito kapag sinusubukang dagdagan pa ang pagkakasunud-sunod ng mga polynomial na termino na may kaugnayan sa orihinal na mga tampok.

Ang prinsipyo ng self-organization na pinagbabatayan ng GMDH ay tinatawag na heuristic self-organization, dahil ang buong proseso ay nakabatay sa pagpapakilala ng mga panlabas na karagdagan, pinili sa heuristikong paraan. Ang resulta ng isang desisyon ay maaaring nakadepende nang malaki sa mga heuristikong ito. Ang resultang diagnostic model ay depende sa kung paano nahahati ang mga bagay sa mga sample ng pagsasanay at pagsubok, kung paano tinutukoy ang criterion ng kalidad ng pagkilala, kung gaano karaming mga variable ang naipapasa sa susunod na hilera ng pagpili, atbp.

Ang ipinahiwatig na mga tampok ng GMDH algorithm ay katangian din ng iba pang mga diskarte sa evolutionary modeling. Ngunit tandaan natin dito ang isa pang aspeto ng mga pamamaraan na isinasaalang-alang. Ito ang kanilang makabuluhang diwa. Gamit ang mga pamamaraan batay sa mga pagpapalagay tungkol sa klase ng mga pag-andar ng desisyon (ebolusyonaryo at gradient), posible na bumuo ng mga diagnostic na modelo ng mataas na kumplikado at makakuha ng praktikal na katanggap-tanggap na mga resulta. Kasabay nito, ang pagkamit ng mga praktikal na layunin sa kasong ito ay hindi sinamahan ng pagkuha ng bagong kaalaman tungkol sa likas na katangian ng mga kinikilalang bagay. Ang posibilidad ng pagkuha ng kaalamang ito, sa partikular na kaalaman tungkol sa mga mekanismo ng pakikipag-ugnayan ng mga katangian (mga tampok), ay dito sa panimula ay limitado ng ibinigay na istraktura ng naturang pakikipag-ugnayan, na naayos sa napiling anyo ng mga pag-andar ng desisyon. Samakatuwid, ang pinakamaraming masasabi pagkatapos bumuo ng isang partikular na modelo ng diagnostic ay ang maglista ng mga kumbinasyon ng mga tampok at ang mga tampok mismo na kasama sa resultang modelo. Ngunit ang kahulugan ng mga kumbinasyon na sumasalamin sa kalikasan at istraktura ng mga distribusyon ng mga bagay na pinag-aaralan ay kadalasang nananatiling hindi isiniwalat sa loob ng balangkas ng diskarteng ito.

Mga Paraan ng Boolean. Ang mga lohikal na pamamaraan ng pagkilala ng pattern ay batay sa apparatus ng logical algebra at pinapayagan ang isa na gumana nang may impormasyon na nakapaloob hindi lamang sa mga indibidwal na tampok, kundi pati na rin sa mga kumbinasyon ng mga halaga ng tampok. Sa mga pamamaraang ito, ang mga halaga ng anumang katangian ay itinuturing na elementarya na mga kaganapan.

Sa pinaka-pangkalahatang anyo, ang mga lohikal na pamamaraan ay maaaring mailalarawan bilang isang uri ng paghahanap sa pamamagitan ng isang sample ng pagsasanay ng mga lohikal na pattern at ang pagbuo ng isang tiyak na sistema ng lohikal na mga panuntunan sa pagpapasya (halimbawa, sa anyo ng mga conjunction ng mga elementarya na kaganapan), bawat isa sa na may sariling timbang. Ang pangkat ng mga lohikal na pamamaraan ay magkakaiba at kabilang ang mga pamamaraan ng iba't ibang kumplikado at lalim ng pagsusuri. Para sa dichotomous (Boolean) na mga feature, ang tinatawag na tree-like classifiers, ang dead-end test method, ang "Bark" algorithm at iba pa ay sikat. Ang mas kumplikadong mga pamamaraan ay nakabatay sa pormalisasyon ng mga pamamaraan ng inductive ng D.S. Mill. Isinasagawa ang pormalisasyon sa pamamagitan ng pagbuo ng quasi-axiomatic theory at batay sa multi-sorted many-valued logic na may mga quantifier sa mga tuple na may variable na haba.

Ang algorithm ng "Kora", tulad ng iba pang mga lohikal na pamamaraan ng pagkilala sa pattern, ay medyo matrabaho, dahil ang isang kumpletong paghahanap ay kinakailangan kapag pumipili ng mga conjunction. Samakatuwid, kapag gumagamit ng mga lohikal na pamamaraan, ang mga mataas na pangangailangan ay inilalagay sa mahusay na organisasyon ng proseso ng pagkalkula, at ang mga pamamaraang ito ay gumagana nang maayos sa medyo maliit na sukat ng tampok na espasyo at sa mga makapangyarihang computer lamang.

Linguistic (syntactic o structural) na pamamaraan. Ang mga pamamaraan ng linggwistika ng pagkilala sa pattern ay batay sa paggamit ng mga espesyal na grammar na bumubuo ng mga wika, sa tulong kung saan maaaring ilarawan ang isang hanay ng mga katangian ng mga kinikilalang bagay. Ang grammar ay tumutukoy sa mga panuntunan para sa pagbuo ng mga bagay mula sa mga hindi nagmula na elementong ito.

Kung ang paglalarawan ng mga imahe ay ginawa gamit ang mga non-derivative na elemento (subimages) at ang kanilang mga relasyon, kung gayon ang isang linguistic o syntactic na diskarte gamit ang prinsipyo ng generality ng mga katangian ay ginagamit upang bumuo ng mga awtomatikong sistema ng pagkilala. Maaaring ilarawan ang isang imahe gamit ang isang hierarchical na istraktura ng mga subimage, katulad ng syntactic na istraktura ng wika. Ginagawang posible ng sitwasyong ito na mailapat ang teorya ng mga pormal na wika kapag nilulutas ang mga problema sa pagkilala sa imahe. Ang isang gramatika ng imahe ay ipinapalagay na naglalaman ng may hangganan na hanay ng mga elemento na tinatawag na mga variable, non-derivative na elemento, at mga panuntunan sa pagpapalit. Ang katangian ng mga tuntunin sa pagpapalit ay tumutukoy sa uri ng gramatika. Kabilang sa mga pinaka-pinag-aralan na gramatika maaari nating tandaan ang mga regular, walang konteksto at grammar ng mga direktang bahagi. Ang mga pangunahing punto ng diskarteng ito ay ang pagpili ng mga hindi hinangong elemento ng imahe, ang kumbinasyon ng mga elementong ito at ang mga relasyon na nagkokonekta sa mga ito sa mga grammar ng imahe, at, sa wakas, ang pagpapatupad ng mga proseso ng pagsusuri at pagkilala sa naaangkop na wika. Ang diskarte na ito ay partikular na kapaki-pakinabang kapag nagtatrabaho sa mga imahe na hindi maaaring ilarawan sa pamamagitan ng mga numerical na sukat o napakakumplikado na ang kanilang mga lokal na tampok ay hindi matukoy at ang isa ay kailangang bumaling sa mga pandaigdigang katangian ng mga bagay.

Halimbawa, E.A. Butakov, V.I. Ostrovsky, I.L. Iminungkahi ni Fadeev ang sumusunod na istraktura ng system para sa pagpoproseso ng imahe (Larawan 3), gamit ang isang linguistic na diskarte, kung saan ang bawat isa sa mga functional block ay isang software (microprogram) complex (module) na nagpapatupad ng kaukulang mga function.

Figure 3. Block diagram ng nakakakilalang device

Ang mga pagtatangka na ilapat ang mga pamamaraan ng matematikal na linggwistika sa problema ng pagsusuri ng imahe ay humantong sa pangangailangang lutasin ang isang bilang ng mga problema na nauugnay sa pagmamapa ng dalawang-dimensional na istraktura ng isang imahe sa isang-dimensional na kadena ng isang pormal na wika.

Mga pamamaraan ng extension

Sa mga pamamaraan ng pangkat na ito, sa kaibahan sa intensyon na direksyon, ang bawat pinag-aralan na bagay ay, sa mas malaki o mas maliit na lawak, binibigyan ng independiyenteng kahalagahan ng diagnostic. Sa kanilang core, ang mga pamamaraan na ito ay malapit sa klinikal na diskarte, na isinasaalang-alang ang mga tao hindi bilang isang kadena ng mga bagay na niraranggo ng isang tagapagpahiwatig o iba pa, ngunit bilang mga integral system, na ang bawat isa ay indibidwal at may espesyal na halaga ng diagnostic. Ang ganitong maingat na saloobin sa mga bagay ng pananaliksik ay hindi nagpapahintulot sa pagbubukod o pagkawala ng impormasyon tungkol sa bawat indibidwal na bagay, na nangyayari kapag gumagamit ng intensyon na mga pamamaraan ng direksyon na gumagamit lamang ng mga bagay upang makita at maitala ang mga pattern ng pag-uugali ng kanilang mga katangian.

Ang mga pangunahing operasyon sa pagkilala ng pattern gamit ang mga pamamaraan na tinalakay ay ang mga operasyon ng pagtukoy ng pagkakapareho at pagkakaiba ng mga bagay. Ang mga bagay sa tinukoy na grupo ng mga pamamaraan ay gumaganap ng papel na ginagampanan ng diagnostic precedents. Bukod dito, depende sa mga kondisyon ng isang partikular na gawain, ang papel ng isang indibidwal na nauna ay maaaring mag-iba sa loob ng pinakamalawak na limitasyon: mula sa pangunahin at pagtukoy ng isa hanggang sa napaka hindi direktang pakikilahok sa proseso ng pagkilala. Sa turn, ang mga kondisyon ng problema ay maaaring mangailangan ng pakikilahok ng ibang bilang ng mga diagnostic precedent para sa isang matagumpay na solusyon: mula sa isa sa bawat kinikilalang klase hanggang sa buong laki ng sample, pati na rin ang iba't ibang mga pamamaraan para sa pagkalkula ng mga sukat ng pagkakapareho at pagkakaiba sa pagitan ng mga bagay. . Ipinapaliwanag ng mga kinakailangang ito ang karagdagang paghahati ng mga pamamaraan ng extension sa mga subclass:

    paraan ng paghahambing sa prototype;

    paraan ng k-pinakamalapit na kapitbahay;

    kolektibo ng mga tuntunin ng desisyon.

Paraan ng paghahambing sa prototype. Ito ang pinakasimpleng paraan ng extensional recognition. Ginagamit ito, halimbawa, kapag ang mga kinikilalang klase ay ipinapakita sa feature space sa pamamagitan ng mga compact na geometric na pagpapangkat. Sa kasong ito, kadalasan ang sentro ng geometric na pagpapangkat ng klase (o ang bagay na pinakamalapit sa gitna) ay pinipili bilang prototype point.

Upang pag-uri-uriin ang isang hindi kilalang bagay, ang pinakamalapit na prototype dito ay matatagpuan, at ang bagay ay kabilang sa parehong klase ng prototype na ito. Malinaw, walang pangkalahatang mga imahe ng klase ang nabuo sa pamamaraang ito.

Maaaring gamitin ang iba't ibang uri ng mga distansya bilang sukatan ng kalapitan. Kadalasan, para sa mga tampok na dichotomous, ginagamit ang distansya ng Hamming, na sa kasong ito ay katumbas ng parisukat ng distansya ng Euclidean. Sa kasong ito, ang panuntunan ng desisyon para sa pag-uuri ng mga bagay ay katumbas ng isang linear na pagpapaandar ng desisyon.

Ang katotohanang ito ay dapat bigyang pansin lalo na. Malinaw nitong ipinapakita ang koneksyon sa pagitan ng prototype at representasyon ng katangian ng impormasyon tungkol sa istruktura ng data. Gamit ang representasyon sa itaas, maaari, halimbawa, isaalang-alang ng isa ang anumang tradisyunal na sukat ng pagsukat, na isang linear na function ng mga halaga ng mga dichotomous na katangian, bilang isang hypothetical diagnostic prototype. Sa turn, kung ang isang pagsusuri ng spatial na istraktura ng mga kinikilalang klase ay nagpapahintulot sa amin na gumuhit ng isang konklusyon tungkol sa kanilang geometric compactness, kung gayon ito ay sapat na upang palitan ang bawat isa sa mga klase na ito ng isang prototype, na aktwal na katumbas ng isang linear diagnostic model.

Sa pagsasagawa, siyempre, ang sitwasyon ay madalas na naiiba mula sa idealized na halimbawa na inilarawan. Ang isang mananaliksik na nagnanais na maglapat ng paraan ng pagkilala batay sa paghahambing sa mga prototype diagnostic classes ay nahaharap sa mahihirap na problema. Ito ay, una sa lahat, ang pagpili ng proximity measure (metric), na maaaring makabuluhang baguhin ang spatial na pagsasaayos ng pamamahagi ng mga bagay. At, pangalawa, ang isang independiyenteng problema ay ang pagsusuri ng mga multidimensional na istruktura ng pang-eksperimentong data. Ang parehong mga problemang ito ay lalo na talamak para sa mananaliksik sa mga kondisyon ng mataas na dimensyon ng tampok na espasyo, katangian ng mga tunay na problema.

Ang pamamaraan ng k-pinakamalapit na kapitbahay. Ang pamamaraan ng k-pinakamalapit na kapitbahay para sa paglutas ng mga problema sa pagsusuri ng diskriminasyon ay unang iminungkahi noong 1952. Ito ay ang mga sumusunod.

Kapag nag-uuri ng isang hindi kilalang bagay, makikita ang isang ibinigay na numero (k) ng geometriko na pinakamalapit dito sa espasyo ng mga tampok ng iba pang mga bagay (pinakamalapit na kapitbahay) na may kilala nang pagiging miyembro sa mga kinikilalang klase. Ang desisyon na magtalaga ng hindi kilalang bagay sa isang partikular na klase ng diagnostic ay ginagawa sa pamamagitan ng pagsusuri ng impormasyon tungkol sa kilalang kaugnayang ito ng pinakamalapit na kapitbahay nito, halimbawa, gamit ang isang simpleng bilang ng boto.

Sa una, ang pamamaraan ng k-pinakamalapit na kapitbahay ay itinuturing bilang isang nonparametric na pamamaraan para sa pagtantya ng ratio ng posibilidad. Para sa pamamaraang ito, ang mga teoretikal na pagtatantya ng pagiging epektibo nito ay nakuha kumpara sa pinakamainam na Bayesian classifier. Napatunayan na ang asymptotic error probabilities para sa k-neast neighbors na pamamaraan ay lumampas sa mga error ng panuntunan ni Bayes nang hindi hihigit sa dalawang beses.

Tulad ng nabanggit sa itaas, sa mga totoong problema ay madalas na kinakailangan upang gumana sa mga bagay na inilarawan ng isang malaking bilang ng mga katangian ng husay (dichotomous). Sa kasong ito, ang dimensyon ng feature space ay katapat o lumampas sa dami ng sample na pinag-aaralan. Sa ganitong mga kundisyon, madaling bigyang-kahulugan ang bawat bagay ng sample ng pagsasanay bilang isang hiwalay na linear classifier. Pagkatapos ito o ang diagnostic class na iyon ay kinakatawan hindi ng isang prototype, ngunit ng isang hanay ng mga linear classifier. Ang pinagsamang interaksyon ng mga linear classifier ay nagreresulta sa isang piecewise linear surface na naghihiwalay sa mga kinikilalang klase sa feature space. Ang uri ng dividing surface, na binubuo ng mga piraso ng hyperplane, ay maaaring iba-iba at depende sa relatibong posisyon ng classified aggregates.

Ang isa pang interpretasyon ng mga mekanismo ng pag-uuri gamit ang panuntunan ng k-pinakamalapit na kapitbahay ay maaari ding gamitin. Ito ay batay sa ideya ng pagkakaroon ng ilang mga nakatagong variable, abstract o nauugnay sa pamamagitan ng ilang pagbabago sa orihinal na feature space. Kung sa espasyo ng mga nakatagong variable ang magkapares na distansya sa pagitan ng mga bagay ay kapareho ng sa espasyo ng mga orihinal na tampok, at ang bilang ng mga variable na ito ay makabuluhang mas mababa kaysa sa bilang ng mga bagay, kung gayon ang interpretasyon ng pamamaraan ng k-pinakamalapit na kapitbahay ay maaaring maisaalang-alang mula sa punto ng view ng paghahambing ng mga di-parametric na pagtatantya ng mga density ng pamamahagi ng conditional probability. Ang view ng mga latent variable na ipinakita dito ay malapit sa view ng tunay na dimensionality at iba pang view na ginagamit sa iba't ibang dimensionality reduction techniques.

Kapag ginagamit ang pamamaraan ng k-pinakamalapit na kapitbahay para sa pagkilala ng pattern, kailangang lutasin ng mananaliksik ang mahirap na problema sa pagpili ng sukatan upang matukoy ang kalapitan ng mga na-diagnose na bagay. Ang problemang ito sa mga kondisyon ng mataas na dimensyon ng espasyo ng tampok ay labis na pinalala dahil sa sapat na pagiging kumplikado ng pamamaraang ito, na nagiging makabuluhan kahit para sa mga computer na may mataas na pagganap. Samakatuwid, dito, tulad ng sa paraan ng paghahambing sa isang prototype, kinakailangan upang malutas ang malikhaing problema ng pag-aaral ng multidimensional na istraktura ng pang-eksperimentong data upang mabawasan ang bilang ng mga bagay na kumakatawan sa mga diagnostic na klase.

Algorithm para sa pagkalkula ng mga rating (pagboto). Ang prinsipyo ng pagpapatakbo ng mga algorithm ng pagkalkula ng pagtatasa (ABO) ay upang kalkulahin ang priyoridad (mga marka ng pagkakatulad) na nagpapakilala sa "kalapitan" ng mga kinikilala at sanggunian na mga bagay ayon sa isang sistema ng mga tampok na ensemble, na isang sistema ng mga subset ng isang naibigay na hanay ng mga tampok .

Hindi tulad ng lahat ng naunang tinalakay na pamamaraan, ang mga algorithm para sa pagkalkula ng mga pagtatantya ay gumagana sa mga paglalarawan ng bagay sa isang panimula na bagong paraan. Para sa mga algorithm na ito, umiral ang mga bagay nang sabay-sabay sa magkakaibang mga subspace ng feature space. Kinukuha ng klase ng ABO ang ideya ng paggamit ng mga tampok sa lohikal na konklusyon nito: dahil hindi palaging alam kung aling mga kumbinasyon ng mga tampok ang pinaka-kaalaman, kung gayon sa ABO ang antas ng pagkakapareho ng mga bagay ay kinakalkula sa pamamagitan ng paghahambing ng lahat ng posible o tiyak na mga kumbinasyon ng mga tampok na kasama sa mga paglalarawan ng mga bagay.

Mga kolektibo ng mga panuntunan sa pagpapasya. Gumagamit ang panuntunan ng desisyon ng dalawang antas na pamamaraan ng pagkilala. Sa unang antas, gumagana ang mga algorithm ng pribadong pagkilala, ang mga resulta nito ay pinagsama sa pangalawang antas sa synthesis block. Ang pinakakaraniwang pamamaraan ng naturang pag-iisa ay batay sa pagtukoy ng mga lugar ng kakayahan ng isang partikular na algorithm. Ang pinakasimpleng paraan upang mahanap ang mga lugar ng kakayahan ay sa isang priori partition ang espasyo ng mga katangian batay sa mga propesyonal na pagsasaalang-alang ng isang partikular na agham (halimbawa, pagsasapin-sapin ang sample ayon sa isang partikular na katangian). Pagkatapos, para sa bawat isa sa mga napiling lugar, ang sarili nitong algorithm sa pagkilala ay binuo. Ang isa pang paraan ay batay sa paggamit ng pormal na pagsusuri upang matukoy ang mga lokal na lugar ng feature space bilang mga kapitbahayan ng mga kinikilalang bagay kung saan napatunayan ang tagumpay ng anumang partikular na algorithm ng pagkilala.

Isinasaalang-alang ng pinaka-pangkalahatang diskarte sa pagbuo ng synthesis block ang mga resultang indicator ng mga partikular na algorithm bilang mga paunang katangian para sa pagbuo ng bagong pangkalahatang tuntunin ng desisyon. Sa kasong ito, ang lahat ng mga pamamaraan sa itaas ng intensyon at extensional na mga direksyon sa pagkilala ng pattern ay maaaring gamitin. Epektibo para sa paglutas ng problema sa paglikha ng isang hanay ng mga panuntunan sa pagpapasya ay mga lohikal na algorithm ng uri ng "Kora" at mga algorithm para sa pagkalkula ng mga pagtatantya (ABO), na bumubuo ng batayan ng tinatawag na algebraic na diskarte, na nagbibigay ng pag-aaral at nakabubuo na paglalarawan ng mga algorithm ng pagkilala, sa loob ng balangkas kung saan magkasya ang lahat ng umiiral na uri ng mga algorithm.

Mga pamamaraan ng neural network

Ang mga pamamaraan ng neural network ay mga pamamaraan batay sa paggamit ng iba't ibang uri ng mga neural network (NN). Ang mga pangunahing lugar ng aplikasyon ng iba't ibang mga neural network para sa pagkilala ng pattern at imahe:

    application para sa pagkuha ng mga pangunahing katangian o tampok ng mga ibinigay na larawan,

    pag-uuri ng mga imahe mismo o ang mga katangian na nakuha na mula sa kanila (sa unang kaso, ang pagkuha ng mga pangunahing katangian ay nangyayari nang tahasan sa loob ng network),

    paglutas ng mga problema sa pag-optimize.

Mga multilayer na neural network. Ang arkitektura ng isang multilayer neural network (MNN) ay binubuo ng magkakasunod na konektadong mga layer, kung saan ang neuron ng bawat layer ay konektado sa mga input nito sa lahat ng mga neuron ng nakaraang layer, at ang mga output ng susunod.

Ang pinakasimpleng aplikasyon ng isang solong-layer na neural network (tinatawag na auto-associative memory) ay upang sanayin ang network na buuin muli ang mga fed na imahe. Sa pamamagitan ng pagpapakain ng isang pagsubok na imahe bilang input at pagkalkula ng kalidad ng muling itinayong imahe, maaari mong suriin kung gaano kahusay nakilala ng network ang input na imahe. Ang mga positibong katangian ng pamamaraang ito ay maaaring ibalik ng network ang mga sira at maingay na imahe, ngunit hindi ito angkop para sa mas seryosong layunin.

Ginagamit din ang MNN para sa direktang pag-uuri ng imahe - alinman sa imahe mismo sa ilang anyo o isang set ng dati nang nakuha na mga pangunahing katangian ng imahe ay ibinibigay bilang input; sa output, ang neuron na may pinakamataas na aktibidad ay nagpapahiwatig ng pagiging kasapi sa kinikilalang klase (Fig. 4). Kung ang aktibidad na ito ay mas mababa sa isang tiyak na threshold, ituturing na ang isinumiteng larawan ay hindi kabilang sa alinman sa mga kilalang klase. Ang proseso ng pag-aaral ay nagtatatag ng mga sulat ng mga imahe na ibinibigay sa input na kabilang sa isang partikular na klase. Ito ay tinatawag na supervised learning. Ang diskarte na ito ay mabuti para sa mga gawain ng kontrol sa pag-access ng isang maliit na grupo ng mga tao. Tinitiyak ng diskarteng ito na direktang ikinukumpara ng network ang mga larawan mismo, ngunit sa pagtaas ng bilang ng mga klase, ang pagsasanay at oras ng pagpapatakbo ng network ay tumataas nang husto. Samakatuwid, ang mga gawain tulad ng paghahanap ng katulad na tao sa isang malaking database ay nangangailangan ng pagkuha ng isang compact na hanay ng mga pangunahing katangian kung saan ibabatay ang paghahanap.

Ang isang diskarte sa pag-uuri gamit ang mga katangian ng dalas ng buong imahe ay inilarawan sa. Ang isang solong-layer na neural network batay sa mga multi-valued neuron ay ginamit.

Ang aplikasyon ng isang neural network para sa pag-uuri ng imahe ay ipinapakita kapag ang input ng network ay natanggap ang mga resulta ng pagkabulok ng imahe gamit ang pangunahing paraan ng bahagi.

Sa klasikal na MNN, ang mga interlayer neural na koneksyon ay ganap na konektado, at ang imahe ay kinakatawan bilang isang one-dimensional na vector, bagama't ito ay dalawang-dimensional. Nilalayon ng convolutional neural network architecture na malampasan ang mga pagkukulang na ito. Gumamit ito ng mga lokal na field ng receptor (nagbibigay ng lokal na two-dimensional na koneksyon ng mga neuron), nakabahaging timbang (nagbibigay ng pagtuklas ng ilang partikular na feature saanman sa larawan) at hierarchical na organisasyon na may spatial subsampling. Ang convolutional neural network (CNN) ay nagbibigay ng bahagyang pagtutol sa mga pagbabago sa sukat, mga displacement, pag-ikot, at pagbaluktot.

Ginagamit din ang mga MNN upang makita ang mga bagay ng isang partikular na uri. Bilang karagdagan sa katotohanan na ang anumang sinanay na MNN ay maaaring, sa ilang lawak, matukoy kung ang mga larawan ay nabibilang sa "kanilang" mga klase, maaari itong espesyal na sanayin upang mapagkakatiwalaang makita ang ilang mga klase. Sa kasong ito, ang mga klase ng output ay mga klase na kabilang at hindi kabilang sa ibinigay na uri ng imahe. Ang isang neural network detector ay ginamit upang makita ang isang imahe ng mukha sa imahe ng input. Na-scan ang larawan gamit ang isang window na 20x20 pixels, na ipinadala sa input ng network, na nagpapasya kung ang isang partikular na lugar ay kabilang sa klase ng mga mukha. Ang pagsasanay ay isinagawa gamit ang parehong mga positibong halimbawa (iba't ibang larawan ng mga mukha) at mga negatibong halimbawa (mga larawang hindi mga mukha). Upang madagdagan ang pagiging maaasahan ng pagtuklas, ginamit ang isang pangkat ng mga neural network, na sinanay na may iba't ibang paunang timbang, bilang isang resulta kung saan ang mga neural network ay nagkamali sa iba't ibang paraan, at ang huling desisyon ay ginawa sa pamamagitan ng pagboto ng buong koponan.

Figure 5. Mga pangunahing bahagi (eigenfaces) at pagkabulok ng imahe sa mga pangunahing bahagi

Ang isang neural network ay ginagamit din upang kunin ang mga pangunahing katangian ng imahe, na pagkatapos ay ginagamit para sa kasunod na pag-uuri. Sa , isang paraan ng pagpapatupad ng neural network ng pangunahing paraan ng pagsusuri ng bahagi ay ipinapakita. Ang kakanyahan ng pamamaraan ng pagsusuri ng pangunahing bahagi ay upang makakuha ng mga pinalamutian nang pinakamataas na mga koepisyent na nagpapakilala sa mga imahe ng input. Ang mga coefficient na ito ay tinatawag na mga pangunahing bahagi at ginagamit para sa statistical image compression, kung saan ang isang maliit na bilang ng mga coefficient ay ginagamit upang kumatawan sa buong imahe. Ang isang neural network na may isang nakatagong layer na naglalaman ng mga N neuron (na mas maliit kaysa sa dimensyon ng imahe), na sinanay gamit ang paraan ng backpropagation upang maibalik ang imahe ng output na ipinadala sa input, ay bumubuo ng mga coefficient ng unang N pangunahing mga bahagi sa output. ng mga nakatagong neuron, na ginagamit para sa paghahambing. Karaniwan, mula 10 hanggang 200 pangunahing bahagi ang ginagamit. Habang tumataas ang bilang ng isang bahagi, bumababa nang husto ang pagiging kinatawan nito, at walang saysay na gumamit ng mga bahagi na may malalaking bilang. Kapag gumagamit ng nonlinear activation function ng neural elements, ang nonlinear decomposition sa mga pangunahing bahagi ay posible. Ang nonlinearity ay nagbibigay-daan sa mga variation sa input data na mas tumpak na maipakita. Ang paglalapat ng pangunahing bahagi ng pagsusuri sa agnas ng mga imahe ng mukha, nakakakuha tayo ng mga pangunahing bahagi, na tinatawag na eigenfaces, na mayroon ding kapaki-pakinabang na pag-aari - may mga bahagi na pangunahing sumasalamin sa mga mahahalagang katangian ng isang mukha gaya ng kasarian, lahi, damdamin. Kapag muling itinayo, ang mga bahagi ay may mukhang mukha, na ang una ay sumasalamin sa pinaka-pangkalahatang hugis ng mukha, ang huli ay kumakatawan sa iba't ibang maliliit na pagkakaiba sa pagitan ng mga mukha (Larawan 5). Ang pamamaraang ito ay angkop na angkop para sa paghahanap ng mga katulad na larawan ng mga mukha sa malalaking database. Ang posibilidad ng karagdagang pagbawas sa sukat ng mga pangunahing sangkap gamit ang NN ay ipinapakita din. Sa pamamagitan ng pagtatasa sa kalidad ng muling pagtatayo ng input na imahe, maaari mong tumpak na matukoy ang pagiging miyembro nito sa klase ng mga mukha.

Mga high-order na neural network. Ang mga high-order neural network (HANN) ay naiiba sa mga MNN dahil mayroon lamang silang isang layer, ngunit ang mga neuron input ay tumatanggap din ng mga high-order na termino, na produkto ng dalawa o higit pang bahagi ng input vector. Ang ganitong mga network ay maaari ding bumuo ng mga kumplikadong paghahati sa ibabaw.

Mga neural network ng Hopfield. Ang Hopfield NN (HNS) ay single-layer at ganap na konektado (walang mga koneksyon sa pagitan ng mga neuron sa kanilang mga sarili), ang mga output nito ay konektado sa mga input. Hindi tulad ng MNS, ang NSC ay relaxation - i.e. na nakatakda sa paunang estado, ito ay gumagana hanggang sa umabot sa isang matatag na estado, na magiging halaga ng output nito. Upang maghanap ng pandaigdigang minimum na may kaugnayan sa mga problema sa pag-optimize, ginagamit ang mga stochastic na pagbabago ng NSC.

Ang paggamit ng NSH bilang isang nauugnay na memorya ay nagbibigay-daan sa iyo upang tumpak na ibalik ang mga imahe kung saan ang network ay sinanay kapag ang isang magulong imahe ay ipinadala sa input. Sa kasong ito, "maaalala" ng network ang pinakamalapit (sa kahulugan ng isang lokal na minimum na enerhiya) na imahe, at sa gayon ay makikilala ito. Ang ganitong paggana ay maaari ding ilarawan bilang sequential application ng auto-associative memory na inilarawan sa itaas. Hindi tulad ng auto-associative memory, ang NSC ay perpektong ibabalik ang imahe. Upang maiwasan ang interference minima at dagdagan ang kapasidad ng network, iba't ibang paraan ang ginagamit.

Self-organizing Kohonen neural network. Ang self-organizing Kohonen neural networks (KONNs) ay nagbibigay ng topological ordering ng input image space. Pinapayagan nila ang isang topologically tuloy-tuloy na pagmamapa ng isang n-dimensional na espasyo sa pag-input sa isang m-dimensional na puwang ng output, m<

Cognitron. Ang arkitektura ng Cognitron ay katulad ng istraktura ng visual cortex; mayroon itong hierarchical multilayer na organisasyon kung saan ang mga neuron sa pagitan ng mga layer ay konektado lamang sa lokal. Natutunan sa pamamagitan ng mapagkumpitensyang pag-aaral (nang walang guro). Ang bawat layer ng utak ay nagpapatupad ng iba't ibang antas ng generalization; ang input layer ay sensitibo sa mga simpleng pattern, gaya ng mga linya, at ang oryentasyon ng mga ito sa ilang partikular na lugar ng visual domain, habang ang tugon ng ibang mga layer ay mas kumplikado, abstract, at independiyente sa posisyon ng pattern. Ang mga katulad na function ay ipinapatupad sa cognitron sa pamamagitan ng pagmomodelo ng organisasyon ng visual cortex.

Ang Neocognitron ay isang karagdagang pag-unlad ng ideya ng cognitron at mas tumpak na sumasalamin sa istraktura ng visual system, nagbibigay-daan sa iyo upang makilala ang mga imahe anuman ang kanilang mga pagbabago, pag-ikot, pagbaluktot at pagbabago sa sukat.

Ang Cognitron ay isang makapangyarihang tool sa pagkilala ng imahe, ngunit nangangailangan ng mataas na gastos sa pag-compute, na kasalukuyang hindi matamo.

Ang itinuturing na mga pamamaraan ng neural network ay nagbibigay ng mabilis at maaasahang pagkilala sa imahe, ngunit kapag ginagamit ang mga pamamaraang ito, ang mga problema ay lumitaw sa pagkilala sa mga three-dimensional na bagay. Gayunpaman, ang pamamaraang ito ay may maraming mga pakinabang.

      Konklusyon

Sa kasalukuyan, mayroong isang malaking bilang ng mga awtomatikong sistema ng pagkilala ng pattern para sa iba't ibang mga inilapat na gawain.

Ang pagkilala sa pattern sa pamamagitan ng mga pormal na pamamaraan bilang isang pangunahing pang-agham na direksyon ay hindi mauubos.

Ang mga pamamaraan ng matematika ng pagproseso ng imahe ay may malawak na iba't ibang mga aplikasyon: agham, teknolohiya, medisina, panlipunang globo. Sa hinaharap, ang papel ng pagkilala sa pattern sa buhay ng tao ay tataas pa.

Ang mga pamamaraan ng neural network ay nagbibigay ng mabilis at maaasahang pagkilala sa imahe. Ang diskarte na ito ay may maraming mga pakinabang at isa sa mga pinaka-promising.

Panitikan

    D.V. Brilyuk, V.V. Starovoitov. Mga pamamaraan ng neural network para sa pagkilala ng imahe // /

    Kuzin L.T. Mga Batayan ng cybernetics: Mga Batayan ng mga modelong cybernetic. T.2. - M.: Enerhiya, 1979. - 584 p.

    Peregudov F.I., Tarasenko F.P. Panimula sa pagsusuri ng system: Textbook. – M.: Higher School, 1997. - 389 p.

    Temnikov F.E., Afonin V.A., Dmitriev V.I. Teoretikal na pundasyon ng teknolohiya ng impormasyon. - M.: Enerhiya, 1979. - 511 p.

    Tu J., Gonzalez R. Mga Prinsipyo ng pattern recognition. /Trans. mula sa Ingles - M.: Mir, 1978. - 410 p.

    Winston P. Artipisyal na katalinuhan. /Trans. mula sa Ingles - M.: Mir, 1980. - 520 p.

    Fu K. Structural na pamamaraan sa pattern recognition: Pagsasalin mula sa English. - M.: Mir, 1977. - 320 p.

    Tsypkin Ya.Z. Mga pundasyon ng teorya ng impormasyon ng pagkakakilanlan. - M.: Nauka, 1984. - 520 p.

    Pospelov G.S. Ang artificial intelligence ay ang batayan ng bagong teknolohiya ng impormasyon. - M.: Nauka, 1988. - 280 p.

    Yu. Lifshits, Mga pamamaraan ng istatistika ng pagkilala ng pattern ///modern/07modernnote.pdf

    Bohr N. Atomic physics at human cognition. /Isinalin mula sa Ingles - M.: Mir, 1961. - 151 p.

    Butakov E.A., Ostrovsky V.I., Fadeev I.L. Pagproseso ng imahe sa isang computer.1987.-236p.

    Duda R., Hart P. Pagkilala sa pattern at pagsusuri ng eksena. /Isinalin mula sa Ingles - M.: Mir, 1978. - 510 p.

    Duke V.A. Computer psychodiagnostics. - St. Petersburg: Kapatiran, 1994. - 365 p.

    Aizenberg I. N., Aizenberg N. N. at Krivosheev G. A. Multi-valued at Universal Binary Neurons: Learning Algorithms, Applications to Image Processing and Recognition. Lecture Notes in Artificial Intelligence – Machine Learning at Data Mining in Pattern Recognition, 1999, pp. 21-35.

    Ranganath S. at Arun K. Pagkilala sa mukha gamit ang mga feature na pagbabago at neural network. Pattern Recognition 1997, Vol. 30, pp. 1615-1622.

    Golovko V.A. Neurointelligence: Teorya at mga aplikasyon. Book 1. Organisasyon at pagsasanay ng mga neural network na may direktang koneksyon at feedback - Brest: BPI, 1999, - 260 pp.

    Vetter T. at Poggio T. Linear Object Classes at Image Synthesis Mula sa Isang Halimbawang Larawan. IEEE Transactions on Pattern Analysis at Machine Intelligence 1997, Vol. 19, pp. 733-742.

    Golovko V.A. Neurointelligence: Teorya at mga aplikasyon. Book 2. Self-organization, fault tolerance at application ng neural networks - Brest: BPI, 1999, - 228 p.

    Lawrence S., Giles C. L., Tsoi A. C. at Back A. D. Face Recognition: Isang Convolutional Neural Network Approach. IEEE Transactions on Neural Networks, Espesyal na Isyu sa Neural Networks at Pattern Recognition, pp. 1-24.

    Wasserman F. Neurocomputer technology: Theory and practice, 1992 - 184 p.

    Rowley, H. A., Baluja, S. at Kanade, T. Neural Network-Based Face Detection. IEEE Transactions on Pattern Analysis at Machine Intelligence 1998, Vol. 20, pp. 23-37.

    Valentin D., Abdi H., O"Toole A. J. at Cottrell G. W. Connectionist na mga modelo ng pagpoproseso ng mukha: isang survey. IN: Pattern Recognition 1994, Vol. 27, pp. 1209-1230.

    Dokumento

    Gumagawa sila ng mga algorithm pagkilalamga larawan. Paraanpagkilalamga larawan Gaya ng nabanggit sa itaas... ang katotohanan ay hindi umiiral"mga ecosystem sa pangkalahatan", at umiral indibidwal lamang... mga konklusyon mula sa detalyadong ito pagsusuriparaanpagkilala ipinakita namin sa...

  1. Pagsusuri ng mga pamamaraan para sa pagkilala sa mga tao batay sa mga larawan ng mukha, na isinasaalang-alang ang mga tampok ng visual na pagkilala

    Pagsusuri

    ... pagkilala ng isang tao ng mga bagay na mababa ang contrast, kasama. mga tao Ibinigay pagsusuri karaniwan paraan ... Umiiral buong linya paraan ... paraan, bilang resulta ng pananaliksik, isang plataporma para sa pagbuo paraanpagkilala ...

  2. Pinangalanan pagkatapos ng Glazkova Valentina Vladimirovna PANANALIKSIK AT PAGBUBUO NG MGA PARAAN PARA SA PAGBUO NG MGA SOFTWARE TOOLS PARA SA CLASSIFICATION NG MULTI-TOPIC HYPERTEXT DOCUMENTS Specialty 05

    Abstract ng disertasyon

    Mga dokumento ng hypertext. Nagbibigay ang kabanata pagsusuriumiiralparaan mga solusyon sa problemang isinasaalang-alang, paglalarawan... sa pamamagitan ng pagputol ng hindi bababa sa nauugnay na mga klase // Mathematical paraanpagkilalamga larawan: Ika-13 All-Russian Conference. Rehiyon ng Leningrad...

  3. Slide 0 Pagsusuri ng mga gawaing bioinformatics na may kaugnayan sa pagsusuri at pagproseso ng mga genetic na teksto

    Lecture

    Mga pagkakasunud-sunod ng DNA at protina. Pagsusuri bioinformatics mga gawain bilang mga gawain... signal ay nangangailangan ng paggamit ng modernong paraanpagkilalamga larawan, mga diskarte sa istatistika at... na may mababang density ng gene. Umiiral ang mga programa sa paghula ng gene ay hindi...

Kabanata 3: Analytical Review ng Pattern Recognition at Decision Making Methods

Pattern recognition theory at control automation

Pangunahing gawain ng adaptive pattern recognition

Ang pagkilala ay isang proseso ng impormasyon na ipinatupad ng ilang information converter (intelligent information channel, recognition system) na mayroong input at output. Ang input ng system ay impormasyon tungkol sa kung anong mga katangian ang mayroon ang mga ipinakitang bagay. Ang output ng system ay nagpapakita ng impormasyon tungkol sa kung aling mga klase (generalized na mga imahe) ang mga kinikilalang bagay ay nabibilang.

Kapag lumilikha at nagpapatakbo ng isang automated pattern recognition system, maraming problema ang nalutas. Isaalang-alang natin nang maikli at simpleng isaalang-alang ang mga gawaing ito. Tandaan na ang iba't ibang mga may-akda ay may parehong mga pormulasyon ng mga problemang ito, at ang set mismo ay hindi nag-tutugma, dahil ito sa isang tiyak na lawak ay nakasalalay sa tiyak na modelo ng matematika kung saan ito o ang sistema ng pagkilala na iyon ay nakabatay. Bilang karagdagan, ang ilang mga problema sa ilang mga modelo ng pagkilala ay walang solusyon at, nang naaayon, ay hindi naipakita.

Ang gawain ng pagpormal sa lugar ng paksa

Sa pangkalahatan, ang gawaing ito ay isang coding na gawain. Ang isang listahan ng mga pangkalahatang klase ay pinagsama-sama kung saan maaaring kabilang ang mga partikular na pagpapatupad ng mga bagay, pati na rin ang isang listahan ng mga katangian na maaaring taglayin ng mga bagay na ito, sa prinsipyo.

Ang gawain ng pagbuo ng isang sample ng pagsasanay

Ang set ng pagsasanay ay isang database na naglalaman ng mga paglalarawan ng mga tiyak na pagpapatupad ng mga bagay sa wika ng mga tampok, na pupunan ng impormasyon tungkol sa pag-aari ng mga bagay na ito sa ilang mga klase ng pagkilala.

Gawain ng pagsasanay sa sistema ng pagkilala

Ang sample ng pagsasanay ay ginagamit upang bumuo ng mga pangkalahatang larawan ng mga klase ng pagkilala batay sa generalization ng impormasyon tungkol sa kung ano ang mga tampok ng mga bagay ng sample ng pagsasanay na kabilang sa klase na ito at iba pang mga klase.

Ang problema ng pagbabawas ng dimensyon ng feature space

Pagkatapos ng pagsasanay sa sistema ng pagkilala (pagkuha ng mga istatistika sa pamamahagi ng dalas ng mga tampok ayon sa klase), nagiging posible upang matukoy para sa bawat tampok ang halaga nito para sa paglutas ng problema sa pagkilala. Pagkatapos nito, maaaring alisin ang pinakamaliit na mahahalagang feature mula sa feature system. Pagkatapos ang sistema ng pagkilala ay dapat na sanayin muli, dahil bilang isang resulta ng pag-alis ng ilang mga tampok, ang mga istatistika ng pamamahagi ng mga natitirang mga tampok sa pamamagitan ng mga pagbabago sa klase. Ang prosesong ito ay maaaring ulitin, i.e. maging umuulit.

Gawain sa pagkilala

Ang mga bagay ng kinikilalang sample ay kinikilala, na, sa partikular, ay maaaring binubuo ng isang bagay. Ang sample ng pagkilala ay nabuo nang katulad sa pagsasanay, ngunit hindi naglalaman ng impormasyon tungkol sa pag-aari ng mga bagay sa mga klase, dahil ito mismo ang tinutukoy sa proseso ng pagkilala. Ang resulta ng pagkilala sa bawat bagay ay isang pamamahagi o listahan ng lahat ng mga klase ng pagkilala sa pababang pagkakasunud-sunod ng antas ng pagkakapareho ng kinikilalang bagay sa kanila.

Problema sa pagkontrol sa kalidad ng pagkilala

Pagkatapos ng pagkilala, ang kasapatan nito ay maaaring maitatag. Para sa mga bagay ng sample ng pagsasanay, maaari itong gawin kaagad, dahil para sa kanila ito ay kilala lamang kung aling mga klase sila nabibilang. Para sa iba pang mga bagay ang impormasyong ito ay maaaring makuha sa ibang pagkakataon. Sa anumang kaso, ang aktwal na average na posibilidad ng error para sa lahat ng mga klase ng pagkilala ay maaaring matukoy, pati na rin ang posibilidad ng error kapag nagtatalaga ng isang kinikilalang bagay sa isang partikular na klase.

Dapat bigyang-kahulugan ang mga resulta ng pagkilala na isinasaalang-alang ang magagamit na impormasyon tungkol sa kalidad ng pagkilala.

Problema sa adaptasyon

Kung, bilang isang resulta ng pamamaraan ng kontrol sa kalidad, natukoy na ito ay hindi kasiya-siya, kung gayon ang mga paglalarawan ng hindi wastong kinikilalang mga bagay ay maaaring kopyahin mula sa sample ng pagkilala hanggang sa pagsasanay, na pupunan ng sapat na impormasyon sa pag-uuri at ginagamit upang i-reformat ang mga panuntunan sa pagpapasya. , ibig sabihin. isinasaalang-alang. Bukod dito, kung ang mga bagay na ito ay hindi nabibilang sa mga kasalukuyang klase ng pagkilala, na maaaring maging dahilan ng kanilang hindi tamang pagkilala, kung gayon ang listahang ito ay maaaring palawakin. Bilang resulta, ang sistema ng pagkilala ay umaangkop at nagsisimula sa sapat na pag-uri-uriin ang mga bagay na ito.

Problema sa inverse recognition

Ang gawain ng pagkilala ay para sa isang naibigay na bagay, batay sa mga kilalang katangian nito, ang sistema ay nagtatatag ng pag-aari nito sa ilang dating hindi kilalang klase. Sa kabaligtaran na problema sa pagkilala, sa kabaligtaran, para sa isang naibigay na klase ng pagkilala, ang sistema ay nagtatatag kung aling mga tampok ang pinaka katangian ng mga bagay ng klase na ito at kung alin ang hindi (o kung aling mga bagay ng sample ng pagsasanay ang nabibilang sa klase na ito).

Mga problema ng cluster at constructive analysis

Ang mga cluster ay mga pangkat ng mga bagay, klase o feature na sa loob ng bawat cluster ay magkapareho sila hangga't maaari, at sa pagitan ng iba't ibang cluster ay magkaiba sila hangga't maaari.

Ang isang konstruksyon (sa kontekstong tinalakay sa seksyong ito) ay isang sistema ng magkasalungat na mga kumpol. Kaya, sa isang tiyak na kahulugan, ang mga konstruksyon ay resulta ng pagsusuri ng kumpol ng mga kumpol.

Sa pagsusuri ng kumpol, ang antas ng pagkakapareho at pagkakaiba sa pagitan ng mga bagay (mga klase, tampok) ay sinusukat sa dami, at ang impormasyong ito ay ginagamit para sa pag-uuri. Ang resulta ng pagsusuri ng kumpol ay ang pag-uuri ng mga bagay sa mga kumpol. Ang pag-uuri na ito ay maaaring kinakatawan sa anyo ng mga semantic network.

Gawaing pagsusuri ng nagbibigay-malay

Sa cognitive analysis, ang impormasyon tungkol sa pagkakapareho at pagkakaiba sa pagitan ng mga klase o katangian ay interesado sa mismong mananaliksik, at hindi para magamit ito para sa pag-uuri, tulad ng sa cluster at constructive analysis.

Kung ang parehong tampok ay katangian ng dalawang klase ng pagkilala, kung gayon ito ay nag-aambag sa pagkakatulad ng dalawang klase na ito. Kung para sa isa sa mga klase ang tampok na ito ay hindi karaniwan, kung gayon ito ay nag-aambag sa pagkakaiba.

Kung ang dalawang tampok ay magkakaugnay sa isa't isa, kung gayon sa isang tiyak na kahulugan maaari silang ituring bilang isang tampok, at kung sila ay anticorrelated, kung gayon bilang magkaiba. Kung isasaalang-alang ang pangyayaring ito, ang pagkakaroon ng iba't ibang katangian sa iba't ibang klase ay gumagawa din ng isang tiyak na kontribusyon sa kanilang pagkakatulad at pagkakaiba.

Ang mga resulta ng cognitive analysis ay maaaring ipakita sa anyo ng mga cognitive diagram.

Mga pamamaraan ng pagkilala sa pattern at ang kanilang mga katangian

Mga prinsipyo ng pag-uuri ng mga pamamaraan ng pagkilala ng pattern

Ang pagkilala sa pattern ay tumutukoy sa problema ng pagbuo at paglalapat ng mga pormal na operasyon sa mga numerical o simbolikong representasyon ng mga bagay sa tunay o perpektong mundo, ang mga resulta nito ay sumasalamin sa pagkakapantay-pantay sa pagitan ng mga bagay na ito. Ang mga ugnayang equivalence ay nagpapahayag ng pagmamay-ari ng mga nasuri na bagay sa anumang klase, na itinuturing bilang mga independiyenteng semantic unit.

Kapag gumagawa ng mga algorithm ng pagkilala, ang mga klase ng equivalence ay maaaring tukuyin ng isang mananaliksik na gumagamit ng kanyang sariling makabuluhang ideya o gumagamit ng panlabas na karagdagang impormasyon tungkol sa pagkakapareho at pagkakaiba ng mga bagay sa konteksto ng problemang nilulutas. Pagkatapos ay pinag-uusapan nila ang tungkol sa "pagkilala sa isang guro." Kung hindi, i.e. Kapag nalutas ng isang awtomatikong system ang isang problema sa pag-uuri nang hindi gumagamit ng panlabas na impormasyon sa pagsasanay, nagsasalita kami ng awtomatikong pag-uuri o "hindi pinangangasiwaang pagkilala." Karamihan sa mga algorithm ng pagkilala ng pattern ay nangangailangan ng paggamit ng napakalaking kapangyarihan sa pag-compute, na maaari lamang ibigay ng teknolohiya ng computer na may mataas na pagganap.

Iba't ibang mga may-akda (Yu.L. Barabash, V.I. Vasiliev, A.L. Gorelik, V.A. Skripkin, R. Duda, P. Hart, L.T. Kuzin, F.I. Peregudov, F.P. Tarasenko, F.E. Temnikov, J. Tu, R. Gonzalez, P. Winston, K. Fu, Ya.Z. Tsypkin, atbp.) ay nagbibigay ng ibang tipolohiya ng mga pamamaraan ng pagkilala ng pattern. Ang ilang mga may-akda ay nakikilala sa pagitan ng parametric, nonparametric at heuristic na mga pamamaraan, ang iba ay tumutukoy sa mga grupo ng mga pamamaraan batay sa makasaysayang itinatag na mga paaralan at mga uso sa larangang ito. Halimbawa, sa trabaho, na nagbibigay ng pangkalahatang-ideya ng akademiko ng mga pamamaraan ng pagkilala, ginagamit ang sumusunod na tipolohiya ng mga pamamaraan ng pagkilala sa pattern:

  • mga pamamaraan batay sa prinsipyo ng paghihiwalay;
  • paraang istatistikal;
  • mga pamamaraan na binuo batay sa "mga potensyal na function";
  • mga pamamaraan para sa pagkalkula ng mga rating (pagboto);
  • mga pamamaraan batay sa propositional calculus, lalo na sa apparatus ng logical algebra.

Ang pag-uuri na ito ay batay sa pagkakaiba sa mga pormal na pamamaraan ng pagkilala ng pattern at samakatuwid ay inalis ang pagsasaalang-alang sa heuristic na diskarte sa pagkilala, na nakatanggap ng buo at sapat na pag-unlad sa mga expert system. Ang heuristic approach ay batay sa mahirap na gawing pormal na kaalaman at intuwisyon ng mananaliksik. Sa kasong ito, tinutukoy mismo ng mananaliksik kung anong impormasyon at kung paano dapat gamitin ng system upang makamit ang kinakailangang epekto ng pagkilala.

Ang isang katulad na tipolohiya ng mga pamamaraan ng pagkilala na may iba't ibang antas ng detalye ay matatagpuan sa maraming mga gawa sa pagkilala. Kasabay nito, ang mga kilalang tipolohiya ay hindi isinasaalang-alang ang isang napaka makabuluhang katangian, na sumasalamin sa pagtitiyak ng paraan ng pagrepresenta ng kaalaman tungkol sa isang paksang lugar gamit ang anumang pormal na algorithm ng pagkilala ng pattern.

Tinukoy ng D.A. Pospelov (1990) ang dalawang pangunahing paraan ng paglalahad ng kaalaman:

  • intensyon, sa anyo ng isang diagram ng mga koneksyon sa pagitan ng mga katangian (mga tampok).
  • extensional, sa tulong ng mga tiyak na katotohanan (mga bagay, mga halimbawa).

Kinukuha ng intensyon na representasyon ang mga pattern at koneksyon na nagpapaliwanag sa istruktura ng data. Kaugnay ng mga diagnostic na gawain, ang naturang pag-aayos ay binubuo sa pagtukoy ng mga operasyon sa mga katangian (mga tampok) ng mga bagay na humahantong sa kinakailangang resulta ng diagnostic. Ang mga intensyon na representasyon ay ipinapatupad sa pamamagitan ng mga operasyon sa mga halaga ng katangian at hindi nagpapahiwatig ng mga operasyon sa mga tiyak na katotohanan ng impormasyon (mga bagay).

Kaugnay nito, ang mga extension na representasyon ng kaalaman ay nauugnay sa paglalarawan at pag-aayos ng mga partikular na bagay mula sa lugar ng paksa at ipinatupad sa mga operasyon, ang mga elemento kung saan ay mga bagay bilang integral system.

Ang isang pagkakatulad ay maaaring iguguhit sa pagitan ng intensyon at extensional na representasyon ng kaalaman at ang mga mekanismong pinagbabatayan ng aktibidad ng kaliwa at kanang hemisphere ng utak ng tao. Kung ang kanang hemisphere ay nailalarawan sa pamamagitan ng isang holistic na prototype na representasyon ng nakapaligid na mundo, kung gayon ang kaliwang hemisphere ay gumagana sa mga pattern na nagpapakita ng mga koneksyon sa pagitan ng mga katangian ng mundong ito.

Ang dalawang pangunahing paraan ng pagkatawan ng kaalaman na inilarawan sa itaas ay nagpapahintulot sa amin na imungkahi ang sumusunod na pag-uuri ng mga pamamaraan ng pagkilala ng pattern:

  • intensional na mga pamamaraan batay sa mga operasyon na may mga tampok.
  • mga pamamaraan ng extension batay sa mga operasyon sa mga bagay.

Dapat itong bigyang-diin lalo na na ang pagkakaroon ng tiyak na dalawang (at dalawa lamang) na grupo ng mga pamamaraan ng pagkilala: ang mga gumagana sa mga palatandaan at ang mga gumagana sa mga bagay, ay natural na natural. Mula sa puntong ito ng pananaw, wala sa mga pamamaraang ito, na kinuha nang hiwalay mula sa iba, ay nagpapahintulot sa amin na bumuo ng isang sapat na pagmuni-muni ng lugar ng paksa. Ayon sa mga may-akda, mayroong isang magkakaugnay na ugnayan sa pagitan ng mga pamamaraang ito sa kahulugan ng N. Bohr, samakatuwid, ang mga promising system ng pagkilala ay dapat magbigay ng pagpapatupad ng pareho ng mga pamamaraang ito, at hindi ang alinman sa mga ito.

Kaya, ang pag-uuri ng mga pamamaraan ng pagkilala na iminungkahi ni D. A. Pospelov ay batay sa mga pangunahing pattern na pinagbabatayan ng paraan ng pagkilala ng tao sa pangkalahatan, na inilalagay ito sa isang ganap na espesyal (pribilehiyo) na posisyon kumpara sa iba pang mga pag-uuri, na laban sa background na ito ay mukhang mas magaan at artipisyal.

Intensyonal na pamamaraan

Ang isang natatanging tampok ng mga intensyon na pamamaraan ay ang paggamit nila ng iba't ibang mga katangian ng mga tampok at ang kanilang mga koneksyon bilang mga elemento ng mga operasyon kapag gumagawa at naglalapat ng mga algorithm ng pagkilala ng pattern. Ang mga nasabing elemento ay maaaring mga indibidwal na halaga o mga agwat ng mga halaga ng tampok, average na mga halaga at pagkakaiba-iba, mga matrice ng relasyon sa tampok, atbp., kung saan ang mga aksyon ay ginanap, na ipinahayag sa analytical o nakabubuo na anyo. Kasabay nito, ang mga bagay sa mga pamamaraang ito ay hindi itinuturing na integral na mga yunit ng impormasyon, ngunit kumikilos bilang mga tagapagpahiwatig para sa pagtatasa ng pakikipag-ugnayan at pag-uugali ng kanilang mga katangian.

Ang pangkat ng mga intensyon na pamamaraan para sa pagkilala ng pattern ay malawak, at ang paghahati nito sa mga subclass ay sa isang tiyak na lawak ay may kondisyon.

Mga pamamaraan batay sa mga pagtatantya ng mga density ng pamamahagi ng mga halaga ng tampok

Ang mga pamamaraan ng pagkilala ng pattern na ito ay hiniram mula sa klasikal na teorya ng mga desisyon sa istatistika, kung saan ang mga bagay ng pag-aaral ay itinuturing bilang mga pagsasakatuparan ng isang multidimensional na random na variable na ibinahagi sa feature space ayon sa ilang batas. Ang mga ito ay batay sa isang Bayesian na pamamaraan sa paggawa ng desisyon na umaapela sa isang priori probabilities ng mga bagay na kabilang sa isang partikular na kinikilalang klase at kondisyonal na densidad ng pamamahagi ng mga value ng feature na vector. Ang mga pamamaraang ito ay bumulusok sa pagtukoy ng ratio ng posibilidad sa iba't ibang lugar ng multidimensional na feature space.

Ang isang pangkat ng mga pamamaraan batay sa pagtatantya ng mga density ng pamamahagi ng mga halaga ng tampok ay direktang nauugnay sa mga pamamaraan ng pagsusuri ng diskriminasyon. Ang diskarte ng Bayesian sa paggawa ng desisyon ay isa sa mga pinaka-binuo na tinatawag na parametric na pamamaraan sa modernong istatistika, kung saan ang analytical expression ng batas sa pamamahagi (sa kasong ito, ang normal na batas) ay itinuturing na kilala at isang maliit na bilang lamang ng mga parameter ( ang mga vector ng mga average na halaga at covariance matrice) ay kinakailangang matantya.

Ang mga pangunahing kahirapan sa paggamit ng mga pamamaraang ito ay ang pangangailangang alalahanin ang buong sample ng pagsasanay upang kalkulahin ang mga pagtatantya ng mga lokal na densidad ng pamamahagi ng probabilidad at mataas na sensitivity sa pagiging hindi kinatawan ng sample ng pagsasanay.

Mga pamamaraan batay sa mga pagpapalagay tungkol sa klase ng mga function ng desisyon

Sa pangkat na ito ng mga pamamaraan, ang pangkalahatang anyo ng pagpapaandar ng pagpapasya ay itinuturing na kilala at ang pagganap ng kalidad nito ay tinukoy. Batay sa functional na ito, ang pinakamahusay na approximation ng decision function ay matatagpuan gamit ang training sequence. Ang pinakakaraniwan ay ang mga representasyon ng mga function ng desisyon sa anyo ng mga linear at pangkalahatan na nonlinear polynomial. Ang paggana ng kalidad ng panuntunan ng desisyon ay karaniwang nauugnay sa error sa pag-uuri.

Ang pangunahing bentahe ng mga pamamaraan batay sa mga pagpapalagay tungkol sa klase ng mga function ng desisyon ay ang kalinawan ng matematikal na pagbabalangkas ng problema sa pagkilala bilang isang problema sa paghahanap para sa isang extremum. Ang iba't ibang mga pamamaraan sa pangkat na ito ay ipinaliwanag sa pamamagitan ng malawak na hanay ng mga pagpapaandar ng kalidad ng panuntunan sa pagpapasya at mga algorithm ng matinding paghahanap na ginamit. Ang isang generalization ng mga algorithm na isinasaalang-alang, na kinabibilangan, sa partikular, Newton's algorithm, perceptron-type algorithm, atbp., ay ang paraan ng stochastic approximation.

Ang mga kakayahan ng gradient extremum search algorithm, lalo na sa pangkat ng mga linear na panuntunan ng desisyon, ay lubos na pinag-aralan. Ang convergence ng mga algorithm na ito ay napatunayan lamang para sa kaso kapag ang mga kinikilalang klase ng object ay ipinapakita sa feature space ng mga compact na geometric na istruktura.

Ang isang sapat na mataas na kalidad ng panuntunan ng desisyon ay maaaring makamit gamit ang mga algorithm na walang mahigpit na mathematical na patunay ng convergence ng solusyon sa isang global extremum. Kasama sa mga naturang algorithm ang isang malaking grupo ng mga heuristic programming procedure na kumakatawan sa direksyon ng evolutionary modeling. Ang evolutionary modeling ay isang bionic na pamamaraan na hiniram mula sa kalikasan. Ito ay batay sa paggamit ng mga kilalang mekanismo ng ebolusyon upang palitan ang proseso ng makabuluhang pagmomodelo ng isang kumplikadong bagay na may phenomenological modeling ng ebolusyon nito. Ang isang kilalang kinatawan ng evolutionary modeling sa pattern recognition ay ang paraan ng group accounting of arguments (MGUA). Ang batayan ng GMDH ay ang prinsipyo ng self-organization, at ang GMDH algorithm ay nagpaparami ng scheme ng mass selection.

Gayunpaman, ang pagkamit ng mga praktikal na layunin sa kasong ito ay hindi sinamahan ng pagkuha ng bagong kaalaman tungkol sa likas na katangian ng mga bagay na kinikilala. Ang posibilidad ng pagkuha ng kaalamang ito, sa partikular na kaalaman tungkol sa mga mekanismo ng pakikipag-ugnayan ng mga katangian (mga tampok), ay dito sa panimula ay limitado ng ibinigay na istraktura ng naturang pakikipag-ugnayan, na naayos sa napiling anyo ng mga pag-andar ng desisyon.

Mga Paraan ng Boolean

Ang mga lohikal na pamamaraan ng pagkilala ng pattern ay batay sa apparatus ng logical algebra at pinapayagan ang isa na gumana nang may impormasyon na nakapaloob hindi lamang sa mga indibidwal na tampok, kundi pati na rin sa mga kumbinasyon ng mga halaga ng tampok. Sa mga pamamaraang ito, ang mga halaga ng anumang katangian ay itinuturing na elementarya na mga kaganapan.

Sa pinaka-pangkalahatang anyo, ang mga lohikal na pamamaraan ay maaaring mailalarawan bilang isang uri ng paghahanap sa pamamagitan ng isang sample ng pagsasanay ng mga lohikal na pattern at ang pagbuo ng isang tiyak na sistema ng lohikal na mga panuntunan sa pagpapasya (halimbawa, sa anyo ng mga conjunction ng mga elementarya na kaganapan), bawat isa sa na may sariling timbang. Ang pangkat ng mga lohikal na pamamaraan ay magkakaiba at kabilang ang mga pamamaraan ng iba't ibang kumplikado at lalim ng pagsusuri. Para sa dichotomous (Boolean) na mga feature, ang tinatawag na tree-like classifiers, ang dead-end test method, ang "Bark" algorithm, atbp. ay popular.

Ang algorithm ng "Kora", tulad ng iba pang mga lohikal na pamamaraan ng pagkilala ng pattern, ay medyo masinsinang computation, dahil ang isang kumpletong paghahanap ay kinakailangan kapag pumipili ng mga conjunctions. Samakatuwid, kapag gumagamit ng mga lohikal na pamamaraan, ang mga mataas na pangangailangan ay inilalagay sa mahusay na organisasyon ng proseso ng pagkalkula, at ang mga pamamaraang ito ay gumagana nang maayos sa medyo maliit na sukat ng tampok na espasyo at sa mga makapangyarihang computer lamang.

Linguistic (istruktural) mga pamamaraan

Ang mga pamamaraan ng linguistic ng pagkilala ng pattern ay batay sa paggamit ng mga espesyal na grammar na bumubuo ng mga wika na maaaring magamit upang ilarawan ang hanay ng mga katangian ng mga kinikilalang bagay.

Para sa iba't ibang klase ng mga bagay, natukoy ang mga di-nagmula (atomic) na elemento (subimages, attributes) at posibleng mga ugnayan sa pagitan ng mga ito. Ang grammar ay tumutukoy sa mga panuntunan para sa pagbuo ng mga bagay mula sa mga hindi nagmula na elementong ito.

Kaya, ang bawat bagay ay isang koleksyon ng mga di-nagmula na elemento, "nakakonekta" sa isa't isa sa isang paraan o iba pa o, sa madaling salita, sa pamamagitan ng isang "pangungusap" ng ilang "wika". Gusto kong bigyang-diin lalo na ang napakahalagang halaga ng ideolohiya ng kaisipang ito.

Sa pamamagitan ng syntactically na pag-parse ng isang "pangungusap" matutukoy ng isa ang syntactic na "katumpakan" nito o, katumbas nito, kung ang ilang nakapirming grammar na naglalarawan sa isang klase ay maaaring makabuo ng umiiral na paglalarawan ng isang bagay.

Gayunpaman, ang gawain ng muling pagtatayo (pagtukoy) ng mga gramatika mula sa isang tiyak na hanay ng mga pahayag (mga pangungusap - mga paglalarawan ng mga bagay) na bumubuo ng isang partikular na wika ay mahirap gawing pormal.

Mga pamamaraan ng extension

Sa mga pamamaraan ng pangkat na ito, sa kaibahan sa intensyon na direksyon, ang bawat pinag-aralan na bagay ay, sa mas malaki o mas maliit na lawak, binibigyan ng independiyenteng kahalagahan ng diagnostic. Sa kanilang core, ang mga pamamaraan na ito ay malapit sa klinikal na diskarte, na isinasaalang-alang ang mga tao hindi bilang isang kadena ng mga bagay na niraranggo ng isang tagapagpahiwatig o iba pa, ngunit bilang mga integral system, na ang bawat isa ay indibidwal at may espesyal na halaga ng diagnostic. Ang ganitong maingat na saloobin sa mga bagay ng pananaliksik ay hindi nagpapahintulot sa pagbubukod o pagkawala ng impormasyon tungkol sa bawat indibidwal na bagay, na nangyayari kapag gumagamit ng intensyon na mga pamamaraan ng direksyon na gumagamit lamang ng mga bagay upang makita at maitala ang mga pattern ng pag-uugali ng kanilang mga katangian.

Ang mga pangunahing operasyon sa pagkilala ng pattern gamit ang mga pamamaraan na tinalakay ay ang mga operasyon ng pagtukoy ng pagkakapareho at pagkakaiba ng mga bagay. Ang mga bagay sa tinukoy na grupo ng mga pamamaraan ay gumaganap ng papel na ginagampanan ng diagnostic precedents. Bukod dito, depende sa mga kondisyon ng isang partikular na gawain, ang papel ng isang indibidwal na nauna ay maaaring mag-iba sa loob ng pinakamalawak na limitasyon: mula sa pangunahin at pagtukoy ng isa hanggang sa napaka hindi direktang pakikilahok sa proseso ng pagkilala. Sa turn, ang mga kondisyon ng problema ay maaaring mangailangan ng pakikilahok ng ibang bilang ng mga diagnostic precedent para sa isang matagumpay na solusyon: mula sa isa sa bawat kinikilalang klase hanggang sa buong laki ng sample, pati na rin ang iba't ibang mga pamamaraan para sa pagkalkula ng mga sukat ng pagkakapareho at pagkakaiba sa pagitan ng mga bagay. . Ipinapaliwanag ng mga kinakailangang ito ang karagdagang paghahati ng mga pamamaraan ng extension sa mga subclass.

Paraan ng paghahambing sa isang prototype

Ito ang pinakasimpleng paraan ng extensional recognition. Ginagamit ito, halimbawa, sa kaso kapag ang mga kinikilalang klase ay ipinapakita sa feature space sa pamamagitan ng mga compact na geometric na pagpapangkat. Sa kasong ito, kadalasan ang sentro ng geometric na pagpapangkat ng klase (o ang bagay na pinakamalapit sa gitna) ay pinipili bilang prototype point.

Upang pag-uri-uriin ang isang hindi kilalang bagay, ang pinakamalapit na prototype dito ay matatagpuan, at ang bagay ay kabilang sa parehong klase ng prototype na ito. Malinaw, walang pangkalahatang mga imahe ng klase ang nabuo sa pamamaraang ito.

Maaaring gamitin ang iba't ibang uri ng mga distansya bilang sukatan ng kalapitan. Kadalasan, para sa mga tampok na dichotomous, ginagamit ang distansya ng Hamming, na sa kasong ito ay katumbas ng parisukat ng distansya ng Euclidean. Sa kasong ito, ang panuntunan ng desisyon para sa pag-uuri ng mga bagay ay katumbas ng isang linear na pagpapaandar ng desisyon.

Ang katotohanang ito ay dapat bigyang pansin lalo na. Malinaw nitong ipinapakita ang koneksyon sa pagitan ng prototype at representasyon ng katangian ng impormasyon tungkol sa istruktura ng data. Gamit ang representasyon sa itaas, maaari, halimbawa, isaalang-alang ng isa ang anumang tradisyunal na sukat ng pagsukat, na isang linear na function ng mga halaga ng mga dichotomous na katangian, bilang isang hypothetical diagnostic prototype. Sa turn, kung ang isang pagsusuri ng spatial na istraktura ng mga kinikilalang klase ay nagpapahintulot sa amin na gumuhit ng isang konklusyon tungkol sa kanilang geometric compactness, kung gayon ito ay sapat na upang palitan ang bawat isa sa mga klase na ito ng isang prototype, na aktwal na katumbas ng isang linear diagnostic model.

Sa pagsasagawa, siyempre, ang sitwasyon ay madalas na naiiba mula sa idealized na halimbawa na inilarawan. Ang isang mananaliksik na nagnanais na maglapat ng paraan ng pagkilala batay sa paghahambing sa mga prototype diagnostic classes ay nahaharap sa mahihirap na problema.

Una, ito ang pagpili ng proximity measure (metric), na maaaring makabuluhang baguhin ang spatial configuration ng distribusyon ng mga bagay. Pangalawa, ang isang independiyenteng problema ay ang pagsusuri ng mga multidimensional na istruktura ng pang-eksperimentong data. Ang parehong mga problemang ito ay lalo na talamak para sa mananaliksik sa mga kondisyon ng mataas na dimensyon ng tampok na espasyo, katangian ng mga tunay na problema.

k pinakamalapit na kapitbahay na paraan

Ang pamamaraan ng k-pinakamalapit na kapitbahay para sa paglutas ng mga problema sa pagsusuri ng diskriminasyon ay unang iminungkahi noong 1952. Ito ay ang mga sumusunod.

Kapag nag-uuri ng isang hindi kilalang bagay, makikita ang isang ibinigay na numero (k) ng geometriko na pinakamalapit dito sa espasyo ng mga tampok ng iba pang mga bagay (pinakamalapit na kapitbahay) na may kilala nang pagiging miyembro sa mga kinikilalang klase. Ang desisyon na magtalaga ng hindi kilalang bagay sa isang partikular na klase ng diagnostic ay ginagawa sa pamamagitan ng pagsusuri ng impormasyon tungkol sa kilalang kaugnayang ito ng pinakamalapit na kapitbahay nito, halimbawa, gamit ang isang simpleng bilang ng boto.

Sa una, ang pamamaraan ng k-pinakamalapit na kapitbahay ay itinuturing bilang isang nonparametric na pamamaraan para sa pagtantya ng ratio ng posibilidad. Para sa pamamaraang ito, ang mga teoretikal na pagtatantya ng pagiging epektibo nito ay nakuha kumpara sa pinakamainam na Bayesian classifier. Napatunayan na ang asymptotic error probabilities para sa k-nerest neighbors method ay lumampas sa mga error ng panuntunan ni Bayes nang hindi hihigit sa dalawang beses.

Kapag ginagamit ang pamamaraan ng k-pinakamalapit na kapitbahay para sa pagkilala ng pattern, kailangang lutasin ng mananaliksik ang mahirap na problema sa pagpili ng sukatan upang matukoy ang kalapitan ng mga na-diagnose na bagay. Ang problemang ito sa mga kondisyon ng mataas na dimensyon ng espasyo ng tampok ay labis na pinalala dahil sa sapat na pagiging kumplikado ng pamamaraang ito, na nagiging makabuluhan kahit para sa mga computer na may mataas na pagganap. Samakatuwid, dito, tulad ng sa paraan ng paghahambing sa isang prototype, kinakailangan upang malutas ang malikhaing problema ng pag-aaral ng multidimensional na istraktura ng pang-eksperimentong data upang mabawasan ang bilang ng mga bagay na kumakatawan sa mga diagnostic na klase.

Ang pangangailangan na bawasan ang bilang ng mga bagay sa sample ng pagsasanay (diagnostic precedents) ay isang kawalan ng pamamaraang ito, dahil binabawasan nito ang pagiging kinatawan ng sample ng pagsasanay.

Algorithm para sa pagkalkula ng mga rating (“pagboto”)

Ang prinsipyo ng pagpapatakbo ng mga algorithm ng pagkalkula ng pagtatasa (ABO) ay upang kalkulahin ang mga priyoridad (mga marka ng pagkakatulad) na nagpapakilala sa "kalapitan" ng mga kinikilala at sanggunian na mga bagay ayon sa isang sistema ng mga tampok na ensemble, na isang sistema ng mga subset ng isang naibigay na hanay ng mga tampok .

Hindi tulad ng lahat ng naunang tinalakay na pamamaraan, ang mga algorithm para sa pagkalkula ng mga pagtatantya ay gumagana sa mga paglalarawan ng bagay sa isang panimula na bagong paraan. Para sa mga algorithm na ito, umiral ang mga bagay nang sabay-sabay sa magkakaibang mga subspace ng feature space. Kinukuha ng klase ng ABO ang ideya ng paggamit ng mga tampok sa lohikal na konklusyon nito: dahil hindi palaging alam kung aling mga kumbinasyon ng mga tampok ang pinaka-kaalaman, kung gayon sa ABO ang antas ng pagkakapareho ng mga bagay ay kinakalkula sa pamamagitan ng paghahambing ng lahat ng posible o tiyak na mga kumbinasyon ng mga tampok na kasama sa mga paglalarawan ng mga bagay.

Tinatawag ng mga may-akda ang mga ginamit na kumbinasyon ng mga tampok (mga subspace) na mga hanay ng suporta o mga hanay ng mga bahagyang paglalarawan ng mga bagay. Ang konsepto ng pangkalahatang kalapitan sa pagitan ng kinikilalang bagay at ng mga bagay ng sample ng pagsasanay (na may isang kilalang pag-uuri), na tinatawag na mga reference na bagay, ay ipinakilala. Ang proximity na ito ay kinakatawan ng kumbinasyon ng proximity ng kinikilalang object sa mga reference na object, na kinakalkula sa mga hanay ng mga bahagyang paglalarawan. Kaya, ang ABO ay isang extension ng k-pinakamalapit na kapitbahay na pamamaraan, kung saan ang kalapitan ng mga bagay ay isinasaalang-alang lamang sa isang ibinigay na espasyo ng tampok.

Ang isa pang extension ng ABO ay na sa mga algorithm na ito ang gawain ng pagtukoy ng pagkakapareho at pagkakaiba ng mga bagay ay nabuo bilang parametric at ang yugto ng pag-set up ng ABO batay sa set ng pagsasanay ay naka-highlight, kung saan ang pinakamainam na halaga ng ipinasok ang mga parameter ay pinili. Ang pamantayan ng kalidad ay ang error sa pagkilala, at literal na ang lahat ay naka-parameter:

  • mga panuntunan para sa pagkalkula ng kalapitan ng mga bagay batay sa mga indibidwal na katangian;
  • mga panuntunan para sa pagkalkula ng kalapitan ng mga bagay sa mga tampok na subspace;
  • ang antas ng kahalagahan ng isang partikular na reference object bilang diagnostic precedent;
  • ang kahalagahan ng kontribusyon ng bawat hanay ng sanggunian ng mga tampok sa panghuling pagtatasa ng pagkakapareho ng kinikilalang bagay sa anumang uri ng diagnostic.

Ang mga parameter ng ABO ay tinukoy sa anyo ng mga halaga ng threshold at (o) bilang mga timbang ng tinukoy na mga bahagi.

Ang mga teoretikal na kakayahan ng AVO ay hindi bababa sa hindi bababa sa anumang iba pang algorithm ng pagkilala ng pattern, dahil sa tulong ng AVO ang lahat ng naiisip na operasyon sa mga bagay na pinag-aaralan ay maaaring ipatupad.

Ngunit, tulad ng karaniwang nangyayari, ang pagpapalawak ng mga potensyal na kakayahan ay nakakaranas ng malaking kahirapan sa kanilang praktikal na pagpapatupad, lalo na sa yugto ng pagbuo (pag-tune) ng mga algorithm ng ganitong uri.

Ang ilang mga paghihirap ay nabanggit nang mas maaga kapag tinatalakay ang pamamaraan ng k-pinakamalapit na mga kapitbahay, na maaaring bigyang-kahulugan bilang isang pinutol na bersyon ng ABO. Maaari din itong isaalang-alang sa parametric form at bawasan ang problema sa paghahanap ng weighted metric ng napiling uri. Kasabay nito, narito na, para sa mga high-dimensional na problema, ang mga kumplikadong teoretikal na tanong at problema ay lumitaw na may kaugnayan sa organisasyon ng isang epektibong proseso ng pagkalkula.

Para sa AVO, kung susubukan mong gamitin ang mga kakayahan ng mga algorithm na ito sa ganap na lawak, ang mga paghihirap na ito ay tataas nang maraming beses.

Ang mga nabanggit na problema ay nagpapaliwanag sa katotohanan na sa pagsasagawa, ang paggamit ng ABO upang malutas ang mga problemang may mataas na sukat ay sinamahan ng pagpapakilala ng ilang heuristic na paghihigpit at pagpapalagay. Sa partikular, mayroong isang kilalang halimbawa ng paggamit ng ABO sa psychodiagnostics, kung saan nasubok ang isang uri ng ABO, na aktwal na katumbas ng pamamaraan ng k-pinakamalapit na kapitbahay.

Mga Kolektibong Panuntunan ng Desisyon

Upang makumpleto ang aming pagsusuri sa mga pamamaraan ng pagkilala ng pattern, tingnan natin ang isa pang diskarte. Ito ang tinatawag na decision rule collectives (DRGs).

Dahil ang iba't ibang mga algorithm ng pagkilala ay nagpapakita ng kanilang mga sarili nang iba sa parehong sample ng mga bagay, ang tanong ay natural na lumilitaw sa isang sintetikong panuntunan ng desisyon na madaling gamitin ang mga lakas ng mga algorithm na ito. Gumagamit ang panuntunan ng sintetikong desisyon ng dalawang antas na pamamaraan ng pagkilala. Sa unang antas, gumagana ang mga algorithm ng pribadong pagkilala, ang mga resulta nito ay pinagsama sa pangalawang antas sa synthesis block. Ang pinakakaraniwang pamamaraan ng naturang pag-iisa ay batay sa pagtukoy ng mga lugar ng kakayahan ng isang partikular na algorithm. Ang pinakasimpleng paraan upang mahanap ang mga lugar ng kakayahan ay sa isang priori partition ang espasyo ng mga katangian batay sa mga propesyonal na pagsasaalang-alang ng isang partikular na agham (halimbawa, pagsasapin-sapin ang sample ayon sa isang partikular na katangian). Pagkatapos, para sa bawat isa sa mga napiling lugar, ang sarili nitong algorithm sa pagkilala ay binuo. Ang isa pang paraan ay batay sa paggamit ng pormal na pagsusuri upang matukoy ang mga lokal na lugar ng feature space bilang mga kapitbahayan ng mga kinikilalang bagay kung saan napatunayan ang tagumpay ng anumang partikular na algorithm ng pagkilala.

Isinasaalang-alang ng pinaka-pangkalahatang diskarte sa pagbuo ng synthesis block ang mga resultang indicator ng mga partikular na algorithm bilang mga paunang katangian para sa pagbuo ng bagong pangkalahatang tuntunin ng desisyon. Sa kasong ito, ang lahat ng mga pamamaraan sa itaas ng intensyon at extensional na mga direksyon sa pagkilala ng pattern ay maaaring gamitin. Epektibo para sa paglutas ng problema ng paglikha ng isang pangkat ng mga panuntunan sa pagpapasya ay mga lohikal na algorithm ng uri ng "Kora" at mga algorithm para sa pagkalkula ng mga pagtatantya (ABO), na bumubuo ng batayan ng tinatawag na algebraic na diskarte, na nagbibigay ng pag-aaral at nakabubuo na paglalarawan ng mga algorithm ng pagkilala, sa loob ng balangkas kung saan magkasya ang lahat ng umiiral na uri ng mga algorithm.

Comparative analysis ng pattern recognition method

Ihambing natin ang mga pamamaraan ng pagkilala ng pattern na inilarawan sa itaas at suriin ang antas ng kanilang kasapatan sa mga kinakailangan na binalangkas sa Seksyon 3.3.3 para sa mga modelo ng SDA para sa adaptive automated control system para sa mga kumplikadong system.

Upang malutas ang mga tunay na problema mula sa pangkat ng mga pamamaraan ng intensyon na direksyon, ang mga parametric na pamamaraan at pamamaraan batay sa mga panukala tungkol sa anyo ng mga pag-andar ng desisyon ay praktikal na halaga. Ang mga parametric na pamamaraan ay bumubuo ng batayan ng tradisyonal na pamamaraan para sa pagbuo ng mga tagapagpahiwatig. Ang paggamit ng mga pamamaraang ito sa mga tunay na problema ay nauugnay sa pagpapataw ng malakas na mga paghihigpit sa istraktura ng data, na humahantong sa mga linear na diagnostic na modelo na may napakahirap na pagtatantya ng kanilang mga parameter. Kapag gumagamit ng mga pamamaraan batay sa mga pagpapalagay tungkol sa anyo ng mga pagpapaandar ng desisyon, napipilitan din ang mananaliksik na bumaling sa mga linear na modelo. Ito ay dahil sa mataas na dimensyon ng puwang ng tampok, katangian ng mga tunay na problema, na, kapag pinapataas ang antas ng pagpapaandar ng polynomial na desisyon, ay nagbibigay ng isang malaking pagtaas sa bilang ng mga miyembro nito na may problemang magkakasabay na pagtaas sa kalidad ng pagkilala. Kaya, sa pamamagitan ng pag-project sa lugar ng potensyal na aplikasyon ng mga pamamaraan ng intensyon na pagkilala sa mga tunay na problema, nakakakuha kami ng isang larawan na tumutugma sa mahusay na binuo na tradisyonal na pamamaraan ng mga linear diagnostic na modelo.

Ang mga katangian ng mga linear diagnostic na modelo, kung saan ang diagnostic indicator ay kinakatawan ng isang timbang na kabuuan ng mga paunang katangian, ay mahusay na pinag-aralan. Ang mga resulta ng mga modelong ito (na may naaangkop na normalisasyon) ay binibigyang-kahulugan bilang mga distansya mula sa mga bagay na pinag-aaralan hanggang sa ilang hyperplane sa feature space o, katumbas nito, bilang mga projection ng mga bagay papunta sa ilang tuwid na linya sa espasyong ito. Samakatuwid, ang mga linear na modelo ay sapat lamang sa mga simpleng geometric na pagsasaayos ng mga lugar ng tampok na espasyo kung saan ang mga bagay ng iba't ibang diagnostic na klase ay nakamapa. Sa mas kumplikadong mga distribusyon, ang mga modelong ito sa panimula ay hindi maaaring magpakita ng maraming mga tampok ng istraktura ng pang-eksperimentong data. Kasabay nito, ang mga naturang tampok ay maaaring magbigay ng mahalagang impormasyon sa diagnostic.

Kasabay nito, ang hitsura sa anumang tunay na problema ng mga simpleng multidimensional na istruktura (sa partikular, multidimensional na normal na mga distribusyon) ay dapat ituring bilang isang pagbubukod sa halip na bilang isang panuntunan. Kadalasan ang mga diagnostic na klase ay nabuo batay sa kumplikadong panlabas na pamantayan, na awtomatikong nagsasangkot ng geometric heterogeneity ng mga klase na ito sa feature space. Ito ay totoo lalo na para sa "mahalaga" na pamantayan, ang pinakamadalas na nakatagpo sa pagsasanay. Sa ilalim ng gayong mga kundisyon, ang paggamit ng mga linear na modelo ay nakukuha lamang ang pinaka "magaspang" na mga pattern ng pang-eksperimentong impormasyon.

Ang paggamit ng mga pamamaraan ng extension ay hindi nauugnay sa anumang mga pagpapalagay tungkol sa istruktura ng pang-eksperimentong impormasyon, maliban na sa loob ng mga kinikilalang klase ay dapat mayroong isa o higit pang mga grupo ng medyo magkatulad na mga bagay, at ang mga bagay ng iba't ibang klase ay dapat na medyo naiiba sa bawat isa. Malinaw, para sa anumang may hangganang sukat ng sample ng pagsasanay (at hindi ito maaaring maging iba pa), palaging natutugunan ang pangangailangang ito sa kadahilanang mayroong mga random na pagkakaiba sa pagitan ng mga bagay. Bilang mga sukat ng pagkakatulad, ginagamit ang iba't ibang sukat ng kalapitan (distansya) ng mga bagay sa feature space. Samakatuwid, ang epektibong paggamit ng mga extensional na paraan ng pagkilala ng pattern ay nakasalalay sa kung gaano kahusay natutukoy ang mga tinukoy na proximity measures, gayundin kung aling mga object ng sample ng pagsasanay (mga bagay na may kilalang klasipikasyon) ang nagsisilbing diagnostic precedents. Ang matagumpay na solusyon sa mga problemang ito ay nagbibigay ng mga resulta na lumalapit sa mga limitasyon ng teoretikal na matamo ng kahusayan sa pagkilala.

Ang mga bentahe ng extensional na pamamaraan ng pagkilala ng pattern ay kinokontra, una sa lahat, sa pamamagitan ng mataas na teknikal na kumplikado ng kanilang praktikal na pagpapatupad. Para sa mga high-dimensional na feature space, ang tila simpleng gawain ng paghahanap ng mga pares ng pinakamalapit na punto ay nagiging isang seryosong problema. Gayundin, maraming mga may-akda ang tandaan bilang isang problema ang pangangailangan na matandaan ang isang sapat na malaking bilang ng mga bagay na kumakatawan sa mga kinikilalang klase.

Ito mismo ay hindi isang problema, ngunit ito ay itinuturing na isang problema (halimbawa, sa pamamaraan ng k-pinakamalapit na mga kapitbahay) sa kadahilanang kapag kinikilala ang bawat bagay, isang kumpletong paghahanap ng lahat ng mga bagay sa set ng pagsasanay ay nangyayari.

Samakatuwid, ipinapayong mag-aplay ng isang modelo ng sistema ng pagkilala kung saan ang problema ng isang kumpletong enumeration ng mga bagay sa sample ng pagsasanay sa panahon ng pagkilala ay tinanggal, dahil ito ay isinasagawa nang isang beses lamang kapag bumubuo ng mga pangkalahatang larawan ng mga klase ng pagkilala. Sa panahon ng pagkilala mismo, ang natukoy na bagay ay inihambing lamang sa mga pangkalahatang larawan ng mga klase ng pagkilala, ang bilang nito ay naayos at ganap na independiyente sa laki ng sample ng pagsasanay. Binibigyang-daan ka ng diskarteng ito na palakihin ang laki ng sample ng pagsasanay hanggang sa makamit ang kinakailangang mataas na kalidad ng mga pangkalahatang larawan, nang walang anumang takot na maaari itong humantong sa isang hindi katanggap-tanggap na pagtaas sa oras ng pagkilala (dahil ang oras ng pagkilala sa modelong ito ay hindi nakasalalay sa laki ng sample ng pagsasanay sa lahat). sample).

Ang mga teoretikal na problema sa paggamit ng mga paraan ng extensional na pagkilala ay nauugnay sa mga problema sa paghahanap ng mga pangkat na nagbibigay-kaalaman ng mga tampok, paghahanap ng pinakamainam na sukatan para sa pagsukat ng pagkakapareho at pagkakaiba ng mga bagay, at pagsusuri sa istruktura ng pang-eksperimentong impormasyon. Kasabay nito, ang matagumpay na solusyon ng mga problemang ito ay nagbibigay-daan hindi lamang upang makabuo ng epektibong mga algorithm ng pagkilala, kundi pati na rin upang gumawa ng isang paglipat mula sa extensional na kaalaman ng mga empirical na katotohanan sa intensional na kaalaman tungkol sa mga pattern ng kanilang istraktura.

Ang paglipat mula sa extensional hanggang sa intensyon na kaalaman ay nangyayari sa yugto kung kailan ang isang pormal na algorithm ng pagkilala ay nagawa na at ang pagiging epektibo nito ay naipakita. Pagkatapos ay pinag-aaralan ang mga mekanismo kung saan nakakamit ang resultang kahusayan. Ang ganitong pag-aaral, na nauugnay sa pagsusuri ng geometric na istraktura ng data, ay maaaring, halimbawa, ay humantong sa konklusyon na sapat na upang palitan ang mga bagay na kumakatawan sa isang partikular na diagnostic class na may isang tipikal na kinatawan (prototype). Katumbas ito, gaya ng nabanggit sa itaas, sa pagtukoy ng tradisyonal na linear diagnostic scale. Posible rin na ito ay sapat na upang palitan ang bawat diagnostic class na may ilang mga bagay, conceptualized bilang tipikal na mga kinatawan ng ilang mga subclasses, na kung saan ay katumbas ng constructing isang fan ng linear scales. Mayroong iba pang mga pagpipilian na tatalakayin sa ibaba.

Kaya, ang isang pagsusuri ng mga pamamaraan ng pagkilala ay nagpapakita na ang isang bilang ng iba't ibang mga pamamaraan ng pagkilala ng pattern ay binuo na ngayon ayon sa teorya. Ang panitikan ay nagbibigay ng isang detalyadong pag-uuri ng mga ito. Gayunpaman, para sa karamihan ng mga pamamaraang ito ay walang pagpapatupad ng software, at ito ay natural na natural, maaaring sabihin ng isa na "paunang natukoy" ng mga katangian ng mga pamamaraan ng pagkilala mismo. Maaari itong hatulan sa pamamagitan ng katotohanan na ang mga ganitong sistema ay bihirang binanggit sa dalubhasang literatura at iba pang mapagkukunan ng impormasyon.

Dahil dito, ang tanong ng praktikal na applicability ng ilang mga teoretikal na pamamaraan ng pagkilala para sa paglutas ng mga praktikal na problema sa tunay (i.e. medyo makabuluhan) na mga dimensyon ng data at sa tunay na modernong mga computer ay nananatiling hindi sapat na binuo.

Ang nabanggit na pangyayari ay mauunawaan kung ating aalalahanin na ang pagiging kumplikado ng modelong matematikal ay pinapataas ang pagiging kumplikado ng pagpapatupad ng software ng system at sa parehong lawak ay binabawasan ang mga pagkakataon na ang sistemang ito ay praktikal na gagana. Nangangahulugan ito na sa katotohanan ang mga software system lamang na nakabatay sa medyo simple at "transparent" na mga modelo ng matematika ay maaaring ipatupad sa merkado. Samakatuwid, ang isang developer na interesado sa pagkopya ng kanyang produkto ng software ay lumalapit sa isyu ng pagpili ng isang modelo ng matematika hindi mula sa isang pang-agham na pananaw, ngunit bilang isang pragmatist, na isinasaalang-alang ang mga posibilidad ng pagpapatupad ng software. Naniniwala siya na ang modelo ay dapat na kasing simple hangga't maaari, na nangangahulugang dapat itong ipatupad sa mas mababang gastos at may mas mahusay na kalidad, at dapat din itong gumana (maging praktikal na epektibo).

Sa pagsasaalang-alang na ito, ang gawain ng pagpapatupad sa mga sistema ng pagkilala ng isang mekanismo para sa pag-generalize ng mga paglalarawan ng mga bagay na kabilang sa parehong klase ay tila partikular na nauugnay, i.e. mekanismo para sa pagbuo ng mga compact generalized na imahe. Malinaw, ang ganitong mekanismo ng generalization ay gagawing posible na "i-compress" ang isang sample ng pagsasanay ng anumang dimensyon sa isang database ng mga pangkalahatang larawan na kilala nang maaga ayon sa dimensyon. Gagawin din nitong posible na mag-pose at malutas ang isang bilang ng mga problema na hindi man lang mabuo sa mga pamamaraan ng pagkilala tulad ng paraan ng paghahambing sa isang prototype, ang k-pinakamalapit na kapitbahay na pamamaraan at ABO.

Ito ang mga gawain:

  • pagtukoy sa kontribusyon ng impormasyon ng mga tampok sa larawan ng impormasyon ng isang pangkalahatang imahe;
  • cluster-constructive analysis ng mga pangkalahatang larawan;
  • pagpapasiya ng semantic load ng isang feature;
  • semantic cluster-nakabubuo na pagsusuri ng mga tampok;
  • makabuluhang paghahambing ng mga pangkalahatang larawan ng mga klase sa isa't isa at mga katangian sa isa't isa (mga cognitive diagram, kabilang ang mga diagram ng Merlin).

Ang pamamaraan na naging posible upang makamit ang solusyon sa mga problemang ito ay nakikilala din ang promising system batay dito mula sa iba pang mga system, tulad ng mga compiler ay naiiba sa mga interpreter, dahil salamat sa pagbuo ng mga pangkalahatang imahe sa promising system na ito, ang kalayaan ng oras ng pagkilala mula sa ang laki ng sample ng pagsasanay ay nakakamit. Alam na ang pagkakaroon ng pag-asa na ito ay humahantong sa halos hindi katanggap-tanggap na mga gastos ng oras ng computer para sa pagkilala sa mga pamamaraan tulad ng pamamaraan ng k-pinakamalapit na mga kapitbahay, ABO at KRP sa naturang mga sukat ng sample ng pagsasanay kapag maaari nating pag-usapan ang tungkol sa sapat na mga istatistika .

Upang tapusin ang isang maikling pangkalahatang-ideya ng mga pamamaraan ng pagkilala, ipakita natin ang kakanyahan ng nasa itaas sa isang talahanayan ng buod (Talahanayan 3.1), na naglalaman ng maikling paglalarawan ng iba't ibang pamamaraan ng pagkilala ng pattern ayon sa mga sumusunod na parameter:

  • pag-uuri ng mga pamamaraan ng pagkilala;
  • mga lugar ng aplikasyon ng mga pamamaraan ng pagkilala;
  • pag-uuri ng mga limitasyon ng mga pamamaraan ng pagkilala.
Pag-uuri ng mga pamamaraan ng pagkilala Lugar ng aplikasyon Mga Limitasyon (kakulangan)
Mga pamamaraan ng masinsinang pagkilala Mga pamamaraan batay sa mga pagtatantya ng mga density ng pamamahagi ng mga halaga ng tampok (o pagkakatulad at pagkakaiba ng mga bagay) Ang mga problema sa isang kilalang pamamahagi, karaniwang normal, ay nangangailangan ng malaking koleksyon ng mga istatistika Ang pangangailangan na ibilang ang buong sample ng pagsasanay sa panahon ng pagkilala, mataas na sensitivity sa hindi pagiging kinatawan ng sample ng pagsasanay at mga artifact
Mga pamamaraan batay sa mga pagpapalagay tungkol sa klase ng mga function ng desisyon Ang mga klase ay dapat na maayos na mapaghihiwalay, ang sistema ng mga tampok ay dapat na orthonormal Ang uri ng pagpapaandar ng pagpapasya ay dapat malaman nang maaga. Kawalan ng kakayahang isaalang-alang ang mga bagong kaalaman tungkol sa mga ugnayan sa pagitan ng mga katangian
Mga Paraan ng Boolean Kapag pumipili ng lohikal na mga panuntunan sa pagpapasya (conjunctions), isang kumpletong paghahanap ay kinakailangan. Mataas na computational complexity
Linguistic (istruktural) mga pamamaraan Mga problema sa maliit na dimensyon ng feature space Ang gawain ng muling pagtatayo (pagtukoy) ng gramatika mula sa isang tiyak na hanay ng mga pahayag (mga paglalarawan ng mga bagay) ay mahirap gawing pormal. Hindi nalutas na mga problemang teoretikal
Mga pamamaraan ng extension na pagkilala Paraan ng paghahambing sa isang prototype Mga problema sa maliit na dimensyon ng feature space Ang mataas na pagtitiwala sa mga resulta ng pag-uuri sa sukat ng distansya (metric). Hindi alam na pinakamainam na sukatan
k pinakamalapit na kapitbahay na paraan Ang mataas na pagtitiwala sa mga resulta ng pag-uuri sa sukat ng distansya (metric). Ang pangangailangan para sa isang kumpletong enumeration ng sample ng pagsasanay sa panahon ng pagkilala. Pagsusumikap sa computational
Algorithm para sa pagkalkula ng mga rating (pagboto) ng AVO Mga problema ng maliit na dimensyon sa mga tuntunin ng bilang ng mga klase at tampok Pagdepende sa mga resulta ng pag-uuri sa sukat ng distansya (metric). Ang pangangailangan para sa isang kumpletong enumeration ng sample ng pagsasanay sa panahon ng pagkilala. Mataas na teknikal na kumplikado ng pamamaraan
Decision Rule Collectives (DRCs) Mga problema ng maliit na dimensyon sa mga tuntunin ng bilang ng mga klase at tampok Napakataas na teknikal na kumplikado ng pamamaraan, hindi nalutas na bilang ng mga teoretikal na problema, kapwa sa pagtukoy ng mga lugar ng kakayahan ng mga pribadong pamamaraan at sa mga pribadong pamamaraan mismo

Talahanayan 3.1 — Talaan ng buod ng pag-uuri ng mga paraan ng pagkilala, paghahambing ng kanilang mga lugar ng aplikasyon at mga limitasyon

Ang papel at lugar ng pagkilala ng pattern sa automation ng kontrol ng mga kumplikadong sistema

Ang isang automated control system ay binubuo ng dalawang pangunahing bahagi: isang control object at isang control system.

Ang control system ay gumaganap ng mga sumusunod na function:

  • pagkakakilanlan ng estado ng control object;
  • pagbuo ng pagkilos ng kontrol batay sa mga layunin ng pamamahala, na isinasaalang-alang ang estado ng control object at ang kapaligiran;
  • pagbibigay ng kontrol na impluwensya sa control object.

Ang pagkilala sa pattern ay walang iba kundi ang pagtukoy sa estado ng ilang bagay.

Dahil dito, ang posibilidad ng paggamit ng isang pattern recognition system sa yugto ng pagtukoy sa estado ng isang control object ay tila medyo halata at natural. Gayunpaman, maaaring hindi ito kinakailangan. Samakatuwid, ang tanong ay lumitaw kung saan ang mga kaso ay ipinapayong gumamit ng isang sistema ng pagkilala sa isang awtomatikong sistema ng kontrol, at kung saan ito ay hindi.

Ayon sa panitikan, maraming naunang binuo at modernong mga awtomatikong sistema ng kontrol sa mga subsystem para sa pagkilala sa estado ng control object at pagbuo ng mga aksyon na kontrol ay gumagamit ng mga deterministikong modelo ng matematika ng "direktang pagkalkula", na hindi malabo at medyo simpleng matukoy kung ano ang gagawin sa kontrol. object kung mayroon itong ilang mga panlabas na parameter.

Kasabay nito, ang tanong kung paano nauugnay ang mga parameter na ito sa ilang mga estado ng control object ay hindi itinaas o nalutas. Ang posisyon na ito ay tumutugma sa punto ng view na "bilang default" ang kanilang isa-sa-isang relasyon ay tinatanggap. Samakatuwid, ang mga terminong "parameter ng control object" at "state of the control object" ay itinuturing na kasingkahulugan, at ang konsepto ng "state of the control object" ay hindi tahasang ipinakilala. Gayunpaman, ito ay malinaw na sa pangkalahatang kaso ang relasyon sa pagitan ng mga nakikitang mga parameter ng control object at ang estado nito ay dynamic at probabilistic sa kalikasan.

Kaya, ang mga tradisyunal na automated control system ay mahalagang parametric control system, i.e. mga system na hindi namamahala sa mga estado ng control object, ngunit ang mga nakikitang parameter lamang nito. Ang desisyon sa pagkilos ng kontrol ay ginawa sa mga naturang sistema na parang "bulag", i.e. nang hindi bumubuo ng isang holistic na imahe ng control object at ang kapaligiran sa kanilang kasalukuyang estado, pati na rin nang hindi hinuhulaan ang pag-unlad ng kapaligiran at ang reaksyon ng control object sa ilang mga kontrol na impluwensya dito, na kumikilos nang sabay-sabay sa hinulaang impluwensya ng kapaligiran .

Mula sa pananaw na binuo sa gawaing ito, ang terminong "paggawa ng desisyon" sa modernong kahulugan ay halos hindi ganap na naaangkop sa tradisyonal na mga awtomatikong sistema ng kontrol. Ang katotohanan ay ang "paggawa ng desisyon", sa pinakamababa, ay nagpapahiwatig ng isang holistic na pananaw ng isang bagay sa kapaligiran, hindi lamang sa kasalukuyang estado nito, kundi pati na rin sa dinamika, at sa pakikipag-ugnayan kapwa sa isa't isa at sa control system, ay nagsasangkot pagsasaalang-alang sa iba't ibang alternatibong opsyon para sa pagbuo ng buong sistemang ito, pati na rin ang pagpapaliit sa pagkakaiba-iba (pagbawas) ng mga alternatibong ito batay sa ilang partikular na pamantayan. Malinaw, wala sa mga ito ang matatagpuan sa tradisyonal na mga automated na sistema ng kontrol, o ito ay umiiral, ngunit sa isang pinasimpleng anyo.

Siyempre, ang tradisyonal na pamamaraan ay sapat at ang paggamit nito ay medyo tama at makatwiran sa mga kaso kung saan ang control object ay tunay na isang matatag at mahigpit na tinutukoy na sistema, at ang impluwensya ng kapaligiran dito ay maaaring mapabayaan.

Gayunpaman, sa ibang mga kaso ang pamamaraang ito ay hindi epektibo.

Kung ang control object ay dynamic, ang mga modelong pinagbabatayan ng mga control algorithm ay mabilis na nagiging hindi sapat, dahil ang mga relasyon sa pagitan ng input at output na mga parameter, pati na rin ang set ng mga mahahalagang parameter mismo, ay nagbabago. Sa esensya, nangangahulugan ito na ang mga tradisyunal na automated control system ay may kakayahang kontrolin ang estado ng control object lamang malapit sa punto ng equilibrium sa pamamagitan ng mahinang kontrol na mga aksyon dito, i.e. sa pamamagitan ng paraan ng maliliit na kaguluhan. Malayo sa estado ng equilibrium, mula sa tradisyonal na pananaw, ang pag-uugali ng control object ay mukhang hindi mahuhulaan at hindi makontrol.

Kung walang malinaw na koneksyon sa pagitan ng mga parameter ng input at output ng control object (i.e. sa pagitan ng mga parameter ng input at ang estado ng object), sa madaling salita, kung ang koneksyon na ito ay may binibigkas na probabilistikong kalikasan, kung gayon ang mga deterministikong modelo kung saan ito ay ipinapalagay na ang resulta ng pagsukat ng isang tiyak na parameter ay simpleng numero ay hindi naaangkop sa simula. Bilang karagdagan, ang uri ng koneksyon na ito ay maaaring hindi kilala, at pagkatapos ay kinakailangan na magpatuloy mula sa pinaka-pangkalahatang pagpapalagay: na ito ay probabilistic o hindi natukoy sa lahat.

Ang isang awtomatikong sistema ng kontrol na binuo sa tradisyonal na mga prinsipyo ay maaari lamang gumana batay sa mga parameter, ang mga pattern ng mga koneksyon na kung saan ay kilala na, pinag-aralan at makikita sa isang modelo ng matematika. mga control system na gagawing posible na lumikha ng mga system na may kakayahang makilala at ang pinaka makabuluhang mga parameter, at matukoy ang likas na katangian ng mga koneksyon sa pagitan ng mga ito at ang mga estado ng control object.

Sa kasong ito, kinakailangan na gumamit ng mas binuo na mga pamamaraan ng pagsukat na sapat sa totoong sitwasyon:

  • pag-uuri o pagkilala ng mga imahe (pag-aaral batay sa isang set ng pagsasanay, kakayahang umangkop ng mga algorithm ng pagkilala, kakayahang umangkop ng mga hanay ng mga klase at parameter na pinag-aaralan, pagpili ng pinakamahalagang mga parameter at pagbabawas ng dimensyon ng paglalarawan habang pinapanatili ang isang ibinigay na redundancy, atbp.);
  • statistical measurements, kapag ang resulta ng pagsukat ng isang tiyak na parameter ay hindi isang hiwalay na numero, ngunit isang probability distribution: ang isang pagbabago sa isang statistical variable ay hindi nangangahulugan ng isang pagbabago sa halaga nito sa kanyang sarili, ngunit isang pagbabago sa mga katangian ng probability distribution ng mga halaga nito.

Bilang resulta, ang mga awtomatikong sistema ng kontrol batay sa tradisyonal na deterministikong diskarte ay halos hindi gumagana sa mga kumplikadong dynamic na multi-parameter na mahinang natukoy na mga control object, tulad ng, halimbawa, macro- at micro-socio-economic system sa isang dinamikong ekonomiya ng " transition period", hierarchical elite at ethnic groups, lipunan at electorate, human physiology at psyche, natural at artipisyal na ecosystem at marami pang iba.

Napakahalaga na noong kalagitnaan ng dekada 80, ang paaralan ng I. Prigogine ay bumuo ng isang diskarte ayon sa kung saan ang pagbuo ng anumang sistema (kabilang ang mga tao) ay nagpapalit-palit ng mga panahon kung saan ang sistema ay kumikilos alinman bilang "karamihan ay deterministiko" o bilang "karamihan ay random." Naturally, ang isang tunay na sistema ng kontrol ay dapat na matatag na kontrolin ang control object hindi lamang sa "deterministic" na mga seksyon ng kasaysayan nito, kundi pati na rin sa mga punto kung saan ang karagdagang pag-uugali nito ay nagiging lubhang hindi tiyak. Nangangahulugan ito na kinakailangan na bumuo ng mga diskarte upang kontrolin ang mga system na ang pag-uugali ay naglalaman ng malaking elemento ng randomness (o kung ano ang kasalukuyang inilarawan sa matematika bilang "randomness").

Samakatuwid, ang nangangako na mga automated control system na nagbibigay ng kontrol sa mga kumplikadong dynamic na multi-parameter na mahinang deterministikong mga sistema ay malamang na magsasama ng mga subsystem para sa pagtukoy at paghula sa mga estado ng kapaligiran at ang control object, batay sa mga pamamaraan ng artificial intelligence (pangunahin ang pattern recognition), desisyon ng mga pamamaraan ng suporta paggawa at teorya ng impormasyon.

Isaalang-alang natin sa madaling sabi ang isyu ng paggamit ng mga sistema ng pagkilala ng imahe upang gumawa ng mga desisyon tungkol sa mga pagkilos na kontrol (ang isyung ito ay tatalakayin nang mas detalyado sa ibang pagkakataon, dahil ito ay susi para sa gawaing ito). Kung gagawin natin ang target at iba pang mga estado ng control object bilang mga klase ng pagkilala, at mga salik na nakakaimpluwensya dito bilang mga tampok, kung gayon ang isang sukatan ng ugnayan sa pagitan ng mga kadahilanan at estado ay maaaring mabuo sa modelo ng pagkilala ng pattern. Nagbibigay-daan ito, para sa isang partikular na estado ng isang control object, na makakuha ng impormasyon tungkol sa mga salik na nagsusulong o humahadlang sa paglipat nito sa estadong ito, at, sa batayan na ito, upang bumuo ng isang desisyon sa pagkilos na kontrol.

Ang mga kadahilanan ay maaaring nahahati sa mga sumusunod na grupo:

  • pagkilala sa background ng control object;
  • pagkilala sa kasalukuyang estado ng control object;
  • mga kadahilanan sa kapaligiran;
  • teknolohikal (nakokontrol) na mga salik.

Kaya, ang mga pattern recognition system ay maaaring gamitin bilang bahagi ng mga automated control system: sa mga subsystem para sa pagtukoy sa estado ng isang control object at pagbuo ng mga control action.

Ito ay angkop kapag ang control object ay isang kumplikadong sistema.

Paggawa ng desisyon sa pagkilos ng kontrol sa automated na sistema ng kontrol

Ang solusyon sa problema ng synthesizing adaptive automated control system ng mga kumplikadong sistema ay isinasaalang-alang sa gawaing ito, na isinasaalang-alang ang marami at malalim na pagkakatulad sa pagitan ng mga pamamaraan ng pagkilala ng pattern at paggawa ng desisyon.

Sa isang banda, ang problema ng pattern recognition ay ang paggawa ng desisyon kung ang kinikilalang bagay ay kabilang sa isang tiyak na klase ng pagkilala.

Sa kabilang banda, iminungkahi ng mga may-akda na isaalang-alang ang problema sa paggawa ng desisyon bilang isang inverse decoding problem o isang inverse pattern recognition problem (tingnan ang seksyon 2.2.2).

Ang pagkakapareho ng mga pangunahing ideya na pinagbabatayan ng mga pamamaraan ng pagkilala ng pattern at paggawa ng desisyon ay nagiging lalo na kitang-kita kapag isinasaalang-alang ang mga ito mula sa pananaw ng teorya ng impormasyon.

Iba't ibang problema sa paggawa ng desisyon

Paggawa ng desisyon bilang pagsasakatuparan ng layunin

Kahulugan: ang paggawa ng desisyon ("pagpipilian") ay isang aksyon sa isang hanay ng mga alternatibo, bilang isang resulta kung saan ang unang hanay ng mga alternatibo ay pinaliit, i.e. nangyayari ang pagbabawas nito.

Ang pagpili ay ang aksyon na nagbibigay ng layunin sa lahat ng mga aktibidad. Ito ay sa pamamagitan ng mga aksyon ng pagpili na ang pagpapailalim ng lahat ng mga aktibidad sa isang tiyak na layunin o isang hanay ng magkakaugnay na mga layunin ay natanto.

Kaya, upang ang pagkilos ng pagpili ay maging posible, ang mga sumusunod ay kinakailangan:

  • pagbuo o pagtuklas ng isang hanay ng mga alternatibo kung saan dapat gawin ang isang pagpipilian;
  • pagpapasiya ng mga layunin para sa kapakanan kung saan ang pagpili ay ginawa;
  • pagbuo at aplikasyon ng isang paraan para sa paghahambing ng mga alternatibo sa bawat isa, i.e. Pagtukoy ng rating ng kagustuhan para sa bawat alternatibo ayon sa ilang partikular na pamantayan na nagpapahintulot sa isa na hindi direktang masuri kung gaano kahusay ang bawat alternatibo ay tumutugma sa layunin.

Ang modernong gawain sa larangan ng suporta sa desisyon ay nagsiwalat ng isang katangian na sitwasyon, na kung saan ang kumpletong pormalisasyon ng paghahanap ng pinakamahusay (sa isang tiyak na kahulugan) na solusyon ay posible lamang para sa mahusay na pinag-aralan, medyo simpleng mga problema, habang sa pagsasagawa, ang mga mahina na nakaayos na mga problema ay mas madalas na nakatagpo, kung saan ganap na walang pormal na mga algorithm ang nabuo (maliban sa kumpletong paghahanap at pagsubok at error). Gayunpaman, ang mga may karanasan, may kakayahan at may kakayahang mga propesyonal ay kadalasang gumagawa ng mga pagpipilian na lumalabas na napakahusay. Samakatuwid, ang modernong kalakaran sa pagsasagawa ng paggawa ng desisyon sa mga natural na sitwasyon ay upang pagsamahin ang kakayahan ng tao na malutas ang mga impormal na problema sa mga kakayahan ng mga pormal na pamamaraan at pagmomodelo ng computer: mga interactive na sistema ng suporta sa desisyon, mga sistema ng dalubhasa, mga adaptive na sistema ng kontrol ng mga makina ng tao. , neural network at cognitive system.

Paggawa ng desisyon bilang pag-aalis ng kawalan ng katiyakan (diskarte sa impormasyon)

Ang proseso ng pagkuha ng impormasyon ay maaaring ituring bilang isang pagbawas sa kawalan ng katiyakan bilang resulta ng pagtanggap ng isang senyas, at ang dami ng impormasyon ay maaaring ituring bilang isang dami ng sukatan ng antas ng pag-aalis ng kawalan ng katiyakan.

Ngunit bilang resulta ng pagpili ng isang tiyak na subset ng mga alternatibo mula sa set, i.e. bilang resulta ng paggawa ng desisyon, ang parehong bagay ay nangyayari (pagbabawas ng kawalan ng katiyakan). Nangangahulugan ito na ang bawat pagpipilian, bawat desisyon ay bumubuo ng isang tiyak na halaga ng impormasyon, at samakatuwid ay maaaring ilarawan sa mga tuntunin ng teorya ng impormasyon.

Pag-uuri ng mga problema sa paggawa ng desisyon

Ang multiplicity ng mga gawain sa paggawa ng desisyon ay dahil sa ang katunayan na ang bawat bahagi ng sitwasyon kung saan ang mga desisyon ay ginawa ay maaaring ipatupad sa qualitatively iba't ibang mga opsyon.

Ilista lang natin ang ilan sa mga opsyong ito:

  • ang hanay ng mga alternatibo, sa isang banda, ay maaaring may hangganan, mabibilang o tuluy-tuloy, at sa kabilang banda, sarado (ibig sabihin, ganap na kilala) o bukas (kabilang ang mga hindi kilalang elemento);
  • ang pagtatasa ng mga kahalili ay maaaring isagawa ayon sa isa o higit pang pamantayan, na, naman, ay maaaring may quantitative o qualitative na kalikasan;
  • Ang mode ng pagpili ay maaaring iisa (isang beses), o maramihang, paulit-ulit, kabilang ang feedback sa mga resulta ng pagpili, i.e. nagpapahintulot sa mga algorithm sa paggawa ng desisyon na sanayin na isinasaalang-alang ang mga kahihinatnan ng mga nakaraang halalan;
  • ang mga kahihinatnan ng pagpili ng bawat alternatibo ay maaaring tiyak na malaman nang maaga (pagpili sa ilalim ng mga kondisyon ng katiyakan), may probabilistikong kalikasan kapag ang mga probabilidad ng mga posibleng resulta pagkatapos ng pagpili ay nalalaman (pagpili sa ilalim ng mga kondisyon ng panganib) o may isang hindi tiyak na resulta na hindi alam probabilities (pagpipilian sa ilalim ng mga kondisyon ng kawalan ng katiyakan);
  • ang responsibilidad sa pagpili ay maaaring wala, indibidwal o grupo;
  • ang antas ng pagkakapare-pareho ng mga layunin sa pagpili ng grupo ay maaaring mag-iba mula sa kumpletong pagkakaisa ng mga interes ng mga partido (pagpipilian sa kooperatiba) hanggang sa kanilang kabaligtaran (pagpipilian sa isang sitwasyon ng salungatan). Posible rin ang mga intermediate na opsyon: kompromiso, koalisyon, lumalago o kumukupas na salungatan.

Ang iba't ibang kumbinasyon ng mga opsyong ito ay humahantong sa maraming problema sa paggawa ng desisyon na pinag-aralan sa iba't ibang antas.

Mga wika para sa paglalarawan ng mga paraan ng paggawa ng desisyon

Ang isa at ang parehong kababalaghan ay maaaring pag-usapan sa iba't ibang mga wika na may iba't ibang antas ng pangkalahatan at kasapatan. Sa ngayon, tatlong pangunahing wika para sa paglalarawan ng pagpipilian ang lumitaw.

Ang pinakasimple, pinakabuo at pinakasikat ay ang criterion language.

Wika ng pamantayan

Ang pangalan ng wikang ito ay nauugnay sa pangunahing pagpapalagay na ang bawat indibidwal na alternatibo ay maaaring masuri ng ilang partikular na (isang) numero, pagkatapos nito ang paghahambing ng mga kahalili ay nabawasan sa isang paghahambing ng mga katumbas na numero.

Hayaan, halimbawa, ang (X) ay isang hanay ng mga kahalili, at ang x ay ilang partikular na alternatibong kabilang sa hanay na ito: x∈X. Pagkatapos ay pinaniniwalaan na para sa lahat ng x isang function na q(x) ay maaaring tukuyin, na tinatawag na isang criterion (quality criterion, objective function, preference function, utility function, atbp.), Na kung saan ang alternatibong x 1 ay mas gusto. hanggang x 2 (nakatukoy: x 1 > x 2), pagkatapos ay q(x 1) > q(x 2).

Sa kasong ito, ang pagpipilian ay bumaba sa paghahanap ng alternatibong may pinakamataas na halaga ng criterion function.

Gayunpaman, sa pagsasagawa, ang paggamit lamang ng isang criterion upang ihambing ang antas ng kagustuhan ng mga alternatibo ay lumalabas na isang hindi makatwirang pagpapasimple, dahil ang isang mas detalyadong pagsasaalang-alang ng mga alternatibo ay humahantong sa pangangailangan na suriin ang mga ito hindi ng isa, ngunit sa pamamagitan ng maraming pamantayan, na maaaring magkaiba ang kalikasan at may husay na naiiba sa isa't isa.

Halimbawa, kapag pumipili ng pinaka-katanggap-tanggap na uri ng sasakyang panghimpapawid para sa mga pasahero at ang operating organization sa ilang mga uri ng mga ruta, ang mga paghahambing ay ginawa nang sabay-sabay ayon sa maraming mga grupo ng pamantayan: teknikal, teknolohikal, pang-ekonomiya, panlipunan, ergonomic, atbp.

Ang mga problema sa multicriteria ay walang natatanging pangkalahatang solusyon. Samakatuwid, maraming mga paraan ang iminungkahi upang bigyan ang isang multicriteria na problema ng isang partikular na form na nagbibigay-daan para sa isang solong pangkalahatang solusyon. Naturally, ang mga solusyon na ito ay karaniwang naiiba para sa iba't ibang mga pamamaraan. Samakatuwid, marahil ang pinakamahalagang bagay sa paglutas ng isang multicriteria na problema ay ang pagbibigay-katwiran sa ganitong uri ng pagbabalangkas.

Iba't ibang opsyon ang ginagamit upang gawing simple ang problema sa pagpili ng multicriteria. Ilista natin ang ilan sa kanila.

  1. Conditional maximization (hindi ang global extremum ng integral criterion ang matatagpuan, ngunit ang local extremum ng pangunahing criterion).
  2. Maghanap ng alternatibong may mga tinukoy na katangian.
  3. Paghahanap ng Pareto set.
  4. Pagbabawas ng maraming pamantayang problema sa isang solong pamantayang problema sa pamamagitan ng pagpapakilala ng mahalagang pamantayan.

Isaalang-alang natin nang mas detalyado ang pormal na pagbabalangkas ng pamamaraan para sa pagbabawas ng isang multicriteria na problema sa isang solong pamantayan.

Ipakilala natin ang integral criterion q 0 (x) bilang isang scalar function ng vector argument:

q 0 (x) = q 0 ((q 1 (x), q 2 (x), ..., q n (x)).

Ang integral criterion ay nagbibigay-daan sa iyo na mag-order ng mga alternatibo ayon sa halaga ng q 0, at sa gayon ay i-highlight ang pinakamahusay (sa kahulugan ng criterion na ito). Ang anyo ng function na q 0 ay natutukoy sa pamamagitan ng kung gaano katiyak na naiisip natin ang kontribusyon ng bawat criterion sa integral criterion. Karaniwang ginagamit ang mga additive at multiplicative function:

q 0 = ∑a i ⋅q i /s i

1 - q 0 = ∏(1 - b i ⋅q i /s i)

Mga coefficient na ibinibigay ko:

  1. Kawalang-dimensyon o iisang dimensyon ng numerong a i ⋅q i /s i (maaaring may iba't ibang dimensyon ang iba't ibang partial na pamantayan, at pagkatapos ay hindi maisagawa sa mga ito ang mga operasyong aritmetika at gawing integral na pamantayan).
  2. Normalisasyon, ibig sabihin. tinitiyak ang kondisyon: b i ⋅q i /s i<1.

Ang mga koepisyent a i at b i ay sumasalamin sa relatibong kontribusyon ng bahagyang pamantayan q i sa integral criterion.

Kaya, sa isang multicriteria formulation, ang problema sa paggawa ng desisyon sa pagpili ng isa sa mga alternatibo ay bumababa sa pag-maximize ng integral criterion:

x * = arg max(q 0 (q 1 (x), q 2 (x), ..., q n (x)))

Ang pangunahing problema sa multicriteria formulation ng problema sa paggawa ng desisyon ay kinakailangan na makahanap ng ganitong analytical form ng coefficients a i at b i na magbibigay ng mga sumusunod na katangian ng modelo:

  • isang mataas na antas ng kasapatan sa lugar ng paksa at ang punto ng view ng mga eksperto;
  • kaunting computational na kahirapan sa pag-maximize ng integral criterion, i.e. pagkalkula nito para sa iba't ibang mga alternatibo;
  • katatagan ng mga resulta ng pag-maximize ng integral criterion mula sa maliliit na kaguluhan ng paunang data.
  • Ang katatagan ng solusyon ay nangangahulugan na ang isang maliit na pagbabago sa paunang data ay dapat humantong sa isang maliit na pagbabago sa halaga ng integral criterion, at, nang naaayon, sa isang maliit na pagbabago sa ginawang desisyon. Kaya, kung ang paunang data ay halos pareho, kung gayon ang desisyon ay dapat gawin pareho o napakalapit.

Sequential binary choice na wika

Ang wika ng binary relations ay isang generalization ng isang multicriteria language at nakabatay sa pagsasaalang-alang sa katotohanan na kapag sinusuri natin ang isang alternatibo, ang pagsusuring ito ay palaging kamag-anak, i.e. tahasan o mas madalas na implicitly, ang ibang mga alternatibo mula sa set na pinag-aaralan o mula sa pangkalahatang populasyon ay ginagamit bilang batayan o frame of reference para sa paghahambing. Ang pag-iisip ng tao ay batay sa paghahanap at pagsusuri ng mga magkasalungat (mga konstruksyon), kaya laging mas madali para sa atin na pumili ng isa sa dalawang magkasalungat na opsyon kaysa sa isang opsyon mula sa isang malaki at sa anumang paraan ay iniutos na set.

Kaya, ang mga pangunahing pagpapalagay ng wikang ito ay ang mga sumusunod:

  • ang isang hiwalay na alternatibo ay hindi sinusuri, ibig sabihin. ang criterion function ay hindi ipinakilala;
  • para sa bawat pares ng mga kahalili, maaari itong maitatag sa ilang paraan na ang isa sa mga ito ay mas kanais-nais kaysa sa isa o na ang mga ito ay katumbas o hindi maihahambing;
  • ang kaugnayan ng kagustuhan sa alinmang pares ng mga alternatibo ay hindi nakadepende sa natitirang mga alternatibong ipinakita para sa pagpili.

Mayroong iba't ibang mga paraan upang tukuyin ang mga relasyon sa binary: direkta, matrix, gamit ang mga graph ng kagustuhan, paraan ng seksyon, atbp.

Ang mga ugnayan sa pagitan ng mga alternatibo ng isang pares ay ipinahayag sa pamamagitan ng mga konsepto ng equivalence, order at dominance.

Pangkalahatang wika ng function ng pagpili

Ang piniling function na wika ay nakabatay sa set theory at nagbibigay-daan sa iyong gumana gamit ang mga mapping mula sa mga set hanggang sa kanilang mga subset na naaayon sa iba't ibang mga pagpipilian nang hindi kinakailangang magbilang ng mga elemento. Ang wikang ito ay napaka pangkalahatan at may potensyal na ilarawan ang anumang pagpipilian. Gayunpaman, ang mathematical apparatus ng generalised selection functions ay kasalukuyang ginagawa at sinusuri pangunahin sa mga problemang nalutas na gamit ang criterion-based o binary approach.

Pagpili ng pangkat

Magkaroon ng isang grupo ng mga tao na may karapatang lumahok sa sama-samang paggawa ng desisyon. Ipagpalagay natin na ang grupong ito ay isinasaalang-alang ang isang tiyak na hanay ng mga alternatibo, at ang bawat miyembro ng grupo ay gumagawa ng kanyang sariling pagpili. Ang gawain ay upang bumuo ng isang solusyon na sa isang tiyak na paraan ay nag-coordinate ng mga indibidwal na pagpipilian at sa ilang kahulugan ay nagpapahayag ng "pangkalahatang opinyon" ng grupo, i.e. tinanggap bilang pagpili ng grupo.

Natural, ang iba't ibang mga prinsipyo para sa pag-uugnay ng mga indibidwal na desisyon ay tumutugma sa iba't ibang mga desisyon ng grupo.

Ang mga tuntunin para sa pag-uugnay ng mga indibidwal na desisyon sa panahon ng pagpili ng grupo ay tinatawag na mga panuntunan sa pagboto. Ang pinakakaraniwan ay ang "majority rule", kung saan ang alternatibong may pinakamaraming boto ay tinatanggap bilang desisyon ng grupo.

Kinakailangang maunawaan na ang gayong desisyon ay sumasalamin lamang sa pagkalat ng iba't ibang mga punto ng pananaw sa grupo, at hindi ang tunay na pinakamainam na opsyon, kung saan walang sinuman ang maaaring bumoto. "Ang katotohanan ay hindi natutukoy sa pamamagitan ng pagboto."

Bilang karagdagan, may mga tinatawag na "mga kabalintunaan sa pagboto," ang pinakatanyag na kung saan ay ang kabalintunaan ng Arrow.

Ang mga kabalintunaan na ito ay maaaring humantong, at kung minsan ay humahantong, sa mga hindi kanais-nais na mga tampok ng pamamaraan ng pagboto: halimbawa, may mga kaso kapag ang grupo ay hindi maaaring gumawa ng isang solong desisyon sa lahat (walang korum o lahat ay bumoto para sa kanilang sariling natatanging opsyon, atbp .), at kung minsan ( na may maraming yugto ng pagboto), ang minorya ay maaaring magpataw ng kanilang kalooban sa karamihan.

Pagpili sa ilalim ng mga kondisyon ng kawalan ng katiyakan

Ang katiyakan ay isang espesyal na kaso ng kawalan ng katiyakan, ibig sabihin: ito ay kawalan ng katiyakan malapit sa zero.

Sa modernong teorya ng pagpili, pinaniniwalaan na mayroong tatlong pangunahing uri ng kawalan ng katiyakan sa mga problema sa paggawa ng desisyon:

  1. Impormasyon (statistical) na kawalan ng katiyakan ng paunang data para sa paggawa ng desisyon.
  2. Kawalang-katiyakan ng mga kahihinatnan ng paggawa ng desisyon (pagpipilian).
  3. Malabo sa paglalarawan ng mga bahagi ng proseso ng paggawa ng desisyon.

Tingnan natin ang mga ito sa pagkakasunud-sunod.

Kawalang-katiyakan ng impormasyon (statistical) sa pinagmulang data

Ang data na nakuha tungkol sa lugar ng paksa ay hindi maituturing na ganap na tumpak. Bilang karagdagan, malinaw naman, ang mga data na ito ay hindi interesado sa amin sa kanilang mga sarili, ngunit bilang mga senyales lamang na maaaring magdala ng ilang partikular na impormasyon tungkol sa kung ano talaga ang interes sa amin. Kaya, mas makatotohanang isaalang-alang na nakikipag-usap tayo sa data na hindi lamang maingay at hindi tumpak, ngunit hindi rin direkta, at marahil ay hindi kumpleto. Bilang karagdagan, ang mga data na ito ay hindi nag-aalala sa buong populasyon na pinag-aaralan, ngunit isang partikular na subset lamang nito, kung saan aktwal na nakolekta namin ang data, ngunit sa parehong oras gusto naming gumawa ng mga konklusyon tungkol sa buong populasyon, at kami rin gustong malaman ang antas ng pagiging maaasahan ng mga konklusyong ito.

Sa ilalim ng mga kundisyong ito, ginagamit ang teorya ng mga desisyon sa istatistika.

Mayroong dalawang pangunahing pinagmumulan ng kawalan ng katiyakan sa teoryang ito. Una, hindi alam kung anong pamamahagi ang sinusunod ng orihinal na data. Pangalawa, hindi alam kung ano ang pamamahagi ng set (pangkalahatang populasyon) kung saan gusto naming gumawa ng mga konklusyon mula sa subset nito na bumubuo sa paunang data.

Ang mga pamamaraan ng istatistika ay mga pamamaraan sa paggawa ng desisyon na nag-aalis ng parehong mga uri ng kawalan ng katiyakan.

Dapat pansinin na mayroong ilang mga kadahilanan na humahantong sa hindi tamang paggamit ng mga istatistikal na pamamaraan:

  • Ang mga konklusyon sa istatistika, tulad ng iba pa, ay palaging may ilang tiyak na pagiging maaasahan o bisa. Ngunit, hindi tulad ng maraming iba pang mga kaso, ang pagiging maaasahan ng mga istatistikal na konklusyon ay kilala at tinutukoy sa panahon ng istatistikal na pag-aaral;
  • ang kalidad ng solusyon na nakuha bilang resulta ng paglalapat ng istatistikal na pamamaraan ay nakasalalay sa kalidad ng pinagmumulan ng data;
  • ang data na walang katangiang istatistikal ay hindi dapat isailalim sa pagpoproseso ng istatistika;
  • dapat gamitin ang mga istatistikal na pamamaraan na naaangkop sa antas ng isang priori na impormasyon tungkol sa populasyon na pinag-aaralan (halimbawa, ang mga pamamaraan ng ANOVA ay hindi dapat ilapat sa data na hindi Gaussian). Kung ang pamamahagi ng paunang data ay hindi alam, kung gayon kinakailangan na itatag ito, o gumamit ng maraming iba't ibang mga pamamaraan at ihambing ang mga resulta. Kung ibang-iba ang mga ito, ipinahihiwatig nito ang hindi pagkakagamit ng ilan sa mga pamamaraang ginamit.

Kawalang-katiyakan ng mga kahihinatnan

Kapag ang mga kahihinatnan ng pagpili ng isa o isa pang alternatibo ay malinaw na tinutukoy ng alternatibo mismo, kung gayon hindi natin matukoy ang pagkakaiba sa pagitan ng kahalili at mga kahihinatnan nito, na isinasaalang-alang na sa pamamagitan ng pagpili ng isang alternatibo, talagang pinipili natin ang mga kahihinatnan nito.

Gayunpaman, sa totoong pagsasanay, ang isang tao ay madalas na humarap sa isang mas kumplikadong sitwasyon, kapag ang pagpili ng isa o isa pang alternatibo ay hindi malinaw na tinutukoy ang mga kahihinatnan ng pagpili na ginawa.

Sa kaso ng isang discrete set ng mga alternatibo at ang mga kinalabasan na kanilang pinili, sa kondisyon na ang hanay ng mga posibleng kinalabasan mismo ay karaniwan sa lahat ng mga alternatibo, maaari nating ipagpalagay na ang iba't ibang mga alternatibo ay naiiba sa isa't isa sa probability distribution ng mga resulta. Ang mga pamamahagi ng probabilidad na ito sa pangkalahatang kaso ay maaaring depende sa mga resulta ng pagpili ng mga alternatibo at ang aktwal na resulta na nagresulta. Sa pinakasimpleng kaso, ang mga resulta ay pantay na malamang. Ang mga kinalabasan mismo ay karaniwang may kahulugan ng mga nadagdag o pagkalugi at ipinahayag sa dami.

Kung ang mga kinalabasan ay pantay para sa lahat ng mga alternatibo, kung gayon walang pipiliin. Kung magkaiba ang mga ito, maaari mong ihambing ang mga alternatibo sa pamamagitan ng pagpapakilala ng ilang mga pagtatantya ng dami para sa kanila. Ang iba't ibang mga problema sa teorya ng laro ay nauugnay sa iba't ibang mga pagpipilian ng mga numerical na katangian ng mga pagkalugi at mga nadagdag bilang resulta ng pagpili ng mga alternatibo, iba't ibang antas ng salungatan sa pagitan ng mga partido na pumipili ng mga alternatibo, atbp.

Isaalang-alang ang ganitong uri ng kawalan ng katiyakan bilang malabong kawalan ng katiyakan

Ang anumang pagpipiliang gawain ay isang gawain ng naka-target na pagpapaliit ng isang hanay ng mga alternatibo. Parehong ang pormal na paglalarawan ng mga alternatibo (ang kanilang listahan mismo, ang listahan ng kanilang mga tampok o parameter) at ang paglalarawan ng mga panuntunan para sa kanilang paghahambing (pamantayan, mga relasyon) ay palaging ibinibigay sa mga tuntunin ng isa o ibang sukat ng pagsukat (kahit na ang isa na hindi ba nito alam ang tungkol dito).

Ito ay kilala na ang lahat ng mga kaliskis ay malabo, ngunit sa iba't ibang antas. Ang terminong "pag-blur" ay tumutukoy sa pag-aari ng mga kaliskis, na binubuo sa katotohanan na laging posible na magpakita ng dalawang alternatibo na nakikilala, i.e. magkaiba sa parehong sukat at hindi makilala, i.e. magkapareho, sa kabilang - mas malabo. Ang mas kaunting mga gradasyon sa isang tiyak na sukat, mas malabo ito.

Kaya, malinaw nating makikita ang mga alternatibo at sa parehong oras ay malabo na pag-uuri ang mga ito, i.e. may kawalan ng katiyakan tungkol sa kung aling mga klase sila nabibilang.

Nasa una na nilang gawain sa paggawa ng desisyon sa mga hindi malinaw na sitwasyon, ipinauna nina Bellman at Zadeh ang ideya na ang parehong mga layunin at mga hadlang ay dapat na katawanin bilang malabo na hanay sa hanay ng mga alternatibo.

Tungkol sa ilang mga limitasyon ng diskarte sa pag-optimize

Sa lahat ng mga problema sa pagpili at mga pamamaraan sa paggawa ng desisyon na tinalakay sa itaas, ang problema ay upang mahanap ang pinakamahusay sa orihinal na hanay sa ilalim ng mga ibinigay na kondisyon, i.e. mga alternatibo na pinakamainam sa isang tiyak na kahulugan.

Ang ideya ng optimality ay ang pangunahing ideya ng cybernetics at naging matatag na itinatag sa pagsasanay ng pagdidisenyo at pagpapatakbo ng mga teknikal na sistema. Kasabay nito, ang ideyang ito ay nangangailangan ng maingat na pangangasiwa kapag sinusubukan nating ilipat ito sa larangan ng pamamahala ng mga kumplikado, malaki at mahinang determinadong mga sistema, tulad ng, halimbawa, mga sistemang sosyo-ekonomiko.

Mayroong medyo magandang dahilan para sa konklusyong ito. Tingnan natin ang ilan sa kanila:

  1. Ang pinakamainam na solusyon ay madalas na lumalabas na hindi matatag, i.e. Ang mga maliliit na pagbabago sa mga kondisyon ng problema, mga input, o mga hadlang ay maaaring humantong sa pagpili ng mga makabuluhang iba't ibang alternatibo.
  2. Ang mga modelo ng pag-optimize ay binuo lamang para sa makitid na mga klase ng medyo simpleng mga problema, na hindi palaging sapat at sistematikong sumasalamin sa mga tunay na bagay na kontrol. Kadalasan, pinahihintulutan ng mga pamamaraan ng pag-optimize ang pag-optimize lamang ng medyo simple at pormal na inilarawan na mga subsystem ng ilang malalaki at kumplikadong mga sistema, i.e. payagan lamang ang lokal na pag-optimize. Gayunpaman, kung ang bawat subsystem ng isang malaking sistema ay gumagana nang mahusay, hindi ito nangangahulugan na ang sistema sa kabuuan ay gagana nang mahusay. Samakatuwid, ang pag-optimize ng isang subsystem ay hindi kinakailangang humahantong sa pag-uugali na kinakailangan dito kapag ino-optimize ang system sa kabuuan. Bukod dito, kung minsan ang lokal na pag-optimize ay maaaring humantong sa mga negatibong kahihinatnan para sa system sa kabuuan. Samakatuwid, kapag nag-optimize ng mga subsystem at ang sistema sa kabuuan, kinakailangan upang matukoy ang isang puno ng mga layunin at subgoal at ang kanilang priyoridad.
  3. Kadalasan, ang pag-maximize ng optimization criterion ayon sa ilang mathematical model ay itinuturing na layunin ng optimization, ngunit sa katotohanan ang layunin ay i-optimize ang control object. Ang pamantayan sa pag-optimize at mga modelo ng matematika ay palaging nauugnay sa layunin nang hindi direkta, i.e. higit pa o mas kaunti sapat, ngunit palaging humigit-kumulang.

Kaya, ang ideya ng pinakamainam, na lubhang mabunga para sa mga sistema na maaaring sapat na pormal na mathematically, ay dapat ilipat sa mga kumplikadong sistema nang may pag-iingat. Siyempre, ang mga modelo ng matematika na kung minsan ay maaaring imungkahi para sa mga naturang sistema ay maaaring ma-optimize. Gayunpaman, dapat palaging isaalang-alang ng isa ang malakas na pagpapasimple ng mga modelong ito, na sa kaso ng mga kumplikadong sistema ay hindi na maaaring pabayaan, pati na rin ang katotohanan na ang antas ng kasapatan ng mga modelong ito sa kaso ng mga kumplikadong sistema ay halos hindi kilala. . Samakatuwid, hindi alam kung ano ang pulos praktikal na kahalagahan ng pag-optimize na ito. Ang mataas na pagiging praktikal ng pag-optimize sa mga teknikal na sistema ay hindi dapat magbunga ng ilusyon na ito ay magiging kasing epektibo kapag nag-optimize ng mga kumplikadong sistema. Ang makabuluhang pagmomodelo ng matematika ng mga kumplikadong sistema ay napakahirap, tinatayang at hindi tumpak. Kung mas kumplikado ang system, mas dapat kang maging maingat sa ideya ng pag-optimize nito.

Samakatuwid, kapag ang pagbuo ng mga pamamaraan para sa pagkontrol sa kumplikado, malaki, mahinang deterministikong mga sistema, isinasaalang-alang ng mga may-akda ang pangunahing bagay hindi lamang ang pagiging mahusay ng napiling diskarte mula sa isang pormal na pananaw sa matematika, kundi pati na rin ang kasapatan nito sa layunin at ang mismong kalikasan ng kontrol na bagay.

Mga paraan ng pagpili ng dalubhasa

Kapag nag-aaral ng mga kumplikadong sistema, madalas na lumilitaw ang mga problema na, para sa iba't ibang mga kadahilanan, ay hindi maaaring mahigpit na bumalangkas at malutas gamit ang kasalukuyang binuo na kasangkapang matematika. Sa mga kasong ito, ginagamit ang mga serbisyo ng mga eksperto (system analyst), na ang karanasan at intuwisyon ay nakakatulong na mabawasan ang pagiging kumplikado ng problema.

Gayunpaman, dapat itong isaalang-alang na ang mga dalubhasa mismo ay lubos na kumplikadong mga sistema, at ang kanilang mga aktibidad ay nakasalalay din sa maraming panlabas at panloob na mga kondisyon. Samakatuwid, sa mga pamamaraan ng pag-aayos ng mga pagtatasa ng eksperto, maraming pansin ang binabayaran sa paglikha ng mga kanais-nais na panlabas at sikolohikal na kondisyon para sa gawain ng mga eksperto.

Ang gawain ng eksperto ay naiimpluwensyahan ng mga sumusunod na salik:

  • responsibilidad para sa paggamit ng mga resulta ng pagsusulit;
  • kaalaman na kasangkot din ang ibang mga eksperto;
  • pagkakaroon ng pakikipag-ugnayan ng impormasyon sa pagitan ng mga eksperto;
  • interpersonal na relasyon ng mga eksperto (kung mayroong impormasyon sa pakikipag-ugnay sa pagitan nila);
  • personal na interes ng eksperto sa mga resulta ng pagtatasa;
  • mga personal na katangian ng mga eksperto (pagmamalaki, conformism, kalooban, atbp.)

Ang pakikipag-ugnayan sa pagitan ng mga eksperto ay maaaring parehong pasiglahin at sugpuin ang kanilang mga aktibidad. Samakatuwid, sa iba't ibang mga kaso, iba't ibang mga pamamaraan ng pagsusuri ang ginagamit, naiiba sa likas na katangian ng pakikipag-ugnayan ng mga eksperto sa isa't isa: anonymous at bukas na mga survey at questionnaire, mga pagpupulong, mga talakayan, mga laro sa negosyo, brainstorming, atbp.

Mayroong iba't ibang mga pamamaraan para sa pagproseso ng matematika ng mga opinyon ng eksperto. Ang mga eksperto ay hinihiling na suriin ang iba't ibang mga alternatibo alinman sa paggamit ng isa o isang sistema ng mga tagapagpahiwatig. Bilang karagdagan, hinihiling sa kanila na suriin ang antas ng kahalagahan ng bawat tagapagpahiwatig (ang "timbang" o "kontribusyon" nito). Ang mga eksperto mismo ay itinalaga din ng isang antas ng kakayahan na naaayon sa kontribusyon ng bawat isa sa kanila sa nagresultang opinyon ng grupo.

Ang isang binuo na pamamaraan para sa pakikipagtulungan sa mga eksperto ay ang Delphi method. Ang pangunahing ideya ng pamamaraang ito ay ang pagpuna at argumentasyon ay may kapaki-pakinabang na epekto sa dalubhasa kung ang kanyang pagmamataas ay hindi apektado at ang mga kondisyon ay ibinigay na hindi kasama ang personal na paghaharap.

Dapat itong bigyang-diin lalo na na mayroong pangunahing pagkakaiba sa likas na katangian ng paggamit ng mga pamamaraan ng eksperto sa mga sistema ng dalubhasa at sa suporta sa desisyon. Kung sa unang kaso ang mga eksperto ay kinakailangan na gawing pormal ang mga pamamaraan ng paggawa ng desisyon, pagkatapos ay sa pangalawa - tanging ang desisyon mismo, tulad nito.

Dahil ang mga eksperto ay kasangkot sa pagpapatupad ng mga tiyak na pag-andar na kasalukuyang hindi ibinibigay ng mga awtomatikong system, o ginagawa ng mga ito na mas masahol pa kaysa sa mga tao, ang isang promising na direksyon para sa pagbuo ng mga awtomatikong system ay ang maximum na automation ng mga function na ito.

Mga awtomatikong sistema ng suporta sa pagpapasya

Ang tao ay palaging gumagamit ng mga katulong kapag gumagawa ng mga desisyon: ito ay mga tagapagbigay lamang ng impormasyon tungkol sa layunin ng pamamahala, at mga consultant (tagapayo) na nag-aalok ng mga pagpipilian sa pagpapasya at sinuri ang kanilang mga kahihinatnan. Ang isang taong gumagawa ng mga desisyon ay palaging ginagawa ang mga ito sa isang tiyak na kapaligiran ng impormasyon: para sa isang pinuno ng militar ito ang punong-tanggapan, para sa rektor ay ang akademikong konseho, para sa ministro ito ay ang kolehiyo.

Sa ngayon, ang imprastraktura ng impormasyon para sa paggawa ng desisyon ay hindi maiisip nang walang mga automated na sistema para sa interactive na pagtatasa ng desisyon at lalo na ang mga sistema ng suporta sa desisyon (DDS - Decision Support Systems), i.e. mga automated system na partikular na idinisenyo upang ihanda ang impormasyong kailangan ng isang tao para makapagpasya. Ang pagbuo ng mga sistema ng suporta sa desisyon ay isinasagawa, sa partikular, sa loob ng balangkas ng isang pang-internasyonal na proyekto na isinasagawa sa ilalim ng tangkilik ng International Institute for Applied Systems Analysis sa Laxenburg (Austria).

Ang paggawa ng mga pagpipilian sa totoong buhay na mga sitwasyon ay nangangailangan ng ilang mga operasyon, ang ilan sa mga ito ay mas mahusay na ginagawa ng mga tao at iba pa sa pamamagitan ng mga makina. Ang epektibong kumbinasyon ng kanilang mga pakinabang habang binabayaran ang kanilang mga pagkukulang ay nakapaloob sa mga awtomatikong sistema ng suporta sa pagpapasya.

Ang isang tao ay gumagawa ng mga desisyon na mas mahusay kaysa sa isang makina sa ilalim ng mga kondisyon ng kawalan ng katiyakan, ngunit upang makagawa ng tamang desisyon, kailangan din niya ng sapat (kumpleto at maaasahang) impormasyong nagpapakilala sa lugar ng paksa. Gayunpaman, ito ay kilala na ang mga tao ay hindi nakayanan nang maayos ang malalaking halaga ng "hilaw" na hindi naprosesong impormasyon. Samakatuwid, ang papel na ginagampanan ng isang makina sa suporta sa desisyon ay maaaring magsagawa ng paunang paghahanda ng impormasyon tungkol sa control object at hindi makontrol na mga kadahilanan (kapaligiran), upang makatulong na tingnan ang mga kahihinatnan ng paggawa ng ilang mga desisyon, at upang ipakita ang lahat ng impormasyong ito sa isang visual at maginhawang paraan.para sa porma ng paggawa ng desisyon.

Kaya, ang mga awtomatikong sistema ng suporta sa pagpapasya ay nagbabayad para sa mga kahinaan ng isang tao, pinalaya siya mula sa nakagawiang paunang pagproseso ng impormasyon, at nagbibigay sa kanya ng komportableng kapaligiran ng impormasyon kung saan mas maipapakita niya ang kanyang mga lakas. Ang mga sistemang ito ay hindi naglalayong i-automate ang mga pag-andar ng gumagawa ng desisyon (at, bilang isang resulta, ihiwalay ang mga pag-andar na ito mula sa kanya, at samakatuwid ay responsibilidad para sa mga desisyon na ginawa, na kadalasang hindi katanggap-tanggap), ngunit sa pagbibigay sa kanya ng tulong sa paghahanap ng magandang solusyon.