ნიმუშის ამოცნობის განმარტება. კლასიფიკაცია უახლოესი მნიშვნელობით

ცოცხალი სისტემები, მათ შორის ადამიანები, დაარსების დღიდან მუდმივად დგანან ნიმუშის ამოცნობის ამოცანის წინაშე. კერძოდ, გრძნობის ორგანოებიდან მოსულ ინფორმაციას ტვინი ამუშავებს, რომელიც თავის მხრივ ახარისხებს ინფორმაციას, უზრუნველყოფს გადაწყვეტილების მიღებას და შემდეგ ელექტროქიმიური იმპულსების გამოყენებით საჭირო სიგნალს გადასცემს შემდგომ, მაგალითად, მოძრაობის ორგანოებს. , რომლებიც ახორციელებენ აუცილებელ ქმედებებს. შემდეგ ხდება გარემოში ცვლილება და ზემოაღნიშნული ფენომენები კვლავ ხდება. და თუ დააკვირდებით, მაშინ თითოეულ ეტაპს თან ახლავს აღიარება.

კომპიუტერული ტექნოლოგიების განვითარებით შესაძლებელი გახდა ცხოვრების პროცესში წარმოქმნილი მთელი რიგი პრობლემების გადაჭრა, შედეგის გაადვილება, დაჩქარება, ხარისხის გაუმჯობესება. მაგალითად, სიცოცხლის მხარდაჭერის სხვადასხვა სისტემების ფუნქციონირება, ადამიანისა და კომპიუტერის ურთიერთქმედება, რობოტული სისტემების გაჩენა და ა.შ. თუმცა, ჩვენ აღვნიშნავთ, რომ ამჟამად შეუძლებელია დამაკმაყოფილებელი შედეგის მიღწევა ზოგიერთ ამოცანში (სწრაფად მოძრავი მსგავსი ობიექტების ამოცნობა. , ხელნაწერი ტექსტი).

სამუშაოს მიზანი: ნიმუშის ამომცნობი სისტემების ისტორიის შესწავლა.

მიუთითეთ ნიმუშების ამოცნობის სფეროში მომხდარი თვისებრივი ცვლილებები, როგორც თეორიული, ასევე ტექნიკური მიზეზების მითითებით;

იმსჯელეთ გამოთვლებში გამოყენებული მეთოდებისა და პრინციპების შესახებ;

მიეცით პერსპექტივების მაგალითები, რომლებიც მოსალოდნელია უახლოეს მომავალში.

1. რა არის ნიმუშის ამოცნობა?

პირველი კვლევა კომპიუტერული ტექნოლოგიებით ძირითადად მიჰყვებოდა მათემატიკური მოდელირების კლასიკურ სქემას - მათემატიკური მოდელი, ალგორითმი და გამოთვლა. ეს იყო ატომური ბომბების აფეთქების დროს მიმდინარე პროცესების მოდელირება, ბალისტიკური ტრაექტორიების გამოთვლა, ეკონომიკური და სხვა აპლიკაციების ამოცანები. თუმცა, ამ სერიის კლასიკური იდეების გარდა, არსებობდა სრულიად განსხვავებულ ბუნებაზე დაფუძნებული მეთოდებიც და როგორც ზოგიერთი პრობლემის გადაჭრის პრაქტიკა აჩვენებდა, ისინი ხშირად უკეთეს შედეგს იძლეოდნენ, ვიდრე გადაწყვეტილებები, რომლებიც დაფუძნებულია ზედმეტად რთულ მათემატიკურ მოდელებზე. მათი იდეა იყო უარი ეთქვათ შესწავლილი ობიექტის ამომწურავი მათემატიკური მოდელის შექმნის სურვილზე (უფრო მეტიც, ადეკვატური მოდელების აგება ხშირად პრაქტიკულად შეუძლებელი იყო) და სანაცვლოდ დაკმაყოფილებულიყვნენ მხოლოდ ჩვენთვის საინტერესო კონკრეტულ კითხვებზე პასუხებით. ეს პასუხები უნდა ვეძებოთ ფართო კლასის პრობლემების საერთო მოსაზრებებიდან. ამ ტიპის კვლევა მოიცავდა ვიზუალური გამოსახულების ამოცნობას, მოსავლიანობის პროგნოზირებას, მდინარის დონეს, ნავთობის შემცველი და წყალშემცველი წყლის გამიჯვნის პრობლემას არაპირდაპირი გეოფიზიკური მონაცემების გამოყენებით და ა.შ. ამ ამოცანებზე კონკრეტული პასუხი იყო საჭირო საკმაოდ მარტივი ფორმით, როგორიცაა მაგალითად, ეკუთვნის თუ არა ობიექტი წინასწარ ფიქსირებულ კლასებს. და ამ ამოცანების საწყისი მონაცემები, როგორც წესი, მოცემულია ფრაგმენტული ინფორმაციის სახით შესწავლილი ობიექტების შესახებ, მაგალითად, წინასწარ კლასიფიცირებული ობიექტების ნაკრების სახით. მათემატიკური თვალსაზრისით, ეს ნიშნავს, რომ ნიმუშის ამოცნობა (და პრობლემების ეს კლასი დასახელდა ჩვენს ქვეყანაში) არის ფუნქციის ექსტრაპოლაციის იდეის შორსმიმავალი განზოგადება.

ტექნიკური მეცნიერებისთვის ასეთი ფორმულირების მნიშვნელობა ეჭვგარეშეა და ეს თავისთავად ამართლებს მრავალრიცხოვან კვლევებს ამ სფეროში. თუმცა, ნიმუშის ამოცნობის პრობლემას ასევე აქვს უფრო ფართო ასპექტი საბუნებისმეტყველო მეცნიერებისთვის (თუმცა, უცნაური იქნება, თუ ხელოვნური კიბერნეტიკური სისტემებისთვის რაიმე ასეთი მნიშვნელოვანი არ იქნება მნიშვნელოვანი ბუნებრივისთვის). ამ მეცნიერების კონტექსტი ორგანულად მოიცავდა ძველი ფილოსოფოსების მიერ დასმულ კითხვებს ჩვენი ცოდნის ბუნების შესახებ, ჩვენს უნარზე ამოვიცნოთ სურათები, შაბლონები, სამყაროს სიტუაციები. სინამდვილეში, პრაქტიკულად ეჭვგარეშეა, რომ უმარტივესი სურათების ამოცნობის მექანიზმები, როგორიცაა მოახლოებული საშიში მტაცებლის ან საკვების გამოსახულება, ჩამოყალიბდა ბევრად უფრო ადრე, ვიდრე გაჩნდა ელემენტარული ენა და ფორმალური ლოგიკური აპარატი. და ეჭვგარეშეა, რომ ასეთი მექანიზმები ასევე საკმარისად არის განვითარებული უმაღლეს ცხოველებში, რომლებსაც თავიანთი სასიცოცხლო საქმიანობაში ასევე სასწრაფოდ სჭირდებათ ბუნების ნიშნების საკმაოდ რთული სისტემის გარჩევის უნარი. ამრიგად, ბუნებაში ჩვენ ვხედავთ, რომ აზროვნებისა და ცნობიერების ფენომენი აშკარად ემყარება ნიმუშების ამოცნობის უნარს და ინტელექტის მეცნიერების შემდგომი პროგრესი პირდაპირ კავშირშია აღიარების ფუნდამენტური კანონების გაგების სიღრმესთან. იმის გაგებით, რომ ზემოაღნიშნული კითხვები ბევრად სცილდება ნიმუშის ამოცნობის სტანდარტულ განმარტებას (ინგლისურ ლიტერატურაში ტერმინი ზედამხედველობითი სწავლება უფრო გავრცელებულია), ასევე აუცილებელია გვესმოდეს, რომ მათ აქვთ ღრმა კავშირი ამ შედარებით ვიწროსთან (მაგრამ ჯერ კიდევ შორს). ამოწურულიდან) მიმართულებით.

ახლაც, ნიმუშის ამოცნობა მტკიცედ შევიდა ყოველდღიურ ცხოვრებაში და თანამედროვე ინჟინრის ერთ-ერთი ყველაზე სასიცოცხლო ცოდნაა. მედიცინაში შაბლონის ამოცნობა ეხმარება ექიმებს უფრო ზუსტი დიაგნოზის დასმაში; ქარხნებში მას იყენებენ საქონლის პარტიების დეფექტების პროგნოზირებისთვის. ბიომეტრიული პერსონალური იდენტიფიკაციის სისტემები, როგორც მათი ალგორითმული ბირთვი, ასევე ეფუძნება ამ დისციპლინის შედეგებს. ხელოვნური ინტელექტის შემდგომი განვითარება, კერძოდ, მეხუთე თაობის კომპიუტერების დიზაინი, რომელსაც შეუძლია უფრო პირდაპირი კომუნიკაცია ადამიანთან ბუნებრივ ენებზე ადამიანებისთვის და მეტყველების საშუალებით, წარმოუდგენელია აღიარების გარეშე. აქ რობოტიკა, ხელოვნური კონტროლის სისტემები, რომლებიც შეიცავს ამოცნობის სისტემებს, როგორც სასიცოცხლო ქვესისტემებს, ადვილად მიუწვდომელია.

სწორედ ამიტომ, თავიდანვე დიდი ყურადღება მიიპყრო ნიმუშების ამოცნობის განვითარებას სხვადასხვა პროფილის სპეციალისტებმა - კიბერნეტიკის, ნეიროფიზიოლოგების, ფსიქოლოგების, მათემატიკოსების, ეკონომისტების და ა.შ. ძირითადად ამ მიზეზით, თანამედროვე ნიმუშის ამოცნობა თავად იკვებება ამ დისციპლინების იდეებით. სრულყოფილების პრეტენზიის გარეშე (და შეუძლებელია ამის პრეტენზია მოკლე ესეში), ჩვენ აღვწერთ ნიმუშის ამოცნობის ისტორიას, ძირითად იდეებს.

განმარტებები

სანამ ნიმუშების ამოცნობის ძირითად მეთოდებზე გადავიდოდეთ, ჩვენ ვაძლევთ რამდენიმე აუცილებელ განმარტებას.

გამოსახულების (ობიექტების, სიგნალების, სიტუაციების, ფენომენების ან პროცესების) ამოცნობა არის ობიექტის იდენტიფიცირების ამოცანა ან მისი რომელიმე თვისების განსაზღვრა მისი გამოსახულების (ოპტიკური ამოცნობა) ან აუდიო ჩანაწერის (აკუსტიკური ამოცნობა) და სხვა მახასიათებლებით.

ერთ-ერთი ძირითადი არის კომპლექტის კონცეფცია, რომელსაც არ აქვს კონკრეტული ფორმულირება. კომპიუტერში ნაკრები წარმოდგენილია იმავე ტიპის არაგანმეორებადი ელემენტების სიმრავლით. სიტყვა "არა-განმეორებადი" ნიშნავს, რომ ნაკრების ზოგიერთი ელემენტი ან არის ან არ არის. უნივერსალური ნაკრები მოიცავს ყველა შესაძლო ელემენტს პრობლემის გადასაჭრელად, ცარიელი ნაკრები არ შეიცავს არცერთს.

გამოსახულება არის კლასიფიკაციის დაჯგუფება კლასიფიკაციის სისტემაში, რომელიც აერთიანებს (გამოყოფს) ობიექტთა გარკვეულ ჯგუფს რაიმე ატრიბუტის მიხედვით. გამოსახულებებს აქვთ დამახასიათებელი თვისება, რაც გამოიხატება იმაში, რომ ერთი და იგივე ნაკრებიდან ფენომენების სასრული რაოდენობის გაცნობა შესაძლებელს ხდის მისი წარმომადგენლების თვითნებურად დიდი რაოდენობის ამოცნობას. გამოსახულებებს აქვთ დამახასიათებელი ობიექტური თვისებები იმ გაგებით, რომ სხვადასხვა ადამიანები, რომლებიც სწავლობენ სხვადასხვა დაკვირვების მასალისგან, უმეტესწილად, ერთსა და იმავე ობიექტებს ერთნაირად და ერთმანეთისგან დამოუკიდებლად ახარისხებენ. ამოცნობის პრობლემის კლასიკურ ფორმულირებაში უნივერსალური ნაკრები დაყოფილია ნაწილებად-სურათებად. ნებისმიერი ობიექტის თითოეულ რუკს ამომცნობი სისტემის აღქმის ორგანოებთან, მიუხედავად მისი პოზიციისა ამ ორგანოებთან მიმართებაში, ჩვეულებრივ უწოდებენ ობიექტის გამოსახულებას და ასეთი გამოსახულების კომპლექტი, გაერთიანებული ზოგიერთი საერთო თვისებით, არის გამოსახულებები.

ნებისმიერი სურათისთვის ელემენტის მინიჭების მეთოდს გადაწყვეტილების წესი ეწოდება. კიდევ ერთი მნიშვნელოვანი კონცეფციაა მეტრიკა, გზა უნივერსალური ნაკრების ელემენტებს შორის მანძილის დასადგენად. რაც უფრო მცირეა ეს მანძილი, მით უფრო მსგავსია ობიექტები (სიმბოლოები, ბგერები და ა.შ.), რომლებსაც ჩვენ ვაღიარებთ. როგორც წესი, ელემენტები მითითებულია როგორც რიცხვების ნაკრები, ხოლო მეტრიკა მითითებულია როგორც ფუნქცია. პროგრამის ეფექტურობა დამოკიდებულია სურათების წარმოდგენის არჩევანზე და მეტრიკის განხორციელებაზე, სხვადასხვა მეტრიკის მქონე ამოცნობის ერთი ალგორითმი შეცდომებს დაუშვებს სხვადასხვა სიხშირით.

სწავლას ჩვეულებრივ უწოდებენ ზოგიერთ სისტემაში კონკრეტული რეაქციის განვითარების პროცესს გარე იდენტური სიგნალების ჯგუფებზე გარე კორექტირების სისტემაზე განმეორებითი ზემოქმედებით. ტრენინგში ასეთ გარეგნულ კორექტირებას ჩვეულებრივ უწოდებენ "წახალისებას" და "დასჯას". ამ კორექტირების გენერირების მექანიზმი თითქმის მთლიანად განსაზღვრავს სწავლის ალგორითმს. თვით სწავლა განსხვავდება სწავლისგან იმით, რომ აქ არ არის მოხსენებული დამატებითი ინფორმაცია სისტემაზე რეაქციის სისწორის შესახებ.

ადაპტაცია არის სისტემის პარამეტრების და სტრუქტურის შეცვლის პროცესი და, შესაძლოა, ასევე კონტროლის მოქმედებები, მიმდინარე ინფორმაციის საფუძველზე, რათა მივაღწიოთ სისტემის გარკვეულ მდგომარეობას საწყისი გაურკვევლობით და ცვალებადი ოპერაციული პირობებით.

სწავლა არის პროცესი, რომლის შედეგადაც სისტემა თანდათან იძენს უნარს, რეაგირება მოახდინოს გარკვეული გარე ზემოქმედების კომპლექტზე საჭირო რეაქციებით, ხოლო ადაპტაცია არის სისტემის პარამეტრების და სტრუქტურის კორექტირება, რათა მიაღწიოს საჭირო ხარისხს. კონტროლი გარე პირობებში უწყვეტი ცვლილებების პირობებში.

ნიმუშის ამოცნობის ამოცანების მაგალითები: - ასოების ამოცნობა;

ლექცია ნომერი 17.ნიმუშის ამოცნობის მეთოდები

არსებობს ამოცნობის მეთოდების შემდეგი ჯგუფები:

სიახლოვის ფუნქციის მეთოდები

დისკრიმინაციული ფუნქციის მეთოდები

ამოცნობის სტატისტიკური მეთოდები.

ლინგვისტური მეთოდები

ევრისტიკული მეთოდები.

მეთოდების პირველი სამი ჯგუფი ორიენტირებულია რიცხვებით ან ვექტორებით გამოხატული მახასიათებლების ანალიზზე, რიცხვითი კომპონენტებით.

ლინგვისტური მეთოდების ჯგუფი უზრუნველყოფს შაბლონის ამოცნობას მათი სტრუქტურის ანალიზის საფუძველზე, რაც აღწერილია მათ შორის შესაბამისი სტრუქტურული თავისებურებებითა და ურთიერთობებით.

ევრისტიკული მეთოდების ჯგუფი აერთიანებს დამახასიათებელ ტექნიკას და ლოგიკურ პროცედურებს, რომლებსაც ადამიანები იყენებენ შაბლონის ამოცნობისას.

სიახლოვის ფუნქციის მეთოდები

ამ ჯგუფის მეთოდები ემყარება ფუნქციების გამოყენებას, რომლებიც აფასებენ ცნობად სურათს ვექტორთან სიახლოვის ზომას. x * = (x * 1 ,….,x*n) და სხვადასხვა კლასის საცნობარო გამოსახულებები, რომლებიც წარმოდგენილია ვექტორებით x i = (x i 1 ,…, x i n), i= 1,…,, სად მე-გამოსახულების კლასის ნომერი.

ამოცნობის პროცედურა ამ მეთოდის მიხედვით შედგება ამოცნობილი გამოსახულების წერტილსა და საცნობარო გამოსახულების გამომსახველ თითოეულ წერტილს შორის მანძილის გამოთვლაში, ე.ი. ყველა მნიშვნელობის გამოთვლაში დ ი , i= 1,…,. სურათი მიეკუთვნება იმ კლასს, რომლის მნიშვნელობაც დ იაქვს ყველაზე ნაკლები ღირებულება i= 1,…, .

ფუნქცია, რომელიც ასახავს ვექტორების თითოეულ წყვილს x i, x *რეალური რიცხვი მათი სიახლოვის საზომად, ე.ი. მათ შორის მანძილის დადგენა შეიძლება საკმაოდ თვითნებური იყოს. მათემატიკაში ასეთ ფუნქციას სივრცის მეტრიკა ეწოდება. ის უნდა აკმაყოფილებდეს შემდეგ აქსიომებს:

(x, y)=(y, x);

(x, y) > 0 თუ xარ უდრის და (x, y)=0 თუ x=y;

(x, y) <=(x,z)+(z, y)

ეს აქსიომები კმაყოფილდება, კერძოდ, შემდეგი ფუნქციებით

ა ი= 1/2 , =1,2,….

ბ ი= ჯამი, =1,2,….

გ ი= მაქსიმალური მუცლის ( x ix j *), =1,2,….

მათგან პირველს ვექტორული სივრცის ევკლიდური ნორმა ეწოდება. შესაბამისად, სივრცეებს, რომლებშიც მითითებული ფუნქცია გამოიყენება როგორც მეტრიკა, ეწოდება ევკლიდეს სივრცე.

ხშირად, ამოცნობილი გამოსახულების კოორდინატების ფესვი-საშუალო კვადრატული განსხვავება არჩეულია სიახლოვის ფუნქციად. x *და სტანდარტული x i, ე.ი. ფუნქცია

დ ი = (1/) ჯამი ( x i jx j *) 2 , =1,2,….

ღირებულება დ იგეომეტრიულად ინტერპრეტირებულია, როგორც ფუნქციების სივრცეში წერტილებს შორის მანძილის კვადრატი, რომელიც დაკავშირებულია სივრცის განზომილებაში.

ხშირად აღმოჩნდება, რომ სხვადასხვა მახასიათებლებს არ აქვთ თანაბრად მნიშვნელოვანი ამოცნობა. კოორდინატთა სხვაობის სიახლოვის ფუნქციების გაანგარიშებისას ამ გარემოების გათვალისწინების მიზნით, შესაბამისი უფრო მნიშვნელოვანი ნიშან-თვისებები მრავლდება დიდ კოეფიციენტებზე, ხოლო ნაკლებად მნიშვნელოვანი - პატარაზე.

Ამ შემთხვევაში დ ი = (1/) ჯამი wj (x i jx j *) 2 , =1,2,…,

სადაც wj- წონის კოეფიციენტები.

წონის კოეფიციენტების შემოღება უტოლდება ფუნქციური სივრცის ღერძების სკალირებას და, შესაბამისად, სივრცის ცალკეული მიმართულებით გაჭიმვას ან შეკუმშვას.

ფუნქციური სივრცის ეს დეფორმაციები მიზნად ისახავს საცნობარო გამოსახულების წერტილების ისეთი განლაგების მიზანს, რაც შეესაბამება ყველაზე საიმედო ამოცნობას თითოეული კლასის გამოსახულების მნიშვნელოვანი გაფანტვის პირობებში საცნობარო გამოსახულების წერტილის სიახლოვეს.

გამოსახულების წერტილების ჯგუფებს (სურათების კლასტერები) ფუნქციების სივრცეში ეწოდება კლასტერები, ხოლო ასეთი ჯგუფების იდენტიფიკაციის პრობლემას ეწოდება კლასტერული პრობლემა.

კლასტერების იდენტიფიცირების ამოცანას მოიხსენიებენ, როგორც შაბლონების ამოცნობის უკონტროლო ამოცანებს, ე.ი. ამოცნობის პრობლემების სწორი ამოცნობის მაგალითის არარსებობის შემთხვევაში.

დისკრიმინაციული ფუნქციის მეთოდები

ამ ჯგუფის მეთოდების იდეაა ფუნქციების აგება, რომლებიც განსაზღვრავენ საზღვრებს სურათების სივრცეში, სივრცის დაყოფა სურათების კლასების შესაბამის რეგიონებად. ამ ტიპის უმარტივესი და ყველაზე ხშირად გამოყენებული ფუნქციები არის ფუნქციები, რომლებიც ხაზოვანია დამოკიდებული მახასიათებლების მნიშვნელობებზე. ფუნქციების სივრცეში ისინი შეესაბამება გამყოფ ზედაპირებს ჰიპერპლანტების სახით. ორგანზომილებიანი ფუნქციური სივრცის შემთხვევაში, სწორი ხაზი მოქმედებს როგორც გამყოფი ფუნქცია.

წრფივი გადაწყვეტილების ფუნქციის ზოგადი ფორმა მოცემულია ფორმულით

(x)= 1 x 1 + 2 x 2 +…+w n x n +w n +1 = Wx+w n

სადაც x- გამოსახულების ვექტორი, w=( 1 , ვ 2 ,…w n) არის წონის კოეფიციენტების ვექტორი.

როდესაც იყოფა ორ კლასად X 1 და X 2 დისკრიმინაციული ფუნქცია (x) საშუალებას იძლევა აღიარება წესის მიხედვით:

xეკუთვნის X 1 თუ (x)>0;

xეკუთვნის X 2 თუ (x)<0.

Თუ (x)=0, მაშინ ხდება გაურკვევლობის შემთხვევა.

რამდენიმე კლასად დაყოფის შემთხვევაში შემოდის რამდენიმე ფუნქცია. ამ შემთხვევაში, სურათების თითოეული კლასი ასოცირდება დისკრიმინაციული ფუნქციების ნიშნების გარკვეულ კომბინაციასთან.

მაგალითად, თუ დაინერგება სამი დისკრიმინაციული ფუნქცია, მაშინ შესაძლებელია გამოსახულების კლასების არჩევის შემდეგი ვარიანტი:

xეკუთვნის X 1 თუ 1 (x)>0, 2 (x)<0, 3 (x)<0;

xეკუთვნის X 2 თუ (x)<0, 2 (x)>0, 3 (x)<0;

xეკუთვნის X 3 თუ (x)<0, 2 (x)<0, 3 (x)>0.

ვარაუდობენ, რომ მნიშვნელობების სხვა კომბინაციებისთვის 1 (x), 2 (x), 3 (x) არის გაურკვევლობის შემთხვევა.

დისკრიმინაციული ფუნქციების მეთოდის ვარიაცია არის გადამწყვეტი ფუნქციების მეთოდი. მასში, თუ შესაძლებელია ვარაუდობენ, რომ კლასები არსებობს ფუნქციები დ ი(x), მოუწოდა გადამწყვეტი, ისე, რომ თუ xეკუთვნის X ი, მაშინ დ ი(x) > დიჯეი(x) ყველასთვის არ უდრის მე, იმათ. გადამწყვეტი ფუნქცია დ ი(x) აქვს მაქსიმალური მნიშვნელობა ყველა ფუნქციას შორის დიჯეი(x), =1,...,..

ასეთი მეთოდის ილუსტრაცია შეიძლება იყოს კლასიფიკატორი, რომელიც ეფუძნება ევკლიდეს მანძილის მინიმუმის შეფასებას გამოსახულების წერტილსა და სტანდარტს შორის ფუნქციურ სივრცეში. ვაჩვენოთ.

ევკლიდური მანძილი ცნობადი გამოსახულების მახასიათებლის ვექტორს შორის xხოლო საცნობარო გამოსახულების ვექტორი განისაზღვრება ფორმულით || x ix|| = 1/2 , =1,2,….

ვექტორი xდაინიშნება კლასში მე, რისთვისაც მნიშვნელობა || x ix *|| მინიმალური.

მანძილის ნაცვლად შეგიძლიათ შეადაროთ მანძილის კვადრატი, ე.ი.

||x ix|| 2 = (x ix)(x ix) t = x x- 2x x i +x i x i

ღირებულებიდან გამომდინარე x xიგივე ყველასთვის მე, ფუნქციის მინიმალური || x ix|| 2 დაემთხვევა გადაწყვეტილების ფუნქციის მაქსიმუმს

დ ი(x) = 2x x i -x i x i.

ე.ი xეკუთვნის X ი, თუ დ ი(x) > დიჯეი(x) ყველასთვის არ უდრის მე.

რომ. მინიმალური მანძილის კლასიფიკაციის მანქანა ეფუძნება ხაზოვანი გადაწყვეტილების ფუნქციებს. ასეთი აპარატის ზოგადი სტრუქტურა იყენებს ფორმის გადაწყვეტილების ფუნქციებს

დ ი (x)=w i 1 x 1 + w i 2 x 2 +…+w x n-ში +ვ მე ნ +1

ის შეიძლება ვიზუალურად იყოს წარმოდგენილი შესაბამისი ბლოკ-სქემით.

მანქანებისთვის, რომელიც ასრულებს კლასიფიკაციას მინიმალური მანძილის მიხედვით, ტოლობები ხდება: w ij = -2x i j , ვ მე ნ +1 = x i x i.

დისკრიმინაციული ფუნქციების მეთოდით ეკვივალენტური აღიარება შეიძლება განხორციელდეს, თუ დისკრიმინაციული ფუნქციები განსხვავებულად არის განსაზღვრული. დიჟ (x)=დ ი (x)‑დიჯეი (x).

დისკრიმინაციული ფუნქციების მეთოდის უპირატესობა არის ამომცნობი მანქანის მარტივი სტრუქტურა, ისევე როგორც მისი განხორციელების შესაძლებლობა ძირითადად უპირატესად ხაზოვანი გადაწყვეტილების ბლოკების საშუალებით.

დისკრიმინაციული ფუნქციების მეთოდის კიდევ ერთი მნიშვნელოვანი უპირატესობა არის აპარატის ავტომატური ვარჯიშის შესაძლებლობა ნიმუშის მოცემული (სავარჯიშო) ნიმუშის სწორად ამოცნობისთვის.

ამავე დროს, ავტომატური სწავლის ალგორითმი აღმოჩნდება ძალიან მარტივი სხვა ამოცნობის მეთოდებთან შედარებით.

ამ მიზეზების გამო, დისკრიმინაციული ფუნქციების მეთოდმა მოიპოვა ფართო პოპულარობა და ხშირად გამოიყენება პრაქტიკაში.

ნიმუშის ამოცნობის თვითსწავლის პროცედურები

განვიხილოთ მოცემული (სავარჯიშო) ნიმუშისთვის დისკრიმინაციული ფუნქციის აგების მეთოდები, რომლებიც გამოიყენება სურათების ორ კლასად დაყოფის პრობლემაზე. თუ მოცემულია გამოსახულების ორი ნაკრები, რომლებიც მიეკუთვნება A და B კლასებს, შესაბამისად, მაშინ წრფივი დისკრიმინაციული ფუნქციის აგების პრობლემის გადაწყვეტა მოძებნილია წონის კოეფიციენტების ვექტორის სახით. =( 1 , 2 ,...,w n,w n+1), რომელსაც აქვს თვისება, რომ ნებისმიერი გამოსახულების პირობები

xმიეკუთვნება A კლასს, თუ >0, =1,2,….

xმიეკუთვნება B კლასს, თუ<0, =1,2,….

თუ სასწავლო ნიმუში არის ორივე კლასის გამოსახულებები, პრობლემა მცირდება w ვექტორის პოვნამდე, რომელიც უზრუნველყოფს უტოლობათა სისტემის მართებულობას. თუ სასწავლო ნიმუში შედგება ორივე კლასის გამოსახულებით, პრობლემა მცირდება ვექტორის პოვნამდე , რომელიც უზრუნველყოფს უთანასწორობის სისტემის მართებულობას

x 1 1 w i+x 21 2 +...+x n 1 w n+w n +1 >0;

x 1 2 w i+x 22 2 +...+x n 2 w n+w n +1 <0;

x 1 მეw i+x 2მე 2 +...+x ni w n+w n +1 >0;

................................................

x 1 w i +x 2 2 +...+x nN w n +w n + 1>0;

აქ x i=(x i 1 , x i 2 ,...,x i n ,x i n+ 1 ) - გამოსახულების მახასიათებლების მნიშვნელობების ვექტორი სასწავლო ნიმუშიდან, ნიშანი > შეესაბამება გამოსახულების ვექტორებს x A კლასს მიეკუთვნება და ნიშანი< - векторам x B კლასს მიეკუთვნება.

სასურველი ვექტორი არსებობს თუ A და B კლასები განცალკევებულია და სხვაგვარად არ არსებობს. ვექტორული კომპონენტის მნიშვნელობები შეიძლება მოიძებნოს ან წინასწარი, FRO-ს აპარატურის დანერგვის წინა ეტაპზე, ან უშუალოდ თავად FRO-ს მიერ მისი მოქმედების პროცესში. ამ მიდგომებიდან ბოლო უზრუნველყოფს SRO-ს უფრო მეტ მოქნილობას და ავტონომიას. განვიხილოთ ეს მოწყობილობის მაგალითზე, რომელსაც ეწოდება პროცენტონი. გამოიგონა 1957 წელს ამერიკელმა მეცნიერმა როზენბლატმა. პროცენტონის სქემატური წარმოდგენა, რომელიც უზრუნველყოფს გამოსახულების მინიჭებას ორი კლასიდან ერთ-ერთზე, ნაჩვენებია შემდეგ ფიგურაში.

ბადურა ბადურა ბადურა

ოჰ ოჰ x 1

ოჰ ოჰ x 2

ოჰ ოჰ x 3

o(ჯამობა)-------> (რეაქცია)

ოჰ ოჰ x i

ოჰ ოჰ x n

ოჰ ოჰ x n +1

მოწყობილობა შედგება ბადურის სენსორული ელემენტებისაგან , რომლებიც შემთხვევით უკავშირდება ბადურის ასოციაციურ ელემენტებს . მეორე ბადურის თითოეული ელემენტი აწარმოებს გამომავალ სიგნალს მხოლოდ იმ შემთხვევაში, თუ მის შესასვლელთან დაკავშირებული სენსორული ელემენტების საკმარისი რაოდენობა აღგზნებულ მდგომარეობაშია. მთელი სისტემის პასუხი პროპორციულია გარკვეული წონებით აღებული ასოციაციური ბადურის ელემენტების რეაქციების ჯამისა.

აღნიშნავს მეშვეობით x iრეაქცია მეე ასოციაციური ელემენტი და მეშვეობით w i- რეაქციის წონის კოეფიციენტი მეასოციაციური ელემენტი, სისტემის რეაქცია შეიძლება დაიწეროს როგორც =ჯამი( w j x j), =1,..,. Თუ >0, მაშინ სისტემაში წარმოდგენილი სურათი ეკუთვნის A კლასს და თუ <0, то образ относится к классу B. Описание этой процедуры классификации соответствует рассмотренным нами раньше принципам классификации, и, очевидно, перцентронная модель распознавания образов представляет собой, за исключением сенсорной сетчатки, реализацию линейной дискриминантной функции. Принятый в перцентроне принцип формирования значений x 1 , x 2 ,...,x nშეესაბამება გარკვეულ ალგორითმს ძირითადი სენსორების სიგნალებზე დაფუძნებული მახასიათებლების ფორმირებისთვის.

ზოგადად, შეიძლება რამდენიმე ელემენტი იყოს , რომლებიც ქმნიან პერცეპტრონის რეაქციას. ამ შემთხვევაში, საუბარია პერცეპტრონში ბადურის არსებობაზე რეაქტიული ელემენტები.

პროცენტონის სქემა შეიძლება გაფართოვდეს იმ შემთხვევისთვის, როდესაც კლასების რაოდენობა ორზე მეტია, ბადურის ელემენტების რაოდენობის გაზრდით. გამორჩეული კლასების რაოდენობამდე და ბლოკის შემოღება მაქსიმალური რეაქციის დასადგენად ზემოაღნიშნულ ფიგურაში წარმოდგენილი სქემის მიხედვით. ამ შემთხვევაში, სურათი ენიჭება კლასს ნომრით მე, თუ რ ი>რჯ, ყველასთვის .

პროცენტონის სწავლის პროცესი შედგება წონის კოეფიციენტების მნიშვნელობების შერჩევაში wjისე, რომ გამომავალი სიგნალი შეესაბამებოდეს იმ კლასს, რომელსაც მიეკუთვნება აღიარებული სურათი.

განვიხილოთ პროცენტონის მოქმედების ალგორითმი ორი კლასის: A და B ობიექტების ამოცნობის მაგალითის გამოყენებით. A კლასის ობიექტები უნდა შეესაბამებოდეს მნიშვნელობას. = +1, და კლასი B - მნიშვნელობა = -1.

სწავლის ალგორითმი შემდეგია.

თუ სხვა სურათი xმიეკუთვნება A კლასს, მაგრამ <0 (имеет место ошибка распознавания), тогда коэффициенты wjმნიშვნელობების შესაბამისი ინდექსებით xj>0, გაიზრდება გარკვეული რაოდენობით dwდა დანარჩენი კოეფიციენტები wjმცირდება dw. ამ შემთხვევაში, რეაქციის მნიშვნელობა იღებს ზრდას მისი დადებითი მნიშვნელობების მიმართ, რომელიც შეესაბამება სწორ კლასიფიკაციას.

Თუ xმიეკუთვნება B კლასს, მაგრამ >0 (არის ამოცნობის შეცდომა), შემდეგ კოეფიციენტები wjშესაბამისი ინდექსებით xj<0, увеличивают на dwდა დანარჩენი კოეფიციენტები wjიგივე ოდენობით შემცირდა. ამ შემთხვევაში, რეაქციის მნიშვნელობა იზრდება სწორი კლასიფიკაციის შესაბამისი უარყოფითი მნიშვნელობებისკენ.

ამგვარად, ალგორითმი ახდენს ცვლილებას წონის ვექტორში თუ და მხოლოდ იმ შემთხვევაში, თუ სურათი წარმოდგენილია - სავარჯიშო ნაბიჯი, არასწორად იყო კლასიფიცირებული ამ ნაბიჯის დროს და ტოვებს წონის ვექტორს არ იცვლება სწორი კლასიფიკაციის შემთხვევაში. ამ ალგორითმის კონვერგენციის მტკიცებულება წარმოდგენილია [Too, Gonzalez]-ში. ასეთი ტრენინგი საბოლოოდ (სათანადო არჩევანით dwდა გამოსახულების კლასების წრფივი განცალკევება) მივყავართ ვექტორამდე სწორი კლასიფიკაციისთვის.

ამოცნობის სტატისტიკური მეთოდები.

სტატისტიკური მეთოდები ეფუძნება კლასიფიკაციის შეცდომის ალბათობის მინიმიზაციას. ამოცნობისთვის მიღებული გამოსახულების არასწორი კლასიფიკაციის ალბათობა P, აღწერილი ფუნქციის ვექტორით x, განისაზღვრება ფორმულით

P = ჯამი [ გვ(მე) პრობლემა ( (x)+მე | xკლასი მე)]

სადაც - კლასების რაოდენობა,

გვ(მე) = ზონდი ( xკლასს ეკუთვნის მე) - თვითნებური გამოსახულების კუთვნილების აპრიორი ალბათობა xრომ მე-ე კლასი (გამოსახულებების გაჩენის სიხშირე მეკლასი),

(x) არის ფუნქცია, რომელიც იღებს კლასიფიკაციის გადაწყვეტილებას (მახასიათებლის ვექტორი xშეესაბამება კლასის ნომერს მენაკრებიდან (1,2,..., }),

პრობლემა ( (x) არ უდრის მე| xკლასს ეკუთვნის მე) არის მოვლენის ალბათობა" (x) არ უდრის მე„როცა წევრობის პირობა შესრულებულია xკლასი მე, ე.ი. ფუნქციის მიერ არასწორი გადაწყვეტილების მიღების ალბათობა (x) მოცემული მნიშვნელობისთვის xსაკუთრებაში არსებული მე-მე კლასი.

შეიძლება ნაჩვენები იყოს, რომ არასწორი კლასიფიკაციის ალბათობა მინიმალურს აღწევს თუ (x)=მეთუ და მხოლოდ თუ გვ(x|მეგვ(მე)>გვ(x|jგვ(), ყველასთვის მე+ჯ, სად გვ(x|i) - სურათების განაწილების სიმკვრივე მეე კლასი მხატვრულ სივრცეში.

ზემოაღნიშნული წესის მიხედვით, წერტილი xმიეკუთვნება იმ კლასს, რომელიც შეესაბამება მაქსიმალურ მნიშვნელობას გვ(მე) გვ(x|i), ე.ი. გამოსახულების გამოჩენის აპრიორი ალბათობის (სიხშირის) ნამრავლი მე-ე კლასი და ნიმუშის განაწილების სიმკვრივე მეე კლასი მხატვრულ სივრცეში. წარმოდგენილ კლასიფიკაციის წესს უწოდებენ ბაიესიანს, რადგან ეს გამომდინარეობს ალბათობის თეორიაში კარგად ცნობილი ბეიზის ფორმულიდან.

მაგალითი. მოდით, საჭირო გახდეს დისკრეტული სიგნალების ამოცნობა საინფორმაციო არხის გამოსასვლელზე, რომელიც გავლენას ახდენს ხმაურით.

თითოეული შეყვანის სიგნალი არის 0 ან 1. სიგნალის გადაცემის შედეგად, არხის გამომავალზე გამოჩნდება მნიშვნელობა. x, რომელიც ზედმეტად არის გადანაწილებული გაუსის ხმაურით ნულოვანი საშუალო და დისპერსიით b.

კლასიფიკატორის სინთეზისთვის, რომელიც ახორციელებს სიგნალის ამოცნობას, გამოვიყენებთ ბაიესის კლასიფიკაციის წესს.

No1 კლასში ვაერთებთ ერთეულების გამომსახველ სიგნალებს, No2 კლასში - ნულების გამომსახველ სიგნალებს. წინასწარ იყოს ცნობილი, რომ საშუალოდ ყოველი 1000 სიგნალიდან სიგნალები არის ერთეული და სიგნალები - ნულები. შემდეგ 1-ლი და მე-2 კლასის სიგნალების გამოჩენის აპრიორული ალბათობების მნიშვნელობები (ერთი და ნული), შესაბამისად, შეიძლება ტოლი იყოს

p(1)=a/1000, p(2)=b/1000.

იმიტომ რომ ხმაური გაუსიანია, ე.ი. ემორჩილება ნორმალურ (გაუსის) განაწილების კანონს, შემდეგ პირველი კლასის სურათების განაწილების სიმკვრივეს, მნიშვნელობიდან გამომდინარე x, ან, რაც იგივეა, გამომავალი მნიშვნელობის მიღების ალბათობა xროდესაც სიგნალი 1 გამოიყენება შესასვლელში, იგი განისაზღვრება გამოსახულებით

გვ(x¦1) =(2pib) -1/2 exp(-( x-1) 2 /(2b 2)),

და განაწილების სიმკვრივე დამოკიდებულია მნიშვნელობაზე xმეორე კლასის სურათები, ე.ი. გამომავალი მნიშვნელობის მიღების ალბათობა xროდესაც სიგნალი 0 გამოიყენება შესასვლელში, იგი განისაზღვრება გამოსახულებით

გვ(x¦2)= (2pib) -1/2 exp(- x 2 /(2b 2)),

ბაიესის გადაწყვეტილების წესის გამოყენებას მივყავართ დასკვნამდე, რომ მე-2 კლასის სიგნალი გადაიცემა, ე.ი. ნულს გადასცდა თუ

გვ(2) გვ(x¦2) > გვ(1) გვ(x¦1)

ან, უფრო კონკრეტულად, თუ

exp(- x 2 /(2b 2)) > exp(-( x-1) 2 /(2b 2)),

უტოლობის მარცხენა მხარის მარჯვენა მხარეს გაყოფით მივიღებთ

(/)exp((1-2 x)/(2b 2)) >1,

საიდანაც ლოგარითმის აღების შემდეგ ვპოულობთ

1-2x> 2b 2 ln(a/b)

x< 0.5 - б 2 ln(a/b)

მიღებული უტოლობიდან გამომდინარეობს, რომ a=b, ე.ი. 0 და 1 სიგნალების გაჩენის იგივე აპრიორი ალბათობით, სურათს ენიჭება მნიშვნელობა 0, როდესაც x<0.5, а значение 1, когда x>0.5.

თუ წინასწარ ცნობილია, რომ ერთი სიგნალი უფრო ხშირად ჩნდება, მეორე კი ნაკლებად, ე.ი. სხვადასხვა ღირებულების შემთხვევაში და , კლასიფიკატორის რეაგირების ბარიერი გადადის ერთ მხარეს ან მეორეზე.

ასე რომ ზე ა/ბ=2,71 (შეესაბამება 2,71-ჯერ უფრო გახშირებულ გადაცემას) და b 2 =0,1, სურათს ენიჭება მნიშვნელობა 0, თუ x<0.4, и значение 1, если x>0.4. თუ არ არის ინფორმაცია აპრიორული განაწილების ალბათობების შესახებ, მაშინ შეიძლება გამოყენებულ იქნას სტატისტიკური ამოცნობის მეთოდები, რომლებიც ეფუძნება ბაიესის კლასიფიკაციის სხვა წესებს.

თუმცა, პრაქტიკაში, ბეიზის წესებზე დაფუძნებული მეთოდები ყველაზე გავრცელებულია მათი უფრო დიდი ეფექტურობის გამო და ასევე იმის გამო, რომ უმეტეს შაბლონის ამოცნობის პრობლემებში შესაძლებელია თითოეული კლასის გამოსახულების გარეგნობის აპრიორი ალბათობების დაყენება.

ნიმუშის ამოცნობის ენობრივი მეთოდები.

ნიმუშის ამოცნობის ლინგვისტური მეთოდები ემყარება იდეალიზებული გამოსახულების აღწერის ანალიზს, რომელიც წარმოდგენილია როგორც გრაფიკი ან სიმბოლოების სტრიქონი, რომელიც არის გარკვეული ენის ფრაზა ან წინადადება.

განვიხილოთ ზემოთ აღწერილი ლინგვისტური ამოცნობის პირველი ეტაპის შედეგად მიღებული ასოების იდეალიზებული გამოსახულებები. ეს იდეალიზებული სურათები შეიძლება განისაზღვროს გრაფიკების აღწერით, რომლებიც წარმოდგენილია, მაგალითად, კავშირის მატრიცების სახით, როგორც ეს გაკეთდა ზემოთ მოცემულ მაგალითში. იგივე აღწერა შეიძლება წარმოდგენილი იყოს ფორმალური ენობრივი ფრაზით (გამოთქმით).

მაგალითი. მიეცეს A ასოს სამი გამოსახულება, რომელიც მიღებულია გამოსახულების წინასწარი დამუშავების შედეგად. მოდით აღვნიშნოთ ეს სურათები A1, A2 და A3 იდენტიფიკატორებით.

წარმოდგენილი სურათების ენობრივი აღწერისთვის ვიყენებთ PDL-ს (Picture Description Language). PDL ენის ლექსიკონი მოიცავს შემდეგ სიმბოლოებს:

1. უმარტივესი გამოსახულებების სახელები (პრიმიტივები). განსახილველ საქმესთან დაკავშირებით, პრიმიტივები და მათი შესაბამისი სახელები შემდეგია.

სურათები მიმართული ხაზის სახით:

ზემოთ და მარცხნივ (le t), ჩრდილოეთით (ჩრდილოეთით)), ზევით და მარჯვნივ (მარჯვნივ), აღმოსავლეთით (აღმოსავლეთით)).

სახელები: L, N, R, E.

2. ორობითი ოპერაციების სიმბოლოები. (+,*,-) მათი მნიშვნელობა შეესაბამება პრიმიტივების თანმიმდევრულ კავშირს (+), პრიმიტივების საწყისთა და დასასრულების კავშირს (*), პრიმიტივების მხოლოდ დაბოლოებების კავშირს (-).

3. მარჯვენა და მარცხენა ფრჩხილები. ((,)) ფრჩხილები საშუალებას გაძლევთ მიუთითოთ თანმიმდევრობა, რომლითაც უნდა შესრულდეს ოპერაციები გამოხატულებაში.

განხილული სურათები A1, A2 და A3 აღწერილია PDL ენაზე, შესაბამისად, შემდეგი გამონათქვამებით.

T(1)=R+((R-(L+N))*E-L

T(2)=(R+N)+((N+R)-L)*E-L

T(3)=(N+R)+(R-L)*E-(L+N)

სურათის ენობრივი აღწერის აგების შემდეგ, საჭიროა ამომცნობი პროცედურის გამოყენებით გავაანალიზოთ, მიეკუთვნება თუ არა მოცემული სურათი ჩვენთვის საინტერესო კლასს (ასოების კლასს A), ე.ი. აქვს თუ არა ამ სურათს გარკვეული სტრუქტურა. ამისათვის, უპირველეს ყოვლისა, აუცილებელია ჩვენთვის საინტერესო სტრუქტურის მქონე სურათების კლასის აღწერა.

ცხადია, ასო A ყოველთვის შეიცავს შემდეგ სტრუქტურულ ელემენტებს: მარცხენა "ფეხი", მარჯვენა "ფეხი" და თავი. მოდით დავასახელოთ ეს ელემენტები, შესაბამისად STL, STR, TR.

შემდეგ, PDL ენაზე, სიმბოლოს კლასი A - SIMB A აღწერილია გამოხატვით

SIMB A = STL + TR - STR

STL-ის მარცხენა „ფეხი“ ყოველთვის არის R და N ელემენტების ჯაჭვი, რომელიც შეიძლება დაიწეროს როგორც

STL ‑> R ¦ N ¦ (STL + R) ¦ (STL + N)

(STL არის სიმბოლო R ან N, ან სტრიქონი, რომელიც მიღებულია წყაროს STL სტრიქონში R ან N სიმბოლოების დამატებით)

STR-ის მარჯვენა „ფეხი“ ყოველთვის არის L და N ელემენტების ჯაჭვი, რომელიც შეიძლება ჩაიწეროს შემდეგნაირად, ე.ი.

STR ‑> L¦N¦ (STR + L)¦(STR + N)

ასოს თავი - TR არის დახურული კონტური, რომელიც შედგება E ელემენტისგან და ჯაჭვებისგან, როგორიცაა STL და STR.

PDL ენაში TR სტრუქტურა აღწერილია გამოსახულებით

TR ‑> (STL - STR) * E

და ბოლოს, ჩვენ ვიღებთ A ასოების კლასის შემდეგ აღწერას:

SIMB A ‑> (STL + TR - STR),

STL ‑> R¦N¦ (STL + R)¦ (STL + N)

STR ‑> L¦N¦ (STR + L)¦(STR + N)

TR ‑> (STL - STR) * E

ამ შემთხვევაში აღიარების პროცედურა შეიძლება განხორციელდეს შემდეგნაირად.

1. გამოსახულების შესაბამისი გამოხატულება შედარებულია საცნობარო სტრუქტურასთან STL + TR - STR.

2. STL, TR, STR სტრუქტურის თითოეული ელემენტი, თუ შესაძლებელია, ე.ი. თუ გამოსახულების აღწერა შედარებადია სტანდარტთან, გამოთქმის T(A) ზოგიერთი ქვეგამოხატვა ემთხვევა. Მაგალითად,

A1-ისთვის: STL=R, STR=L, TR=(R-(L+N))*E

A2-სთვის: STL = R + N, STR = L, TR = ((N + R) - L) * E

A3-სთვის: STL = N + R, STR = L + N, TR = (R - L) * E 3.

STL, STR, TR გამონათქვამები შედარებულია მათ შესაბამის საცნობარო სტრუქტურებთან.

4. თუ თითოეული STL, STR, TR გამოხატვის სტრუქტურა შეესაბამება მითითებას, გამოდის დასკვნა, რომ გამოსახულება მიეკუთვნება A ასოების კლასს. თუ რომელიმე სტადიაზე 2, 3, 4 არის შეუსაბამობა სტრუქტურას შორის. გაანალიზებული გამონათქვამიდან და მითითებიდან გამოდის დასკვნა, რომ სურათი არ ეკუთვნის SIMB A კლასს. გამოხატვის სტრუქტურის შესატყვისი შეიძლება განხორციელდეს ალგორითმული ენების LISP, PLANER, PROLOG და სხვა მსგავსი ხელოვნური ინტელექტის ენების გამოყენებით.

განხილულ მაგალითში, ყველა STL სტრიქონი შედგება N და R სიმბოლოებისგან, ხოლო STR სტრიქონები შედგება L და N სიმბოლოებისგან, რაც შეესაბამება ამ სტრიქონების მოცემულ სტრუქტურას. განხილულ სურათებში TR სტრუქტურა ასევე შეესაბამება საცნობარო სტრუქტურას, ვინაიდან შედგება STL, STR ტიპის სტრიქონების „განსხვავებისგან“, „გამრავლებული“ სიმბოლოთ E.

ამრიგად, მივდივართ დასკვნამდე, რომ განხილული სურათები ეკუთვნის კლასს SIMBა.


ბუნდოვანი DC ელექტროძრავის კონტროლერის სინთეზი"MatLab" გარემოში

ბუნდოვანი კონტროლერის სინთეზი ერთი შეყვანით და გამომავალით.

პრობლემა ის არის, რომ დისკმა ზუსტად დაიცვას სხვადასხვა შეყვანა. საკონტროლო მოქმედების შემუშავებას ახორციელებს საეჭვო კონტროლერი, რომელშიც სტრუქტურულად შეიძლება გამოიყოს შემდეგი ფუნქციონალური ბლოკები: ფაზაფიერი, წესების ბლოკი და დეფუზიფიკატორი.

ნახ.4 სისტემის განზოგადებული ფუნქციური დიაგრამა ორი ენობრივი ცვლადით.

ნახ.5 ბუნდოვანი კონტროლერის სქემატური დიაგრამა ორი ენობრივი ცვლადით.

საეჭვო კონტროლის ალგორითმი ზოგად შემთხვევაში არის ბუნდოვანი კონტროლერის შეყვანის ცვლადების ტრანსფორმაცია მის გამომავალ ცვლადებად შემდეგი ურთიერთდაკავშირებული პროცედურების გამოყენებით:

1. საკონტროლო ობიექტიდან სენსორების გაზომვით მიღებული შეყვანის ფიზიკური ცვლადების ტრანსფორმაცია ბუნდოვანი კონტროლერის შეყვანის ენობრივ ცვლადებად;

2. ლოგიკური დებულებების დამუშავება, რომელსაც ლინგვისტური წესები ეწოდება, კონტროლერის შეყვანისა და გამომავალი ენობრივი ცვლადების მიმართ;

3. ბუნდოვანი კონტროლერის გამომავალი ენობრივი ცვლადების ტრანსფორმაცია ფიზიკურ საკონტროლო ცვლადებად.

ჯერ განვიხილოთ უმარტივესი შემთხვევა, როდესაც მხოლოდ ორი ენობრივი ცვლადია შემოღებული სერვო დისკის გასაკონტროლებლად:

"კუთხე" - შეყვანის ცვლადი;

"control action" - გამომავალი ცვლადი.

ჩვენ მოვახდინეთ კონტროლერის სინთეზირება MatLab გარემოში Fuzzy Logic ინსტრუმენტთა ყუთის გამოყენებით. ის საშუალებას გაძლევთ შექმნათ ბუნდოვანი დასკვნის და ბუნდოვანი კლასიფიკაციის სისტემები MatLab გარემოში, მათი Simulink-ში ინტეგრირების შესაძლებლობით. Fuzzy Logic Toolbox-ის ძირითადი კონცეფცია არის FIS-სტრუქტურა - Fuzzy Inference System. FIS- სტრუქტურა შეიცავს ყველა აუცილებელ მონაცემს ფუნქციური რუკების "შესვლები-გამოსვლების" განსახორციელებლად, ბუნდოვანი ლოგიკური დასკვნის საფუძველზე, ნახ. 6.


სურათი 6. ბუნდოვანი დასკვნა.

X - შეყვანის მკვეთრი ვექტორი; - შეყვანის ვექტორის X-ის შესაბამისი ბუნდოვანი სიმრავლეების ვექტორი;
- ლოგიკური დასკვნის შედეგი ბუნდოვანი სიმრავლეების ვექტორის სახით; Y - გამომავალი მკვეთრი ვექტორი.

ბუნდოვანი მოდული საშუალებას გაძლევთ შექმნათ ორი ტიპის ბუნდოვანი სისტემები - Mamdani და Sugeno. მამდანის ტიპის სისტემებში ცოდნის ბაზა შედგება ფორმის წესებისგან "თუ x 1 = დაბალი და x 2 = საშუალო, მაშინ y = მაღალი". სუგენო ტიპის სისტემებში ცოდნის ბაზა შედგება ფორმის წესებისგან "თუ x 1 = დაბალი და x 2 = საშუალო, მაშინ y = a 0 +a 1 x 1 +a 2 x 2". ამრიგად, Mamdani და Sugeno სისტემებს შორის მთავარი განსხვავება მდგომარეობს გამომავალი ცვლადის მნიშვნელობების დაყენების სხვადასხვა გზებში იმ წესებში, რომლებიც ქმნიან ცოდნის ბაზას. მამდანის ტიპის სისტემებში გამომავალი ცვლადის მნიშვნელობები მოცემულია ბუნდოვანი ტერმინებით, სუგენო ტიპის სისტემებში - როგორც შეყვანის ცვლადების ხაზოვანი კომბინაცია. ჩვენს შემთხვევაში, ჩვენ გამოვიყენებთ Sugeno სისტემას, რადგან ის უკეთესად ემსახურება ოპტიმიზაციას.

სერვო დისკის გასაკონტროლებლად შემოყვანილია ორი ლინგვისტური ცვლადი: „შეცდომა“ (პოზიციის მიხედვით) და „საკონტროლო მოქმედება“. პირველი მათგანი არის შეყვანა, მეორე არის გამომავალი. მოდით განვსაზღვროთ ტერმინების ნაკრები მითითებული ცვლადებისთვის.

ბუნდოვანი დასკვნის ძირითადი კომპონენტები. ფუზიფიკატორი.

თითოეული ენობრივი ცვლადისთვის ჩვენ განვსაზღვრავთ ფორმის ძირითად ტერმინთა სიმრავლეს, რომელიც მოიცავს ბუნდოვან სიმრავლეს, რომელიც შეიძლება დასახელდეს: უარყოფითი მაღალი, უარყოფითი დაბალი, ნულოვანი, დადებითი დაბალი, დადებითი მაღალი.

უპირველეს ყოვლისა, მოდით სუბიექტურად განვსაზღვროთ რას ნიშნავს ტერმინები „დიდი შეცდომა“, „მცირე შეცდომა“ და ა.შ., განვსაზღვროთ წევრობის ფუნქციები შესაბამისი ბუნდოვანი კომპლექტებისთვის. აქ, ჯერჯერობით, მხოლოდ საჭირო სიზუსტით, შეყვანის სიგნალების კლასისთვის ცნობილი პარამეტრებით და საღი აზრით შეიძლება იხელმძღვანელოთ. ჯერჯერობით ვერავინ შესთავაზა წევრობის ფუნქციების პარამეტრების არჩევის რაიმე მკაცრი ალგორითმი. ჩვენს შემთხვევაში, ენობრივი ცვლადი „შეცდომა“ ასე გამოიყურება.

ნახ.7. ენობრივი ცვლადი „შეცდომა“.

უფრო მოსახერხებელია ენობრივი ცვლადის „მართვა“ წარმოდგენა ცხრილის სახით:

ცხრილი 1

წესების ბლოკი.

განვიხილოთ რამდენიმე წესის განსაზღვრის თანმიმდევრობა, რომლებიც აღწერს ზოგიერთ სიტუაციას:

დავუშვათ, რომ გამომავალი კუთხე უდრის შეყვანის სიგნალს (ანუ, შეცდომა ნულის ტოლია). ცხადია, ეს არის სასურველი სიტუაცია და ამიტომ არაფრის გაკეთება არ გვიწევს (საკონტროლო მოქმედება ნულის ტოლია).

ახლა განიხილეთ სხვა შემთხვევა: პოზიციის შეცდომა ნულზე ბევრად მეტია. ბუნებრივია, ამის კომპენსირება უნდა მოხდეს დიდი დადებითი საკონტროლო სიგნალის გამომუშავებით.

რომ. შედგენილია ორი წესი, რომლებიც ფორმალურად შეიძლება განისაზღვროს შემდეგნაირად:

თუშეცდომა = ნულოვანი, მაშინსაკონტროლო მოქმედება = ნული.

თუშეცდომა = დიდი დადებითი, მაშინსაკონტროლო მოქმედება = დიდი დადებითი.

სურ.8. კონტროლის ფორმირება პოზიციაში მცირე დადებითი შეცდომით.

ნახ.9. პოზიციის მიხედვით ნულოვანი შეცდომით კონტროლის ფორმირება.

ქვემოთ მოყვანილი ცხრილი აჩვენებს ყველა წესს, რომელიც შეესაბამება ყველა სიტუაციას ამ მარტივი შემთხვევისთვის.

ცხრილი 2

საერთო ჯამში, ბუნდოვანი კონტროლერისთვის n შეყვანით და 1 გამომავალით, შეიძლება განისაზღვროს კონტროლის წესები, სადაც არის ბუნდოვანი კომპლექტების რაოდენობა i-ის შეყვანისთვის, მაგრამ კონტროლერის ნორმალური ფუნქციონირებისთვის არ არის საჭირო ყველა შესაძლო გამოყენება. წესები, მაგრამ თქვენ შეგიძლიათ გაუმკლავდეთ მათ უფრო მცირე რაოდენობით. ჩვენს შემთხვევაში, ხუთივე შესაძლო წესი გამოიყენება ბუნდოვანი კონტროლის სიგნალის შესაქმნელად.

დეფუზიფიკატორი.

ამრიგად, მიღებული U ზემოქმედება განისაზღვრება ნებისმიერი წესის შესრულების მიხედვით. თუ წარმოიქმნება სიტუაცია, როდესაც რამდენიმე წესი შესრულებულია ერთდროულად, მაშინ მიღებული მოქმედება U გვხვდება შემდეგი დამოკიდებულების მიხედვით:

, სადაც n არის გააქტიურებული წესების რაოდენობა (დეფუზიფიკაცია არეალის ცენტრის მეთოდით), u nარის საკონტროლო სიგნალის ფიზიკური მნიშვნელობა, რომელიც შეესაბამება თითოეულ ბუნდოვან კომპლექტს UBO, უმო, U, UMp, UB. Un(u)არის საკონტროლო სიგნალის u შესაბამისი საეჭვო სიმრავლის მიკუთვნების ხარისხი Un=( UBO, უმო, U, UMp, UB). ასევე არსებობს დეფუზიზაციის სხვა მეთოდებიც, როდესაც გამომავალი ენობრივი ცვლადი პროპორციულია თავად „ძლიერი“ ან „სუსტი“ წესის.

მოდით, მოვახდინოთ ელექტროძრავის მართვის პროცესის სიმულაცია ზემოთ აღწერილი ბუნდოვანი კონტროლერის გამოყენებით.

სურ.10. სისტემის ბლოკ-სქემა გარემოშიმატლაბი.

სურ.11. ბუნდოვანი კონტროლერის სტრუქტურული დიაგრამა გარემოშიმატლაბი.

სურ.12. გარდამავალი პროცესი ერთსაფეხურიანი მოქმედებით.

ბრინჯი. 13. გარდამავალი პროცესი ჰარმონიული შეყვანის ქვეშ მოდელისთვის ბუნდოვანი კონტროლერით, რომელიც შეიცავს ერთ შეყვანის ენობრივ ცვლადს.

სინთეზირებული კონტროლის ალგორითმის მქონე დისკის მახასიათებლების ანალიზი აჩვენებს, რომ ისინი შორს არიან ოპტიმალური და უარესი, ვიდრე სხვა მეთოდებით კონტროლის სინთეზის შემთხვევაში (ძალიან დიდი კონტროლის დრო ერთი ნაბიჯის ეფექტით და შეცდომა ჰარმონიულით) . ეს აიხსნება იმით, რომ წევრობის ფუნქციების პარამეტრები საკმაოდ თვითნებურად იქნა არჩეული და მხოლოდ პოზიციის შეცდომის სიდიდე იყო გამოყენებული კონტროლერის შეყვანად. ბუნებრივია, მიღებული კონტროლერის რაიმე ოპტიმალურობაზე საუბარი არ შეიძლება. ამრიგად, ბუნდოვანი კონტროლერის ოპტიმიზაციის ამოცანა ხდება აქტუალური, რათა მივაღწიოთ კონტროლის ხარისხის მაქსიმალურ მაჩვენებლებს. იმათ. ამოცანაა ობიექტური ფუნქციის ოპტიმიზაცია f(a 1 ,a 2 …a n), სადაც a 1 ,a 2 …a n არის კოეფიციენტები, რომლებიც განსაზღვრავენ ბუნდოვანი კონტროლერის ტიპსა და მახასიათებლებს. ბუნდოვანი კონტროლერის ოპტიმიზაციისთვის ჩვენ ვიყენებთ ANFIS ბლოკს Matlab გარემოდან. ასევე, კონტროლერის მახასიათებლების გაუმჯობესების ერთ-ერთი გზა შეიძლება იყოს მისი შეყვანის რაოდენობის გაზრდა. ეს გახდის მარეგულირებელს უფრო მოქნილს და გააუმჯობესებს მის მუშაობას. დავამატოთ კიდევ ერთი შეყვანის ენობრივი ცვლადი - შემავალი სიგნალის (მისი წარმოებულის) ცვლილების სიჩქარე. შესაბამისად, გაიზრდება წესების რაოდენობაც. შემდეგ რეგულატორის მიკროსქემის დიაგრამა მიიღებს ფორმას:

ნახ.14 საეჭვო კონტროლერის სქემატური დიაგრამა სამი ენობრივი ცვლადით.

მოდით იყოს შეყვანის სიგნალის სიჩქარის მნიშვნელობა. საბაზისო ტერმინების ნაკრები Tn განისაზღვრება როგორც:

Тn=("უარყოფითი (VO)", "ნული (Z)", "დადებითი (VR)").

ყველა ენობრივი ცვლადის წევრობის ფუნქციების მდებარეობა ნაჩვენებია სურათზე.

სურ.15. ენობრივი ცვლადის „შეცდომა“ წევრობის ფუნქციები.

სურ.16. ენობრივი ცვლადის "შეყვანის სიგნალის სიჩქარე" წევრობის ფუნქციები.

კიდევ ერთი ენობრივი ცვლადის დამატების გამო წესების რაოდენობა გაიზრდება 3x5=15-მდე. მათი შედგენის პრინციპი სრულიად მსგავსია ზემოთ განხილულის. ყველა მათგანი ნაჩვენებია შემდეგ ცხრილში:

ცხრილი 3

ბუნდოვანი სიგნალი

მენეჯმენტი

პოზიციის შეცდომა

სიჩქარე

მაგალითად, თუ თუშეცდომა = ნული და შეყვანის სიგნალის წარმოებული = დიდი დადებითი, მაშინსაკონტროლო მოქმედება = მცირე უარყოფითი.

სურ.17. კონტროლის ფორმირება სამი ენობრივი ცვლადის ქვეშ.

შეყვანის რაოდენობის და, შესაბამისად, თავად წესების გაზრდის გამო, ბუნდოვანი კონტროლერის სტრუქტურაც გართულდება.

სურ.18. ბუნდოვანი კონტროლერის სტრუქტურული დიაგრამა ორი შეყვანით.

ნახატის დამატება

სურ.20. გარდამავალი პროცესი ჰარმონიული შეყვანის ქვეშ მოდელისთვის ბუნდოვანი კონტროლერით, რომელიც შეიცავს ორ შეყვანის ენობრივ ცვლადს.

ბრინჯი. 21. შეცდომის სიგნალი ჰარმონიული შეყვანისას მოდელისთვის ბუნდოვანი კონტროლერით, რომელიც შეიცავს ორ შეყვანის ენობრივ ცვლადს.

მოდით, შევასრულოთ საეჭვო კონტროლერის მუშაობის სიმულაცია ორი შეყვანით Matlab-ის გარემოში. მოდელის ბლოკ-სქემა ზუსტად იგივე იქნება, რაც ნახ. 19. ჰარმონიული შეყვანის გარდამავალი პროცესის გრაფიკიდან ჩანს, რომ სისტემის სიზუსტე მნიშვნელოვნად გაიზარდა, მაგრამ ამავე დროს გაიზარდა მისი რხევა, განსაკუთრებით ისეთ ადგილებში, სადაც გამომავალი კოორდინატის წარმოებული მიდრეკილია. ნული. აშკარაა, რომ ამის მიზეზი, როგორც ზემოთ აღინიშნა, არის წევრობის ფუნქციების პარამეტრების არაოპტიმალური არჩევანი, როგორც შეყვანის, ისე გამომავალი ენობრივი ცვლადების მიმართ. ამიტომ, ჩვენ ოპტიმიზაციას ვახდენთ საეჭვო კონტროლერს ANFISedit ბლოკის გამოყენებით Matlab გარემოში.

ბუნდოვანი კონტროლერის ოპტიმიზაცია.

განვიხილოთ გენეტიკური ალგორითმების გამოყენება ბუნდოვანი კონტროლერის ოპტიმიზაციისთვის. გენეტიკური ალგორითმები არის ადაპტური ძიების მეთოდები, რომლებიც ხშირად გამოიყენება ბოლო წლებში ფუნქციური ოპტიმიზაციის პრობლემების გადასაჭრელად. ისინი ემყარება ბიოლოგიური ორგანიზმების გენეტიკური პროცესების მსგავსებას: ბიოლოგიური პოპულაციები ვითარდება რამდენიმე თაობის განმავლობაში, ემორჩილება ბუნებრივი გადარჩევის კანონებს და ჩარლზ დარვინის მიერ აღმოჩენილი „ყველაზე ძლიერის გადარჩენის“ პრინციპის მიხედვით. ამ პროცესის მიბაძვით, გენეტიკურ ალგორითმებს შეუძლიათ „განვითარონ“ რეალური პრობლემების გადაწყვეტილებები, თუ ისინი სათანადოდ არის კოდირებული.

გენეტიკური ალგორითმები მუშაობს „ინდივიდულების“ ერთობლიობასთან - პოპულაციასთან, რომელთაგან თითოეული წარმოადგენს მოცემული პრობლემის შესაძლო გადაწყვეტას. თითოეული ინდივიდი ფასდება მისი „ფიტნესის“ საზომით იმის მიხედვით, თუ რამდენად „კარგია“ მის შესაბამისი პრობლემის გადაწყვეტა. ყველაზე მორგებულ ინდივიდებს შეუძლიათ შთამომავლობის „გამრავლება“ პოპულაციის სხვა ინდივიდებთან „შეჯვარებით“. ეს იწვევს ახალი ინდივიდების გაჩენას, რომლებიც აერთიანებენ მშობლებისგან მემკვიდრეობით მიღებულ ზოგიერთ მახასიათებელს. ყველაზე ნაკლებად მორგებული ინდივიდები ნაკლებად გამრავლდებიან, ამიტომ ის თვისებები, რომლებსაც ისინი ფლობენ, თანდათან გაქრება პოპულაციისგან.

ასე ხდება შესაძლებელი გადაწყვეტილებების მთელი ახალი პოპულაციის რეპროდუცირება, წინა თაობის საუკეთესო წარმომადგენლების არჩევა, მათი გადაკვეთა და უამრავი ახალი ინდივიდის მიღება. ეს ახალი თაობა შეიცავს მახასიათებლების უფრო მაღალ თანაფარდობას, რომელსაც ფლობენ წინა თაობის კარგი წევრები. ამრიგად, თაობიდან თაობას კარგი მახასიათებლები ნაწილდება მთელ მოსახლეობაში. საბოლოო ჯამში, მოსახლეობა გადავა პრობლემის ოპტიმალურ გადაწყვეტამდე.

გენეტიკური ალგორითმების ფარგლებში ბიოლოგიური ევოლუციის იდეის განხორციელების მრავალი გზა არსებობს. ტრადიციული, შეიძლება წარმოდგენილი იყოს შემდეგი ბლოკ-სქემის სახით, რომელიც ნაჩვენებია სურათზე 22, სადაც:

1. საწყისი პოპულაციის ინიცირება - პრობლემის მოცემული რაოდენობის გადაწყვეტის გენერირება, საიდანაც იწყება ოპტიმიზაციის პროცესი;

2. კროსოვერის და მუტაციის ოპერატორების გამოყენება;

3. გაჩერების პირობები - ჩვეულებრივ, ოპტიმიზაციის პროცესი გრძელდება მანამ, სანამ არ მოიძებნება პრობლემის გადაწყვეტა მოცემული სიზუსტით, ან სანამ არ გამოვლინდება, რომ პროცესი დაახლოებულია (ანუ, პრობლემის გადაწყვეტის გაუმჯობესება არ მომხდარა ბოლო დროს. N თაობა).

Matlab-ის გარემოში გენეტიკური ალგორითმები წარმოდგენილია ცალკე ინსტრუმენტთა ყუთით, ასევე ANFIS პაკეტით. ANFIS არის ადაპტიურ-ქსელზე დაფუძნებული Fuzzy Inference System - Adaptive Fuzzy Inference Network-ის აბრევიატურა. ANFIS არის ჰიბრიდული ნეირო-ფაზური ქსელების ერთ-ერთი პირველი ვარიანტი - პირდაპირი სიგნალის გავრცელების სპეციალური ტიპის ნერვული ქსელი. ნეირო-ფაზური ქსელის არქიტექტურა იზომორფულია ბუნდოვანი ცოდნის ბაზის მიმართ. ნეირო-ფაზურ ქსელებში გამოიყენება სამკუთხა ნორმების (გამრავლება და ალბათური OR) დიფერენცირებული განხორციელება, ასევე გლუვი წევრობის ფუნქციები. ეს შესაძლებელს ხდის გამოიყენოს სწრაფი და გენეტიკური ალგორითმები ნერვული ქსელების სავარჯიშოდ, რომელიც დაფუძნებულია უკანა გავრცელების მეთოდზე ნეირო-ფაზური ქსელების დასარეგულირებლად. ANFIS ქსელის თითოეული ფენის მუშაობის არქიტექტურა და წესები აღწერილია ქვემოთ.

ANFIS ახორციელებს Sugeno-ს ბუნდოვანი დასკვნების სისტემას ხუთ ფენიანი მიმავალი ნერვული ქსელის სახით. ფენების დანიშნულება შემდეგია: პირველი ფენა არის შეყვანის ცვლადების პირობები; მეორე ფენა - ბუნდოვანი წესების წინამორბედები (ნაკვეთები); მესამე ფენა არის წესების შესრულების ხარისხის ნორმალიზება; მეოთხე ფენა არის წესების დასკვნები; მეხუთე ფენა არის სხვადასხვა წესების მიხედვით მიღებული შედეგის აგრეგაცია.

ქსელის შეყვანები არ არის გამოყოფილი ცალკე ფენაზე. სურათი 23 გვიჩვენებს ANFIS ქსელს ერთი შეყვანის ცვლადით („შეცდომა“) და ხუთი ბუნდოვანი წესით. შეყვანის ცვლადის „შეცდომა“ ენობრივი შეფასებისთვის გამოიყენება 5 ტერმინი.


სურ.23. სტრუქტურაANFIS- ქსელები.

მოდით შემოვიტანოთ შემდეგი აღნიშვნა, რომელიც აუცილებელია შემდგომი პრეზენტაციისთვის:

მოდით იყოს ქსელის შეყვანა;

y - ქსელის გამომავალი;

ბუნდოვანი წესი რიგითი რიცხვით r;

მ - წესების რაოდენობა;

ბუნდოვანი ტერმინი წევრობის ფუნქციით, გამოიყენება ცვლადის ენობრივი შეფასებისთვის r-th წესში (,);

რეალური რიცხვები rth წესის დასკვნაში (,).

ANFIS-ქსელი ფუნქციონირებს შემდეგნაირად.

ფენა 1პირველი ფენის თითოეული კვანძი წარმოადგენს ერთ ტერმინს ზარის ფორმის წევრობის ფუნქციით. ქსელის შეყვანები დაკავშირებულია მხოლოდ მათ პირობებთან. პირველ ფენაში კვანძების რაოდენობა უდრის შეყვანის ცვლადების ტერმინების სიმრავლეების კარდინალურობათა ჯამს. კვანძის გამომავალი არის შეყვანის ცვლადის მნიშვნელობის მიკუთვნების ხარისხი შესაბამის საეჭვო ტერმინთან:

,

სადაც a, b და c არის წევრობის ფუნქციის კონფიგურირებადი პარამეტრები.

ფენა 2მეორე ფენაში კვანძების რაოდენობაა m. ამ ფენის თითოეული კვანძი შეესაბამება ერთ ბუნდოვან წესს. მეორე ფენის კვანძი უკავშირდება პირველი ფენის იმ კვანძებს, რომლებიც ქმნიან შესაბამისი წესის წინამორბედებს. ამიტომ, მეორე ფენის თითოეულ კვანძს შეუძლია მიიღოს 1-დან n-მდე შეყვანის სიგნალი. კვანძის გამომავალი არის წესის შესრულების ხარისხი, რომელიც გამოითვლება შეყვანის სიგნალების ნამრავლად. აღნიშნეთ ამ ფენის კვანძების გამომავალი , .

ფენა 3მესამე ფენის კვანძების რაოდენობაც მ. ამ ფენის თითოეული კვანძი ითვლის ბუნდოვანი წესის შესრულების შედარებით ხარისხს:

ფენა 4მეოთხე ფენაში კვანძების რაოდენობაც მ. თითოეული კვანძი დაკავშირებულია მესამე ფენის ერთ კვანძთან, ისევე როგორც ქსელის ყველა შეყვანასთან (შესვლებთან კავშირი არ არის ნაჩვენები ნახ. 18). მეოთხე ფენის კვანძი ითვლის ერთი ბუნდოვანი წესის წვლილს ქსელის გამომავალში:

ფენა 5ამ ფენის ერთი კვანძი აჯამებს ყველა წესის წვლილს:

.

ნერვული ქსელის ტრენინგის ტიპიური პროცედურები შეიძლება გამოყენებულ იქნას ANFIS ქსელის დასარეგულირებლად, რადგან ის იყენებს მხოლოდ დიფერენცირებად ფუნქციებს. როგორც წესი, გამოიყენება გრადიენტური დაღმართის კომბინაცია ზურგის გამრავლებისა და უმცირესი კვადრატების სახით. უკან გავრცელების ალგორითმი არეგულირებს წესების წინამორბედების პარამეტრებს, ე.ი. წევრობის ფუნქციები. წესის დასკვნის კოეფიციენტები შეფასებულია უმცირესი კვადრატების მეთოდით, ვინაიდან ისინი წრფივად არის დაკავშირებული ქსელის გამომავალთან. ტიუნინგის პროცედურის ყოველი გამეორება ხორციელდება ორ ეტაპად. პირველ ეტაპზე, სასწავლო ნიმუში მიეწოდება შეყვანებს, ხოლო მეოთხე ფენის კვანძების ოპტიმალური პარამეტრები აღმოჩენილია ქსელის სასურველ და რეალურ ქცევას შორის განმეორებითი უმცირესი კვადრატების მეთოდის გამოყენებით. მეორე ეტაპზე ნარჩენი შეუსაბამობა გადადის ქსელის გამოსასვლელიდან შეყვანებზე, ხოლო პირველი ფენის კვანძების პარამეტრები იცვლება შეცდომის უკან გავრცელების მეთოდით. ამასთან, პირველ ეტაპზე ნაპოვნი წესის დასკვნის კოეფიციენტები არ იცვლება. განმეორებითი რეგულირების პროცედურა გრძელდება მანამ, სანამ ნარჩენი არ გადააჭარბებს წინასწარ განსაზღვრულ მნიშვნელობას. წევრობის ფუნქციების დასარეგულირებლად, შეცდომის უკან გავრცელების მეთოდის გარდა, შეიძლება გამოყენებულ იქნას სხვა ოპტიმიზაციის ალგორითმები, მაგალითად, ლევენბერგ-მარკვარდტის მეთოდი.

სურ.24. ANFIS დაარედაქტირე სამუშაო ადგილი.

მოდით, ახლა ვცადოთ ბუნდოვანი კონტროლერის ოპტიმიზაცია ერთი ნაბიჯის მოქმედებისთვის. სასურველი გარდამავალი პროცესი დაახლოებით შემდეგია:

სურ.25. სასურველი გადასვლის პროცესი.

ნახ. აქედან გამომდინარეობს, რომ უმეტეს დროს ძრავა უნდა იმუშაოს სრული სიმძლავრით, რათა უზრუნველყოს მაქსიმალური სიჩქარე, ხოლო სასურველ მნიშვნელობასთან მიახლოებისას ის შეუფერხებლად უნდა შენელდეს. ამ მარტივი მოსაზრებებით ხელმძღვანელობით, ჩვენ ავიღებთ მნიშვნელობების შემდეგ ნიმუშს, როგორც სასწავლო, ქვემოთ წარმოდგენილი ცხრილის სახით:

ცხრილი 4


შეცდომის მნიშვნელობა

მართვის ღირებულება

შეცდომის მნიშვნელობა

მართვის ღირებულება

შეცდომის მნიშვნელობა

მართვის ღირებულება


სურ.26. სავარჯიშო ნაკრების ტიპი.

ტრენინგი ჩატარდება 100 საფეხურზე. ეს საკმარისზე მეტია გამოყენებული მეთოდის კონვერგენციისთვის.

სურ.27. ნერვული ქსელის სწავლის პროცესი.

სასწავლო პროცესში წევრობის ფუნქციების პარამეტრები ისე ყალიბდება, რომ მოცემული შეცდომის მნიშვნელობით კონტროლერი ქმნის აუცილებელ კონტროლს. კვანძოვან წერტილებს შორის განყოფილებაში კონტროლის დამოკიდებულება შეცდომაზე არის ცხრილის მონაცემების ინტერპოლაცია. ინტერპოლაციის მეთოდი დამოკიდებულია იმაზე, თუ როგორ არის მომზადებული ნერვული ქსელი. ფაქტობრივად, ტრენინგის შემდეგ, საეჭვო კონტროლერის მოდელი შეიძლება წარმოდგენილი იყოს ერთი ცვლადის არაწრფივი ფუნქციის სახით, რომლის გრაფიკი წარმოდგენილია ქვემოთ.

სურ.28. კონტროლის დამოკიდებულების ნაკვეთი შეცდომიდან რეგულატორის შიგნით პოზიციამდე.

წევრობის ფუნქციების აღმოჩენილი პარამეტრების შენახვით, სისტემას ვატარებთ სიმულაციას ოპტიმიზებული ბუნდოვანი კონტროლერით.


ბრინჯი. 29. გარდამავალი პროცესი ჰარმონიული შეყვანის ქვეშ მოდელისთვის ოპტიმიზებული საეჭვო კონტროლერით, რომელიც შეიცავს ერთ შეყვანის ენობრივ ცვლადს.

სურ.30. შეცდომის სიგნალი ჰარმონიული შეყვანის ქვეშ მოდელისთვის ბუნდოვანი კონტროლერით, რომელიც შეიცავს ორ შეყვანის ენობრივ ცვლადს.


გრაფიკებიდან გამომდინარეობს, რომ ფუზი კონტროლერის ოპტიმიზაცია ნერვული ქსელის მომზადებით წარმატებული იყო. მნიშვნელოვნად შემცირდა რყევა და შეცდომის სიდიდე. ამიტომ, ნერვული ქსელის გამოყენება საკმაოდ გონივრულია კონტროლერების ოპტიმიზაციისთვის, რომლის პრინციპი დაფუძნებულია ბუნდოვან ლოგიკაზე. თუმცა, ოპტიმიზებული კონტროლერიც კი ვერ აკმაყოფილებს სიზუსტის მოთხოვნებს, ამიტომ მიზანშეწონილია განიხილოს სხვა კონტროლის მეთოდი, როდესაც ბუნდოვანი კონტროლერი პირდაპირ არ აკონტროლებს ობიექტს, მაგრამ აერთიანებს რამდენიმე კონტროლის კანონს სიტუაციიდან გამომდინარე.

მზე, 29 მარტი, 2015 წ

ამჟამად, არსებობს მრავალი დავალება, რომლებშიც საჭიროა გარკვეული გადაწყვეტილების მიღება სურათზე ობიექტის არსებობის ან მისი კლასიფიკაციის მიხედვით. „ამოცნობის“ უნარი განიხილება ბიოლოგიური არსების მთავარ საკუთრებად, ხოლო კომპიუტერული სისტემები სრულად არ ფლობენ ამ თვისებას.

განვიხილოთ კლასიფიკაციის მოდელის ზოგადი ელემენტები.

Კლასი- ობიექტების ნაკრები, რომლებსაც აქვთ საერთო თვისებები. იმავე კლასის ობიექტებისთვის ვარაუდობენ „მსგავსების“ არსებობას. ამომცნობი ამოცანისთვის შეიძლება განისაზღვროს კლასების თვითნებური რაოდენობა, 1-ზე მეტი. კლასების რაოდენობა აღინიშნება ნომრით S. თითოეულ კლასს აქვს თავისი საიდენტიფიკაციო კლასის ეტიკეტი.

კლასიფიკაცია- ობიექტებისთვის კლასის ეტიკეტების მინიჭების პროცესი, ამ ობიექტების თვისებების ზოგიერთი აღწერის მიხედვით. კლასიფიკატორი არის მოწყობილობა, რომელიც იღებს ობიექტის მახასიათებლების ერთობლიობას შეყვანის სახით და შედეგად აწარმოებს კლასის ეტიკეტს.

გადამოწმება- ობიექტის მაგალითის ერთი ობიექტის მოდელთან ან კლასის აღწერასთან შესაბამისობის პროცესი.

ქვეშ გზაატრიბუტების სივრცეში გავიგებთ არეალის სახელს, რომელშიც მატერიალური სამყაროს მრავალი ობიექტი თუ ფენომენია გამოსახული. ნიშანი- შესწავლილი ობიექტის ან ფენომენის კონკრეტული თვისების რაოდენობრივი აღწერა.

ფუნქციური სივრცეეს არის N-განზომილებიანი სივრცე, რომელიც განსაზღვრულია ამომცნობი ამოცანისთვის, სადაც N არის ნებისმიერი ობიექტისთვის გაზომილი მახასიათებლების ფიქსირებული რაოდენობა. ვექტორი x მახასიათებლის სივრციდან, რომელიც შეესაბამება ამოცნობის ამოცანის ობიექტს, არის N-განზომილებიანი ვექტორი კომპონენტებით (x_1,x_2,…,x_N), რომლებიც არის მოცემული ობიექტის მახასიათებლის მნიშვნელობები.

სხვა სიტყვებით რომ ვთქვათ, ნიმუშის ამოცნობა შეიძლება განისაზღვროს, როგორც საწყისი მონაცემების მინიჭება გარკვეულ კლასზე არსებითი მახასიათებლების ან თვისებების ამოღებით, რომლებიც ახასიათებს ამ მონაცემებს შეუსაბამო დეტალების ზოგადი მასიდან.

კლასიფიკაციის პრობლემების მაგალითებია:

  • პერსონაჟების ამოცნობა;
  • სიტყვის აღიარება;
  • სამედიცინო დიაგნოზის დადგენა;
  • ამინდის პროგნოზი;
  • სახის ამოცნობა
  • დოკუმენტების კლასიფიკაცია და ა.შ.

ყველაზე ხშირად, წყაროს მასალა არის კამერიდან მიღებული სურათი. დავალება შეიძლება ჩამოყალიბდეს, როგორც მახასიათებლის ვექტორების მიღება განხილულ სურათზე თითოეული კლასისთვის. პროცესი შეიძლება განიხილებოდეს, როგორც კოდირების პროცესი, რომელიც მოიცავს თითოეული მახასიათებლის მნიშვნელობის მინიჭებას თითოეული კლასის ფუნქციების სივრციდან.

თუ განვიხილავთ ობიექტების 2 კლასს: მოზრდილები და ბავშვები. როგორც მახასიათებლები, შეგიძლიათ აირჩიოთ სიმაღლე და წონა. როგორც ნახატიდან ჩანს, ეს ორი კლასი ქმნის ორ არაგადაკვეთის სიმრავლეს, რაც აიხსნება არჩეული მახასიათებლებით. თუმცა, ყოველთვის არ არის შესაძლებელი სწორი გაზომილი პარამეტრების არჩევა, როგორც კლასების მახასიათებლები. მაგალითად, შერჩეული პარამეტრები არ არის შესაფერისი ფეხბურთელებისა და კალათბურთელთა არა გადახურვის კლასების შესაქმნელად.

ამოცნობის მეორე ამოცანაა ორიგინალური სურათებიდან დამახასიათებელი ნიშნების ან თვისებების შერჩევა. ეს ამოცანა შეიძლება მიეკუთვნებოდეს წინასწარ დამუშავებას. თუ გავითვალისწინებთ მეტყველების ამოცნობის ამოცანას, შეგვიძლია განვასხვავოთ ისეთი ნიშნები, როგორიცაა ხმოვნები და თანხმოვნები. ატრიბუტი უნდა იყოს კონკრეტული კლასის დამახასიათებელი თვისება, მაგრამ ამავე დროს იყოს საერთო ამ კლასისთვის. ნიშნები, რომლებიც ახასიათებს განსხვავებას - კლასთაშორისი ნიშნები. ყველა კლასისთვის საერთო ფუნქციები არ შეიცავს სასარგებლო ინფორმაციას და არ განიხილება როგორც ფუნქციები ამოცნობის პრობლემაში. მახასიათებლების არჩევანი ერთ-ერთი მნიშვნელოვანი ამოცანაა, რომელიც დაკავშირებულია ამოცნობის სისტემის აგებასთან.

მახასიათებლების დადგენის შემდეგ აუცილებელია კლასიფიკაციისთვის ოპტიმალური გადაწყვეტილების პროცედურის განსაზღვრა. განვიხილოთ ნიმუშის ამოცნობის სისტემა, რომელიც შექმნილია სხვადასხვა M კლასის ამოცნობისთვის, რომელიც აღინიშნება როგორც m_1,m_2,…,m 3. მაშინ შეგვიძლია ვივარაუდოთ, რომ გამოსახულების სივრცე შედგება M რეგიონებისგან, თითოეული შეიცავს წერტილებს, რომლებიც შეესაბამება ერთი კლასის სურათს. მაშინ ამოცნობის პრობლემა შეიძლება ჩაითვალოს, როგორც M კლასების გამიჯნული საზღვრების აგება მიღებული საზომი ვექტორების საფუძველზე.

გამოსახულების წინასწარი დამუშავების, მახასიათებლების ამოღების და ოპტიმალური გადაწყვეტის და კლასიფიკაციის პრობლემის გადაწყვეტა ჩვეულებრივ ასოცირდება რიგი პარამეტრების შეფასების საჭიროებასთან. ეს იწვევს პარამეტრის შეფასების პრობლემას. გარდა ამისა, აშკარაა, რომ ფუნქციების ამოღებას შეუძლია გამოიყენოს დამატებითი ინფორმაცია კლასების ბუნებაზე დაყრდნობით.

ობიექტების შედარება შეიძლება განხორციელდეს მათი წარმოდგენის საფუძველზე საზომი ვექტორების სახით. მოსახერხებელია გაზომვის მონაცემების რეალური რიცხვების სახით წარმოდგენა. შემდეგ ორი ობიექტის მახასიათებლების ვექტორების მსგავსება შეიძლება აღწერილი იყოს ევკლიდური მანძილის გამოყენებით.

სადაც d არის მახასიათებლის ვექტორის განზომილება.

არსებობს ნიმუშის ამოცნობის მეთოდების 3 ჯგუფი:

  • ნიმუშის შედარება. ეს ჯგუფი მოიცავს კლასიფიკაციას უახლოეს საშუალოზე, კლასიფიკაციას უახლოეს მეზობლამდე მანძილის მიხედვით. სტრუქტურული ამოცნობის მეთოდები ასევე შეიძლება შევიდეს ნიმუშების შედარების ჯგუფში.
  • სტატისტიკური მეთოდები. როგორც სახელი გულისხმობს, სტატისტიკური მეთოდები იყენებს გარკვეულ სტატისტიკურ ინფორმაციას ამოცნობის პრობლემის გადაჭრისას. მეთოდი განსაზღვრავს ობიექტის კუთვნილებას კონკრეტულ კლასში ალბათობის საფუძველზე.ზოგიერთ შემთხვევაში ეს ხდება გარკვეული კლასის კუთვნილი ობიექტის უკანა ალბათობის დადგენამდე, იმ პირობით, რომ ამ ობიექტის მახასიათებლებმა მიიღეს შესაბამისი. ღირებულებები. ამის მაგალითია ბაიესის გადაწყვეტილების წესის მეთოდი.
  • Ნეირონული ქსელები. ამოცნობის მეთოდების ცალკე კლასი. სხვებისგან გამორჩეული თვისებაა სწავლის უნარი.

კლასიფიკაცია უახლოესი მნიშვნელობით

ნიმუშის ამოცნობის კლასიკურ მიდგომაში, რომელშიც კლასიფიკაციისთვის უცნობი ობიექტი წარმოდგენილია ელემენტარული მახასიათებლების ვექტორად. მახასიათებლებზე დაფუძნებული ამოცნობის სისტემა შეიძლება განვითარდეს სხვადასხვა გზით. ეს ვექტორები შეიძლება სისტემისთვის წინასწარ იყოს ცნობილი ტრენინგის შედეგად ან რეალურ დროში პროგნოზირება ზოგიერთი მოდელის საფუძველზე.

კლასიფიკაციის მარტივი ალგორითმი შედგება კლასის საცნობარო მონაცემების დაჯგუფებისგან კლასის მოლოდინის ვექტორის (საშუალო) გამოყენებით.

სადაც x(i,j) არის i კლასის j-ე საცნობარო მახასიათებელი, n_j არის i კლასის მითითების ვექტორების რაოდენობა.

მაშინ უცნობი ობიექტი მიეკუთვნება i კლასს, თუ ის ბევრად უფრო ახლოსაა i კლასის მოლოდინის ვექტორთან, ვიდრე სხვა კლასების მოლოდინის ვექტორებთან. ეს მეთოდი შესაფერისია პრობლემებისთვის, რომლებშიც თითოეული კლასის წერტილები განლაგებულია კომპაქტურად და სხვა კლასების წერტილებისგან შორს.

სირთულეები წარმოიქმნება, თუ კლასებს აქვთ ოდნავ უფრო რთული სტრუქტურა, მაგალითად, როგორც ფიგურაში. ამ შემთხვევაში, კლასი 2 იყოფა ორ გადახურულ განყოფილებად, რომლებიც ცუდად არის აღწერილი ერთი საშუალო მნიშვნელობით. ასევე, კლასი 3 ძალიან წაგრძელებულია, მე-3 კლასის ნიმუშები x_2 კოორდინატების დიდი მნიშვნელობებით უფრო ახლოს არის 1 კლასის საშუალო მნიშვნელობასთან, ვიდრე მე-3 კლასი.

აღწერილი პრობლემა ზოგიერთ შემთხვევაში შეიძლება მოგვარდეს მანძილის გაანგარიშების შეცვლით.

ჩვენ გავითვალისწინებთ კლასის მნიშვნელობების "გაფანტვის" მახასიათებელს - σ_i, თითოეული კოორდინატის მიმართულებით i. სტანდარტული გადახრა უდრის დისპერსიის კვადრატულ ფესვს. მასშტაბური ევკლიდური მანძილი x ვექტორსა და მოლოდინის ვექტორს შორის x_c არის

ეს მანძილის ფორმულა შეამცირებს კლასიფიკაციის შეცდომების რაოდენობას, მაგრამ სინამდვილეში, პრობლემების უმეტესობა არ შეიძლება წარმოდგენილი იყოს ასეთი მარტივი კლასით.

კლასიფიკაცია უახლოეს მეზობლამდე მანძილის მიხედვით

კლასიფიკაციის კიდევ ერთი მიდგომა არის უცნობი მახასიათებლის ვექტორის x მინიჭება იმ კლასს, რომელსაც ეს ვექტორი ყველაზე ახლოს არის ცალკეულ ნიმუშთან. ამ წესს უახლოესი მეზობლის წესს უწოდებენ. უახლოესი მეზობლების კლასიფიკაცია შეიძლება იყოს უფრო ეფექტური მაშინაც კი, როდესაც კლასები რთულია ან როდესაც კლასები ერთმანეთს ემთხვევა.

ეს მიდგომა არ საჭიროებს ვარაუდებს სივრცეში ფუნქციების ვექტორების განაწილების მოდელების შესახებ. ალგორითმი იყენებს მხოლოდ ინფორმაციას ცნობილი საცნობარო ნიმუშების შესახებ. ამოხსნის მეთოდი ეფუძნება მონაცემთა ბაზაში თითოეულ ნიმუშამდე x მანძილის გაანგარიშებას და მინიმალური მანძილის პოვნას. ამ მიდგომის უპირატესობები აშკარაა:

  • ნებისმიერ დროს შეგიძლიათ დაამატოთ ახალი ნიმუშები მონაცემთა ბაზაში;
  • ხის და ბადის მონაცემთა სტრუქტურები ამცირებს გამოთვლილ მანძილებს.

გარდა ამისა, გამოსავალი უკეთესი იქნება, თუ მონაცემთა ბაზაში შეხედავთ არა ერთ უახლოეს მეზობელს, არამედ კ. შემდეგ, k > 1-ისთვის, ის იძლევა ვექტორების განაწილების საუკეთესო ნიმუშს d-განზომილებიან სივრცეში. თუმცა, k მნიშვნელობების ეფექტური გამოყენება დამოკიდებულია იმაზე, არის თუ არა საკმარისი სივრცის თითოეულ რეგიონში. თუ ორზე მეტი კლასია, მაშინ უფრო რთულია სწორი გადაწყვეტილების მიღება.

ლიტერატურა

  • M. Castrillon,. ო.დენიზი,. დ. ერნანდესი და ჯ. ლორენცო, „სახისა და სახის მახასიათებლების დეტექტორების შედარება ვიოლა-ჯონსის ზოგადი ობიექტების გამოვლენის ჩარჩოზე“, International Journal of Computer Vision, No. 22, pp. 481-494, 2011 წ.
  • Y.-Q. Wang, "Viola-Jones Face Detection Algorithm-ის ანალიზი", IPOL Journal, 2013 წ.
  • L. Shapiro and D. Stockman, Computer vision, Binom. ცოდნის ლაბორატორია, 2006 წ.
  • Z. N. G., ამოცნობის მეთოდები და მათი გამოყენება, საბჭოთა რადიო, 1972 წ.
  • ჯ.ტუ, რ. გონსალესი, ნიმუშის ამოცნობის მათემატიკური პრინციპები, მოსკოვი: „მირ“ მოსკოვი, 1974 წ.
  • Khan, H. Abdullah and M. Shamian Bin Zainal, "Efficient eyes and mouth detection algorithm using combination of viola jones and skin color pixel detection" International Journal of Engineering and Applied Sciences, No. 3 no 4, 2013 წელი.
  • V. Gaede და O. Gunther, "მრავალგანზომილებიანი წვდომის მეთოდები", ACM Computing Surveys, გვ. 170-231, 1998 წ.

არსებული ნიმუშის ამოცნობის მეთოდების მიმოხილვა

ლ.პ. პოპოვა , და შესახებ. დათიევი

„აღიქმის“ უნარი ადამიანის, ისევე როგორც სხვა ცოცხალი ორგანიზმების მთავარ საკუთრებად ითვლება. ნიმუშის ამოცნობა არის კიბერნეტიკის ფილიალი, რომელიც ავითარებს პრინციპებს და მეთოდებს ობიექტების, ფენომენების, პროცესების, სიგნალების, სიტუაციების კლასიფიკაციისა და იდენტიფიკაციისთვის - ყველა ის ობიექტი, რომელიც შეიძლება აღწერილი იყოს ზოგიერთი მახასიათებლის ან თვისებების სასრული ნაკრებით, რომლებიც ახასიათებს ობიექტს.

სურათი არის ობიექტის აღწერა. გამოსახულებებს აქვთ დამახასიათებელი თვისება, რაც გამოიხატება იმაში, რომ ერთი და იგივე ნაკრებიდან ფენომენების სასრული რაოდენობის გაცნობა შესაძლებელს ხდის მისი წარმომადგენლების თვითნებურად დიდი რაოდენობის ამოცნობას.

ნიმუშის ამოცნობის თეორიაში ორი ძირითადი მიმართულებაა:

    ადამიანისა და სხვა ცოცხალი ორგანიზმების ცნობის უნარის შესწავლა;

    მოწყობილობების აგების თეორიისა და მეთოდების შემუშავება, რომელიც შექმნილია ნიმუშის ამოცნობის ცალკეული პრობლემების გადასაჭრელად გამოყენების გარკვეულ სფეროებში.

გარდა ამისა, სტატიაში აღწერილია მეორე მიმართულების განვითარებასთან დაკავშირებული შაბლონების ამოცნობის სისტემების დანერგვის პრობლემები, პრინციპები და მეთოდები. სტატიის მეორე ნაწილში განხილულია ნიმუშების ამოცნობის ნერვული ქსელის მეთოდები, რომლებიც შეიძლება მივაწეროთ ნიმუშის ამოცნობის თეორიის პირველ მიმართულებას.

გამოსახულების ამომცნობი სისტემების აგების პრობლემები

ამოცანები, რომლებიც წარმოიქმნება ნიმუშის ავტომატური ამოცნობის სისტემების მშენებლობაში, ჩვეულებრივ შეიძლება დაიყოს რამდენიმე ძირითად სფეროდ. პირველი მათგანი დაკავშირებულია ამოცნობადი ობიექტის გაზომვების შედეგად მიღებული საწყისი მონაცემების წარმოდგენასთან. მგრძნობელობის პრობლემა. თითოეული გაზომილი მნიშვნელობა არის გამოსახულების ან ობიექტის გარკვეული "მახასიათებელი. დავუშვათ, რომ გამოსახულებები არის ალფაციფრული სიმბოლოები. ამ შემთხვევაში, საზომი ბადურა, რომელიც ნაჩვენებია ნახ. 1 (a)-ში, წარმატებით შეიძლება გამოყენებულ იქნას. სენსორში თუ ბადურა შედგება n-ელემენტისგან, მაშინ გაზომვის შედეგები შეიძლება წარმოდგენილი იყოს როგორც გაზომვის ვექტორი ან გამოსახულების ვექტორი. ,

სადაც თითოეული ელემენტი xi იღებს, მაგალითად, მნიშვნელობას 1, თუ სიმბოლოს გამოსახულება გადის ბადურის i-ე უჯრედში, ხოლო მნიშვნელობა 0 სხვაგვარად.

განვიხილოთ ნახ. 2 (ბ). ამ შემთხვევაში გამოსახულებები არის t ცვლადის უწყვეტი ფუნქციები (ხმოვანი სიგნალების ტიპი). თუ ფუნქციის მნიშვნელობები იზომება დისკრეტულ წერტილებში t1,t2, ..., tn, მაშინ გამოსახულების ვექტორი შეიძლება ჩამოყალიბდეს x1= f(t1),x2=f(t2),... , xn = f(tn).

სურათი 1. ბადურის გაზომვა

ნიმუშის ამოცნობის მეორე პრობლემა დაკავშირებულია მიღებული საწყისი მონაცემებიდან დამახასიათებელი ნიშნების ან თვისებების შერჩევასთან და ნიმუშის ვექტორების განზომილების შემცირებასთან. ეს პრობლემა ხშირად განიხილება როგორც პრობლემა წინასწარი დამუშავება და ფუნქციების შერჩევა.

სურათების კლასის მახასიათებლები არის დამახასიათებელი თვისებები, რომლებიც საერთოა მოცემული კლასის ყველა სურათისთვის. მახასიათებლები, რომლებიც ახასიათებს განსხვავებებს ცალკეულ კლასებს შორის, შეიძლება განიმარტოს, როგორც ინტერკლასობრივი მახასიათებლები. შიდაკლასობრივი მახასიათებლები, რომლებიც საერთოა ყველა განხილული კლასისთვის, არ შეიცავს სასარგებლო ინფორმაციას ამოცნობის თვალსაზრისით და შეიძლება არ იყოს გათვალისწინებული. მახასიათებლების არჩევანი განიხილება ერთ-ერთ მნიშვნელოვან ამოცანად, რომელიც დაკავშირებულია ამოცნობის სისტემების მშენებლობასთან. თუ გაზომვის შედეგები შესაძლებელს გახდის ყველა კლასის განმასხვავებელი მახასიათებლების სრული ნაკრების მიღებას, ნიმუშების ფაქტობრივი აღიარება და კლასიფიკაცია არ გამოიწვევს რაიმე განსაკუთრებულ სირთულეს. ამის შემდეგ ავტომატური ამოცნობა დაიყვანება მარტივ შესატყვის პროცესზე ან პროცედურებზე, როგორიცაა ცხრილების ძიება. თუმცა, ამოცნობის პრაქტიკული პრობლემების უმეტესობაში, განმასხვავებელი მახასიათებლების სრული ნაკრების განსაზღვრა უკიდურესად რთულია, თუ არა შეუძლებელი. ორიგინალური მონაცემებიდან, როგორც წესი, შესაძლებელია ზოგიერთი განმასხვავებელი მახასიათებლის ამოღება და მათი გამოყენება ნიმუშის ავტომატური ამოცნობის პროცესის გასამარტივებლად. კერძოდ, გაზომვის ვექტორების განზომილება შეიძლება შემცირდეს ტრანსფორმაციების გამოყენებით, რომლებიც ამცირებენ ინფორმაციის დაკარგვას.

მესამე პრობლემა, რომელიც დაკავშირებულია ნიმუშების ამოცნობის სისტემების მშენებლობასთან, არის იდენტიფიკაციისა და კლასიფიკაციისთვის აუცილებელი გადაწყვეტილების ოპტიმალური პროცედურების პოვნა. მას შემდეგ, რაც ამოსაცნობი შაბლონების შესახებ შეგროვებული მონაცემები წარმოდგენილი იქნება წერტილებით ან საზომი ვექტორებით შაბლონების სივრცეში, მიეცით მანქანას გაერკვია შაბლონების რომელ კლასს შეესაბამება ეს მონაცემები. დაე, მანქანა იყოს შექმნილი ისე, რომ განასხვავოს M კლასები, რომლებიც აღინიშნება w1, w2, ... ..., wm. ამ შემთხვევაში გამოსახულების სივრცე შეიძლება ჩაითვალოს M რეგიონებისგან, რომელთაგან თითოეული შეიცავს იმავე კლასის სურათებს შესაბამის წერტილებს. ამ შემთხვევაში, ამოცნობის პრობლემა შეიძლება ჩაითვალოს, როგორც გადაწყვეტილების რეგიონების საზღვრების აგება, რომლებიც გამოყოფენ M კლასებს რეგისტრირებული გაზომვის ვექტორების საფუძველზე. მოდით ეს საზღვრები განისაზღვროს, მაგალითად, გადაწყვეტილების ფუნქციებით d1(х),d2(x),..., dm(х). ეს ფუნქციები, რომელსაც ასევე უწოდებენ დისკრიმინაციულ ფუნქციებს, არის x-ის გამოსახულების სკალარული და ერთმნიშვნელოვანი ფუნქციები. თუ di (x) > dj (x), მაშინ x-ის გამოსახულება ეკუთვნის w1 კლასს. სხვა სიტყვებით რომ ვთქვათ, თუ I-ე გადაწყვეტილების ფუნქციას di(x) აქვს უმაღლესი მნიშვნელობა, მაშინ ასეთი ავტომატური კლასიფიკაციის სქემის მნიშვნელოვანი ილუსტრაცია, რომელიც დაფუძნებულია გადაწყვეტილების მიღების პროცესის განხორციელებაზე, ნაჩვენებია ნახ. 2 (სქემაზე "GR" - გადამწყვეტი ფუნქციების გენერატორი).

სურათი 2. ავტომატური კლასიფიკაციის სქემა.

გადაწყვეტილების ფუნქციების მიღება შესაძლებელია რამდენიმე გზით. იმ შემთხვევებში, როდესაც ხელმისაწვდომია სრული აპრიორი ინფორმაცია ცნობადი შაბლონების შესახებ, გადაწყვეტილების ფუნქციების დადგენა შესაძლებელია ზუსტად ამ ინფორმაციის საფუძველზე. თუ შაბლონების შესახებ ხელმისაწვდომია მხოლოდ თვისებრივი ინფორმაცია, შესაძლებელია გონივრული ვარაუდების გაკეთება გადაწყვეტილების ფუნქციების ფორმის შესახებ. ამ უკანასკნელ შემთხვევაში, გადაწყვეტილების რეგიონების საზღვრები შეიძლება მნიშვნელოვნად გადავიდეს ჭეშმარიტისაგან და, შესაბამისად, აუცილებელია შეიქმნას სისტემა, რომელსაც შეუძლია მიაღწიოს დამაკმაყოფილებელ შედეგს რიგი თანმიმდევრული კორექტირების გზით.

ობიექტებს (სურათებს), რომელთა ამოცნობა და კლასიფიკაცია ხდება ავტომატური ნიმუშის ამოცნობის სისტემის გამოყენებით, უნდა ჰქონდეს გაზომვადი მახასიათებლების ნაკრები. როდესაც სურათების მთელი ჯგუფისთვის შესაბამისი გაზომვების შედეგები მსგავსია, ითვლება, რომ ეს ობიექტები ერთ კლასს მიეკუთვნება. ნიმუშის ამოცნობის სისტემის მიზანია, შეგროვებული ინფორმაციის საფუძველზე, განსაზღვროს ობიექტების კლასი, ცნობადი ობიექტების გაზომვის მსგავსი მახასიათებლებით. ამოცნობის სისწორე დამოკიდებულია გაზომილ მახასიათებლებში შემავალი განმასხვავებელი ინფორმაციის რაოდენობაზე და ამ ინფორმაციის გამოყენების ეფექტურობაზე.

      ნიმუშების ამოცნობის სისტემების დანერგვის ძირითადი მეთოდები

ნიმუშის ამოცნობა არის ფორმალური ოპერაციების აგება და გამოყენება რეალური ან იდეალური სამყაროს ობიექტების რიცხვითი ან სიმბოლური წარმოდგენების შესახებ, შედეგები, რომელთა გადაწყვეტილებები ასახავს ამ ობიექტებს შორის ეკვივალენტურ ურთიერთობებს. ეკვივალენტურობის მიმართებები გამოხატავს შეფასებული ობიექტების კუთვნილებას ზოგიერთ კლასს, განიხილება როგორც დამოუკიდებელი სემანტიკური ერთეულები.

ამოცნობის ალგორითმების აგებისას, ეკვივალენტურობის კლასები შეიძლება დააწესოს მკვლევარმა, რომელიც იყენებს საკუთარ აზრობრივ იდეებს ან იყენებს გარე დამატებით ინფორმაციას ობიექტების მსგავსებისა და განსხვავებების შესახებ მოგვარებული პრობლემის კონტექსტში. შემდეგ საუბარია „მასწავლებელთან გამჭრიახობაზე“. წინააღმდეგ შემთხვევაში, ე.ი. როდესაც ავტომატური სისტემა აგვარებს კლასიფიკაციის პრობლემას გარე სასწავლო ინფორმაციის ჩართვის გარეშე, საუბარია ავტომატურ კლასიფიკაციაზე ან „უკონტროლო აღიარებაზე“. შაბლონების ამოცნობის ალგორითმების უმეტესობა მოითხოვს ძალიან მნიშვნელოვან გამოთვლით ძალას, რაც შეიძლება უზრუნველყოფილი იყოს მხოლოდ მაღალი ხარისხის კომპიუტერული ტექნოლოგიით.

სხვადასხვა ავტორები (იუ.ლ. ბარაბაში, ვ.ი. ვასილიევი, ა. გონსალესი, პ. უინსტონი, კ. ფუ, ია.ზ. ციპკინი და სხვები) აძლევენ შაბლონის ამოცნობის მეთოდების განსხვავებულ ტიპოლოგიას. ზოგიერთი ავტორი განასხვავებს პარამეტრულ, არაპარამეტრულ და ევრისტიკულ მეთოდებს, ზოგი კი გამოყოფს მეთოდთა ჯგუფებს, რომლებიც დაფუძნებულია ამ დარგის ისტორიულ სკოლებსა და ტენდენციებზე.

ამავდროულად, ცნობილი ტიპოლოგიები არ ითვალისწინებენ ერთ ძალიან მნიშვნელოვან მახასიათებელს, რომელიც ასახავს საგნის არეალის შესახებ ცოდნის წარმოდგენის სპეციფიკას ნებისმიერი ფორმალური ნიმუშის ამოცნობის ალგორითმის გამოყენებით. პოსპელოვი გამოყოფს ცოდნის წარმოდგენის ორ ძირითად გზას:

    ინტენსიური წარმოდგენა - ატრიბუტებს (მახასიათებლებს) შორის ურთიერთობის სქემის სახით.

    გაფართოებული წარმოდგენა - კონკრეტული ფაქტების (ობიექტების, მაგალითების) დახმარებით.

უნდა აღინიშნოს, რომ ამოცნობის მეთოდების ამ ორი ჯგუფის არსებობა: თვისებებით მოქმედი და ობიექტებთან მოქმედი, ღრმად ბუნებრივია. ამ თვალსაზრისით, არცერთი ეს მეთოდი, მეორისგან განცალკევებით აღებული, არ იძლევა შესაძლებლობას შექმნას საგნობრივი არეალის ადეკვატური ასახვა. ამ მეთოდებს შორის არის ურთიერთკომპლიმენტურობის მიმართება N. Bohr-ის გაგებით, ამიტომ პერსპექტიული ამოცნობის სისტემამ უნდა უზრუნველყოს ორივე ამ მეთოდის განხორციელება და არა რომელიმე მათგანის.

ამრიგად, დ.ა. პოსპელოვის მიერ შემოთავაზებული აღიარების მეთოდების კლასიფიკაცია ეფუძნება ფუნდამენტურ კანონებს, რომლებიც საფუძვლად უდევს ადამიანის შემეცნების გზას ზოგადად, რაც მას განსაკუთრებულ (პრივილეგირებულ) მდგომარეობაში აყენებს სხვა კლასიფიკაციებთან შედარებით, რომლებიც, ამ ფონზე, გამოიყურება. უფრო მსუბუქი და ხელოვნური.

ინტენსიური მეთოდები

ინტენსიური მეთოდების გამორჩეული თვისებაა ის, რომ ისინი იყენებენ მახასიათებლების სხვადასხვა მახასიათებლებს და მათ ურთიერთობებს, როგორც ოპერაციების ელემენტებს შაბლონის ამოცნობის ალგორითმების კონსტრუქციასა და გამოყენებაში. ასეთი ელემენტები შეიძლება იყოს ინდივიდუალური მნიშვნელობები ან მახასიათებლის მნიშვნელობების ინტერვალები, საშუალო მნიშვნელობები და განსხვავებები, მახასიათებლების ურთიერთობის მატრიცები და ა. ამავდროულად, ამ მეთოდებში ობიექტები არ განიხილება როგორც ინტეგრალური ინფორმაციის ერთეულები, არამედ მოქმედებენ როგორც ინდიკატორები მათი ატრიბუტების ურთიერთქმედების და ქცევის შესაფასებლად.

ნიმუშის ამოცნობის ინტენსიური მეთოდების ჯგუფი ვრცელია და მისი დაყოფა ქვეკლასებად გარკვეულწილად თვითნებურია:

- მეთოდები, რომლებიც დაფუძნებულია მახასიათებლების მნიშვნელობების განაწილების სიმკვრივის შეფასებებზე

– გადაწყვეტილების ფუნქციების კლასის შესახებ დაშვებებზე დაფუძნებული მეთოდები

- ლოგიკური მეთოდები

– ლინგვისტური (სტრუქტურული) მეთოდები.

მახასიათებლის მნიშვნელობების განაწილების სიმკვრივის შეფასებებზე დაფუძნებული მეთოდები.ნიმუშის ამოცნობის ეს მეთოდები ნასესხებია სტატისტიკური გადაწყვეტილებების კლასიკური თეორიიდან, რომელშიც კვლევის ობიექტები განიხილება, როგორც მრავალგანზომილებიანი შემთხვევითი ცვლადის რეალიზაცია, რომელიც განაწილებულია ფუნქციების სივრცეში გარკვეული კანონის მიხედვით. ისინი ეფუძნება ბაიესის გადაწყვეტილების მიღების სქემას, რომელიც მიმართავს ობიექტების აპრიორულ ალბათობას, რომელიც მიეკუთვნება ამა თუ იმ ცნობად კლასს და მახასიათებლის ვექტორის მნიშვნელობების პირობითი განაწილების სიმკვრივეს. ეს მეთოდები მცირდება ალბათობის თანაფარდობის განსაზღვრამდე მრავალგანზომილებიანი მახასიათებლების სივრცის სხვადასხვა ზონაში.

მახასიათებლების მნიშვნელობების განაწილების სიმკვრივის შეფასებაზე დაფუძნებული მეთოდების ჯგუფი პირდაპირ კავშირშია დისკრიმინაციული ანალიზის მეთოდებთან. გადაწყვეტილების მიღებისადმი ბაიესის მიდგომა არის ერთ-ერთი ყველაზე განვითარებული თანამედროვე სტატისტიკაში, ეგრეთ წოდებული პარამეტრული მეთოდი, რომლისთვისაც ცნობილია განაწილების კანონის ანალიტიკური გამოხატულება (ამ შემთხვევაში ნორმალური კანონი) და მხოლოდ მცირედ ითვლება. პარამეტრების რაოდენობა (საშუალო ვექტორები და კოვარიანტების მატრიცები) უნდა შეფასდეს.

ეს ჯგუფი ასევე მოიცავს მეთოდს დამოუკიდებელი მახასიათებლებისთვის ალბათობის კოეფიციენტის გამოსათვლელად. ეს მეთოდი, გარდა ნიშან-თვისებების დამოუკიდებლობის დაშვებისა (რაც რეალურად თითქმის არასოდეს სრულდება), არ საჭიროებს განაწილების კანონის ფუნქციური ფორმის ცოდნას. ის შეიძლება მივაწეროთ არაპარამეტრულ მეთოდებს.

სხვა არაპარამეტრული მეთოდები, რომლებიც გამოიყენება მაშინ, როდესაც განაწილების სიმკვრივის მრუდის ფორმა უცნობია და მისი ბუნების შესახებ რაიმე ვარაუდის გაკეთება შეუძლებელია, განსაკუთრებულ პოზიციას იკავებს. ეს მოიცავს მრავალგანზომილებიანი ჰისტოგრამების ცნობილ მეთოდს, „k-უახლოესი მეზობლების“ მეთოდს, ევკლიდეს დისტანციის მეთოდს, პოტენციური ფუნქციების მეთოდს და ა.შ., რომელთა განზოგადება არის მეთოდი, რომელსაც ეწოდება „პარზენის შეფასება“. ეს მეთოდები ფორმალურად მოქმედებს ობიექტებთან, როგორც ინტეგრალურ სტრუქტურებთან, მაგრამ ამოცნობის ამოცანის ტიპის მიხედვით, მათ შეუძლიათ იმოქმედონ როგორც ინტენსიურ, ასევე გაფართოებულ ჰიპოსტაზებში.

არაპარამეტრული მეთოდები აანალიზებენ ობიექტების შედარებით რაოდენობას, რომლებიც ხვდებიან მოცემულ მრავალგანზომილებიან მოცულობაში და იყენებენ სხვადასხვა მანძილის ფუნქციებს სასწავლო ნიმუშის ობიექტებსა და ამოცნობილ ობიექტებს შორის. რაოდენობრივი მახასიათებლებისთვის, როდესაც მათი რიცხვი გაცილებით ნაკლებია, ვიდრე ნიმუშის ზომა, ობიექტებთან ოპერაციები შუალედურ როლს ასრულებენ პირობითი ალბათობების ლოკალური განაწილების სიმკვრივის შეფასებაში და ობიექტები არ ატარებენ დამოუკიდებელი ინფორმაციის ერთეულების სემანტიკურ დატვირთვას. ამავდროულად, როდესაც მახასიათებლების რაოდენობა შესასწავლი ობიექტების რაოდენობაზე თანაზომიერია ან მეტია, ხოლო მახასიათებლები ხარისხობრივი ან დიქოტომიური ხასიათისაა, მაშინ არ შეიძლება საუბარი ალბათობის განაწილების სიმკვრივის ლოკალურ შეფასებაზე. ამ შემთხვევაში, ამ არაპარამეტრულ მეთოდებში ობიექტები განიხილება, როგორც დამოუკიდებელი საინფორმაციო ერთეულები (ჰოლისტური ემპირიული ფაქტები) და ეს მეთოდები იძენს შესასწავლ ობიექტების მსგავსებისა და განსხვავების შეფასების მნიშვნელობას.

ამრიგად, არაპარამეტრული მეთოდების იგივე ტექნოლოგიური ოპერაციები, პრობლემის პირობებიდან გამომდინარე, აზრი აქვს ან მახასიათებლის მნიშვნელობების ალბათობის განაწილების სიმკვრივის ლოკალურ შეფასებას, ან ობიექტების მსგავსებისა და განსხვავების შეფასებას.

ცოდნის ინტენსიური წარმოდგენის კონტექსტში, აქ განიხილება არაპარამეტრული მეთოდების პირველი მხარე, როგორც ალბათობის განაწილების სიმკვრივის შეფასება. ბევრი ავტორი აღნიშნავს, რომ არაპარამეტრული მეთოდები, როგორიცაა Parzen შეფასებები, კარგად მუშაობს პრაქტიკაში. ძირითადი სირთულეები ამ მეთოდების გამოყენებისას არის მთელი სასწავლო ნიმუშის დამახსოვრების აუცილებლობა, რათა გამოვთვალოთ ლოკალური ალბათობის განაწილების სიმკვრივეები და მაღალი მგრძნობელობა სასწავლო ნიმუშის არაწარმომადგენლობით.

გადაწყვეტილების ფუნქციების კლასის შესახებ დაშვებებზე დაფუძნებული მეთოდები.მეთოდთა ამ ჯგუფში ცნობილია გადაწყვეტილების ფუნქციის ზოგადი ფორმა და მოცემულია მისი ხარისხი ფუნქციონალურად. ამ ფუნქციიდან გამომდინარე, მოძებნილია გადაწყვეტილების ფუნქციის საუკეთესო მიახლოება ტრენინგის თანმიმდევრობისთვის. ყველაზე გავრცელებულია გადაწყვეტილების ფუნქციების წარმოდგენები წრფივი და განზოგადებული არაწრფივი მრავალწევრების სახით. გადაწყვეტილების წესის ხარისხის ფუნქციონირება ჩვეულებრივ ასოცირდება კლასიფიკაციის შეცდომასთან.

გადაწყვეტილების ფუნქციების კლასის შესახებ დაშვებებზე დაფუძნებული მეთოდების მთავარი უპირატესობა არის ამოცნობის პრობლემის მათემატიკური ფორმულირების სიცხადე, როგორც ექსტრემის პოვნის პრობლემა. ამ პრობლემის გადაწყვეტა ხშირად მიიღწევა გრადიენტული ალგორითმების გამოყენებით. ამ ჯგუფის მეთოდების მრავალფეროვნება აიხსნება გამოყენებული გადაწყვეტილების წესის ხარისხის ფუნქციებითა და ექსტრემალური ძიების ალგორითმებით. განხილული ალგორითმების განზოგადება, რომელიც მოიცავს, კერძოდ, ნიუტონის ალგორითმს, პერცეპტრონის ტიპის ალგორითმებს და ა.შ., არის სტოქასტური დაახლოების მეთოდი. პარამეტრული ამოცნობის მეთოდებისგან განსხვავებით, მეთოდთა ამ ჯგუფის წარმატება იმდენად არ არის დამოკიდებული თეორიული იდეების შეუსაბამობაზე ფუნქციურ სივრცეში ობიექტების განაწილების კანონების შესახებ ემპირიულ რეალობასთან. ყველა ოპერაცია ექვემდებარება ერთ მთავარ მიზანს - გადაწყვეტილების წესის ხარისხის ფუნქციონალური ექსტრემის პოვნას. ამავდროულად, პარამეტრული და განხილული მეთოდების შედეგები შეიძლება იყოს მსგავსი. როგორც ზემოთ იყო ნაჩვენები, პარამეტრული მეთოდები სხვადასხვა კლასებში ობიექტების ნორმალური განაწილების შემთხვევაში თანაბარი კოვარიანტული მატრიცებით იწვევს ხაზოვანი გადაწყვეტილების ფუნქციებს. ჩვენ ასევე აღვნიშნავთ, რომ ხაზოვანი დიაგნოსტიკური მოდელების ინფორმაციული მახასიათებლების შერჩევის ალგორითმები შეიძლება განიმარტოს, როგორც გრადიენტული ალგორითმების კონკრეტული ვარიანტები ექსტრემის საძიებლად.

საკმაოდ კარგად არის შესწავლილი გრადიენტული ალგორითმების შესაძლებლობები ექსტრემის საპოვნელად, განსაკუთრებით ხაზოვანი გადაწყვეტილების წესების ჯგუფში. ამ ალგორითმების კონვერგენცია დადასტურდა მხოლოდ იმ შემთხვევისთვის, როდესაც ობიექტების ცნობადი კლასები გამოსახულია ფუნქციურ სივრცეში კომპაქტური გეომეტრიული სტრუქტურებით. თუმცა, გადაწყვეტილების წესის საკმარისი ხარისხის მიღწევის სურვილი ხშირად შეიძლება დაკმაყოფილდეს ალგორითმების დახმარებით, რომლებსაც არ გააჩნიათ მკაცრი მათემატიკური მტკიცებულება გლობალური ექსტრემის ამოხსნის კონვერგენციის შესახებ.

ასეთი ალგორითმები მოიცავს ევრისტიკული პროგრამირების პროცედურების დიდ ჯგუფს, რომლებიც წარმოადგენს ევოლუციური მოდელირების მიმართულებას. ევოლუციური მოდელირება არის ბუნებისგან ნასესხები ბიონიკური მეთოდი. იგი ეფუძნება ევოლუციის ცნობილი მექანიზმების გამოყენებას, რათა ჩაანაცვლოს რთული ობიექტის აზრიანი მოდელირების პროცესი მისი ევოლუციის ფენომენოლოგიური მოდელირებით.

ევოლუციური მოდელირების ცნობილი წარმომადგენელი ნიმუშის ამოცნობაში არის არგუმენტების ჯგუფური აღრიცხვის მეთოდი (MGUA). GMDH ეფუძნება თვითორგანიზაციის პრინციპს, ხოლო GMDH ალგორითმები ამრავლებენ მასობრივი შერჩევის სქემას. GMDH ალგორითმებში განზოგადებული მრავალწევრის წევრები სინთეზირებული და შერჩეულია სპეციალური გზით, რომელსაც ხშირად უწოდებენ კოლმოგოროვი-გაბორის პოლინომს. ეს სინთეზი და შერჩევა ხდება მზარდი სირთულით და შეუძლებელია წინასწარ წინასწარ განსაზღვრო, რა საბოლოო ფორმა ექნება განზოგადებულ მრავალწევრს. პირველ რიგში, ჩვეულებრივ განიხილება საწყისი მახასიათებლების მარტივი წყვილი კომბინაციები, საიდანაც შედგენილია გადამწყვეტი ფუნქციების განტოლებები, როგორც წესი, არ აღემატება მეორე რიგის. თითოეული განტოლება გაანალიზებულია, როგორც დამოუკიდებელი გადაწყვეტილების ფუნქცია, და შედგენილი განტოლებების პარამეტრების მნიშვნელობები ამა თუ იმ გზით გვხვდება სასწავლო ნიმუშიდან. შემდეგ, მიღებული გადაწყვეტილების ფუნქციების ნაკრებიდან, შეირჩევა გარკვეული გაგებით საუკეთესოს ნაწილი. ინდივიდუალური გადაწყვეტილების ფუნქციების ხარისხი მოწმდება საკონტროლო (სატესტო) ნიმუშზე, რომელსაც ზოგჯერ გარე დამატების პრინციპს უწოდებენ. შერჩეული ნაწილობრივი გადაწყვეტილების ფუნქციები ქვემოთ განიხილება, როგორც შუალედური ცვლადები, რომლებიც ემსახურებიან საწყის არგუმენტებს ახალი გადაწყვეტილების ფუნქციების მსგავსი სინთეზისთვის და ა.შ. ასეთი იერარქიული სინთეზის პროცესი გრძელდება მანამ, სანამ არ მიიღწევა გადაწყვეტილების ფუნქციის ხარისხის კრიტერიუმის უკიდურესობა, რაც პრაქტიკაში ვლინდება ამ ხარისხის გაუარესებაში, როდესაც ცდილობთ კიდევ უფრო გაზარდოთ მრავალწევრის წევრების რიგი ორიგინალურ მახასიათებლებთან მიმართებაში.

თვითორგანიზაციის პრინციპს, რომელიც საფუძვლად უდევს GMDH-ს, ეწოდება ევრისტიკული თვითორგანიზაცია, ვინაიდან მთელი პროცესი ეფუძნება ევრისტიკურად არჩეული გარე დამატებების დანერგვას. გადაწყვეტილების შედეგი შეიძლება მნიშვნელოვნად იყოს დამოკიდებული ამ ევრისტიკაზე. მიღებული დიაგნოსტიკური მოდელი დამოკიდებულია იმაზე, თუ როგორ იყოფა ობიექტები სასწავლო და ტესტირების ნიმუშებად, როგორ განისაზღვრება აღიარების ხარისხის კრიტერიუმი, რამდენი ცვლადი გამოტოვებულია შერჩევის შემდეგ რიგში და ა.შ.

GMDH ალგორითმების ეს მახასიათებლები ასევე დამახასიათებელია ევოლუციური მოდელირების სხვა მიდგომებისთვის. მაგრამ აქ ჩვენ აღვნიშნავთ განხილული მეთოდების კიდევ ერთ ასპექტს. ეს არის მათი შინაარსის არსი. გადაწყვეტილების ფუნქციების კლასის (ევოლუციური და გრადიენტული) ვარაუდებზე დაფუძნებული მეთოდების გამოყენებით შესაძლებელია მაღალი სირთულის დიაგნოსტიკური მოდელების აგება და პრაქტიკულად მისაღები შედეგების მიღება. ამავე დროს, პრაქტიკული მიზნების მიღწევას ამ შემთხვევაში არ ახლავს ახალი ცოდნის მოპოვება ცნობადი ობიექტების ბუნების შესახებ. ამ ცოდნის მოპოვების შესაძლებლობა, კერძოდ, ცოდნის შესახებ ატრიბუტების (მახასიათებლების) ურთიერთქმედების მექანიზმების შესახებ, ფუნდამენტურად შემოიფარგლება ამ ურთიერთქმედების მოცემული სტრუქტურით, რომელიც ფიქსირდება გადამწყვეტი ფუნქციების არჩეულ ფორმაში. მაშასადამე, მაქსიმუმი, რაც შეიძლება ითქვას კონკრეტული დიაგნოსტიკური მოდელის აგების შემდეგ, არის მახასიათებლების კომბინაციებისა და თავად მახასიათებლების ჩამოთვლა, რომლებიც შეტანილია მიღებულ მოდელში. მაგრამ კომბინაციების მნიშვნელობა, რომელიც ასახავს შესწავლილი ობიექტების განაწილების ბუნებას და სტრუქტურას, ხშირად ამ მიდგომის ფარგლებში აღმოუჩენელი რჩება.

ლოგიკური მეთოდები. ნიმუშის ამოცნობის ლოგიკური მეთოდები დაფუძნებულია ლოგიკური ალგებრის აპარატზე და საშუალებას იძლევა იმუშაოს ინფორმაციასთან, რომელიც შეიცავს არა მხოლოდ ცალკეულ მახასიათებლებს, არამედ მახასიათებლების მნიშვნელობების კომბინაციებს. ამ მეთოდებში ნებისმიერი ატრიბუტის მნიშვნელობები განიხილება, როგორც ელემენტარული მოვლენები.

ყველაზე ზოგადი ფორმით, ლოგიკური მეთოდები შეიძლება დახასიათდეს, როგორც სასწავლო ნიმუშში ლოგიკური შაბლონების ძიება და ლოგიკური გადაწყვეტილების წესების გარკვეული სისტემის ფორმირება (მაგალითად, ელემენტარული მოვლენების შეერთების სახით), თითოეული რომელსაც თავისი წონა აქვს. ლოგიკური მეთოდების ჯგუფი მრავალფეროვანია და მოიცავს სხვადასხვა სირთულისა და სიღრმის ანალიზის მეთოდებს. დიქოტომიური (ლოგიკური) მახასიათებლებისთვის პოპულარულია ეგრეთ წოდებული ხის მსგავსი კლასიფიკატორები, ჩიხური ტესტის მეთოდი, კორას ალგორითმი და სხვა. უფრო რთული მეთოდები ეფუძნება D.S. Mill-ის ინდუქციური მეთოდების ფორმალიზებას. ფორმალიზაცია ხორციელდება კვაზი-აქსიომატური თეორიის აგებით და ეფუძნება მრავალ დახარისხებულ მრავალმნიშვნელოვან ლოგიკას რაოდენობებთან ცვლადი სიგრძის ტოპებზე.

კორას ალგორითმი, ისევე როგორც ნიმუშის ამოცნობის სხვა ლოგიკური მეთოდები, საკმაოდ შრომატევადია, რადგან კავშირების არჩევისას აუცილებელია სრული ჩამოთვლა. ამიტომ, ლოგიკური მეთოდების გამოყენებისას მაღალი მოთხოვნები დგება გამოთვლითი პროცესის ეფექტურ ორგანიზაციაზე და ეს მეთოდები კარგად მუშაობს ფუნქციების სივრცის შედარებით მცირე ზომებთან და მხოლოდ ძლიერ კომპიუტერებზე.

ენობრივი (სინტაქსური ან სტრუქტურული) მეთოდები.ნიმუშების ამოცნობის ენობრივი მეთოდები ემყარება სპეციალური გრამატიკების გამოყენებას, რომლებიც წარმოქმნიან ენებს, რომელთა დახმარებით შეიძლება აღწეროს ცნობადი ობიექტების თვისებების ნაკრები. გრამატიკა ეხება ამ არაწარმოებული ელემენტებიდან ობიექტების აგების წესებს.

თუ სურათების აღწერა ხდება არაწარმოებული ელემენტების (ქვეგამოსახულებების) და მათი ურთიერთობების დახმარებით, მაშინ ენობრივი ან სინტაქსური მიდგომა გამოიყენება ავტომატური ამოცნობის სისტემების შესაქმნელად, თვისებების საერთო პრინციპის გამოყენებით. გამოსახულების აღწერა შესაძლებელია ენის სინტაქსური სტრუქტურის მსგავსი ქვესურათების იერარქიული სტრუქტურის გამოყენებით. ეს გარემოება შესაძლებელს ხდის ფორმალური ენების თეორიის გამოყენებას ნიმუშების ამოცნობის პრობლემების გადაჭრისას. ვარაუდობენ, რომ გამოსახულების გრამატიკა შეიცავს ელემენტების სასრულ კომპლექტს, რომელსაც ეწოდება ცვლადები, არაწარმოებული ელემენტები და ჩანაცვლების წესები. ჩანაცვლების წესების ბუნება განსაზღვრავს გრამატიკის ტიპს. ყველაზე შესწავლილ გრამატიკებს შორის არის რეგულარული, კონტექსტის გარეშე და პირდაპირი შემადგენელი გრამატიკები. ამ მიდგომის ძირითადი პუნქტებია გამოსახულების არაწარმოებული ელემენტების არჩევა, ამ ელემენტების გაერთიანება და მათი დამაკავშირებელი მიმართებები გამოსახულების გრამატიკაში და ბოლოს, ანალიზისა და ამოცნობის პროცესების შესაბამის ენაზე განხორციელება. . ეს მიდგომა განსაკუთრებით გამოსადეგია სურათებთან მუშაობისას, რომლებიც ან ვერ აღიწერება რიცხვითი გაზომვებით, ან იმდენად რთულია, რომ მათი ლოკალური მახასიათებლების იდენტიფიცირება შეუძლებელია და უნდა მივმართოთ ობიექტების გლობალურ თვისებებს.

მაგალითად, ე.ა. ბუტაკოვი, ვ.ი. ოსტროვსკი, ი.ლ. ფადეევი გვთავაზობს შემდეგი სისტემის სტრუქტურას გამოსახულების დამუშავებისთვის (ნახ. 3), ლინგვისტური მიდგომის გამოყენებით, სადაც თითოეული ფუნქციური ბლოკი არის პროგრამული (მიკროპროგრამა) კომპლექსი (მოდული), რომელიც ახორციელებს შესაბამის ფუნქციებს.

ნახაზი 3. ამომცნობის სტრუქტურული დიაგრამა

გამოსახულების ანალიზის პრობლემაზე მათემატიკური ლინგვისტიკის მეთოდების გამოყენების მცდელობა იწვევს რიგი პრობლემების გადაჭრის აუცილებლობას, რომლებიც დაკავშირებულია ორგანზომილებიანი გამოსახულების სტრუქტურის ფორმალური ენის ერთგანზომილებიან ჯაჭვებზე.

გაფართოების მეთოდები

ამ ჯგუფის მეთოდებში, ინტენსიური მიმართულებისგან განსხვავებით, თითოეულ შესწავლილ ობიექტს მეტ-ნაკლებად ენიჭება დამოუკიდებელი დიაგნოსტიკური მნიშვნელობა. თავის არსში, ეს მეთოდები ახლოსაა კლინიკურ მიდგომასთან, რომელიც განიხილავს ადამიანებს არა ამა თუ იმ ინდიკატორის მიხედვით შეფასებული ობიექტების ჯაჭვად, არამედ როგორც ინტეგრალურ სისტემებს, რომელთაგან თითოეული ინდივიდუალურია და აქვს განსაკუთრებული დიაგნოსტიკური მნიშვნელობა. კვლევის ობიექტებისადმი ასეთი ფრთხილი დამოკიდებულება არ იძლევა საშუალებას გამორიცხოს ან დაკარგოს ინფორმაცია თითოეული ცალკეული ობიექტის შესახებ, რაც ხდება ინტენსიური მიმართულების მეთოდების გამოყენებისას, ობიექტების გამოყენებით მხოლოდ მათი ატრიბუტების ქცევის ნიმუშების აღმოსაჩენად და დასაფიქსირებლად.

განხილული მეთოდების გამოყენებით ნიმუშის ამოცნობის ძირითადი ოპერაციებია ობიექტების მსგავსებისა და განსხვავების განსაზღვრის ოპერაციები. მეთოდების მითითებულ ჯგუფში შემავალი ობიექტები დიაგნოსტიკური პრეცედენტების როლს ასრულებენ. ამავდროულად, კონკრეტული ამოცანის პირობებიდან გამომდინარე, ინდივიდუალური პრეცედენტის როლი შეიძლება განსხვავდებოდეს ყველაზე ფართო საზღვრებში: ძირითადი და განმსაზღვრელიდან ძალიან ირიბ მონაწილეობამდე აღიარების პროცესში. თავის მხრივ, პრობლემის პირობებმა შეიძლება მოითხოვოს სხვადასხვა რაოდენობის დიაგნოსტიკური პრეცედენტების მონაწილეობა წარმატებული გადაწყვეტისთვის: თითოეული ცნობადი კლასიდან ერთიდან ნიმუშის მთლიან ზომამდე, აგრეთვე მსგავსებისა და განსხვავების ზომების გამოთვლის სხვადასხვა ხერხს. ობიექტები. ეს მოთხოვნები ხსნის გაფართოებული მეთოდების შემდგომ დაყოფას ქვეკლასებად:

    პროტოტიპის შედარების მეთოდი;

    k- უახლოესი მეზობლის მეთოდი;

    გადაწყვეტილების წესების გუნდები.

პროტოტიპის შედარების მეთოდი.ეს არის გაფართოებული ამოცნობის უმარტივესი მეთოდი. იგი გამოიყენება, მაგალითად, როდესაც აღიარებული კლასები ნაჩვენებია ფუნქციების სივრცეში კომპაქტურ გეომეტრიულ დაჯგუფებებში. ამ შემთხვევაში პროტოტიპად ირჩევა კლასის გეომეტრიული დაჯგუფების ცენტრი (ან ცენტრთან ყველაზე ახლოს მდებარე ობიექტი).

უცნობი ობიექტის კლასიფიკაციისთვის, ნაპოვნია მასთან ყველაზე ახლოს მდებარე პროტოტიპი და ობიექტი ეკუთვნის იმავე კლასს, როგორც ეს პროტოტიპი. ცხადია, ამ მეთოდით არ იქმნება განზოგადებული კლასის სურათები.

სიახლოვის საზომად შეიძლება გამოყენებულ იქნას სხვადასხვა ტიპის მანძილი. ხშირად დიქოტომიური მახასიათებლებისთვის გამოიყენება ჰემინგის მანძილი, რომელიც ამ შემთხვევაში უდრის ევკლიდეს მანძილის კვადრატს. ამ შემთხვევაში, ობიექტების კლასიფიკაციის გადაწყვეტილების წესი ტოლია წრფივი გადაწყვეტილების ფუნქციის.

ეს ფაქტი განსაკუთრებით უნდა აღინიშნოს. იგი ნათლად აჩვენებს კავშირს პროტოტიპსა და მონაცემთა სტრუქტურის შესახებ ინფორმაციის ინდიკატორულ წარმოდგენას შორის. ზემოაღნიშნული წარმოდგენის გამოყენებით, მაგალითად, ნებისმიერი ტრადიციული საზომი მასშტაბი, რომელიც წარმოადგენს დიქოტომიური მახასიათებლების მნიშვნელობების წრფივ ფუნქციას, შეიძლება ჩაითვალოს ჰიპოთეტურ დიაგნოსტიკური პროტოტიპად. თავის მხრივ, თუ აღიარებული კლასების სივრცითი სტრუქტურის ანალიზი საშუალებას გვაძლევს დავასკვნათ, რომ ისინი გეომეტრიულად კომპაქტურია, მაშინ საკმარისია თითოეული ამ კლასის ჩანაცვლება ერთი პროტოტიპით, რომელიც რეალურად ექვივალენტურია ხაზოვანი დიაგნოსტიკური მოდელის.

პრაქტიკაში, რა თქმა უნდა, სიტუაცია ხშირად განსხვავდება აღწერილი იდეალიზებული მაგალითისგან. მკვლევარი, რომელიც აპირებს გამოიყენოს ამოცნობის მეთოდი, რომელიც დაფუძნებულია დიაგნოსტიკური კლასების პროტოტიპებთან შედარებით, რთული პრობლემების წინაშე დგას. ეს არის, უპირველეს ყოვლისა, სიახლოვის საზომის (მეტრიკის) არჩევანი, რომელსაც შეუძლია მნიშვნელოვნად შეცვალოს ობიექტების განაწილების სივრცითი კონფიგურაცია. და მეორეც, დამოუკიდებელი პრობლემაა ექსპერიმენტული მონაცემების მრავალგანზომილებიანი სტრუქტურების ანალიზი. ორივე ეს პრობლემა განსაკუთრებით მწვავეა მკვლევარისთვის მხატვრული სივრცის მაღალი განზომილების პირობებში, რაც დამახასიათებელია რეალური პრობლემებისთვის.

K-უახლოესი მეზობლების მეთოდი. K- უახლოესი მეზობლის მეთოდი დისკრიმინაციული ანალიზის ამოცანების გადასაჭრელად პირველად იქნა შემოთავაზებული ჯერ კიდევ 1952 წელს. ეს არის შემდეგი.

უცნობი ობიექტის კლასიფიკაციისას, ნაპოვნია მისთვის გეომეტრიულად ყველაზე ახლოს სხვა ობიექტების მოცემული რიცხვი (k) ფუნქციების სივრცეში (უახლოესი მეზობლები), რომლებსაც უკვე ცნობილია ცნობადი კლასების კუთვნილება. უცნობი ობიექტის კონკრეტულ სადიაგნოსტიკო კლასზე მინიჭების გადაწყვეტილება მიიღება მისი უახლოესი მეზობლების ამ ცნობილი წევრობის შესახებ ინფორმაციის გაანალიზებით, მაგალითად, მარტივი ხმების დათვლის გამოყენებით.

თავდაპირველად, k-უახლოესი მეზობლის მეთოდი განიხილებოდა, როგორც არაპარამეტრული მეთოდი ალბათობის თანაფარდობის შესაფასებლად. ამ მეთოდისთვის მიიღება მისი ეფექტურობის თეორიული შეფასებები ბაიესის ოპტიმალურ კლასიფიკატორთან შედარებით. დადასტურებულია, რომ k-უახლოესი მეზობლის მეთოდის ასიმპტოტური შეცდომის ალბათობა აღემატება ბეიესის წესის შეცდომებს არა უმეტეს ორჯერ.

როგორც ზემოთ აღინიშნა, რეალურ პრობლემებში ხშირად საჭიროა ობიექტებთან მუშაობა, რომლებიც აღწერილია ხარისხობრივი (დიქოტომიური) მახასიათებლების დიდი რაოდენობით. ამავდროულად, ფუნქციური სივრცის განზომილება არის შესასწავლი ნიმუშის მოცულობის შესაბამისი ან აღემატება. ასეთ პირობებში მოსახერხებელია სასწავლო ნიმუშის თითოეული ობიექტის ინტერპრეტაცია, როგორც ცალკეული ხაზოვანი კლასიფიკატორი. მაშინ ესა თუ ის დიაგნოსტიკური კლასი წარმოდგენილია არა ერთი პროტოტიპით, არამედ წრფივი კლასიფიკატორების ნაკრებით. ხაზოვანი კლასიფიკატორების კომბინირებული ურთიერთქმედება იწვევს ცალ-ცალკე წრფივ ზედაპირს, რომელიც გამოყოფს ცნობად კლასებს ფუნქციების სივრცეში. გამყოფი ზედაპირის ტიპი, რომელიც შედგება ჰიპერპლანტების ნაწილებისგან, შეიძლება იყოს მრავალფეროვანი და დამოკიდებულია კლასიფიცირებული აგრეგატების შედარებით პოზიციაზე.

ასევე შეიძლება გამოყენებულ იქნას k-უახლოესი მეზობლის კლასიფიკაციის მექანიზმების სხვა ინტერპრეტაცია. იგი ემყარება ზოგიერთი ლატენტური ცვლადის არსებობის იდეას, აბსტრაქტული ან დაკავშირებული თავდაპირველ ფუნქციურ სივრცესთან რაიმე ტრანსფორმაციით. თუ ობიექტებს შორის წყვილი მანძილი ფარული ცვლადების სივრცეში იგივეა, რაც საწყისი მახასიათებლების სივრცეში და ამ ცვლადების რაოდენობა გაცილებით ნაკლებია, ვიდრე ობიექტების რაოდენობა, მაშინ შეიძლება ჩაითვალოს k-უახლოესი მეზობლების მეთოდის ინტერპრეტაცია. პირობითი ალბათობის განაწილების სიმკვრივეების არაპარამეტრული შეფასებების შედარების თვალსაზრისით. აქ წარმოდგენილი ლატენტური ცვლადების კონცეფცია ბუნებით ახლოს არის ჭეშმარიტი განზომილების კონცეფციასთან და სხვა წარმოდგენებთან, რომლებიც გამოიყენება განზომილების შემცირების სხვადასხვა მეთოდებში.

შაბლონის ამოცნობისთვის k-უახლოესი მეზობლების მეთოდის გამოყენებისას, მკვლევარმა უნდა გადაჭრას მეტრიკის არჩევის რთული პრობლემა, რათა დადგინდეს დიაგნოზირებული ობიექტების სიახლოვე. ეს პრობლემა ფუნქციური სივრცის მაღალი განზომილების პირობებში უკიდურესად მწვავდება ამ მეთოდის საკმარისი სირთულის გამო, რაც მნიშვნელოვანი ხდება მაღალი ხარისხის კომპიუტერებისთვისაც კი. აქედან გამომდინარე, აქ, ისევე როგორც პროტოტიპის შედარების მეთოდში, აუცილებელია ექსპერიმენტული მონაცემების მრავალგანზომილებიანი სტრუქტურის ანალიზის შემოქმედებითი პრობლემის გადაჭრა, რათა მინიმუმამდე დავიყვანოთ დიაგნოსტიკური კლასების წარმომადგენლობითი ობიექტების რაოდენობა.

ქულების გამოთვლის ალგორითმები (კენჭისყრა).ქულების გამოთვლის ალგორითმების მოქმედების პრინციპი (ABO) არის პრიორიტეტის (მსგავსების ქულების) გამოთვლა, რომელიც ახასიათებს აღიარებული და საცნობარო ობიექტების "სიახლოვეს" მხატვრული ანსამბლების სისტემის მიხედვით, რომელიც არის მოცემული ქვეჯგუფების სისტემა. მახასიათებლების ნაკრები.

ყველა ადრე განხილული მეთოდისგან განსხვავებით, შეფასებების გამოთვლის ალგორითმები ფუნქციონირებს ობიექტების აღწერილობით ფუნდამენტურად ახალი გზით. ამ ალგორითმებისთვის ობიექტები ერთდროულად არსებობენ ფუნქციების სივრცის ძალიან განსხვავებულ ქვესივრცეში. ABO კლასს თავის ლოგიკურ დასასრულამდე მიჰყავს მახასიათებლების გამოყენების იდეა: ვინაიდან ყოველთვის არ არის ცნობილი ფუნქციების რომელი კომბინაციებია ყველაზე ინფორმატიული, ABO-ში ობიექტების მსგავსების ხარისხი გამოითვლება მახასიათებლების ყველა შესაძლო ან გარკვეული კომბინაციის შედარებით. შედის ობიექტების აღწერილობაში.

გადაწყვეტილების გუნდების წესები.გადაწყვეტილების წესი იყენებს ორ დონის აღიარების სქემას. პირველ დონეზე მუშაობს კერძო ამოცნობის ალგორითმები, რომელთა შედეგები გაერთიანებულია მეორე დონეზე სინთეზის ბლოკში. ასეთი კომბინაციის ყველაზე გავრცელებული მეთოდები ეფუძნება კონკრეტული ალგორითმის კომპეტენციის სფეროების განაწილებას. კომპეტენციის სფეროების პოვნის უმარტივესი გზაა ფუნქციური სივრცის აპრიორი გაყოფა კონკრეტული მეცნიერების პროფესიული მოსაზრებებიდან გამომდინარე (მაგალითად, ნიმუშის სტრატიფიკაცია რომელიმე მახასიათებლის მიხედვით). შემდეგ, თითოეული შერჩეული სფეროსთვის, აგებულია საკუთარი ამოცნობის ალგორითმი. სხვა მეთოდი ემყარება ფორმალური ანალიზის გამოყენებას, რათა განისაზღვროს ფუნქციური სივრცის ლოკალური არეები, როგორც ცნობადი ობიექტების უბნები, რისთვისაც დადასტურებულია ნებისმიერი კონკრეტული ამოცნობის ალგორითმის წარმატება.

სინთეზური ბლოკის აგების ყველაზე ზოგადი მიდგომა განიხილავს ნაწილობრივი ალგორითმების მიღებულ ინდიკატორებს, როგორც საწყის მახასიათებლებს ახალი განზოგადებული გადაწყვეტილების წესის ასაგებად. ამ შემთხვევაში, შაბლონის ამოცნობაში ინტენსიური და გაფართოებული მიმართულებების ყველა ზემოაღნიშნული მეთოდის გამოყენება შეიძლება. გადაწყვეტილების წესების შექმნის პრობლემის გადასაჭრელად ეფექტურია „კორას“ ტიპის ლოგიკური ალგორითმები და შეფასებების გამოთვლის ალგორითმები (ABO), რომლებიც ქმნიან ე.წ. ამოცნობის ალგორითმები, რომლებშიც ჯდება ყველა არსებული ტიპის ალგორითმები.

ნერვული ქსელის მეთოდები

ნერვული ქსელის მეთოდები არის მეთოდები, რომლებიც დაფუძნებულია სხვადასხვა ტიპის ნერვული ქსელების (NN) გამოყენებაზე. სხვადასხვა NN-ების გამოყენების ძირითადი სფეროები შაბლონისა და გამოსახულების ამოცნობისთვის:

    განაცხადი მოცემული სურათების ძირითადი მახასიათებლების ან მახასიათებლების ამოსაღებად,

    თავად სურათების ან მათგან უკვე ამოღებული მახასიათებლების კლასიფიკაცია (პირველ შემთხვევაში, ძირითადი მახასიათებლების ამოღება ხდება იმპლიციურად ქსელში),

    ოპტიმიზაციის პრობლემების გადაწყვეტა.

მრავალშრიანი ნერვული ქსელები.მრავალშრიანი ნერვული ქსელის (MNN) არქიტექტურა შედგება თანმიმდევრულად დაკავშირებული შრეებისგან, სადაც თითოეული ფენის ნეირონი დაკავშირებულია წინა ფენის ყველა ნეირონთან თავისი შეყვანით და შემდეგის გამომავალთან.

ერთშრიანი NN-ის (ე.წ. ავტო-ასოციაციური მეხსიერების) უმარტივესი გამოყენება არის ქსელის მომზადება, რათა აღადგინოს საკვების სურათები. სატესტო სურათის შეყვანით და რეკონსტრუირებული სურათის ხარისხის გაანგარიშებით, შეიძლება შეფასდეს, რამდენად კარგად ცნობს ქსელმა შეყვანილი სურათი. ამ მეთოდის დადებითი თვისებებია ის, რომ ქსელს შეუძლია დამახინჯებული და ხმაურიანი სურათების აღდგენა, მაგრამ ის არ არის შესაფერისი უფრო სერიოზული მიზნებისთვის.

MNN ასევე გამოიყენება სურათების პირდაპირი კლასიფიკაციისთვის - შეყვანა არის ან თავად სურათი რაიმე ფორმით, ან სურათის ადრე ამოღებული ძირითადი მახასიათებლების ნაკრები, გამოსავალზე, მაქსიმალური აქტივობის მქონე ნეირონი მიუთითებს აღიარებულ კლასზე კუთვნილებაზე (ნახ. 4). თუ ეს აქტივობა გარკვეულ ზღურბლზე დაბალია, მაშინ ითვლება, რომ წარმოდგენილი სურათი არ ეკუთვნის არცერთ ცნობილ კლასს. სასწავლო პროცესი ადგენს შეყვანილი სურათების შესაბამისობას გარკვეულ კლასს. ამას ეწოდება ზედამხედველობითი სწავლება. ეს მიდგომა კარგია წვდომის კონტროლის ამოცანებისთვის ადამიანთა მცირე ჯგუფისთვის. ეს მიდგომა უზრუნველყოფს თავად სურათების პირდაპირ შედარებას ქსელის მიერ, მაგრამ კლასების რაოდენობის მატებასთან ერთად, ტრენინგის დრო და ქსელის მუშაობის დრო ექსპონენტურად იზრდება. ამიტომ, ისეთი ამოცანებისთვის, როგორიცაა მსგავსი ადამიანის ძიება დიდ მონაცემთა ბაზაში, ის მოითხოვს ძირითადი ფუნქციების კომპაქტური ნაკრების ამოღებას, საიდანაც უნდა მოძებნოთ.

კლასიფიკაციის მიდგომა მთელი სურათის სიხშირის მახასიათებლების გამოყენებით აღწერილია. გამოყენებული იქნა ერთშრიანი NS, რომელიც დაფუძნებულია მრავალმნიშვნელოვან ნეირონებზე.

B გვიჩვენებს NN-ის გამოყენებას გამოსახულების კლასიფიკაციისთვის, როდესაც ქსელის შეყვანა იღებს გამოსახულების დაშლის შედეგებს ძირითადი კომპონენტების მეთოდით.

კლასიკურ MNS-ში, შუალედური ნერვული კავშირები სრულად არის დაკავშირებული და გამოსახულება წარმოდგენილია როგორც ერთგანზომილებიანი ვექტორი, თუმცა ის ორგანზომილებიანია. კონვოლუციური ნერვული ქსელის არქიტექტურა მიზნად ისახავს ამ ხარვეზების დაძლევას. მან გამოიყენა ლოკალური რეცეპტორული ველები (ნეირონების ლოკალური ორგანზომილებიანი კავშირის უზრუნველყოფა), ზოგადი წონები (ზოგიერთი მახასიათებლის გამოვლენის უზრუნველყოფა გამოსახულების ნებისმიერ წერტილში) და იერარქიულ ორგანიზაციას სივრცითი ქვენიმუშებით (სივრცითი ქვენიმუში). Convolutional NN (CNN) უზრუნველყოფს ნაწილობრივ წინააღმდეგობას მასშტაბის ცვლილებების, გადაადგილების, ბრუნვის, დამახინჯების მიმართ.

MNS ასევე გამოიყენება გარკვეული ტიპის ობიექტების გამოსავლენად. გარდა იმისა, რომ ნებისმიერ გაწვრთნილ MNS-ს შეუძლია გარკვეულწილად განსაზღვროს, ეკუთვნის თუ არა გამოსახულებები „საკუთარ“ კლასებს, ის შეიძლება სპეციალურად იყოს მომზადებული გარკვეული კლასების საიმედოდ გამოსავლენად. ამ შემთხვევაში, გამომავალი კლასები იქნება კლასები, რომლებიც ეკუთვნის და არ მიეკუთვნებიან მოცემულ გამოსახულების ტიპს. ნერვული ქსელის დეტექტორი გამოიყენებოდა შეყვანის სურათში სახის გამოსახულების დასადგენად. სურათის სკანირება მოხდა 20x20 პიქსელიანი ფანჯრით, რომელიც მიეწოდება ქსელის შეყვანას, რომელიც წყვეტს, მიეკუთვნება თუ არა მოცემული ტერიტორია სახეების კლასს. ტრენინგი ჩატარდა როგორც დადებითი მაგალითების (სახეების სხვადასხვა გამოსახულება) ასევე ნეგატიური მაგალითების გამოყენებით (გამოსახულებები, რომლებიც არ არის სახეები). გამოვლენის სანდოობის ასამაღლებლად გამოიყენეს სხვადასხვა საწყისი წონით გაწვრთნილი NN-ების გუნდი, რის შედეგადაც NN-ებმა სხვადასხვა გზით დაუშვეს შეცდომები და საბოლოო გადაწყვეტილება მიიღეს მთელი გუნდის კენჭისყრით.

სურათი 5. ძირითადი კომპონენტები (საკუთრივ სახეები) და გამოსახულების დაშლა ძირითად კომპონენტებად

NN ასევე გამოიყენება გამოსახულების ძირითადი მახასიათებლების ამოსაღებად, რომლებიც შემდეგ გამოიყენება შემდგომი კლასიფიკაციისთვის. In , ნაჩვენებია ძირითადი კომპონენტის ანალიზის მეთოდის ნერვული ქსელის განხორციელების მეთოდი. ძირითადი კომპონენტის ანალიზის მეთოდის არსი მდგომარეობს იმაში, რომ მივიღოთ მაქსიმალური დეკორელირებული კოეფიციენტები, რომლებიც ახასიათებენ შეყვანის შაბლონებს. ამ კოეფიციენტებს უწოდებენ ძირითად კომპონენტებს და გამოიყენება სურათის სტატისტიკური შეკუმშვისთვის, რომელშიც კოეფიციენტების მცირე რაოდენობა გამოიყენება მთლიანი სურათის წარმოსაჩენად. NN ერთი ფარული ფენით, რომელიც შეიცავს N ნეირონს (რომელიც გამოსახულების განზომილებაზე გაცილებით მცირეა), გაწვრთნილი შეცდომის უკან გავრცელების მეთოდით, რათა აღადგინოს შემავალი სურათი გამოსავალზე, აყალიბებს პირველი N ძირითადი კომპონენტების კოეფიციენტებს გამოსავალზე. ფარული ნეირონები, რომლებიც გამოიყენება შედარებისთვის. როგორც წესი, გამოიყენება 10-დან 200-მდე ძირითადი კომპონენტი. კომპონენტების რიცხვის მატებასთან ერთად, მისი წარმომადგენლობითობა საგრძნობლად მცირდება და დიდი რაოდენობით კომპონენტების გამოყენებას აზრი არ აქვს. ნერვული ელემენტების არაწრფივი აქტივაციის ფუნქციების გამოყენებისას შესაძლებელია არაწრფივი დაშლა ძირითად კომპონენტებად. არაწრფივიობა საშუალებას გაძლევთ უფრო ზუსტად ასახოთ შეყვანის მონაცემების ვარიაციები. ძირითადი კომპონენტის ანალიზის გამოყენებით სახის გამოსახულებების დაშლაში, ჩვენ ვიღებთ ძირითად კომპონენტებს, სახელწოდებით სათანადო სახეები, რომლებსაც ასევე აქვთ სასარგებლო თვისება - არის კომპონენტები, რომლებიც ძირითადად ასახავს სახის ისეთ არსებით მახასიათებლებს, როგორიცაა სქესი, რასა, ემოციები. აღდგენისას, კომპონენტებს აქვთ სახის მსგავსი გარეგნობა, პირველი ასახავს სახის ყველაზე ზოგად ფორმას, მეორე წარმოადგენს სხვადასხვა მცირე განსხვავებას სახეებს შორის (ნახ. 5). ეს მეთოდი კარგად გამოიყენება მსგავსი სახის სურათების მოსაძიებლად დიდ მონაცემთა ბაზებში. ასევე ნაჩვენებია ძირითადი კომპონენტების განზომილების შემდგომი შემცირების შესაძლებლობა NS-ის დახმარებით. შეყვანილი სურათის რეკონსტრუქციის ხარისხის შეფასებისას, შეგიძლიათ ზუსტად განსაზღვროთ, ეკუთვნის თუ არა ის სახეების კლასს.

მაღალი დონის ნერვული ქსელები.მაღალი რიგის ნერვული ქსელები (HNN) განსხვავდება MNN-ებისგან იმით, რომ მათ აქვთ მხოლოდ ერთი ფენა, მაგრამ ნეირონების შეყვანები ასევე იღებენ მაღალი რიგის ტერმინებს, რომლებიც შეყვანის ვექტორის ორი ან მეტი კომპონენტის პროდუქტია. ასეთ ქსელებს ასევე შეუძლიათ შექმნან რთული გამყოფი ზედაპირები.

ჰოპფილდის ნერვული ქსელები. Hopfield NN (HSH) არის ერთშრიანი და სრულად დაკავშირებული (არ არსებობს ნეირონების კავშირები საკუთარ თავთან), მისი გამოსასვლელები დაკავშირებულია შეყვანებთან. MNS-ისგან განსხვავებით, NSH დამამშვიდებელია, ე.ი. დაყენებულია საწყის მდგომარეობაში, ის ფუნქციონირებს მანამ, სანამ არ მიაღწევს სტაბილურ მდგომარეობას, რაც იქნება მისი გამომავალი მნიშვნელობა. ოპტიმიზაციის პრობლემებთან მიმართებაში გლობალური მინიმუმის მოსაძებნად გამოიყენება NSH-ის სტოქასტური მოდიფიკაციები.

NSH-ის, როგორც ასოციაციური მეხსიერების გამოყენება საშუალებას გაძლევთ ზუსტად აღადგინოთ გამოსახულება, რომლებზეც ქსელი იყო გაწვრთნილი, როდესაც დამახინჯებული სურათი მიეწოდება შეყვანას. ამ შემთხვევაში, ქსელი „დაიმახსოვრებს“ უახლოეს (ენერგიის ადგილობრივი მინიმალური გაგებით) გამოსახულებას და ამით ამოიცნობს მას. ასეთი ფუნქციონირება ასევე შეიძლება ჩაითვალოს ზემოთ აღწერილი ავტო-ასოციაციური მეხსიერების თანმიმდევრულ გამოყენებად. ავტომატური ასოციაციური მეხსიერებისგან განსხვავებით, NSH სრულყოფილად აღადგენს სურათს. ჩარევის მინიმუმის თავიდან ასაცილებლად და ქსელის სიმძლავრის გაზრდის მიზნით, გამოიყენება სხვადასხვა მეთოდები.

კოჰონენის თვითორგანიზებული ნერვული ქსელები. Kohonen-ის თვითორგანიზებული ნერვული ქსელები (SNNCs) უზრუნველყოფენ გამოსახულების შეყვანის სივრცის ტოპოლოგიურ დალაგებას. ისინი საშუალებას აძლევენ შეყვანის n-განზომილებიანი სივრცის ტოპოლოგიურად უწყვეტ რუკს გამომავალ m-განზომილებაში, m.<

კოგნიტრონი.კოგნიტრონი თავისი არქიტექტურით ჰგავს ვიზუალური ქერქის სტრუქტურას, მას აქვს იერარქიული მრავალშრიანი ორგანიზაცია, რომელშიც ფენებს შორის ნეირონები დაკავშირებულია მხოლოდ ადგილობრივად. ტრენინგი კონკურენტული სწავლებით (მასწავლებლის გარეშე). ტვინის თითოეული ფენა ახორციელებს განზოგადების სხვადასხვა დონეს; შეყვანის ფენა მგრძნობიარეა მარტივი შაბლონების მიმართ, როგორიცაა ხაზები და მათი ორიენტაცია ვიზუალური არეალის გარკვეულ უბნებზე, ხოლო სხვა ფენების პასუხი უფრო რთული, აბსტრაქტული და ნიმუშის პოზიციისგან დამოუკიდებელია. მსგავსი ფუნქციები ხორციელდება კოგნიტრონში ვიზუალური ქერქის ორგანიზაციის მოდელირებით.

ნეოკოგნიტრონი არის კოგნიტრონის იდეის შემდგომი განვითარება და უფრო ზუსტად ასახავს ვიზუალური სისტემის სტრუქტურას, საშუალებას გაძლევთ ამოიცნოთ სურათები მათი გარდაქმნების, ბრუნვის, დამახინჯებისა და მასშტაბის ცვლილების მიუხედავად.

კოგნიტრონი არის გამოსახულების ამოცნობის მძლავრი ინსტრუმენტი, თუმცა ის მოითხოვს მაღალ გამოთვლით ხარჯებს, რომლებიც ამჟამად მიუწვდომელია.

განხილული ნერვული ქსელის მეთოდები უზრუნველყოფს გამოსახულების სწრაფ და საიმედო ამოცნობას, მაგრამ ამ მეთოდების გამოყენებისას პრობლემები წარმოიქმნება სამგანზომილებიანი ობიექტების ამოცნობაში. თუმცა, ამ მიდგომას ბევრი უპირატესობა აქვს.

      დასკვნა

ამჟამად, არსებობს საკმაოდ დიდი რაოდენობის ავტომატური ნიმუშის ამოცნობის სისტემები სხვადასხვა გამოყენებითი პრობლემებისთვის.

ნიმუშის აღიარება ფორმალური მეთოდებით, როგორც ფუნდამენტური სამეცნიერო მიმართულება, ამოუწურავია.

გამოსახულების დამუშავების მათემატიკურ მეთოდებს აქვს მრავალფეროვანი გამოყენება: მეცნიერება, ტექნოლოგია, მედიცინა, სოციალური სფერო. მომავალში კიდევ უფრო გაიზრდება ნიმუშების ამოცნობის როლი ადამიანის ცხოვრებაში.

ნერვული ქსელის მეთოდები უზრუნველყოფს გამოსახულების სწრაფ და საიმედო ამოცნობას. ამ მიდგომას ბევრი უპირატესობა აქვს და ერთ-ერთი ყველაზე პერსპექტიულია.

ლიტერატურა

    დ.ვ. ბრილიუკი, ვ.ვ. სტაროვოიტოვი. სურათის ამოცნობის ნერვული ქსელის მეთოდები // /

    Kuzin L.T. კიბერნეტიკის საფუძვლები: კიბერნეტიკური მოდელების საფუძვლები. T.2. - მ.: ენერგია, 1979. - 584გვ.

    პერეგუდოვი F.I., Tarasenko F.P. სისტემის ანალიზის შესავალი: სახელმძღვანელო. - მ .: უმაღლესი სკოლა, 1997. - 389 წ.

    თემნიკოვი F.E., Afonin V.A., Dmitriev V.I. საინფორმაციო ტექნოლოგიების თეორიული საფუძვლები. - მ.: ენერგია, 1979. - 511 წ.

    Tu J., Gonzalez R. Pattern Recognition Principles. / პერ. ინგლისურიდან. - მ.: მირი, 1978. - 410 წ.

    Winston P. ხელოვნური ინტელექტი. / პერ. ინგლისურიდან. - მ.: მირი, 1980. - 520 წ.

    Fu K. სტრუქტურული მეთოდები ნიმუშის ამოცნობაში: თარგმნა ინგლისურიდან. - მ.: მირი, 1977. - 320 წ.

    ციპკინი ია.ზ. იდენტიფიკაციის ინფორმაციის თეორიის საფუძვლები. - მ.: ნაუკა, 1984. - 520 წ.

    პოსპელოვი გ.ს. ხელოვნური ინტელექტი ახალი საინფორმაციო ტექნოლოგიების საფუძველია. - მ.: ნაუკა, 1988. - 280 წ.

    იუ ლიფშიცი, ნიმუშის ამოცნობის სტატისტიკური მეთოდები ///modern/07modernnote.pdf

    Bohr N. ატომური ფიზიკა და ადამიანის ცოდნა. / თარგმანი ინგლისურიდან. - მ.: მირი, 1961. - 151 წ.

    ბუტაკოვი E.A., Ostrovsky V.I., Fadeev I.L. გამოსახულების დამუშავება კომპიუტერზე.1987.-236s.

    Duda R., Hart P. ნიმუშის ამოცნობა და სცენის ანალიზი. / თარგმანი ინგლისურიდან. - მ.: მირი, 1978. - 510 წ.

    ჰერცოგი V.A. კომპიუტერული ფსიქოდიაგნოსტიკა. - პეტერბურგი: ძმობა, 1994. - 365გვ.

    აიზენბერგი I.N., Aizenberg N. N. და Krivosheev G.A. მრავალმნიშვნელოვანი და უნივერსალური ორობითი ნეირონები: სწავლის ალგორითმები, გამოსახულების დამუშავებისა და ამოცნობის აპლიკაციები. ლექციის შენიშვნები ხელოვნურ ინტელექტში - მანქანათმცოდნეობა და მონაცემთა მოპოვება შაბლონების ამოცნობაში, 1999, გვ. 21-35.

    Ranganath S. და Arun K. სახის ამოცნობა ტრანსფორმაციის მახასიათებლებისა და ნერვული ქსელების გამოყენებით. Pattern Recognition 1997, ტ. 30, გვ. 1615-1622 წწ.

    გოლოვკო ვ.ა. ნეიროინტელექტი: თეორია და აპლიკაციები. წიგნი 1. ნერვული ქსელების ორგანიზება და სწავლება პირდაპირი და უკუკავშირით - ბრესტი: BPI, 1999, - 260s.

    Vetter T. და Poggio T. ხაზოვანი ობიექტების კლასები და გამოსახულების სინთეზი ერთი მაგალითის სურათიდან. IEEE Transactions on Pattern Analysis and Machine Intelligence 1997, ტ. 19, გვ. 733-742 წწ.

    გოლოვკო ვ.ა. ნეიროინტელექტი: თეორია და აპლიკაციები. წიგნი 2. თვითორგანიზება, ხარვეზების ტოლერანტობა და ნერვული ქსელების გამოყენება - ბრესტი: BPI, 1999, - 228s.

    Lawrence S., Giles C. L., Tsoi A. C. და Back A. D. Face Recognition: A Convolutional Neural Network Approach. IEEE Transactions on Neural Networks, Special Issue on Neural Networks and Pattern Recognition, pp. 1-24.

    Wasserman F. ნეიროკომპიუტერული ტექნოლოგია: თეორია და პრაქტიკა, 1992 - 184p.

    Rowley H. A., Baluja S. და Kanade T. ნეირონულ ქსელზე დაფუძნებული სახის გამოვლენა. IEEE Transactions on Pattern Analysis and Machine Intelligence 1998, ტ. 20, გვ. 23-37.

    Valentin D., Abdi H., O "Toole A. J. და Cottrell G. W. სახის დამუშავების კონექტიონისტური მოდელები: გამოკითხვა. IN: Pattern Recognition 1994, ტ. 27, გვ. 1209-1230.

    დოკუმენტი

    ისინი ქმნიან ალგორითმებს აღიარებასურათები. მეთოდებიაღიარებასურათებიროგორც ზემოთ აღინიშნა, რეალობა არ არის არსებობს„ზოგადად ეკოსისტემები“ და არსებობსმხოლოდ რამდენიმე ... დასკვნა ამ დეტალიდან მიმოხილვამეთოდებიაღიარებაჩვენ წარმოვადგინეთ...

  1. სახის გამოსახულებების საფუძველზე ადამიანების იდენტიფიკაციის მეთოდების მიმოხილვა, ვიზუალური ამოცნობის მახასიათებლების გათვალისწინებით

    Მიმოხილვა

    ... აღიარებადაბალი კონტრასტული ობიექტების პირის მიერ, მ.შ. პირები. ჩამოტანილი მიმოხილვასაერთო მეთოდები ... არსებობსმთელი ხაზი მეთოდები ... გზა, კვლევის შედეგად შეიქმნა პლატფორმა განვითარებისათვის მეთოდიაღიარება ...

  2. იმენი გლაზკოვა ვალენტინა ვლადიმეროვნა მრავალ თემატური ჰიპერტექსტური დოკუმენტების კლასიფიკაციის პროგრამული უზრუნველყოფის ინსტრუმენტების მშენებლობის მეთოდების კვლევა და შემუშავება სპეციალობა 05

    დისერტაციის რეზიუმე

    ჰიპერტექსტური დოკუმენტები. თავი შეიცავს მიმოხილვაარსებულიმეთოდებიგანსახილველი პრობლემის გადაწყვეტა, აღწერა ... ყველაზე ნაკლებად შესაბამისი კლასების ამოკვეთით // მათემატიკური მეთოდებიაღიარებასურათები: მე-13 სრულიადრუსული კონფერენცია. ლენინგრადის რეგიონი...

  3. სლაიდი 0 გენეტიკური ტექსტების ანალიზსა და დამუშავებასთან დაკავშირებული ბიოინფორმატიკის ამოცანების მიმოხილვა

    ლექცია

    დნმ და ცილების თანმიმდევრობა. Მიმოხილვაბიოინფორმატიკის ამოცანები, როგორც ამოცანები ... სიგნალები მოითხოვს თანამედროვე მეთოდებიაღიარებასურათები, სტატისტიკური მიდგომები და ... დაბალი გენის სიმკვრივით. არსებულიგენის პროგნოზირების პროგრამები არ...

თავი 3: ნიმუშის ამოცნობისა და გადაწყვეტილების მიღების მეთოდების ანალიტიკური მიმოხილვა

ნიმუშის ამოცნობის თეორია და კონტროლის ავტომატიზაცია

ადაპტური ნიმუშის ამოცნობის ძირითადი ამოცანები

ამოცნობა არის ინფორმაციის პროცესი, რომელსაც ახორციელებს ზოგიერთი ინფორმაციის გადამყვანი (ინტელექტუალური საინფორმაციო არხი, ამოცნობის სისტემა), რომელსაც აქვს შემავალი და გამომავალი. სისტემის შეყვანა არის ინფორმაცია იმის შესახებ, თუ რა მახასიათებლები აქვთ წარმოდგენილი ობიექტებს. სისტემის გამომავალი აჩვენებს ინფორმაციას, თუ რომელ კლასებს (განზოგადებულ სურათებს) ენიჭება ცნობადი ობიექტები.

ავტომატური ნიმუშის ამოცნობის სისტემის შექმნისა და მუშაობისას, წყდება მთელი რიგი ამოცანები. მოდით მოკლედ და მარტივად განვიხილოთ ეს ამოცანები. გაითვალისწინეთ, რომ ამ ამოცანების ფორმულირებები და თავად ნაკრები არ ემთხვევა სხვადასხვა ავტორს, რადგან გარკვეულწილად ეს დამოკიდებულია კონკრეტულ მათემატიკურ მოდელზე, რომელზედაც დაფუძნებულია ამა თუ იმ ამოცნობის სისტემა. გარდა ამისა, ამოცნობის გარკვეულ მოდელებში ზოგიერთ ამოცანას არ აქვს გამოსავალი და, შესაბამისად, არ არის დასმული.

საგნის არეალის ფორმალიზების ამოცანა

სინამდვილეში, ეს ამოცანა კოდირების ამოცანაა. შედგენილია განზოგადებული კლასების სია, რომელიც შეიძლება შეიცავდეს ობიექტების სპეციფიკურ იმპლემენტაციას, ასევე იმ მახასიათებლების ჩამონათვალს, რომლებიც ამ ობიექტებს, პრინციპში, შეიძლება ჰქონდეთ.

სასწავლო ნიმუშის ფორმირების ამოცანა

ტრენინგის ნიმუში არის მონაცემთა ბაზა, რომელიც შეიცავს ობიექტების სპეციფიკური განხორციელების აღწერილობებს მხატვრული ენაზე და დამატებულია ინფორმაცია ამ ობიექტების კუთვნილების შესახებ გარკვეული ამოცნობის კლასებში.

ამოცნობის სისტემის მომზადების ამოცანა

სასწავლო ნიმუში გამოიყენება ამომცნობი კლასების განზოგადებული გამოსახულებების შესაქმნელად, ინფორმაციის განზოგადების საფუძველზე იმის შესახებ, თუ რა თვისებები აქვთ სასწავლო ნიმუშის ობიექტებს, რომლებიც მიეკუთვნება ამ კლასს და სხვა კლასებს.

ფუნქციური სივრცის განზომილების შემცირების პრობლემა

ამოცნობის სისტემის სწავლების შემდეგ (კლასების მიხედვით მახასიათებლების სიხშირეების განაწილების სტატისტიკის მოპოვება) შესაძლებელი ხდება თითოეული მახასიათებლისთვის მისი მნიშვნელობის დადგენა ამოცნობის პრობლემის გადასაჭრელად. ამის შემდეგ, ყველაზე ნაკლებად ღირებული ფუნქციების ამოღება შესაძლებელია ფუნქციური სისტემიდან. შემდეგ ამოცნობის სისტემა უნდა გადაიხედოს, რადგან ზოგიერთი მახასიათებლის მოხსნის შედეგად იცვლება დარჩენილი მახასიათებლების განაწილების სტატისტიკა კლასების მიხედვით. ეს პროცესი შეიძლება განმეორდეს, ე.ი. იყოს განმეორებადი.

ამოცნობის დავალება

აღიარებულია ცნობადი ნიმუშის ობიექტები, რომლებიც, კერძოდ, შეიძლება შედგებოდეს ერთი ობიექტისგან. ცნობადი ნიმუში იქმნება ტრენინგის მსგავსად, მაგრამ არ შეიცავს ინფორმაციას კლასების ობიექტების კუთვნილების შესახებ, რადგან ეს არის ზუსტად ის, რაც განისაზღვრება ამოცნობის პროცესში. თითოეული ობიექტის ამოცნობის შედეგი არის ყველა ამომცნობი კლასის განაწილება ან სია მათთან აღიარებული ობიექტის მსგავსების ხარისხის კლებადობით.

ამოცნობის ხარისხის კონტროლის ამოცანა

აღიარების შემდეგ შეიძლება დადგინდეს მისი ადეკვატურობა. სასწავლო ნიმუშის ობიექტებისთვის ეს შეიძლება გაკეთდეს დაუყოვნებლივ, რადგან მათთვის უბრალოდ ცნობილია, რომელ კლასებს მიეკუთვნებიან. სხვა ობიექტებისთვის, ეს ინფორმაცია შეიძლება მოგვიანებით მიიღოთ. ნებისმიერ შემთხვევაში, შეიძლება განისაზღვროს ფაქტობრივი საშუალო შეცდომის ალბათობა ყველა ამოცნობის კლასისთვის, ისევე როგორც შეცდომის ალბათობა, როდესაც აღიარებული ობიექტის მინიჭება ხდება კონკრეტულ კლასზე.

აღიარების შედეგების ინტერპრეტაცია უნდა მოხდეს აღიარების ხარისხის შესახებ არსებული ინფორმაციის გათვალისწინებით.

ადაპტაციის დავალება

თუ ხარისხის კონტროლის პროცედურის შედეგად დადგინდა, რომ ის არადამაკმაყოფილებელია, მაშინ არასწორად აღიარებული ობიექტების აღწერილობები შეიძლება დაკოპირდეს ამოცნობადი ნიმუშიდან სასწავლო ნიმუშზე, დაემატოს ადეკვატური კლასიფიკაციის ინფორმაცია და გამოიყენოს გადაწყვეტილების შესაცვლელად. წესები, ე.ი. გათვალისწინებულია. უფრო მეტიც, თუ ეს ობიექტები არ მიეკუთვნება უკვე არსებულ ამოცნობის კლასებს, რაც შეიძლება იყოს მათი არასწორი ამოცნობის მიზეზი, მაშინ ეს სია შეიძლება გაფართოვდეს. შედეგად, ამოცნობის სისტემა ადაპტირდება და იწყებს ამ ობიექტების ადექვატურ კლასიფიკაციას.

ინვერსიული ამოცნობის პრობლემა

ამოცნობის ამოცანაა, რომ მოცემული ობიექტისთვის, მისი ცნობილი მახასიათებლების მიხედვით, სისტემა ადგენს მის კუთვნილებას რაიმე ადრე უცნობ კლასს. საპირისპირო ამოცნობის პრობლემაში, პირიქით, ამოცნობის მოცემული კლასისთვის, სისტემა ადგენს, რომელი მახასიათებლებია ყველაზე დამახასიათებელი ამ კლასის ობიექტებისთვის და რომელი არა (ან სასწავლო ნიმუშის რომელი ობიექტები ეკუთვნის ამ კლასს).

კლასტერული და კონსტრუქციული ანალიზის ამოცანები

კლასტერები არის ობიექტების, კლასების ან მახასიათებლების ისეთი ჯგუფები, რომ თითოეულ კლასტერში ისინი მაქსიმალურად მსგავსია, ხოლო სხვადასხვა კლასტერებს შორის ისინი მაქსიმალურად განსხვავდებიან.

კონსტრუქცია (ამ განყოფილებაში განხილულ კონტექსტში) არის საპირისპირო კლასტერების სისტემა. ამრიგად, გარკვეული გაგებით, კონსტრუქტები არის კლასტერების კლასტერული ანალიზის შედეგი.

კლასტერული ანალიზის დროს რაოდენობრივად იზომება ობიექტების (კლასები, მახასიათებლები) მსგავსებისა და განსხვავების ხარისხი და ეს ინფორმაცია გამოიყენება კლასიფიკაციისთვის. კასეტური ანალიზის შედეგი არის ობიექტების კლასიფიკაცია კლასტერების მიხედვით. ეს კლასიფიკაცია შეიძლება წარმოდგენილი იყოს სემანტიკური ქსელების სახით.

კოგნიტური ანალიზის ამოცანა

კოგნიტურ ანალიზში ინფორმაცია კლასების ან მახასიათებლების მსგავსებისა და განსხვავების შესახებ მკვლევარისთვის თავისთავად საინტერესოა და არა იმისთვის, რომ გამოიყენოს იგი კლასიფიკაციისთვის, როგორც კლასტერულ და კონსტრუქციულ ანალიზში.

თუ ორი კლასის აღიარება ხასიათდება ერთი და იგივე თვისებით, მაშინ ეს ხელს უწყობს ამ ორი კლასის მსგავსებას. თუ რომელიმე კლასისთვის ეს მახასიათებელი არ არის დამახასიათებელი, მაშინ ეს ხელს უწყობს განსხვავებას.

თუ ორი ნიშანი ერთმანეთთან კორელაციაშია, მაშინ გარკვეული გაგებით ისინი შეიძლება ჩაითვალოს ერთ ნიშად, ხოლო თუ ანტიკორელაციურია, მაშინ განსხვავებულად. ამ გარემოების გათვალისწინებით, მათ მსგავსებასა და განსხვავებაში გარკვეული წვლილი შეაქვს სხვადასხვა კლასში სხვადასხვა მახასიათებლის არსებობასაც.

კოგნიტური ანალიზის შედეგები შეიძლება წარმოდგენილი იყოს კოგნიტური დიაგრამების სახით.

ნიმუშის ამოცნობის მეთოდები და მათი მახასიათებლები

ნიმუშების ამოცნობის მეთოდების კლასიფიკაციის პრინციპები

ნიმუშის ამოცნობა არის ფორმალური ოპერაციების აგება და გამოყენება რეალური ან იდეალური სამყაროს ობიექტების რიცხვით ან სიმბოლურ წარმოდგენაზე, რომლის ამოხსნის შედეგები ასახავს ამ ობიექტებს შორის ეკვივალენტურ ურთიერთობებს. ეკვივალენტურობის მიმართებები გამოხატავს შეფასებული ობიექტების კუთვნილებას ზოგიერთ კლასს, განიხილება როგორც დამოუკიდებელი სემანტიკური ერთეულები.

ამოცნობის ალგორითმების აგებისას, ეკვივალენტურობის კლასები შეიძლება დააწესოს მკვლევარმა, რომელიც იყენებს საკუთარ აზრობრივ იდეებს ან იყენებს გარე დამატებით ინფორმაციას ობიექტების მსგავსებისა და განსხვავებების შესახებ მოგვარებული პრობლემის კონტექსტში. მერე საუბარია „მასწავლებელთან აღიარებაზე“. წინააღმდეგ შემთხვევაში, ე.ი. როდესაც ავტომატური სისტემა აგვარებს კლასიფიკაციის პრობლემას გარე სასწავლო ინფორმაციის ჩართვის გარეშე, საუბარია ავტომატურ კლასიფიკაციაზე ან „უკონტროლო აღიარებაზე“. შაბლონების ამოცნობის ალგორითმების უმეტესობა მოითხოვს ძალიან მნიშვნელოვან გამოთვლით ძალას, რაც შეიძლება უზრუნველყოფილი იყოს მხოლოდ მაღალი ხარისხის კომპიუტერული ტექნოლოგიით.

სხვადასხვა ავტორები (იუ.ლ. ბარაბაში, ვ.ი. ვასილიევი, ა. K. Fu, Ya. Z. Tsypkin და სხვები) იძლევა ნიმუშის ამოცნობის მეთოდების განსხვავებულ ტიპოლოგიას. ზოგიერთი ავტორი განასხვავებს პარამეტრულ, არაპარამეტრულ და ევრისტიკულ მეთოდებს, ზოგი კი ისტორიულ სკოლებსა და დარგის ტენდენციებზე დაფუძნებულ მეთოდთა ჯგუფებს გამოყოფს. მაგალითად, ნაშრომში, რომელშიც მოცემულია ამოცნობის მეთოდების აკადემიური მიმოხილვა, გამოყენებულია ნიმუშის ამოცნობის მეთოდების შემდეგი ტიპოლოგია:

  • გამოყოფის პრინციპზე დაფუძნებული მეთოდები;
  • სტატისტიკური მეთოდები;
  • „პოტენციური ფუნქციების“ საფუძველზე აგებული მეთოდები;
  • ქულების გამოთვლის ხერხები (კენჭისყრა);
  • წინადადებების გამოთვლაზე დაფუძნებული მეთოდები, კერძოდ, ლოგიკის ალგებრის აპარატზე.

ეს კლასიფიკაცია დაფუძნებულია ნიმუშის ამოცნობის ფორმალურ მეთოდებში განსხვავებაზე და, შესაბამისად, ამოღებულია ამოცნობის ევრისტიკული მიდგომის გათვალისწინება, რომელმაც მიიღო სრული და ადეკვატური განვითარება საექსპერტო სისტემებში. ევრისტიკული მიდგომა დაფუძნებულია მკვლევარის რთულად ფორმალიზებად ცოდნასა და ინტუიციაზე. ამავდროულად, მკვლევარი თავად ადგენს, რა ინფორმაცია და როგორ უნდა გამოიყენოს სისტემამ სასურველი ამოცნობის ეფექტის მისაღწევად.

ამოცნობის მეთოდების მსგავსი ტიპოლოგია სხვადასხვა ხარისხის დეტალებით გვხვდება ამოცნობის შესახებ ბევრ ნაშრომში. ამავდროულად, ცნობილი ტიპოლოგიები არ ითვალისწინებენ ერთ ძალიან მნიშვნელოვან მახასიათებელს, რომელიც ასახავს საგნის სფეროს შესახებ ცოდნის წარმოდგენის სპეციფიკას ნებისმიერი ფორმალური ნიმუშის ამოცნობის ალგორითმის გამოყენებით.

D.A. Pospelov (1990) გამოყოფს ცოდნის წარმოდგენის ორ ძირითად გზას:

  • ინტენსიური, ატრიბუტებს (მახასიათებლებს) შორის კავშირების სქემის სახით.
  • გაფართოებული, კონკრეტული ფაქტების (ობიექტების, მაგალითების) დახმარებით.

ინტენსიური წარმოდგენა ასახავს შაბლონებს და ურთიერთობებს, რომლებიც ხსნის მონაცემთა სტრუქტურას. დიაგნოსტიკური ამოცანებთან დაკავშირებით, ასეთი ფიქსაცია მოიცავს ობიექტების ატრიბუტებზე (მახასიათებლებზე) ოპერაციების განსაზღვრას, რაც იწვევს საჭირო დიაგნოსტიკურ შედეგს. ინტენსიური წარმოდგენები ხორციელდება ატრიბუტების მნიშვნელობებზე ოპერაციების საშუალებით და არ გულისხმობს ოპერაციებს კონკრეტულ საინფორმაციო ფაქტებზე (ობიექტებზე).

თავის მხრივ, ცოდნის გაფართოებული წარმოდგენები ასოცირდება საგნის არედან კონკრეტული ობიექტების აღწერასა და ფიქსაციასთან და ხორციელდება ოპერაციებში, რომელთა ელემენტებია ობიექტები, როგორც ინტეგრალური სისტემები.

შესაძლებელია ანალოგიის დახატვა ცოდნის ინტენსიურ და გაფართოებულ წარმოდგენებსა და ადამიანის ტვინის მარცხენა და მარჯვენა ნახევარსფეროების აქტივობის საფუძველში არსებულ მექანიზმებს შორის. თუ მარჯვენა ნახევარსფერო ხასიათდება გარემომცველი სამყაროს ჰოლისტიკური პროტოტიპური წარმოდგენით, მაშინ მარცხენა ნახევარსფერო მოქმედებს შაბლონებით, რომლებიც ასახავს ამ სამყაროს ატრიბუტების კავშირებს.

ზემოთ აღწერილი ცოდნის წარმოდგენის ორი ფუნდამენტური გზა საშუალებას გვაძლევს შემოგთავაზოთ ნიმუშის ამოცნობის მეთოდების შემდეგი კლასიფიკაცია:

  • ატრიბუტების მქონე ოპერაციებზე დაფუძნებული ინტენსიური მეთოდები.
  • გაფართოების მეთოდები, რომლებიც დაფუძნებულია ობიექტებთან ოპერაციებზე.

ხაზგასმით უნდა აღინიშნოს, რომ ამოცნობის მეთოდების ამ ორი (და მხოლოდ ორი) ჯგუფის არსებობა: თვისებებით მოქმედი და ობიექტებთან მოქმედი, ღრმად ბუნებრივია. ამ თვალსაზრისით, არცერთი ეს მეთოდი, მეორისგან განცალკევებით აღებული, არ იძლევა შესაძლებლობას შექმნას საგნობრივი არეალის ადეკვატური ასახვა. ავტორების აზრით, ამ მეთოდებს შორის არის ურთიერთკომპლიმენტურობის მიმართება N. Bohr-ის გაგებით, შესაბამისად, პერსპექტიულმა აღიარების სისტემებმა უნდა უზრუნველყონ ორივე ამ მეთოდის და არა რომელიმე მათგანის განხორციელება.

ამრიგად, დ.ა. პოსპელოვის მიერ შემოთავაზებული ამოცნობის მეთოდების კლასიფიკაცია ეფუძნება ფუნდამენტურ კანონებს, რომლებიც საფუძვლად უდევს ადამიანის შემეცნების გზას ზოგადად, რაც მას განსაკუთრებულ (პრივილეგირებულ) მდგომარეობაში აყენებს სხვა კლასიფიკაციებთან შედარებით, რომლებიც, ამ ფონზე, გამოიყურება. უფრო მსუბუქი და ხელოვნური.

ინტენსიური მეთოდები

ინტენსიური მეთოდების გამორჩეული თვისებაა ის, რომ ისინი იყენებენ მახასიათებლების სხვადასხვა მახასიათებლებს და მათ ურთიერთობებს, როგორც ოპერაციების ელემენტებს შაბლონის ამოცნობის ალგორითმების კონსტრუქციასა და გამოყენებაში. ასეთი ელემენტები შეიძლება იყოს ინდივიდუალური მნიშვნელობები ან მახასიათებლის მნიშვნელობების ინტერვალები, საშუალო მნიშვნელობები და განსხვავებები, მახასიათებლების ურთიერთობის მატრიცები და ა. ამავდროულად, ამ მეთოდებში ობიექტები არ განიხილება როგორც ინტეგრალური ინფორმაციის ერთეულები, არამედ მოქმედებენ როგორც ინდიკატორები მათი ატრიბუტების ურთიერთქმედების და ქცევის შესაფასებლად.

ნიმუშის ამოცნობის ინტენსიური მეთოდების ჯგუფი ვრცელია და მისი დაყოფა ქვეკლასებად გარკვეულწილად თვითნებურია.

მახასიათებლის მნიშვნელობების განაწილების სიმკვრივის შეფასებებზე დაფუძნებული მეთოდები

ნიმუშის ამოცნობის ეს მეთოდები ნასესხებია სტატისტიკური გადაწყვეტილებების კლასიკური თეორიიდან, რომელშიც კვლევის ობიექტები განიხილება, როგორც მრავალგანზომილებიანი შემთხვევითი ცვლადის რეალიზაცია, რომელიც განაწილებულია ფუნქციების სივრცეში გარკვეული კანონის მიხედვით. ისინი ეფუძნება ბაიესის გადაწყვეტილების მიღების სქემას, რომელიც მიმართავს ობიექტების აპრიორულ ალბათობას, რომელიც მიეკუთვნება ამა თუ იმ ცნობად კლასს და მახასიათებლის ვექტორის მნიშვნელობების პირობითი განაწილების სიმკვრივეს. ეს მეთოდები მცირდება ალბათობის თანაფარდობის განსაზღვრამდე მრავალგანზომილებიანი მახასიათებლების სივრცის სხვადასხვა ზონაში.

მახასიათებლების მნიშვნელობების განაწილების სიმკვრივის შეფასებაზე დაფუძნებული მეთოდების ჯგუფი პირდაპირ კავშირშია დისკრიმინაციული ანალიზის მეთოდებთან. გადაწყვეტილების მიღებისადმი ბაიესის მიდგომა არის ერთ-ერთი ყველაზე განვითარებული თანამედროვე სტატისტიკაში, ეგრეთ წოდებული პარამეტრული მეთოდი, რომლისთვისაც ცნობილია განაწილების კანონის ანალიტიკური გამოხატულება (ამ შემთხვევაში ნორმალური კანონი) და მხოლოდ მცირედ ითვლება. პარამეტრების რაოდენობა (საშუალო ვექტორები და კოვარიანტების მატრიცები) უნდა შეფასდეს.

ძირითადი სირთულეები ამ მეთოდების გამოყენებისას არის მთელი სასწავლო ნიმუშის დამახსოვრების აუცილებლობა, რათა გამოვთვალოთ ლოკალური ალბათობის განაწილების სიმკვრივეები და მაღალი მგრძნობელობა სასწავლო ნიმუშის არაწარმომადგენლობით.

გადაწყვეტილების ფუნქციების კლასის შესახებ დაშვებებზე დაფუძნებული მეთოდები

მეთოდთა ამ ჯგუფში ცნობილია გადაწყვეტილების ფუნქციის ზოგადი ფორმა და მოცემულია მისი ხარისხი ფუნქციონალურად. ამ ფუნქციიდან გამომდინარე, გადაწყვეტილების ფუნქციის საუკეთესო მიახლოება გვხვდება ტრენინგის თანმიმდევრობიდან. ყველაზე გავრცელებულია გადაწყვეტილების ფუნქციების წარმოდგენები წრფივი და განზოგადებული არაწრფივი მრავალწევრების სახით. გადაწყვეტილების წესის ხარისხის ფუნქციონირება ჩვეულებრივ ასოცირდება კლასიფიკაციის შეცდომასთან.

გადაწყვეტილების ფუნქციების კლასის შესახებ დაშვებებზე დაფუძნებული მეთოდების მთავარი უპირატესობა არის ამოცნობის პრობლემის მათემატიკური ფორმულირების სიცხადე, როგორც ექსტრემის პოვნის პრობლემა. ამ ჯგუფის მეთოდების მრავალფეროვნება აიხსნება გამოყენებული გადაწყვეტილების წესის ხარისხის ფუნქციებითა და ექსტრემალური ძიების ალგორითმებით. განხილული ალგორითმების განზოგადება, რომელიც მოიცავს, კერძოდ, ნიუტონის ალგორითმს, პერცეპტრონის ტიპის ალგორითმებს და ა.შ., არის სტოქასტური დაახლოების მეთოდი.

საკმაოდ კარგად არის შესწავლილი გრადიენტული ალგორითმების შესაძლებლობები ექსტრემის საპოვნელად, განსაკუთრებით ხაზოვანი გადაწყვეტილების წესების ჯგუფში. ამ ალგორითმების კონვერგენცია დადასტურდა მხოლოდ იმ შემთხვევისთვის, როდესაც ობიექტების ცნობადი კლასები გამოსახულია ფუნქციურ სივრცეში კომპაქტური გეომეტრიული სტრუქტურებით.

გადაწყვეტილების წესის საკმარისად მაღალი ხარისხის მიღწევა შესაძლებელია ალგორითმების გამოყენებით, რომლებსაც არ გააჩნიათ მკაცრი მათემატიკური მტკიცებულება გლობალური ექსტრემის ამოხსნის კონვერგენციის შესახებ. ასეთი ალგორითმები მოიცავს ევრისტიკული პროგრამირების პროცედურების დიდ ჯგუფს, რომლებიც წარმოადგენს ევოლუციური მოდელირების მიმართულებას. ევოლუციური მოდელირება არის ბუნებისგან ნასესხები ბიონიკური მეთოდი. იგი ეფუძნება ევოლუციის ცნობილი მექანიზმების გამოყენებას, რათა ჩაანაცვლოს რთული ობიექტის აზრიანი მოდელირების პროცესი მისი ევოლუციის ფენომენოლოგიური მოდელირებით. ევოლუციური მოდელირების ცნობილი წარმომადგენელი ნიმუშის ამოცნობაში არის არგუმენტების ჯგუფური აღრიცხვის მეთოდი (MGUA). GMDH ეფუძნება თვითორგანიზაციის პრინციპს, ხოლო GMDH ალგორითმები ამრავლებენ მასობრივი შერჩევის სქემას.

თუმცა პრაქტიკული მიზნების მიღწევას ამ შემთხვევაში არ ახლავს ახალი ცოდნის მოპოვება ცნობადი ობიექტების ბუნების შესახებ. ამ ცოდნის მოპოვების შესაძლებლობა, კერძოდ, ცოდნის შესახებ ატრიბუტების (მახასიათებლების) ურთიერთქმედების მექანიზმების შესახებ, ფუნდამენტურად შემოიფარგლება ამ ურთიერთქმედების მოცემული სტრუქტურით, რომელიც ფიქსირდება გადამწყვეტი ფუნქციების არჩეულ ფორმაში.

ლოგიკური მეთოდები

ნიმუშის ამოცნობის ლოგიკური მეთოდები დაფუძნებულია ლოგიკური ალგებრის აპარატზე და საშუალებას იძლევა იმუშაოს ინფორმაციასთან, რომელიც შეიცავს არა მხოლოდ ცალკეულ მახასიათებლებს, არამედ მახასიათებლების მნიშვნელობების კომბინაციებს. ამ მეთოდებში ნებისმიერი ატრიბუტის მნიშვნელობები განიხილება, როგორც ელემენტარული მოვლენები.

ყველაზე ზოგადი ფორმით, ლოგიკური მეთოდები შეიძლება დახასიათდეს, როგორც სასწავლო ნიმუშში ლოგიკური შაბლონების ძიება და ლოგიკური გადაწყვეტილების წესების გარკვეული სისტემის ფორმირება (მაგალითად, ელემენტარული მოვლენების შეერთების სახით), თითოეული რომელსაც თავისი წონა აქვს. ლოგიკური მეთოდების ჯგუფი მრავალფეროვანია და მოიცავს სხვადასხვა სირთულისა და სიღრმის ანალიზის მეთოდებს. დიქოტომიური (ლოგიკური) მახასიათებლებისთვის პოპულარულია ეგრეთ წოდებული ხის მსგავსი კლასიფიკატორები, ჩიხური ტესტის მეთოდი, ბარკის ალგორითმი და ა.შ.

კორას ალგორითმი, ისევე როგორც ნიმუშის ამოცნობის სხვა ლოგიკური მეთოდები, საკმაოდ შრომატევადია გამოთვლის თვალსაზრისით, ვინაიდან კავშირების არჩევისას საჭიროა სრული ჩამოთვლა. ამიტომ, ლოგიკური მეთოდების გამოყენებისას მაღალი მოთხოვნები დგება გამოთვლითი პროცესის ეფექტურ ორგანიზაციაზე და ეს მეთოდები კარგად მუშაობს ფუნქციების სივრცის შედარებით მცირე ზომებთან და მხოლოდ ძლიერ კომპიუტერებზე.

ლინგვისტური (სტრუქტურული) მეთოდები

ნიმუშის ამოცნობის ენობრივი მეთოდები ემყარება სპეციალური გრამატიკების გამოყენებას, რომლებიც წარმოქმნიან ენებს, რომლებიც შეიძლება გამოყენებულ იქნას ცნობადი ობიექტების თვისებების ნაკრების აღსაწერად.

ობიექტების სხვადასხვა კლასისთვის გამოიყოფა არაწარმოებული (ატომური) ელემენტები (ქვესახეობები, ნიშნები) და მათ შორის შესაძლო მიმართებები. გრამატიკა ეხება ამ არაწარმოებული ელემენტებიდან ობიექტების აგების წესებს.

ამრიგად, ყოველი ობიექტი არის არაწარმოებული ელემენტების ერთობლიობა, ერთმანეთთან ამა თუ იმ გზით „დაკავშირებული“ ან, სხვა სიტყვებით რომ ვთქვათ, რომელიმე „ენის“ „წინადადებით“. განსაკუთრებით მინდა ხაზი გავუსვა ამ აზრის ძალიან მნიშვნელოვან იდეოლოგიურ ღირებულებას.

„წინადადების“ გარჩევით (გაანალიზებით) განისაზღვრება მისი სინტაქსური „სისწორე“ ან, ექვივალენტურად, შეუძლია თუ არა რომელიმე ფიქსირებულ გრამატიკას, რომელიც აღწერს კლასს, ობიექტის არსებული აღწერილობის გენერირებას.

თუმცა, გრამატიკების აღდგენის (განსაზღვრების) ამოცანა დებულებათა გარკვეული ნაკრებიდან (წინადადებები - ობიექტების აღწერილობები), რომლებიც წარმოქმნიან მოცემულ ენას, რთულია ფორმალიზება.

გაფართოების მეთოდები

ამ ჯგუფის მეთოდებში, ინტენსიური მიმართულებისგან განსხვავებით, თითოეულ შესწავლილ ობიექტს მეტ-ნაკლებად ენიჭება დამოუკიდებელი დიაგნოსტიკური მნიშვნელობა. თავის არსში, ეს მეთოდები ახლოსაა კლინიკურ მიდგომასთან, რომელიც განიხილავს ადამიანებს არა ამა თუ იმ ინდიკატორის მიხედვით შეფასებული ობიექტების ჯაჭვად, არამედ როგორც ინტეგრალურ სისტემებს, რომელთაგან თითოეული ინდივიდუალურია და აქვს განსაკუთრებული დიაგნოსტიკური მნიშვნელობა. კვლევის ობიექტებისადმი ასეთი ფრთხილი დამოკიდებულება არ იძლევა საშუალებას გამორიცხოს ან დაკარგოს ინფორმაცია თითოეული ცალკეული ობიექტის შესახებ, რაც ხდება ინტენსიური მიმართულების მეთოდების გამოყენებისას, ობიექტების გამოყენებით მხოლოდ მათი ატრიბუტების ქცევის ნიმუშების აღმოსაჩენად და დასაფიქსირებლად.

განხილული მეთოდების გამოყენებით ნიმუშის ამოცნობის ძირითადი ოპერაციებია ობიექტების მსგავსებისა და განსხვავების განსაზღვრის ოპერაციები. მეთოდების მითითებულ ჯგუფში შემავალი ობიექტები დიაგნოსტიკური პრეცედენტების როლს ასრულებენ. ამავდროულად, კონკრეტული ამოცანის პირობებიდან გამომდინარე, ინდივიდუალური პრეცედენტის როლი შეიძლება განსხვავდებოდეს ყველაზე ფართო საზღვრებში: ძირითადი და განმსაზღვრელიდან ძალიან ირიბ მონაწილეობამდე აღიარების პროცესში. თავის მხრივ, პრობლემის პირობებმა შეიძლება მოითხოვოს სხვადასხვა რაოდენობის დიაგნოსტიკური პრეცედენტების მონაწილეობა წარმატებული გადაწყვეტისთვის: თითოეული ცნობადი კლასიდან ერთიდან ნიმუშის მთლიან ზომამდე, აგრეთვე მსგავსებისა და განსხვავების ზომების გამოთვლის სხვადასხვა ხერხს. ობიექტები. ეს მოთხოვნები ხსნის გაფართოებული მეთოდების შემდგომ დაყოფას ქვეკლასებად.

პროტოტიპის შედარების მეთოდი

ეს არის გაფართოებული ამოცნობის უმარტივესი მეთოდი. იგი გამოიყენება, მაგალითად, იმ შემთხვევაში, როდესაც აღიარებული კლასები ნაჩვენებია ფუნქციების სივრცეში კომპაქტური გეომეტრიული დაჯგუფებით. ამ შემთხვევაში პროტოტიპად ირჩევა კლასის გეომეტრიული დაჯგუფების ცენტრი (ან ცენტრთან ყველაზე ახლოს მდებარე ობიექტი).

უცნობი ობიექტის კლასიფიკაციისთვის, ნაპოვნია მასთან ყველაზე ახლოს მდებარე პროტოტიპი და ობიექტი ეკუთვნის იმავე კლასს, როგორც ეს პროტოტიპი. ცხადია, ამ მეთოდით არ იქმნება განზოგადებული კლასის სურათები.

სიახლოვის საზომად შეიძლება გამოყენებულ იქნას სხვადასხვა ტიპის მანძილი. ხშირად დიქოტომიური მახასიათებლებისთვის გამოიყენება ჰემინგის მანძილი, რომელიც ამ შემთხვევაში უდრის ევკლიდეს მანძილის კვადრატს. ამ შემთხვევაში, ობიექტების კლასიფიკაციის გადაწყვეტილების წესი ტოლია წრფივი გადაწყვეტილების ფუნქციის.

ეს ფაქტი განსაკუთრებით უნდა აღინიშნოს. იგი ნათლად აჩვენებს კავშირს პროტოტიპსა და მონაცემთა სტრუქტურის შესახებ ინფორმაციის ინდიკატორულ წარმოდგენას შორის. ზემოაღნიშნული წარმოდგენის გამოყენებით, მაგალითად, ნებისმიერი ტრადიციული საზომი მასშტაბი, რომელიც წარმოადგენს დიქოტომიური მახასიათებლების მნიშვნელობების წრფივ ფუნქციას, შეიძლება ჩაითვალოს ჰიპოთეტურ დიაგნოსტიკური პროტოტიპად. თავის მხრივ, თუ აღიარებული კლასების სივრცითი სტრუქტურის ანალიზი საშუალებას გვაძლევს დავასკვნათ, რომ ისინი გეომეტრიულად კომპაქტურია, მაშინ საკმარისია თითოეული ამ კლასის ჩანაცვლება ერთი პროტოტიპით, რომელიც რეალურად ექვივალენტურია ხაზოვანი დიაგნოსტიკური მოდელის.

პრაქტიკაში, რა თქმა უნდა, სიტუაცია ხშირად განსხვავდება აღწერილი იდეალიზებული მაგალითისგან. მკვლევარი, რომელიც აპირებს გამოიყენოს ამოცნობის მეთოდი, რომელიც დაფუძნებულია დიაგნოსტიკური კლასების პროტოტიპებთან შედარებით, რთული პრობლემების წინაშე დგას.

პირველ რიგში, ეს არის სიახლოვის საზომის არჩევანი (მეტრული), რამაც შეიძლება მნიშვნელოვნად შეცვალოს ობიექტების განაწილების სივრცითი კონფიგურაცია. მეორე, დამოუკიდებელი პრობლემაა ექსპერიმენტული მონაცემების მრავალგანზომილებიანი სტრუქტურების ანალიზი. ორივე ეს პრობლემა განსაკუთრებით მწვავეა მკვლევარისთვის მხატვრული სივრცის მაღალი განზომილების პირობებში, რაც დამახასიათებელია რეალური პრობლემებისთვის.

k უახლოესი მეზობლის მეთოდი

K უახლოესი მეზობლების მეთოდი დისკრიმინაციული ანალიზის ამოცანების გადასაჭრელად პირველად იქნა შემოთავაზებული ჯერ კიდევ 1952 წელს. ეს არის შემდეგი.

უცნობი ობიექტის კლასიფიკაციისას, ნაპოვნია მისთვის გეომეტრიულად ყველაზე ახლოს სხვა ობიექტების მოცემული რიცხვი (k) ფუნქციების სივრცეში (უახლოესი მეზობლები), რომლებსაც უკვე ცნობილია ცნობადი კლასების კუთვნილება. უცნობი ობიექტის კონკრეტულ სადიაგნოსტიკო კლასზე მინიჭების გადაწყვეტილება მიიღება მისი უახლოესი მეზობლების ამ ცნობილი წევრობის შესახებ ინფორმაციის გაანალიზებით, მაგალითად, მარტივი ხმების დათვლის გამოყენებით.

თავდაპირველად, k უახლოესი მეზობლების მეთოდი განიხილებოდა, როგორც არაპარამეტრული მეთოდი ალბათობის კოეფიციენტის შესაფასებლად. ამ მეთოდისთვის მიიღება მისი ეფექტურობის თეორიული შეფასებები ბაიესის ოპტიმალურ კლასიფიკატორთან შედარებით. დადასტურებულია, რომ k უახლოესი მეზობლის მეთოდის ასიმპტოტური შეცდომის ალბათობა აღემატება ბეიესის წესის შეცდომებს არაუმეტეს ორჯერ.

შაბლონის ამოცნობისთვის k უახლოესი მეზობლების მეთოდის გამოყენებისას მკვლევარმა უნდა გადაჭრას მეტრიკის არჩევის რთული პრობლემა, რათა დადგინდეს დიაგნოზირებული ობიექტების სიახლოვე. ეს პრობლემა ფუნქციური სივრცის მაღალი განზომილების პირობებში უკიდურესად მწვავდება ამ მეთოდის საკმარისი სირთულის გამო, რაც მნიშვნელოვანი ხდება მაღალი ხარისხის კომპიუტერებისთვისაც კი. აქედან გამომდინარე, აქ, ისევე როგორც პროტოტიპის შედარების მეთოდში, აუცილებელია ექსპერიმენტული მონაცემების მრავალგანზომილებიანი სტრუქტურის ანალიზის შემოქმედებითი პრობლემის გადაჭრა, რათა მინიმუმამდე დავიყვანოთ დიაგნოსტიკური კლასების წარმომადგენლობითი ობიექტების რაოდენობა.

სასწავლო ნიმუშში ობიექტების რაოდენობის შემცირების აუცილებლობა (დიაგნოსტიკური პრეცედენტები) ამ მეთოდის მინუსია, რადგან ის ამცირებს სასწავლო ნიმუშის წარმომადგენლობას.

ქულების გამოთვლის ალგორითმები ("ხმის მიცემა")

შეფასების ალგორითმების (ABO) მოქმედების პრინციპია პრიორიტეტების (მსგავსების ქულების) გამოთვლა, რომლებიც ახასიათებენ აღიარებული და საცნობარო ობიექტების „სიახლოვეს“ ფუნქციების ანსამბლების სისტემის მიხედვით, რაც წარმოადგენს ფუნქციების მოცემული ნაკრების ქვეჯგუფების სისტემას. .

ყველა ადრე განხილული მეთოდისგან განსხვავებით, შეფასებების გამოთვლის ალგორითმები ფუნქციონირებს ობიექტების აღწერილობით ფუნდამენტურად ახალი გზით. ამ ალგორითმებისთვის ობიექტები ერთდროულად არსებობენ ფუნქციების სივრცის ძალიან განსხვავებულ ქვესივრცეში. ABO კლასს თავის ლოგიკურ დასასრულამდე მიჰყავს მახასიათებლების გამოყენების იდეა: ვინაიდან ყოველთვის არ არის ცნობილი ფუნქციების რომელი კომბინაციებია ყველაზე ინფორმატიული, ABO-ში ობიექტების მსგავსების ხარისხი გამოითვლება მახასიათებლების ყველა შესაძლო ან გარკვეული კომბინაციის შედარებით. შედის ობიექტების აღწერილობაში.

ატრიბუტების (ქვესივრცეების) გამოყენებულ კომბინაციებს ეწოდება დამხმარე კომპლექტები ან ობიექტების ნაწილობრივი აღწერის კომპლექტები. შემოღებულია განზოგადებული სიახლოვის კონცეფცია აღიარებულ ობიექტსა და სასწავლო ნიმუშის ობიექტებს შორის (ცნობილი კლასიფიკაციით), რომლებსაც საცნობარო ობიექტებს უწოდებენ. ეს სიახლოვე წარმოდგენილია ცნობადი ობიექტის სიახლოვის კომბინაციით, საცნობარო ობიექტებთან, რომლებიც გამოითვლება ნაწილობრივი აღწერილობების ნაკრებებზე. ამრიგად, ABO არის k უახლოესი მეზობლების მეთოდის გაფართოება, რომელშიც ობიექტების სიახლოვე განიხილება მხოლოდ ერთ მოცემულ ფუნქციურ სივრცეში.

ABO-ს კიდევ ერთი გაფართოება არის ის, რომ ამ ალგორითმებში ობიექტების მსგავსებისა და განსხვავების განსაზღვრის პრობლემა ჩამოყალიბებულია პარამეტრულად და შეირჩევა სასწავლო ნიმუშის მიხედვით ABO-ს დაყენების ეტაპი, რომლის დროსაც ოპტიმალური მნიშვნელობებია. არჩეულია შეყვანილი პარამეტრები. ხარისხის კრიტერიუმი არის ამოცნობის შეცდომა და ფაქტიურად ყველაფერი პარამეტრიზებულია:

  • ინდივიდუალური მახასიათებლების მიხედვით ობიექტების სიახლოვის გამოთვლის წესები;
  • ნიშნების ქვესივრცეში ობიექტების სიახლოვის გამოთვლის წესები;
  • კონკრეტული საცნობარო ობიექტის, როგორც დიაგნოსტიკური პრეცედენტის მნიშვნელობის ხარისხი;
  • მახასიათებლების თითოეული საცნობარო ნაკრების წვლილის მნიშვნელობა აღიარებული ობიექტის ნებისმიერ დიაგნოსტიკურ კლასთან მსგავსების საბოლოო შეფასებაში.

ჰაერის გამაგრილებლის პარამეტრები დაყენებულია ზღვრული მნიშვნელობების სახით და (ან) მითითებული კომპონენტების წონებად.

ABO-ს თეორიული შესაძლებლობები, სულ მცირე, არ არის დაბალი, ვიდრე ნებისმიერი სხვა ნიმუშის ამოცნობის ალგორითმი, ვინაიდან ABO-ს დახმარებით შესაძლებელია განხორციელდეს ყველა შესაძლო ოპერაცია შესასწავლ ობიექტებთან.

მაგრამ, როგორც ეს ჩვეულებრივ ხდება, პოტენციალების გაფართოება დიდ სირთულეებს აწყდება მათ პრაქტიკულ განხორციელებაში, განსაკუთრებით ამ ტიპის ალგორითმების აგების (თუნინგის) ეტაპზე.

ცალკეული სირთულეები ადრე აღინიშნა k უახლოეს მეზობლების მეთოდის განხილვისას, რომელიც შეიძლება განიმარტოს, როგორც ABO-ს შეკვეცილი ვერსია. ის ასევე შეიძლება განვიხილოთ პარამეტრულ ფორმაში და პრობლემა შეიძლება შემცირდეს შერჩეული ტიპის შეწონილი მეტრიკის პოვნამდე. ამავდროულად, უკვე აქ მაღალგანზომილებიანი პრობლემებისთვის ჩნდება რთული თეორიული კითხვები და ეფექტური გამოთვლითი პროცესის ორგანიზებასთან დაკავშირებული პრობლემები.

ABO-სთვის, თუ თქვენ ცდილობთ ამ ალგორითმების შესაძლებლობების სრულად გამოყენებას, ეს სირთულეები ბევრჯერ იზრდება.

აღნიშნული პრობლემები განმარტავს, რომ პრაქტიკაში ABO-ს გამოყენებას მაღალგანზომილებიანი ამოცანების გადასაჭრელად თან ახლავს ნებისმიერი ევრისტიკული შეზღუდვისა და დაშვების დანერგვა. კერძოდ, არსებობს ფსიქოდიაგნოსტიკაში ABO-ს გამოყენების მაგალითი, რომელშიც შემოწმებულია ABO-ს ტიპი, რომელიც რეალურად უტოლდება k უახლოეს მეზობლების მეთოდს.

გადამწყვეტი წესი კოლექტივები

ნიმუშის ამოცნობის მეთოდების მიმოხილვის დასასრულს, მოდით ვისაუბროთ კიდევ ერთ მიდგომაზე. ეს არის გადაწყვეტილების წესების ე.წ. გუნდები (CRC).

ვინაიდან ამოცნობის სხვადასხვა ალგორითმები განსხვავებულად იქცევიან ობიექტების ერთსა და იმავე ნიმუშზე, ბუნებრივად ჩნდება კითხვა სინთეზური გადაწყვეტილების წესის შესახებ, რომელიც ადაპტირებულად იყენებს ამ ალგორითმების ძლიერ მხარეებს. სინთეზური გადაწყვეტილების წესი იყენებს ორ დონის ამოცნობის სქემას. პირველ დონეზე მუშაობს კერძო ამოცნობის ალგორითმები, რომელთა შედეგები გაერთიანებულია მეორე დონეზე სინთეზის ბლოკში. ასეთი კომბინაციის ყველაზე გავრცელებული მეთოდები ეფუძნება კონკრეტული ალგორითმის კომპეტენციის სფეროების განაწილებას. კომპეტენციის სფეროების პოვნის უმარტივესი გზაა ატრიბუტების სივრცის აპრიორი გაყოფა კონკრეტული მეცნიერების პროფესიულ მოსაზრებებზე დაყრდნობით (მაგალითად, ნიმუშის სტრატიფიკაცია რომელიმე ატრიბუტის მიხედვით). შემდეგ, თითოეული შერჩეული სფეროსთვის, აგებულია საკუთარი ამოცნობის ალგორითმი. სხვა მეთოდი ემყარება ფორმალური ანალიზის გამოყენებას, რათა განისაზღვროს ფუნქციური სივრცის ლოკალური არეები, როგორც ცნობადი ობიექტების უბნები, რისთვისაც დადასტურებულია ნებისმიერი კონკრეტული ამოცნობის ალგორითმის წარმატება.

სინთეზური ბლოკის აგების ყველაზე ზოგადი მიდგომა განიხილავს ნაწილობრივი ალგორითმების მიღებულ ინდიკატორებს, როგორც საწყის მახასიათებლებს ახალი განზოგადებული გადაწყვეტილების წესის ასაგებად. ამ შემთხვევაში, შაბლონის ამოცნობაში ინტენსიური და გაფართოებული მიმართულებების ყველა ზემოაღნიშნული მეთოდის გამოყენება შეიძლება. გადაწყვეტილების წესების შექმნის პრობლემის გადასაჭრელად ეფექტურია „კორას“ ტიპის ლოგიკური ალგორითმები და შეფასებების გამოთვლის ალგორითმები (ABO), რომლებიც ქმნიან ე.წ. ალგებრული მიდგომის საფუძველს, რომელიც უზრუნველყოფს კვლევას და ამოცნობის ალგორითმები, რომლებშიც ჯდება ყველა არსებული ტიპის ალგორითმები.

ნიმუშის ამოცნობის მეთოდების შედარებითი ანალიზი

მოდით შევადაროთ ზემოთ აღწერილი ნიმუშის ამოცნობის მეთოდები და შევაფასოთ მათი ადეკვატურობის ხარისხი 3.3.3 ნაწილში ჩამოყალიბებულ მოთხოვნებთან SDA მოდელებისთვის რთული სისტემების ადაპტური ავტომატური მართვის სისტემებისთვის.

ინტენსიური მიმართულების მეთოდების ჯგუფიდან რეალური პრობლემების გადასაჭრელად პრაქტიკული მნიშვნელობა აქვს პარამეტრულ მეთოდებს და მეთოდებს, რომლებიც დაფუძნებულია წინადადებებზე გადამწყვეტი ფუნქციების ფორმაზე. პარამეტრული მეთოდები ემყარება ინდიკატორების აგების ტრადიციულ მეთოდოლოგიას. ამ მეთოდების გამოყენება რეალურ პრობლემებში დაკავშირებულია მონაცემთა სტრუქტურაზე ძლიერი შეზღუდვების დაწესებასთან, რაც იწვევს ხაზოვანი დიაგნოსტიკური მოდელების შექმნას მათი პარამეტრების ძალიან სავარაუდო შეფასებით. გადაწყვეტილების ფუნქციების ფორმის შესახებ ვარაუდებზე დაფუძნებული მეთოდების გამოყენებისას მკვლევარი ასევე იძულებულია მიმართოს ხაზოვან მოდელებს. ეს განპირობებულია ფუნქციების სივრცის მაღალი განზომილებით, რაც დამახასიათებელია რეალური პრობლემებისთვის, რაც, პოლინომიური გადაწყვეტილების ფუნქციის ხარისხის გაზრდით, იძლევა უზარმაზარ ზრდას მისი წევრების რაოდენობაში პრობლემური თანმხლები ზრდით. აღიარების ხარისხი. ამრიგად, რეალურ პრობლემებზე ინტენსიური ამოცნობის მეთოდების პოტენციური გამოყენების არეალის დაპროექტებით, ჩვენ ვიღებთ სურათს, რომელიც შეესაბამება ხაზოვანი დიაგნოსტიკური მოდელების კარგად დამკვიდრებულ ტრადიციულ მეთოდოლოგიას.

კარგად არის შესწავლილი ხაზოვანი დიაგნოსტიკური მოდელების თვისებები, რომლებშიც დიაგნოსტიკური მაჩვენებელი წარმოდგენილია საწყისი მახასიათებლების შეწონილი ჯამით. ამ მოდელების შედეგები (ადეკვატური ნორმალიზებით) ინტერპრეტირებულია, როგორც მანძილი შესასწავლი ობიექტებიდან ზოგიერთ ჰიპერპლანტამდე ფუნქციების სივრცეში ან, ექვივალენტურად, როგორც ობიექტების პროექცია მოცემულ სივრცეში რაიმე სწორ ხაზზე. აქედან გამომდინარე, ხაზოვანი მოდელები ადეკვატურია მხოლოდ ფუნქციური სივრცის რეგიონების მარტივი გეომეტრიული კონფიგურაციისთვის, რომლებშიც სხვადასხვა დიაგნოსტიკური კლასის ობიექტებია გამოსახული. უფრო რთული განაწილებით, ეს მოდელები ფუნდამენტურად ვერ ასახავს ექსპერიმენტული მონაცემთა სტრუქტურის ბევრ მახასიათებელს. ამავდროულად, ასეთ მახასიათებლებს შეუძლიათ ღირებული დიაგნოსტიკური ინფორმაციის მიწოდება.

ამავდროულად, მარტივი მრავალგანზომილებიანი სტრუქტურების ნებისმიერ რეალურ პრობლემაში გამოჩენა (კერძოდ, მრავალგანზომილებიანი ნორმალური განაწილება) უნდა განიხილებოდეს როგორც გამონაკლისი და არა როგორც წესი. ხშირად, დიაგნოსტიკური კლასები ყალიბდება რთული გარე კრიტერიუმების საფუძველზე, რაც ავტომატურად იწვევს ამ კლასების გეომეტრიულ ჰეტეროგენულობას ფუნქციურ სივრცეში. ეს განსაკუთრებით ეხება „სიცოცხლის“ კრიტერიუმებს, რომლებიც ყველაზე ხშირად გვხვდება პრაქტიკაში. ასეთ პირობებში, ხაზოვანი მოდელების გამოყენება ასახავს ექსპერიმენტული ინფორმაციის მხოლოდ ყველაზე „უხეში“ ნიმუშებს.

გაფართოებული მეთოდების გამოყენება არ უკავშირდება რაიმე ვარაუდს ექსპერიმენტული ინფორმაციის სტრუქტურის შესახებ, გარდა იმისა, რომ აღიარებულ კლასებში უნდა არსებობდეს ობიექტების ერთი ან მეტი ჯგუფი, რომლებიც გარკვეულწილად მსგავსია და სხვადასხვა კლასის ობიექტები უნდა განსხვავდებოდეს ერთმანეთისგან ზოგიერთში. გზა. აშკარაა, რომ სასწავლო ნიმუშის ნებისმიერი სასრული განზომილებისთვის (და ის არ შეიძლება იყოს განსხვავებული), ეს მოთხოვნა ყოველთვის სრულდება მხოლოდ იმიტომ, რომ ობიექტებს შორის არის შემთხვევითი განსხვავებები. მსგავსების საზომად გამოიყენება ობიექტების სიახლოვის (მანძილის) სხვადასხვა საზომი ფუნქციურ სივრცეში. მაშასადამე, გაფართოებული ნიმუშის ამოცნობის მეთოდების ეფექტური გამოყენება დამოკიდებულია იმაზე, თუ რამდენად კარგად არის განსაზღვრული სიახლოვის ეს ზომები, ასევე იმაზე, თუ რომელი სასწავლო ნიმუშის ობიექტები (ობიექტები ცნობილი კლასიფიკაციით) ასრულებენ დიაგნოსტიკური პრეცედენტების როლს. ამ პრობლემების წარმატებული გადაწყვეტა იძლევა შედეგს, რომელიც უახლოვდება აღიარების ეფექტურობის თეორიულად მისაღწევ საზღვრებს.

ნიმუშის ამოცნობის გაფართოებული მეთოდების უპირატესობებს უპირისპირდება, პირველ რიგში, მათი პრაქტიკული განხორციელების მაღალი ტექნიკური სირთულე. მაღალგანზომილებიანი ფუნქციური სივრცეებისთვის, ერთი შეხედვით მარტივი ამოცანა, რომ იპოვოთ უახლოესი წერტილების წყვილი, სერიოზულ პრობლემად იქცევა. ასევე, ბევრი ავტორი პრობლემად აღნიშნავს საკმარისად დიდი რაოდენობის ობიექტების დამახსოვრების აუცილებლობას, რომლებიც წარმოადგენენ ცნობადი კლასებს.

თავისთავად, ეს არ არის პრობლემა, მაგრამ ის აღიქმება როგორც პრობლემა (მაგალითად, k უახლოეს მეზობლების მეთოდით) იმ მიზეზით, რომ თითოეული ობიექტის ამოცნობისას ხდება სასწავლო ნიმუშში არსებული ყველა ობიექტის სრული ჩამოთვლა.

აქედან გამომდინარე, მიზანშეწონილია გამოვიყენოთ აღიარების სისტემის მოდელი, რომელშიც ამოღებულია სასწავლო ნიმუშის ობიექტების სრული ჩამოთვლის პრობლემა ამოცნობის დროს, რადგან ის ხორციელდება მხოლოდ ერთხელ ამოცნობის კლასების განზოგადებული სურათების ფორმირებისას. თავად ამოცნობაში, იდენტიფიცირებული ობიექტი შედარებულია მხოლოდ ამოცნობის კლასების განზოგადებულ სურათებთან, რომელთა რაოდენობა ფიქსირდება და საერთოდ არ არის დამოკიდებული სასწავლო ნიმუშის განზომილებაზე. ეს მიდგომა საშუალებას გაძლევთ გაზარდოთ სასწავლო ნიმუშის განზომილება მანამ, სანამ არ მიიღწევა განზოგადებული სურათების საჭირო მაღალი ხარისხი, ყოველგვარი შიშის გარეშე, რომ ამან შეიძლება გამოიწვიოს ამოცნობის დროის მიუღებელი ზრდა (რადგან ამ მოდელში ამოცნობის დრო არ არის დამოკიდებული ტრენინგის განზომილება საერთოდ).ნიმუშები).

გაფართოებული ამოცნობის მეთოდების გამოყენების თეორიული პრობლემები დაკავშირებულია მახასიათებლების საინფორმაციო ჯგუფების ძიების, ობიექტების მსგავსებისა და განსხვავების გაზომვის ოპტიმალური მეტრიკის და ექსპერიმენტული ინფორმაციის სტრუქტურის ანალიზთან. ამავდროულად, ამ პრობლემების წარმატებული გადაწყვეტა საშუალებას იძლევა არა მხოლოდ ეფექტური ამოცნობის ალგორითმების შემუშავება, არამედ ემპირიული ფაქტების გაფართოებული ცოდნიდან გადასვლა მათი სტრუქტურის ნიმუშების შესახებ ინტენსიურ ცოდნაზე.

გაფართოებული ცოდნიდან ინტენსიურ ცოდნაზე გადასვლა ხდება იმ ეტაპზე, როდესაც ფორმალური აღიარების ალგორითმი უკვე აგებულია და მისი ეფექტურობა დემონსტრირებულია. შემდეგ ტარდება იმ მექანიზმების შესწავლა, რომლითაც მიიღწევა მიღებული ეფექტურობა. ასეთი კვლევა, რომელიც დაკავშირებულია მონაცემთა გეომეტრიული სტრუქტურის ანალიზთან, შეიძლება, მაგალითად, მიგვიყვანოს დასკვნამდე, რომ საკმარისია კონკრეტული დიაგნოსტიკური კლასის წარმომადგენლის ობიექტების შეცვლა ერთი ტიპიური წარმომადგენლით (პროტოტიპი). ეს ექვივალენტურია, როგორც ზემოთ აღინიშნა, ტრადიციული ხაზოვანი დიაგნოსტიკური მასშტაბის. ასევე შესაძლებელია, რომ საკმარისია თითოეული სადიაგნოსტიკო კლასის ჩანაცვლება რამდენიმე ობიექტით, რომლებიც მნიშვნელოვანია, როგორც ზოგიერთი ქვეკლასის ტიპიური წარმომადგენელი, რაც ტოლფასია წრფივი მასშტაბის გულშემატკივართა აგების. არის სხვა ვარიანტებიც, რომლებიც ქვემოთ იქნება განხილული.

ამრიგად, ამოცნობის მეთოდების მიმოხილვა აჩვენებს, რომ ამჟამად თეორიულად შემუშავებულია ნიმუშის ამოცნობის მრავალი განსხვავებული მეთოდი. ლიტერატურაში მოცემულია მათი დეტალური კლასიფიკაცია. თუმცა, ამ მეთოდების უმეტესობისთვის, მათი პროგრამული უზრუნველყოფის დანერგვა არ არის და ეს ღრმად ბუნებრივია, შეიძლება ითქვას, „წინასწარ განსაზღვრულია“ თავად ამოცნობის მეთოდების მახასიათებლებით. ეს შეიძლება ვიმსჯელოთ იმით, რომ ასეთი სისტემები ნაკლებად არის ნახსენები სპეციალიზებულ ლიტერატურაში და ინფორმაციის სხვა წყაროებში.

შესაბამისად, არასაკმარისად არის განვითარებული გარკვეული თეორიული ამოცნობის მეთოდების პრაქტიკული გამოყენების საკითხი რეალური (ანუ საკმაოდ მნიშვნელოვანი) მონაცემთა ზომებით და რეალურ თანამედროვე კომპიუტერებზე პრაქტიკული პრობლემების გადასაჭრელად.

ზემოაღნიშნული გარემოება გასაგებია, თუ გავიხსენებთ, რომ მათემატიკური მოდელის სირთულე ექსპონენტურად ზრდის სისტემის პროგრამული უზრუნველყოფის დანერგვის სირთულეს და იმავე ზომით ამცირებს ამ სისტემის პრაქტიკაში მუშაობის შანსებს. ეს ნიშნავს, რომ ბაზარზე შეიძლება დანერგილი იყოს მხოლოდ პროგრამული სისტემები, რომლებიც დაფუძნებულია საკმაოდ მარტივ და „გამჭვირვალე“ მათემატიკურ მოდელებზე. ამიტომ, დეველოპერი, რომელიც დაინტერესებულია თავისი პროგრამული პროდუქტის გამეორებით, მათემატიკური მოდელის არჩევის საკითხს უახლოვდება არა წმინდა მეცნიერული თვალსაზრისით, არამედ როგორც პრაგმატისტი, პროგრამული უზრუნველყოფის დანერგვის შესაძლებლობების გათვალისწინებით. მას მიაჩნია, რომ მოდელი მაქსიმალურად მარტივი უნდა იყოს, რაც იმას ნიშნავს, რომ დაბალ ფასად და ხარისხიანად უნდა განხორციელდეს და ასევე იმუშაოს (იყოს პრაქტიკულად ეფექტური).

ამასთან დაკავშირებით, ამოცნობის სისტემებში დანერგვის ამოცანაა იმავე კლასს მიეკუთვნება ობიექტების აღწერილობების განზოგადება, ე.ი. კომპაქტური განზოგადებული სურათების ფორმირების მექანიზმი. აშკარაა, რომ ასეთი განზოგადების მექანიზმი საშუალებას მისცემს ნებისმიერი სასწავლო ნიმუშის „შეკუმშვას“ განზომილების თვალსაზრისით წინასწარ ცნობილი განზოგადებული სურათების ბაზაზე. ეს ასევე საშუალებას მოგვცემს დავაყენოთ და გადავჭრათ მთელი რიგი პრობლემები, რომელთა ფორმულირებაც კი შეუძლებელია ამოცნობის ისეთ მეთოდებში, როგორიცაა შედარება პროტოტიპის მეთოდთან, k უახლოეს მეზობლების მეთოდთან და ABO.

ეს არის დავალებები:

  • განზოგადებული სურათის საინფორმაციო პორტრეტში მახასიათებლების ინფორმაციული წვლილის განსაზღვრა;
  • განზოგადებული სურათების კლასტერულ-კონსტრუქციული ანალიზი;
  • ატრიბუტის სემანტიკური დატვირთვის განსაზღვრა;
  • მახასიათებლების სემანტიკური კლასტერულ-კონსტრუქციული ანალიზი;
  • განზოგადებული კლასის გამოსახულებების ერთმანეთთან და მახასიათებლების მნიშვნელოვანი შედარება (კოგნიტური დიაგრამები, მერლინის დიაგრამების ჩათვლით).

მეთოდი, რომელმაც შესაძლებელი გახადა ამ პრობლემების გადაწყვეტის მიღწევა, ასევე განასხვავებს მასზე დაფუძნებულ პერსპექტიულ სისტემას სხვა სისტემებისგან, ისევე როგორც შემდგენელები განსხვავდებიან ინტერპრეტატორებისგან, რადგან ამ პერსპექტიულ სისტემაში განზოგადებული სურათების ფორმირების გამო, ამოცნობის დრო დამოუკიდებელია. სასწავლო ნიმუშის ზომა. ცნობილია, რომ სწორედ ამ დამოკიდებულების არსებობა იწვევს ისეთ მეთოდებში, როგორიცაა k უახლოესი მეზობლების მეთოდი, ABO და CLD ამოცნობაზე პრაქტიკულად მიუღებელ კომპიუტერულ დროს, როდესაც შეგვიძლია ვისაუბროთ საკმარის სტატისტიკაზე. .

ამოცნობის მეთოდების მოკლე მიმოხილვის დასასრულს, ჩვენ წარმოვადგენთ ზემოაღნიშნულის არსს შემაჯამებელ ცხრილში (ცხრილი 3.1), რომელიც შეიცავს ნიმუშის ამოცნობის სხვადასხვა მეთოდების მოკლე აღწერას შემდეგ პარამეტრებში:

  • ამოცნობის მეთოდების კლასიფიკაცია;
  • აღიარების მეთოდების გამოყენების სფეროები;
  • ამოცნობის მეთოდების შეზღუდვების კლასიფიკაცია.
ამოცნობის მეთოდების კლასიფიკაცია განაცხადის არეალი შეზღუდვები (მინუსები)
ამოცნობის ინტენსიური მეთოდები მეთოდები, რომლებიც დაფუძნებულია მახასიათებლების მნიშვნელობების განაწილების სიმკვრივის შეფასებებზე (ან მსგავსებებსა და განსხვავებებს შორის ობიექტებს შორის) პრობლემები ცნობილი განაწილებით, ჩვეულებრივ ნორმალური, დიდი სტატისტიკის შეგროვების საჭიროება ამოცნობის დროს მთელი სავარჯიშო ნაკრების ჩამოთვლის აუცილებლობა, მაღალი მგრძნობელობა სავარჯიშო ნაკრებისა და არტეფაქტების არაწარმომადგენლობით
გადაწყვეტილების ფუნქციების კლასის შესახებ დაშვებებზე დაფუძნებული მეთოდები კლასები უნდა იყოს კარგად განცალკევებული, ფუნქციების სისტემა უნდა იყოს ორთონორმალური გადაწყვეტილების ფუნქციის ფორმა წინასწარ უნდა იყოს ცნობილი. მახასიათებლებს შორის კორელაციის შესახებ ახალი ცოდნის გათვალისწინების შეუძლებლობა
ლოგიკური მეთოდები ლოგიკური გადაწყვეტილების წესების (კავშირების) შერჩევისას აუცილებელია სრული ჩამოთვლა. მაღალი გამოთვლითი სირთულე
ლინგვისტური (სტრუქტურული) მეთოდები მხატვრული სივრცის მცირე განზომილების პრობლემები გრამატიკის აღდგენის (განსაზღვრების) ამოცანა განცხადებების გარკვეული ნაკრებიდან (ობიექტების აღწერილობებიდან) რთულია ფორმალიზება. გადაუჭრელი თეორიული პრობლემები
ამოცნობის გაფართოებული მეთოდები პროტოტიპის შედარების მეთოდი მხატვრული სივრცის მცირე განზომილების პრობლემები კლასიფიკაციის შედეგების მაღალი დამოკიდებულება მანძილის ზომებზე (მეტრიკა). უცნობი ოპტიმალური მეტრიკა
k უახლოესი მეზობლის მეთოდი კლასიფიკაციის შედეგების მაღალი დამოკიდებულება მანძილის ზომებზე (მეტრიკა). ამოცნობის დროს სასწავლო ნიმუშის სრული აღრიცხვის აუცილებლობა. გამოთვლითი სირთულე
ნიშნების გამოთვლის ალგორითმები (კენჭისყრა) AVO მცირე განზომილების პრობლემები კლასების რაოდენობისა და მახასიათებლების თვალსაზრისით კლასიფიკაციის შედეგების დამოკიდებულება მანძილის საზომზე (მეტრული). ამოცნობის დროს სასწავლო ნიმუშის სრული აღრიცხვის აუცილებლობა. მეთოდის მაღალი ტექნიკური სირთულე
გადამწყვეტი წესების კოლექტივები (CRC) მცირე განზომილების პრობლემები კლასების რაოდენობისა და მახასიათებლების თვალსაზრისით მეთოდის ძალიან მაღალი ტექნიკური სირთულე, თეორიული პრობლემების გადაუჭრელი რაოდენობა, როგორც კონკრეტული მეთოდების კომპეტენციის სფეროების განსაზღვრისას, ასევე თავად კონკრეტულ მეთოდებში.

ცხრილი 3.1 - ამოცნობის მეთოდების კლასიფიკაციის შემაჯამებელი ცხრილი, მათი გამოყენების სფეროებისა და შეზღუდვების შედარება.

ნიმუშის ამოცნობის როლი და ადგილი რთული სისტემების მართვის ავტომატიზაციაში

ავტომატური მართვის სისტემა შედგება ორი ძირითადი ნაწილისაგან: საკონტროლო ობიექტი და კონტროლის სისტემა.

კონტროლის სისტემა ასრულებს შემდეგ ფუნქციებს:

  • საკონტროლო ობიექტის მდგომარეობის იდენტიფიცირება;
  • მართვის მიზნებიდან გამომდინარე საკონტროლო მოქმედების შემუშავება საკონტროლო ობიექტისა და გარემოს მდგომარეობის გათვალისწინებით;
  • უზრუნველყოფს საკონტროლო ეფექტს საკონტროლო ობიექტზე.

ნიმუშის ამოცნობა სხვა არაფერია, თუ არა რომელიმე ობიექტის მდგომარეობის იდენტიფიკაცია.

ამრიგად, საკონტროლო ობიექტის მდგომარეობის იდენტიფიცირების ეტაპზე ნიმუშის ამოცნობის სისტემის გამოყენების შესაძლებლობა საკმაოდ აშკარა და ბუნებრივი ჩანს. თუმცა, ეს შეიძლება არ იყოს საჭირო. აქედან გამომდინარე, ჩნდება კითხვა, რომელ შემთხვევებში არის მიზანშეწონილი ამოცნობის სისტემის გამოყენება ავტომატური მართვის სისტემაში და რომლებში არა.

ლიტერატურის მონაცემების მიხედვით, ბევრ ადრე შემუშავებულ და თანამედროვე ავტომატიზირებულ მართვის სისტემაში ქვესისტემებში საკონტროლო ობიექტის მდგომარეობის იდენტიფიცირებისა და საკონტროლო მოქმედებების წარმოქმნის მიზნით გამოიყენება „პირდაპირი დათვლის“ დეტერმინისტული მათემატიკური მოდელები, რომლებიც ცალსახად და მარტივად განსაზღვრავს რა. გააკეთეთ საკონტროლო ობიექტთან, თუ მას აქვს გარკვეული გარე პარამეტრები.

ამავდროულად, კითხვა, თუ როგორ არის დაკავშირებული ეს პარამეტრები საკონტროლო ობიექტის გარკვეულ მდგომარეობებთან, არ არის დასმული ან გადაწყვეტილი. ეს პოზიცია შეესაბამება თვალსაზრისს, რომელიც მდგომარეობს იმაში, რომ მათი ერთი-ერთზე ურთიერთობა მიღებულია „ნაგულისხმევად“. ამიტომ ტერმინები: „საკონტროლო ობიექტის პარამეტრები“ და „საკონტროლო ობიექტის მდგომარეობა“ განიხილება სინონიმებად, ხოლო ცნება „საკონტროლო ობიექტის მდგომარეობა“ ცალსახად არ არის შემოტანილი. თუმცა, აშკარაა, რომ ზოგადად, საკონტროლო ობიექტის დაკვირვებულ პარამეტრებსა და მის მდგომარეობას შორის ურთიერთობა დინამიური და სავარაუდოა.

ამრიგად, ტრადიციული ავტომატური მართვის სისტემები არსებითად არის პარამეტრული კონტროლის სისტემები, ე.ი. სისტემები, რომლებიც მართავენ არა საკონტროლო ობიექტის მდგომარეობას, არამედ მხოლოდ მის დაკვირვებად პარამეტრებს. საკონტროლო მოქმედებაზე გადაწყვეტილება მიიღება ისეთ სისტემებში თითქოს „ბრმად“, ე.ი. საკონტროლო ობიექტისა და გარემოს ამჟამინდელ მდგომარეობაში ჰოლისტიკური გამოსახულების ჩამოყალიბების გარეშე, აგრეთვე გარემოს განვითარებისა და საკონტროლო ობიექტის რეაქციის წინასწარმეტყველების გარეშე, მასზე გარკვეულ საკონტროლო მოქმედებებზე, მოქმედებენ ერთდროულად გარემოს პროგნოზირებულ გავლენასთან. .

ამ ნაშრომში შემუშავებული პოზიციებიდან გამომდინარე, ტერმინი „გადაწყვეტილების მიღება“ თანამედროვე გაგებით ძნელად გამოიყენება ტრადიციული ავტომატური მართვის სისტემებზე. ფაქტია, რომ „გადაწყვეტილების მიღება“, სულ მცირე, მოიცავს ობიექტის ჰოლისტურ ხედვას გარემოში და არა მხოლოდ მათ ამჟამინდელ მდგომარეობაში, არამედ დინამიკაშიც და ურთიერთქმედებაში როგორც ერთმანეთთან, ისე საკონტროლო სისტემასთან. მოიცავს მთელი ამ სისტემის განვითარების სხვადასხვა ალტერნატიული ვარიანტების განხილვას, ასევე ამ ალტერნატივების მრავალფეროვნების (შემცირების) შემცირებას გარკვეული სამიზნე კრიტერიუმებიდან გამომდინარე. არცერთი მათგანი, ცხადია, არ არის ტრადიციულ ACS-ში, ან არის, მაგრამ გამარტივებული ფორმით.

რა თქმა უნდა, ტრადიციული მეთოდი ადეკვატურია და მისი გამოყენება საკმაოდ სწორი და გამართლებულია იმ შემთხვევებში, როდესაც საკონტროლო ობიექტი მართლაც სტაბილური და მკაცრად განსაზღვრული სისტემაა და მასზე გარემოს გავლენა შეიძლება უგულებელყო.

თუმცა, სხვა შემთხვევებში ეს მეთოდი არაეფექტურია.

თუ საკონტროლო ობიექტი დინამიურია, მაშინ მოდელები, რომლებიც საფუძვლად უდევს მის საკონტროლო ალგორითმებს, სწრაფად ხდება არაადეკვატური, რადგან იცვლება შეყვანისა და გამომავალი პარამეტრებს შორის ურთიერთობა, ისევე როგორც თავად არსებითი პარამეტრების ნაკრები. არსებითად, ეს ნიშნავს, რომ ტრადიციულ ავტომატიზირებულ საკონტროლო სისტემებს შეუძლიათ გააკონტროლონ საკონტროლო ობიექტის მდგომარეობა მხოლოდ წონასწორობის წერტილთან ახლოს მასზე სუსტი კონტროლის მოქმედებების საშუალებით, ე.ი. მცირე დარღვევების მეთოდით. წონასწორობის მდგომარეობიდან შორს, ტრადიციული თვალსაზრისით, საკონტროლო ობიექტის ქცევა გამოიყურება არაპროგნოზირებადი და უკონტროლო.

თუ არ არის ცალსახა კავშირი საკონტროლო ობიექტის შემავალ და გამომავალ პარამეტრებს შორის (ანუ შეყვანის პარამეტრებსა და ობიექტის მდგომარეობას შორის), სხვა სიტყვებით რომ ვთქვათ, თუ ამ ურთიერთობას აქვს გამოხატული ალბათური ბუნება, მაშინ დეტერმინისტული მოდელები, რომელიც ვარაუდობენ, რომ გარკვეული პარამეტრის გაზომვის შედეგი არის უბრალოდ რიცხვი, თავდაპირველად შეუსაბამო. გარდა ამისა, ამ ურთიერთობის ფორმა შეიძლება უბრალოდ უცნობი იყოს, შემდეგ კი აუცილებელია გავითვალისწინოთ ყველაზე ზოგადი ვარაუდი: რომ ის ალბათურია, ან საერთოდ არ არის განსაზღვრული.

ტრადიციულ პრინციპებზე აგებულ ავტომატურ საკონტროლო სისტემას შეუძლია იმუშაოს მხოლოდ იმ პარამეტრების საფუძველზე, რომელთა ურთიერთობის ნიმუშები უკვე ცნობილია, შესწავლილია და აისახება მათემატიკური მოდელში. სისტემები, რომლებიც საშუალებას მისცემს შექმნას სისტემები, რომლებსაც შეუძლიათ ყველაზე მნიშვნელოვანი პარამეტრების იდენტიფიცირება და დაყენება და მათ შორის კავშირების ბუნება და საკონტროლო ობიექტის მდგომარეობა.

ამ შემთხვევაში აუცილებელია რეალურ სიტუაციაში უფრო განვითარებული და ადეკვატური გაზომვის მეთოდების გამოყენება:

  • კლასიფიკაცია ან ნიმუშის ამოცნობა (სწავლება ტრენინგის ნიმუშზე დაფუძნებული, ამოცნობის ალგორითმების ადაპტირება, კლასების კომპლექტებისა და შესწავლილი პარამეტრების ადაპტაცია, ყველაზე მნიშვნელოვანი პარამეტრების შერჩევა და აღწერის განზომილების შემცირება მოცემული ზედმეტობის შენარჩუნებით და ა.შ.);
  • სტატისტიკური გაზომვები, როდესაც გარკვეული პარამეტრის გაზომვის შედეგი არის არა ერთი რიცხვი, არამედ ალბათობის განაწილება: სტატისტიკური ცვლადის ცვლილება თავისთავად არ ნიშნავს მისი მნიშვნელობის ცვლილებას, არამედ ალბათობის განაწილების მახასიათებლების ცვლილებას. მისი ღირებულებები.

შედეგად, ტრადიციულ დეტერმინისტულ მიდგომაზე დაფუძნებული ავტომატური კონტროლის სისტემები პრაქტიკულად არ მუშაობს რთულ დინამიურ მრავალპარამეტრულ სუსტად განსაზღვრულ საკონტროლო ობიექტებთან, როგორიცაა, მაგალითად, მაკრო და მიკრო-სოციო-ეკონომიკური სისტემები დინამიურ ეკონომიკაში. გარდამავალი პერიოდი“, იერარქიული ელიტა და ეთნიკური ჯგუფები, საზოგადოება და ამომრჩეველი, ადამიანის ფიზიოლოგია და ფსიქიკა, ბუნებრივი და ხელოვნური ეკოსისტემები და მრავალი სხვა.

ძალიან საგულისხმოა, რომ 80-იანი წლების შუა ხანებში ი.პრიგოჟინის სკოლამ შეიმუშავა მიდგომა, რომლის მიხედვითაც ნებისმიერი სისტემის (მათ შორის პიროვნების) განვითარებისას პერიოდები ენაცვლება, რომლებშიც სისტემა იქცევა ან „ძირითადად დეტერმინისტულად“. ან როგორც "ძირითადად შემთხვევითი". ბუნებრივია, რეალურმა საკონტროლო სისტემამ სტაბილურად უნდა მართოს საკონტროლო ობიექტი არა მხოლოდ მისი ისტორიის „დეტერმინისტულ“ მონაკვეთებზე, არამედ იმ მომენტებშიც, როდესაც მისი შემდგომი ქცევა ძალზე გაურკვეველი ხდება. ეს მხოლოდ იმას ნიშნავს, რომ აუცილებელია იმ სისტემების მართვის მიდგომების შემუშავება, რომელთა ქცევაში არის შემთხვევითობის დიდი ელემენტი (ან რაც ამჟამად მათემატიკურად არის აღწერილი, როგორც „შემთხვევა“).

მაშასადამე, პერსპექტიული ავტომატური მართვის სისტემების შემადგენლობა, რომლებიც უზრუნველყოფენ რთული დინამიური მრავალპარამეტრული სუსტ დეტერმინისტული სისტემების კონტროლს, როგორც არსებითი ფუნქციონალური რგოლი, აშკარად მოიცავს ქვესისტემებს გარემოსა და კონტროლის ობიექტის მდგომარეობის იდენტიფიკაციისა და პროგნოზირებისთვის, ხელოვნური ინტელექტის მეთოდებზე დაყრდნობით. (პირველ რიგში შაბლონის ამოცნობა), გადაწყვეტილების მიღების მხარდაჭერის მეთოდები და ინფორმაციის თეორია.

მოდით მოკლედ განვიხილოთ გამოსახულების ამომცნობი სისტემების გამოყენების საკითხი საკონტროლო მოქმედების შესახებ გადაწყვეტილების მისაღებად (ეს საკითხი უფრო დეტალურად მოგვიანებით იქნება განხილული, რადგან ეს არის მთავარი ამ სამუშაოსთვის). თუ ავიღებთ საკონტროლო ობიექტის სამიზნეს და სხვა მდგომარეობებს, როგორც ამოცნობის კლასებს, და მასზე გავლენის ფაქტორებს, როგორც მახასიათებლებს, მაშინ ფაქტორებსა და მდგომარეობებს შორის ურთიერთობის საზომი შეიძლება ჩამოყალიბდეს ნიმუშის ამოცნობის მოდელში. ეს საშუალებას გაძლევთ მიიღოთ ინფორმაცია იმ ფაქტორების შესახებ, რომლებიც ხელს უწყობენ ან აფერხებენ მის გადასვლას ამ მდგომარეობაზე, საკონტროლო ობიექტის მოცემულ მდგომარეობაზე დაყრდნობით და, ამის საფუძველზე, შემუშავდეს გადაწყვეტილება საკონტროლო მოქმედების შესახებ.

ფაქტორები შეიძლება დაიყოს შემდეგ ჯგუფებად:

  • საკონტროლო ობიექტის პრეისტორიის დახასიათება;
  • საკონტროლო ობიექტის მიმდინარე მდგომარეობის დახასიათება;
  • გარემო ფაქტორები;
  • ტექნოლოგიური (მართული) ფაქტორები.

ამრიგად, გამოსახულების ამოცნობის სისტემები შეიძლება გამოყენებულ იქნას როგორც ავტომატური კონტროლის სისტემის ნაწილი: ქვესისტემებში საკონტროლო ობიექტის მდგომარეობის იდენტიფიცირებისთვის და საკონტროლო მოქმედებების გენერირებისთვის.

ეს სასარგებლოა, როდესაც საკონტროლო ობიექტი რთული სისტემაა.

ავტომატური მართვის სისტემაში საკონტროლო მოქმედების შესახებ გადაწყვეტილების მიღება

კომპლექსური სისტემების მიერ ადაპტური ავტომატური მართვის სისტემების სინთეზის პრობლემის გადაწყვეტა განხილულია ამ ნაშრომში, მრავალრიცხოვანი და ღრმა ანალოგიების გათვალისწინებით ნიმუშის ამოცნობისა და გადაწყვეტილების მიღების მეთოდებს შორის.

ერთის მხრივ, ნიმუშის ამოცნობის ამოცანა არის გადაწყვეტილება ცნობადი ობიექტის კუთვნილების შესახებ გარკვეული ამოცნობის კლასში.

მეორე მხრივ, ავტორები გვთავაზობენ გადაწყვეტილების მიღების პრობლემის განხილვას, როგორც დეკოდირების ინვერსიულ პრობლემას ან შაბლონის ამოცნობის ინვერსიულ პრობლემას (იხ. სექცია 2.2.2).

ძირითადი იდეების საერთოობა, რომლებიც საფუძვლად უდევს ნიმუშების ამოცნობისა და გადაწყვეტილების მიღების მეთოდებს, განსაკუთრებით აშკარა ხდება ინფორმაციის თეორიის პოზიციიდან განხილვისას.

გადაწყვეტილების მიმღები ამოცანების მრავალფეროვნება

გადაწყვეტილების მიღება, როგორც მიზნის განხორციელება

განმარტება: გადაწყვეტილების მიღება („არჩევანი“) არის მოქმედება ალტერნატივების ერთობლიობაზე, რის შედეგადაც ვიწროვდება ალტერნატივების თავდაპირველი ნაკრები, ე.ი. ის მცირდება.

არჩევანი არის მოქმედება, რომელიც ანიჭებს მიზანმიმართულობას ყველა აქტივობას. არჩევითი აქტების მეშვეობით ხდება მთელი საქმიანობის დაქვემდებარება კონკრეტულ მიზანზე ან ურთიერთდაკავშირებულ მიზნებზე.

ამდენად, იმისათვის, რომ არჩევანის აქტი გახდეს შესაძლებელი, აუცილებელია შემდეგი:

  • ალტერნატივების ნაკრების შექმნა ან აღმოჩენა, რომლებზედაც უნდა გაკეთდეს არჩევანი;
  • მიზნების განსაზღვრა, რომლის მიღწევისთვისაც ხდება არჩევანი;
  • ალტერნატივების ერთმანეთთან შედარების მეთოდის შემუშავება და გამოყენება, ე.ი. თითოეული ალტერნატივის უპირატესობის რეიტინგის განსაზღვრა გარკვეული კრიტერიუმების მიხედვით, რაც საშუალებას იძლევა ირიბად შეფასდეს, თუ როგორ აკმაყოფილებს თითოეული ალტერნატივა მიზანს.

გადაწყვეტილების მხარდაჭერის სფეროში თანამედროვე მუშაობამ გამოავლინა დამახასიათებელი სიტუაცია, რომელიც მდგომარეობს იმაში, რომ საუკეთესო (გარკვეული გაგებით) გადაწყვეტის პოვნის სრული ფორმალიზაცია შესაძლებელია მხოლოდ კარგად შესწავლილი, შედარებით მარტივი პრობლემებისთვის, მაშინ როცა პრაქტიკაში, უფრო ხშირია სუსტად სტრუქტურირებული პრობლემები, რომლებისთვისაც არ არის შემუშავებული სრულიად ფორმალიზებული ალგორითმები (გარდა ამომწურავი ჩამოთვლისა და საცდელი-შეცდომისა). თუმცა, გამოცდილი, კომპეტენტური და უნარიანი პროფესიონალები ხშირად აკეთებენ არჩევანს, რომელიც საკმაოდ კარგი გამოდის. მაშასადამე, ბუნებრივ სიტუაციებში გადაწყვეტილების მიღების პრაქტიკაში მიმდინარე ტენდენცია არის არაფორმალური პრობლემების გადაჭრის პიროვნების უნარის გაერთიანება ფორმალური მეთოდებისა და კომპიუტერული მოდელირების შესაძლებლობებთან: გადაწყვეტილების მხარდაჭერის ინტერაქტიული სისტემები, საექსპერტო სისტემები, ადაპტირებული ადამიანი-მანქანა ავტომატიზირებული. კონტროლის სისტემები, ნერვული ქსელები და კოგნიტური სისტემები.

გადაწყვეტილების მიღება, როგორც გაურკვევლობის მოხსნა (ინფორმაციული მიდგომა)

ინფორმაციის მოპოვების პროცესი შეიძლება ჩაითვალოს სიგნალის მიღების შედეგად გაურკვევლობის შემცირებად, ხოლო ინფორმაციის რაოდენობა - გაურკვევლობის მოხსნის ხარისხის რაოდენობრივ საზომად.

მაგრამ კომპლექტიდან ალტერნატივების ზოგიერთი ქვეჯგუფის არჩევის შედეგად, ე.ი. გადაწყვეტილების მიღების შედეგად ხდება იგივე (გაურკვევლობის დაქვეითება). ეს ნიშნავს, რომ ყოველი არჩევანი, ყოველი გადაწყვეტილება წარმოშობს გარკვეული რაოდენობის ინფორმაციას და, შესაბამისად, შეიძლება აღწერილი იყოს ინფორმაციის თეორიის თვალსაზრისით.

გადაწყვეტილების მიღების პრობლემების კლასიფიკაცია

გადაწყვეტილების მიმღები ამოცანების სიმრავლე განპირობებულია იმით, რომ სიტუაციის თითოეული კომპონენტი, რომელშიც ხდება გადაწყვეტილების მიღება, შეიძლება განხორციელდეს ხარისხობრივად განსხვავებულ ვარიანტებში.

აქ მოცემულია ამ ვარიანტებიდან მხოლოდ რამდენიმე:

  • ალტერნატივების ნაკრები, ერთი მხრივ, შეიძლება იყოს სასრული, თვლადი ან უწყვეტი, ხოლო მეორეს მხრივ, დახურული (ანუ სრულიად ცნობილი) ან ღია (მათ შორის უცნობი ელემენტები);
  • ალტერნატივების შეფასება შეიძლება განხორციელდეს ერთი ან რამდენიმე კრიტერიუმის მიხედვით, რომელიც, თავის მხრივ, შეიძლება იყოს რაოდენობრივი ან ხარისხობრივი;
  • არჩევანის რეჟიმი შეიძლება იყოს ერთჯერადი (ერთჯერადი), ან მრავალჯერადი, განმეორებადი, არჩევანის შედეგებზე უკუკავშირის ჩათვლით, ე.ი. გადაწყვეტილების მიღების ალგორითმების სწავლის დაშვება წინა არჩევნების შედეგების გათვალისწინებით;
  • თითოეული ალტერნატივის არჩევის შედეგები შეიძლება წინასწარ იყოს ზუსტად ცნობილი (არჩევა დარწმუნებით), ჰქონდეს ალბათური ბუნება, როდესაც შესაძლო შედეგების ალბათობა ცნობილია არჩევანის გაკეთების შემდეგ (არჩევანი რისკის ქვეშ) ან აქვს ბუნდოვანი შედეგი უცნობი ალბათობით (არჩევანი გაურკვევლობის პირობებში);
  • არჩევანზე პასუხისმგებლობა შეიძლება არ იყოს, იყოს ინდივიდუალური ან ჯგუფური;
  • ჯგუფურ არჩევანში მიზნების თანმიმდევრულობის ხარისხი შეიძლება განსხვავდებოდეს მხარეთა ინტერესების სრული დამთხვევიდან (კოოპერატიული არჩევანი) მათ საპირისპირომდე (არჩევანი კონფლიქტურ სიტუაციაში). ასევე შესაძლებელია შუალედური ვარიანტები: კომპრომისი, კოალიცია, მზარდი ან ჩამქრალი კონფლიქტი.

ამ ვარიანტების სხვადასხვა კომბინაცია იწვევს გადაწყვეტილების მიღების მრავალ პრობლემას, რომლებიც შესწავლილია სხვადასხვა ხარისხით.

ენები გადაწყვეტილების მიღების მეთოდების აღწერისთვის

ერთსა და იმავე ფენომენზე შეიძლება საუბარი სხვადასხვა ენებზე ზოგადისა და ადეკვატურობის სხვადასხვა ხარისხით. დღემდე, არჩევანის აღწერისთვის სამი ძირითადი ენა იყო.

უმარტივესი, ყველაზე განვითარებული და ყველაზე პოპულარული კრიტერიუმი ენაა.

კრიტერიუმების ენა

ამ ენის სახელს უკავშირდება ძირითადი ვარაუდი, რომ თითოეული ინდივიდუალური ალტერნატივა შეიძლება შეფასდეს რაიმე კონკრეტული (ერთი) რიცხვით, რის შემდეგაც ალტერნატივების შედარება მცირდება მათი შესაბამისი რიცხვების შედარებამდე.

მოდით, მაგალითად, (X) იყოს ალტერნატივების სიმრავლე, ხოლო x იყოს გარკვეული ალტერნატივა, რომელიც მიეკუთვნება ამ სიმრავლეს: x∈X. მაშინ ითვლება, რომ ყველა x-ისთვის შეიძლება მიენიჭოს q(x) ფუნქცია, რომელსაც ეწოდება კრიტერიუმი (ხარისხის კრიტერიუმი, ობიექტური ფუნქცია, უპირატესობის ფუნქცია, სასარგებლო ფუნქცია და ა.შ.), რომელსაც აქვს თვისება, რომ თუ ალტერნატივა x 1 არის სასურველია x 2 (აღნიშნავს: x 1 > x 2), შემდეგ q (x 1) > q (x 2).

ამ შემთხვევაში არჩევანი მცირდება კრიტერიუმის ფუნქციის უმაღლესი მნიშვნელობის მქონე ალტერნატივის პოვნამდე.

თუმცა, პრაქტიკაში, ალტერნატივების უპირატესობის ხარისხის შედარებისთვის მხოლოდ ერთი კრიტერიუმის გამოყენება აღმოჩნდება გაუმართლებელი გამარტივება, რადგან ალტერნატივების უფრო დეტალური განხილვა იწვევს მათი არა ერთის, არამედ მრავალის მიხედვით შეფასების აუცილებლობას. კრიტერიუმები, რომლებიც შეიძლება იყოს განსხვავებული ხასიათის და ხარისხობრივად განსხვავებული ერთმანეთისგან.

მაგალითად, გარკვეული ტიპის მარშრუტებზე მგზავრებისა და მოქმედი ორგანიზაციისთვის ყველაზე მისაღები ტიპის თვითმფრინავის არჩევისას, შედარება ხდება ერთდროულად მრავალი ჯგუფის კრიტერიუმების მიხედვით: ტექნიკური, ტექნოლოგიური, ეკონომიკური, სოციალური, ერგონომიული და ა.შ.

მრავალკრიტერიუმულ ამოცანებს არ აქვთ უნიკალური ზოგადი გადაწყვეტა. ამიტომ, შემოთავაზებულია მრავალი გზა, რათა მულტიკრიტერიუმულ პრობლემას მივცეთ კონკრეტული ფორმა, რომელიც იძლევა ერთიანი ზოგადი გადაწყვეტის საშუალებას. ბუნებრივია, ეს გადაწყვეტილებები ზოგადად განსხვავებულია სხვადასხვა მეთოდისთვის. ამიტომ, შესაძლოა, მთავარი მრავალკრიტერიუმიანი პრობლემის გადაჭრაში არის მისი ამ ტიპის ფორმულირების დასაბუთება.

მრავალკრიტერიუმების შერჩევის პრობლემის გამარტივების სხვადასხვა ვარიანტები გამოიყენება. ჩამოვთვალოთ რამდენიმე მათგანი.

  1. პირობითი მაქსიმიზაცია (აღმოჩენილია არა ინტეგრალური კრიტერიუმის გლობალური ექსტრემი, არამედ მთავარი კრიტერიუმის ლოკალური ექსტრემი).
  2. მოძებნეთ ალტერნატივა მოცემული თვისებებით.
  3. პარეტოს ნაკრების პოვნა.
  4. მრავალკრიტერიუმიანი ამოცანის ერთკრიტერიუმამდე შემცირება ინტეგრალური კრიტერიუმის შემოღებით.

მოდით უფრო დეტალურად განვიხილოთ მრავალკრიტერიუმიანი პრობლემის ერთკრიტერიუმამდე შემცირების მეთოდის ფორმალური ფორმულირება.

ჩვენ შემოგთავაზებთ ინტეგრალურ კრიტერიუმს q 0 (x), როგორც ვექტორული არგუმენტის სკალარული ფუნქცია:

q 0 (x) = q 0 ((q 1 (x), q 2 (x), ..., q n (x)).

ინტეგრალური კრიტერიუმი შესაძლებელს ხდის ალტერნატივების მოწესრიგებას q 0-ით, რითაც ხაზს უსვამს საუკეთესოს (ამ კრიტერიუმის გაგებით). q 0 ფუნქციის ფორმა განისაზღვრება იმით, თუ რამდენად კონკრეტულად წარმოგვიდგენია თითოეული კრიტერიუმის წვლილი ინტეგრალურ კრიტერიუმში. ჩვეულებრივ გამოიყენება დანამატი და გამრავლების ფუნქციები:

q 0 = ∑a i ⋅q i /s i

1 - q 0 = ∏(1 - b i ⋅q i /s i)

კოეფიციენტები მე გთავაზობთ:

  1. განზომილება ან a i ⋅q i /s i რიცხვის ერთი განზომილება (სხვადასხვა კონკრეტულ კრიტერიუმს შეიძლება ჰქონდეს განსხვავებული განზომილებები და მაშინ შეუძლებელია მათზე არითმეტიკული მოქმედებების შესრულება და მათი ინტეგრალურ კრიტერიუმამდე დაყვანა).
  2. ნორმალიზაცია, ე.ი. პირობის უზრუნველყოფა: b i ⋅q i /s i<1.

a i და b i კოეფიციენტები ასახავს კონკრეტული კრიტერიუმის q i შეფარდებულ წვლილს ინტეგრალურ კრიტერიუმში.

ასე რომ, მრავალკრიტერიუმულ გარემოში, ერთ-ერთი ალტერნატივის არჩევის შესახებ გადაწყვეტილების მიღების პრობლემა მცირდება ინტეგრალური კრიტერიუმის მაქსიმიზაციამდე:

x * = arg max(q 0 (q 1 (x), q 2 (x), ..., q n (x)))

გადაწყვეტილების მიღების პრობლემის მულტიკრიტერიუმული ფორმულირების მთავარი პრობლემა არის ის, რომ აუცილებელია a i და b i კოეფიციენტების ისეთი ანალიტიკური ფორმის პოვნა, რომელიც უზრუნველყოფს მოდელის შემდეგ თვისებებს:

  • საგნობრივი სფეროსა და ექსპერტების თვალსაზრისის ადეკვატურობის მაღალი ხარისხი;
  • მინიმალური გამოთვლითი სირთულეები ინტეგრალური კრიტერიუმის მაქსიმიზაციაში, ე.ი. მისი გაანგარიშება სხვადასხვა ალტერნატივისთვის;
  • ინტეგრალური კრიტერიუმის მაქსიმალური გაზრდის შედეგების სტაბილურობა საწყისი მონაცემების მცირე აურზაურებიდან.
  • გადაწყვეტის სტაბილურობა ნიშნავს, რომ საწყის მონაცემებში მცირე ცვლილებამ უნდა გამოიწვიოს ინტეგრალური კრიტერიუმის მნიშვნელობის მცირე ცვლილება და, შესაბამისად, მიღებული გადაწყვეტილების მცირე ცვლილება. ამრიგად, თუ საწყისი მონაცემები პრაქტიკულად ერთნაირია, მაშინ გადაწყვეტილება უნდა იქნას მიღებული ან იგივე ან ძალიან ახლოს.

თანმიმდევრული ორობითი შერჩევის ენა

ორობითი მიმართებების ენა არის მრავალკრიტერიუმიანი ენის განზოგადება და ეფუძნება იმ ფაქტს, რომ როდესაც ვაფასებთ რაიმე ალტერნატივას, ეს შეფასება ყოველთვის ფარდობითია, ე.ი. ცალსახად ან უფრო ხშირად ირიბად, სხვა ალტერნატივები შესწავლილი ნაკრებიდან ან ზოგადი პოპულაციიდან გამოიყენება შედარების საფუძვლად ან საცნობარო ჩარჩოდ. ადამიანის აზროვნება დაფუძნებულია საპირისპირო (კონსტრუქციების) ძიებასა და ანალიზზე, ამიტომ ჩვენთვის ყოველთვის უფრო ადვილია ავირჩიოთ ორი საპირისპირო ვარიანტიდან ერთი, ვიდრე ერთი ვარიანტი დიდი და არავითარ შემთხვევაში არეულ-დარეული ნაკრებიდან.

ამრიგად, ამ ენის ძირითადი ვარაუდები შემდეგნაირად იშლება:

  • არ ფასდება ერთი ალტერნატივა, ე.ი. კრიტერიუმის ფუნქცია არ არის შემოღებული;
  • ალტერნატივების თითოეული წყვილისთვის შეიძლება დადგინდეს, რომ ერთი მათგანი უპირატესობას ანიჭებს მეორეს, ან რომ ისინი ექვივალენტური ან შეუდარებელია;
  • ალტერნატივების ნებისმიერ წყვილში უპირატესობის კავშირი არ არის დამოკიდებული არჩევანისთვის წარმოდგენილ სხვა ალტერნატივებზე.

ბინარული ურთიერთობების დაზუსტების სხვადასხვა გზა არსებობს: პირდაპირი, მატრიცული, პრიორიტეტული გრაფიკების გამოყენებით, სექციების მეთოდი და ა.შ.

ერთი წყვილის ალტერნატივებს შორის ურთიერთობა გამოიხატება ეკვივალენტობის, რიგისა და დომინანტობის ცნებებით.

არჩევანის განზოგადებული ენის ფუნქციები

არჩევანის ფუნქციების ენა დაფუძნებულია სიმრავლეების თეორიაზე და საშუალებას აძლევს ადამიანს იმუშაოს კომპლექტების რუკებით მათ ქვეჯგუფებთან, რომლებიც შეესაბამება სხვადასხვა არჩევანს ელემენტების ჩამოთვლის გარეშე. ეს ენა ძალიან ზოგადია და პოტენციურად იძლევა ნებისმიერი არჩევანის აღწერას. თუმცა, განზოგადებული არჩევანის ფუნქციების მათემატიკური აპარატი ამჟამად მხოლოდ შემუშავებული და ტესტირებადია ძირითადად იმ პრობლემებზე, რომლებიც უკვე გადაჭრილია კრიტერიუმული ან ბინარული მიდგომების გამოყენებით.

ჯგუფური არჩევანი

დაე, იყოს ადამიანთა ჯგუფი, რომელსაც აქვს უფლება მონაწილეობა მიიღოს კოლექტიური გადაწყვეტილების მიღებაში. დავუშვათ, რომ ეს ჯგუფი განიხილავს ალტერნატივების კომპლექტს და ჯგუფის თითოეული წევრი აკეთებს არჩევანს. ამოცანაა ისეთი გადაწყვეტის შემუშავება, რომელიც გარკვეულწილად კოორდინაციას გაუწევს ინდივიდუალურ არჩევანს და გარკვეულწილად გამოხატავს ჯგუფის „ზოგად აზრს“, ე.ი. მიღებული როგორც ჯგუფური არჩევანი.

ბუნებრივია, სხვადასხვა ჯგუფური გადაწყვეტილება შეესატყვისება ინდივიდუალური გადაწყვეტილებების კოორდინაციის სხვადასხვა პრინციპებს.

ჯგუფურ არჩევანში ინდივიდუალური გადაწყვეტილებების კოორდინაციის წესებს ხმის მიცემის წესები ეწოდება. ყველაზე გავრცელებულია „უმრავლესობის წესი“, რომლის დროსაც ჯგუფის გადაწყვეტილებას იღებს ალტერნატივა, რომელიც ყველაზე მეტ ხმას მიიღებს.

უნდა გვესმოდეს, რომ ასეთი გადაწყვეტილება მხოლოდ ასახავს ჯგუფში სხვადასხვა თვალსაზრისის გავრცელებას და არა ჭეშმარიტად ოპტიმალურ ვარიანტს, რომლისთვისაც ხმა საერთოდ არავის შეუძლია. „სიმართლე კენჭისყრით არ განისაზღვრება“.

გარდა ამისა, არსებობს ეგრეთ წოდებული „ხმის მიცემის პარადოქსები“, რომელთაგან ყველაზე ცნობილია ისრის პარადოქსი.

ამ პარადოქსებმა შეიძლება გამოიწვიოს და ზოგჯერ იწვევს ხმის მიცემის პროცედურის ძალიან უსიამოვნო მახასიათებლებს: მაგალითად, არის შემთხვევები, როდესაც ჯგუფი საერთოდ ვერ იღებს ერთ გადაწყვეტილებას (ქვორუმი არ არის ან ყველა ხმას აძლევს საკუთარ უნიკალურ ვარიანტს და ა.შ. .), და ზოგჯერ (მრავალეტაპიანი კენჭისყრისას) უმცირესობას შეუძლია თავისი ნება დააკისროს უმრავლესობას.

არჩევანი გაურკვევლობის პირობებში

სიზუსტე გაურკვევლობის განსაკუთრებული შემთხვევაა, კერძოდ: ეს არის გაურკვევლობა ნულთან ახლოს.

არჩევანის თანამედროვე თეორიაში მიჩნეულია, რომ გადაწყვეტილების მიღების პრობლემებში არსებობს გაურკვევლობის სამი ძირითადი ტიპი:

  1. გადაწყვეტილების მიღებისათვის საწყისი მონაცემების ინფორმაციული (სტატისტიკური) გაურკვევლობა.
  2. გადაწყვეტილების მიღების შედეგების გაურკვევლობა (არჩევანი).
  3. გაურკვევლობა გადაწყვეტილების მიღების პროცესის კომპონენტების აღწერაში.

განვიხილოთ ისინი თანმიმდევრობით.

ინფორმაციული (სტატისტიკური) გაურკვევლობა საწყის მონაცემებში

საგნის მიმართ მიღებული მონაცემები არ შეიძლება ჩაითვალოს აბსოლუტურად ზუსტი. გარდა ამისა, აშკარაა, რომ ეს მონაცემები არ გვაინტერესებს თავისთავად, არამედ მხოლოდ როგორც სიგნალები, რომლებიც, შესაძლოა, ატარებენ გარკვეულ ინფორმაციას იმის შესახებ, თუ რა გვაინტერესებს სინამდვილეში. ამრიგად, უფრო რეალურია იმის გათვალისწინება, რომ საქმე გვაქვს არა მხოლოდ ხმაურიან და არაზუსტ, არამედ არაპირდაპირ და შესაძლოა არასრულ მონაცემებთან. გარდა ამისა, ეს მონაცემები არ ეხება შესწავლილ (ზოგად) პოპულაციას, არამედ მხოლოდ მის გარკვეულ ქვეჯგუფს, რომლის შესახებაც ჩვენ რეალურად შევძელით მონაცემების შეგროვება, მაგრამ ამავე დროს გვინდა გამოვიტანოთ დასკვნები მთელ პოპულაციაზე. და ჩვენ ასევე გვინდა ვიცოდეთ ამ დასკვნების სანდოობის ხარისხი.

ამ პირობებში გამოიყენება სტატისტიკური გადაწყვეტილებების თეორია.

ამ თეორიაში გაურკვევლობის ორი ძირითადი წყაროა. ჯერ ერთი, უცნობია, რა განაწილებას ემორჩილება თავდაპირველი მონაცემები. მეორეც, არ არის ცნობილი, რა განაწილება აქვს კომპლექტს (ზოგად პოპულაციას), რომლის შესახებაც გვინდა გამოვიტანოთ დასკვნები მისი ქვეჯგუფიდან, რომელიც ქმნის საწყის მონაცემებს.

სტატისტიკური პროცედურები არის გადაწყვეტილების მიღების პროცედურები, რომლებიც ხსნის ორივე ამ ტიპის გაურკვევლობას.

უნდა აღინიშნოს, რომ არსებობს მრავალი მიზეზი, რაც იწვევს სტატისტიკური მეთოდების არასწორ გამოყენებას:

  • სტატისტიკურ დასკვნებს, ისევე როგორც ნებისმიერ სხვას, ყოველთვის აქვს გარკვეული სანდოობა ან დარწმუნება. მაგრამ, ბევრი სხვა შემთხვევისგან განსხვავებით, სტატისტიკური დასკვნების სანდოობა ცნობილია და განისაზღვრება სტატისტიკური კვლევის დროს;
  • სტატისტიკური პროცედურის გამოყენების შედეგად მიღებული ხსნარის ხარისხი დამოკიდებულია საწყისი მონაცემების ხარისხზე;
  • მონაცემები, რომლებსაც არ გააჩნიათ სტატისტიკური ხასიათი, არ უნდა ექვემდებარებოდეს სტატისტიკურ დამუშავებას;
  • აუცილებელია გამოვიყენოთ სტატისტიკური პროცედურები, რომლებიც შეესაბამება შესწავლილი პოპულაციის შესახებ აპრიორული ინფორმაციის დონეს (მაგალითად, არ უნდა გამოიყენოთ დისპერსიის ანალიზის მეთოდები არაგაუსიანულ მონაცემებზე). თუ ორიგინალური მონაცემების განაწილება უცნობია, მაშინ ან უნდა დაადგინოთ იგი, ან გამოიყენოთ რამდენიმე განსხვავებული მეთოდი და შევადაროთ შედეგები. თუ ისინი ძალიან განსხვავდებიან, ეს მიუთითებს გამოყენებული ზოგიერთი პროცედურის შეუსრულებლობაზე.

შედეგების გაურკვევლობა

როდესაც ალტერნატივის არჩევის შედეგებს ცალსახად განსაზღვრავს თავად ალტერნატივა, მაშინ ჩვენ ვერ განვასხვავებთ ალტერნატივას და მის შედეგებს, მიგვაჩნია, რომ ალტერნატივის არჩევისას ჩვენ რეალურად ვირჩევთ მის შედეგებს.

თუმცა, რეალურ პრაქტიკაში ხშირად უწევს საქმე უფრო რთულ სიტუაციასთან, როდესაც ამა თუ იმ ალტერნატივის არჩევანი ორაზროვნად განსაზღვრავს გაკეთებული არჩევანის შედეგებს.

ალტერნატივებისა და მათი არჩეული შედეგების დისკრეტული ნაკრების შემთხვევაში, იმ პირობით, რომ შესაძლო შედეგების ნაკრები საერთოა ყველა ალტერნატივისთვის, შეგვიძლია ვივარაუდოთ, რომ სხვადასხვა ალტერნატივები ერთმანეთისგან განსხვავდება შედეგის ალბათობების განაწილებით. ეს ალბათობის განაწილება, ზოგად შემთხვევაში, შეიძლება დამოკიდებული იყოს ალტერნატივების არჩევის შედეგებზე და მის შედეგად რეალურად წარმოქმნილ შედეგებზე. უმარტივეს შემთხვევაში, შედეგები თანაბრად სავარაუდოა. თავად შედეგებს, როგორც წესი, აქვს მოგების ან ზარალის მნიშვნელობა და რაოდენობრივია.

თუ შედეგები თანაბარია ყველა ალტერნატივისთვის, მაშინ არჩევანის გაკეთება არაფერია. თუ ისინი განსხვავდებიან, მაშინ ალტერნატივების შედარება შესაძლებელია მათთვის გარკვეული რაოდენობრივი შეფასებების შემოღებით. თამაშის თეორიაში პრობლემების მრავალფეროვნება ასოცირდება ალტერნატივების არჩევის შედეგად დანაკარგებისა და მოგების რიცხვითი მახასიათებლების განსხვავებულ არჩევანთან, ალტერნატივის არჩევის მხარეებს შორის კონფლიქტის სხვადასხვა ხარისხთან და ა.შ.

განვიხილოთ ამ ტიპის გაურკვევლობა, როგორც ბუნდოვანი გაურკვევლობა

არჩევანის ნებისმიერი პრობლემა არის ალტერნატივების ნაკრების მიზნის შევიწროება. როგორც ალტერნატივების ფორმალური აღწერა (თავად მათი სია, მათი ატრიბუტებისა თუ პარამეტრების ჩამონათვალი) და მათი შედარების წესების აღწერა (კრიტერიუმები, ურთიერთობები) ყოველთვის მოცემულია ამა თუ იმ საზომი მასშტაბის მიხედვით (მაშინაც კი, როდესაც ის ამან არ იცის ამის შესახებ).

ცნობილია, რომ ყველა სასწორი ბუნდოვანია, მაგრამ სხვადასხვა ხარისხით. ტერმინი „დაბინდვა“ გულისხმობს სასწორის თვისებას, რომელიც მდგომარეობს იმაში, რომ ყოველთვის შესაძლებელია წარმოვადგინოთ ორი განსხვავებული ალტერნატივა, ე.ი. განსხვავებული ერთი მასშტაბით და განუსხვავებელი, ე.ი. იდენტურია, მეორეში - უფრო ბუნდოვანი. რაც უფრო ნაკლებია გრადაცია გარკვეულ მასშტაბში, მით უფრო ბუნდოვანია.

ამრიგად, ჩვენ შეგვიძლია ნათლად დავინახოთ ალტერნატივები და ამავე დროს ბუნდოვნად დავახარისხოთ ისინი, ე.ი. იყოს ორაზროვანი, თუ რომელ კლასებს მიეკუთვნებიან.

უკვე ბუნდოვან სიტუაციაში გადაწყვეტილების მიღების შესახებ მათ პირველ ნაშრომში, ბელმანმა და ზადემ წამოაყენეს იდეა, რომ ორივე მიზნები და შეზღუდვები უნდა იყოს წარმოდგენილი ალტერნატივების ერთობლიობაში ბუნდოვანი (ბუნდოვანი) კომპლექტების სახით.

ოპტიმიზაციის მიდგომის ზოგიერთი შეზღუდვის შესახებ

ყველა ზემოთ განხილულ შერჩევის პრობლემასა და გადაწყვეტილების მიღების მეთოდში პრობლემა იყო საწყის ნაკრებში საუკეთესოების პოვნა მოცემულ პირობებში, ე.ი. ოპტიმალური ალტერნატივები გარკვეული გაგებით.

ოპტიმალურობის იდეა კიბერნეტიკის ცენტრალური იდეაა და მტკიცედ შევიდა ტექნიკური სისტემების დიზაინისა და ექსპლუატაციის პრაქტიკაში. ამავდროულად, ამ იდეას სიფრთხილით უნდა მოვეკიდოთ, როდესაც ვცდილობთ მის გადატანას რთული, დიდი და სუსტად განსაზღვრული სისტემების მართვის სფეროში, როგორიცაა, მაგალითად, სოციალურ-ეკონომიკური სისტემები.

ამ დასკვნის კარგი მიზეზები არსებობს. განვიხილოთ ზოგიერთი მათგანი:

  1. ოპტიმალური გადაწყვეტა ხშირად გამოდის არასტაბილური, ე.ი. პრობლემის პირობებში, შეყვანის მონაცემების ან შეზღუდვების უმნიშვნელო ცვლილებებმა შეიძლება გამოიწვიოს მნიშვნელოვნად განსხვავებული ალტერნატივების შერჩევა.
  2. ოპტიმიზაციის მოდელები შემუშავებულია მხოლოდ საკმაოდ მარტივი ამოცანების ვიწრო კლასებისთვის, რომლებიც ყოველთვის ადეკვატურად და სისტემატურად არ ასახავს რეალურ საკონტროლო ობიექტებს. ყველაზე ხშირად, ოპტიმიზაციის მეთოდები შესაძლებელს ხდის ზოგიერთი დიდი და რთული სისტემის მხოლოდ საკმაოდ მარტივი და კარგად ფორმალურად აღწერილი ქვესისტემების ოპტიმიზაციას, ე.ი. დაუშვით მხოლოდ ადგილობრივი ოპტიმიზაცია. თუმცა, თუ რომელიმე დიდი სისტემის თითოეული ქვესისტემა ოპტიმალურად მუშაობს, ეს საერთოდ არ ნიშნავს იმას, რომ მთლიანობაში სისტემაც ოპტიმალურად იმუშავებს. ამიტომ, ქვესისტემის ოპტიმიზაცია სულაც არ იწვევს მის ქცევას, რაც მას მოეთხოვება მთლიანი სისტემის ოპტიმიზაციისას. უფრო მეტიც, ზოგჯერ ლოკალურმა ოპტიმიზაციამ შეიძლება გამოიწვიოს უარყოფითი შედეგები მთლიანად სისტემისთვის. ამიტომ, ქვესისტემების და მთლიანად სისტემის ოპტიმიზაციისას აუცილებელია განვსაზღვროთ მიზნებისა და ქვემიზნების ხე და მათი პრიორიტეტი.
  3. ხშირად ოპტიმიზაციის მიზნად ითვლება ოპტიმიზაციის კრიტერიუმის მაქსიმიზაცია რომელიმე მათემატიკური მოდელის მიხედვით, მაგრამ სინამდვილეში მიზანი საკონტროლო ობიექტის ოპტიმიზაციაა. ოპტიმიზაციის კრიტერიუმები და მათემატიკური მოდელები ყოველთვის მხოლოდ ირიბად არის დაკავშირებული მიზანთან, ე.ი. მეტ-ნაკლებად ადეკვატური, მაგრამ ყოველთვის მიახლოებითი.

ამრიგად, ოპტიმალურობის იდეა, რომელიც უკიდურესად ნაყოფიერია სისტემებისთვის, რომლებიც ადეკვატური მათემატიკური ფორმალიზაციას ექვემდებარება, სიფრთხილით უნდა გადავიდეს რთულ სისტემებზე. რა თქმა უნდა, მათემატიკური მოდელები, რომლებიც ზოგჯერ შეიძლება შემოთავაზებული იყოს ასეთი სისტემებისთვის, შეიძლება ოპტიმიზირებული იყოს. თუმცა, ყოველთვის უნდა გავითვალისწინოთ ამ მოდელების ძლიერი გამარტივება, რაც რთული სისტემების შემთხვევაში აღარ შეიძლება იყოს უგულებელყოფილი, ისევე როგორც ის ფაქტი, რომ ამ მოდელების ადეკვატურობის ხარისხი რთული სისტემების შემთხვევაში რეალურად უცნობია. . აქედან გამომდინარე, უცნობია, რა წმინდა პრაქტიკული მნიშვნელობა აქვს ამ ოპტიმიზაციას. ტექნიკურ სისტემებში ოპტიმიზაციის მაღალი პრაქტიკულობა არ უნდა წარმოშობს ილუზიას, რომ ის ისეთივე ეფექტური იქნება რთული სისტემების ოპტიმიზაციისთვის. რთული სისტემების აზრიანი მათემატიკური მოდელირება ძალიან რთული, მიახლოებითი და არაზუსტია. რაც უფრო რთულია სისტემა, მით უფრო ფრთხილად უნდა იყოს მისი ოპტიმიზაციის იდეა.

ამიტომ, რთული, დიდი, სუსტად განსაზღვრული სისტემების კონტროლის მეთოდების შემუშავებისას, ავტორები უმთავრესად თვლიან არა მხოლოდ არჩეული მიდგომის ოპტიმალურობას ფორმალური მათემატიკური თვალსაზრისით, არამედ მის ადეკვატურობას მიზანთან და საკუთრივ ბუნებასთან. საკონტროლო ობიექტი.

ექსპერტების შერჩევის მეთოდები

რთული სისტემების შესწავლისას ხშირად ჩნდება პრობლემები, რომლებიც, სხვადასხვა მიზეზის გამო, არ შეიძლება მკაცრად დაისვას და გადაჭრას ამჟამად განვითარებული მათემატიკური აპარატის გამოყენებით. ამ შემთხვევაში მიმართავენ ექსპერტების (სისტემის ანალიტიკოსების) მომსახურებას, რომელთა გამოცდილება და ინტუიცია პრობლემის სირთულის შემცირებას უწყობს ხელს.

თუმცა, გასათვალისწინებელია, რომ ექსპერტები თავად არიან უაღრესად რთული სისტემები და მათი საქმიანობა ასევე დამოკიდებულია ბევრ გარე და შიდა პირობებზე. ამიტომ, საექსპერტო შეფასებების ორგანიზების მეთოდებში დიდი ყურადღება ეთმობა ექსპერტების მუშაობისთვის ხელსაყრელი გარე და ფსიქოლოგიური პირობების შექმნას.

შემდეგი ფაქტორები გავლენას ახდენს ექსპერტის მუშაობაზე:

  • პასუხისმგებლობა გამოცდის შედეგების გამოყენებაზე;
  • იმის ცოდნა, რომ ჩართული არიან სხვა ექსპერტები;
  • ექსპერტებს შორის ინფორმაციული კონტაქტის ხელმისაწვდომობა;
  • ექსპერტთა ინტერპერსონალური ურთიერთობები (თუ მათ შორის არის საინფორმაციო კონტაქტი);
  • ექსპერტის პირადი ინტერესი შეფასების შედეგებით;
  • ექსპერტების პიროვნული თვისებები (თვითშეფასება, შესაბამისობა, ნება და ა.შ.)

ექსპერტებს შორის ურთიერთქმედებამ შეიძლება გამოიწვიოს ან შეაფერხოს მათი აქტივობა. ამიტომ, სხვადასხვა შემთხვევაში გამოიყენება გამოკვლევის სხვადასხვა მეთოდი, რომლებიც განსხვავდება ექსპერტების ერთმანეთთან ურთიერთქმედების ხასიათით: ანონიმური და ღია გამოკითხვები და კითხვარები, შეხვედრები, დისკუსიები, საქმიანი თამაშები, ტვინის შტორმი და ა.შ.

არსებობს ექსპერტთა მოსაზრებების მათემატიკური დამუშავების სხვადასხვა მეთოდი. ექსპერტებს სთხოვენ შეაფასონ სხვადასხვა ალტერნატივა ერთი ან ინდიკატორების სისტემით. გარდა ამისა, მათ სთხოვენ შეაფასონ თითოეული ინდიკატორის მნიშვნელობის ხარისხი (მისი „წონა“ ან „წვლილი“). თავად ექსპერტებს ასევე ენიჭებათ კომპეტენციის დონე, რომელიც შეესაბამება თითოეული მათგანის წვლილს ჯგუფის შედეგებში.

ექსპერტებთან მუშაობის შემუშავებული მეთოდია „დელფის“ მეთოდი. ამ მეთოდის მთავარი იდეა ისაა, რომ კრიტიკა და არგუმენტაცია სასარგებლო გავლენას მოახდენს ექსპერტზე, თუ მის თვითშეფასებაზე არ იმოქმედებს და შექმნილია პირობები, რომლებიც გამორიცხავს პირად დაპირისპირებას.

ხაზგასმით უნდა აღინიშნოს, რომ არსებობს ფუნდამენტური განსხვავება საექსპერტო მეთოდების გამოყენების ხასიათში საექსპერტო სისტემებში და გადაწყვეტილების მხარდაჭერაში. თუ პირველ შემთხვევაში, ექსპერტებს მოეთხოვებათ გადაწყვეტილების მიღების მეთოდების ფორმალიზება, მაშინ მეორეში - მხოლოდ თავად გადაწყვეტილება, როგორც ასეთი.

ვინაიდან ექსპერტები ჩართულნი არიან ზუსტად იმ ფუნქციების განხორციელებაში, რომლებიც ამჟამად ან საერთოდ არ არის უზრუნველყოფილი ავტომატური სისტემებით, ან შესრულებულია ადამიანზე უარესად, ავტომატური სისტემების განვითარების პერსპექტიული მიმართულება არის ამ ფუნქციების მაქსიმალური ავტომატიზაცია.

გადაწყვეტილების მხარდაჭერის ავტომატური სისტემები

ადამიანი ყოველთვის იყენებდა ასისტენტს გადაწყვეტილების მიღებისას: ისინი იყვნენ როგორც უბრალოდ ინფორმაციის მიმწოდებლები საკონტროლო ობიექტის შესახებ, ასევე კონსულტანტები (მრჩევლები), რომლებიც გვთავაზობენ გადაწყვეტილების ვარიანტებს და აანალიზებენ მათ შედეგებს. გადაწყვეტილებებს მიმღები ყოველთვის იღებდა გარკვეულ საინფორმაციო გარემოში: სამხედრო მეთაურისთვის ეს არის შტაბი, რექტორისთვის, აკადემიური საბჭო, მინისტრისთვის, კოლეგია.

ჩვენს დროში გადაწყვეტილების მიღების საინფორმაციო ინფრასტრუქტურა წარმოუდგენელია გადაწყვეტილების განმეორებითი შეფასების ავტომატური სისტემების და განსაკუთრებით გადაწყვეტილების მხარდაჭერის სისტემების გარეშე (DDS - Decision Support Systems), ე.ი. ავტომატური სისტემები, რომლებიც სპეციალურად შექმნილია იმ ინფორმაციის მოსამზადებლად, რომელიც ადამიანს სჭირდება გადაწყვეტილების მისაღებად. გადაწყვეტილების მხარდაჭერის სისტემების შემუშავება ხორციელდება, კერძოდ, საერთაშორისო პროექტის ფარგლებში, რომელიც ხორციელდება ლაქსენბურგში (ავსტრია) გამოყენებითი სისტემების ანალიზის საერთაშორისო ინსტიტუტის ეგიდით.

რეალურ სიტუაციებში არჩევანი მოითხოვს მთელი რიგი ოპერაციების შესრულებას, რომელთაგან ზოგი უფრო ეფექტურად ასრულებს ადამიანს, ზოგი კი მანქანას. მათი უპირატესობების ეფექტური კომბინაცია ხარვეზების ერთდროულ კომპენსაციასთან ერთად ვლინდება გადაწყვეტილების მხარდაჭერის ავტომატიზებულ სისტემებში.

ადამიანი გადაწყვეტილებებს უკეთესად იღებს, ვიდრე მანქანა გაურკვევლობის პირობებში, მაგრამ სწორი გადაწყვეტილების მისაღებად მას ასევე სჭირდება ადეკვატური (სრული და სანდო) ინფორმაცია, რომელიც ახასიათებს საგანს. თუმცა ცნობილია, რომ ადამიანი კარგად ვერ უმკლავდება დიდი რაოდენობით „ნედლეულ“ დაუმუშავებელ ინფორმაციას. ამრიგად, მანქანის როლი გადაწყვეტილების მხარდაჭერაში შეიძლება იყოს საკონტროლო ობიექტისა და უკონტროლო ფაქტორების (გარემოს) შესახებ ინფორმაციის წინასწარი მომზადება, გარკვეული გადაწყვეტილების მიღების შედეგების დანახვა და ასევე მთელი ამ ინფორმაციის ვიზუალურად წარმოდგენა. და მოსახერხებელი გზა გადაწყვეტილების მიღების ფორმა.

ამრიგად, გადაწყვეტილების მხარდაჭერის ავტომატური სისტემები ანაზღაურებს პირის სისუსტეებს, ათავისუფლებს მას ინფორმაციის რუტინული წინასწარი დამუშავებისგან და უზრუნველყოფს კომფორტულ საინფორმაციო გარემოს, რომელშიც მას შეუძლია უკეთ აჩვენოს თავისი ძლიერი მხარეები. ეს სისტემები ორიენტირებულია არა გადაწყვეტილების მიმღების ფუნქციების ავტომატიზაციაზე (და, შედეგად, ამ ფუნქციების მისგან გაუცხოებაზე და, შესაბამისად, პასუხისმგებლობაზე მიღებულ გადაწყვეტილებებზე, რაც ხშირად ზოგადად მიუღებელია), არამედ მის დახმარებაზე დახმარების აღმოჩენაში. კარგი გამოსავალი.