Mustererkennungsdefinition. Klassifizierung nach dem nächsten Mittelwert

Lebende Systeme, einschließlich des Menschen, sind seit ihrer Entstehung ständig mit der Aufgabe der Mustererkennung konfrontiert. Insbesondere die von den Sinnesorganen kommenden Informationen werden vom Gehirn verarbeitet, das wiederum die Informationen sortiert, für die Entscheidungsfindung sorgt und dann durch elektrochemische Impulse das notwendige Signal weiterleitet, beispielsweise an die Bewegungsorgane , die die notwendigen Maßnahmen umsetzen. Dann gibt es eine Veränderung in der Umgebung, und die oben genannten Phänomene treten erneut auf. Und wenn Sie schauen, dann wird jede Stufe von Anerkennung begleitet.

Mit der Entwicklung der Computertechnologie wurde es möglich, eine Reihe von Problemen zu lösen, die im Lebensprozess auftreten, um die Qualität des Ergebnisses zu erleichtern, zu beschleunigen und zu verbessern. Zum Beispiel die Bedienung verschiedener Lebenserhaltungssysteme, die Mensch-Computer-Interaktion, die Entstehung von Robotersystemen usw. Wir stellen jedoch fest, dass es derzeit nicht möglich ist, bei einigen Aufgaben (Erkennung von sich schnell bewegenden ähnlichen Objekten) ein zufriedenstellendes Ergebnis zu liefern , handschriftlicher Text).

Zweck der Arbeit: Untersuchung der Geschichte von Mustererkennungssystemen.

Nennen Sie die qualitativen Veränderungen, die auf dem Gebiet der Mustererkennung aufgetreten sind, sowohl theoretisch als auch technisch, und geben Sie die Gründe an;

Diskutieren Sie die Methoden und Prinzipien, die beim Rechnen verwendet werden;

Nennen Sie Beispiele für Perspektiven, die in naher Zukunft erwartet werden.

1. Was ist Mustererkennung?

Die ersten Forschungen mit Computertechnik folgten im Wesentlichen dem klassischen Schema der mathematischen Modellierung – mathematisches Modell, Algorithmus und Berechnung. Dies waren die Aufgaben der Modellierung der bei der Explosion von Atombomben ablaufenden Prozesse, der Berechnung ballistischer Flugbahnen, wirtschaftlicher und anderer Anwendungen. Allerdings gab es neben den klassischen Ideen dieser Reihe auch Methoden, die ganz anderer Natur waren und, wie die Praxis bei der Lösung mancher Probleme zeigte, oft bessere Ergebnisse lieferten als Lösungen, die auf überkomplizierten mathematischen Modellen beruhen. Ihre Idee war es, den Wunsch aufzugeben, ein erschöpfendes mathematisches Modell des Untersuchungsobjekts zu erstellen (außerdem war es oft praktisch unmöglich, adäquate Modelle zu konstruieren), und sich stattdessen mit der Antwort nur auf spezifische Fragen, die uns interessieren, zufrieden zu geben, und diese Antworten sollten anhand von Überlegungen gesucht werden, die einer breiten Klasse von Problemen gemeinsam sind. Die Forschung dieser Art umfasste die Erkennung visueller Bilder, die Vorhersage von Erträgen, Flusspegeln, das Problem der Unterscheidung zwischen ölführenden und Grundwasserleitern anhand indirekter geophysikalischer Daten usw. Eine spezifische Antwort auf diese Aufgaben war in einer ziemlich einfachen Form erforderlich, wie z. zum Beispiel, ob ein Objekt zu einer der voreingestellten Klassen gehört. Und die Anfangsdaten dieser Aufgaben wurden in der Regel in Form von fragmentarischen Informationen über die untersuchten Objekte angegeben, beispielsweise in Form einer Reihe vorklassifizierter Objekte. Aus mathematischer Sicht bedeutet dies, dass die Mustererkennung (und diese Klasse von Problemen wurde in unserem Land benannt) eine weitreichende Verallgemeinerung der Idee der Funktionsextrapolation ist.

Die Bedeutung einer solchen Formulierung für die technischen Wissenschaften steht außer Frage und rechtfertigt zahlreiche Studien auf diesem Gebiet. Das Problem der Mustererkennung hat aber auch für die Naturwissenschaften einen breiteren Aspekt (es wäre allerdings seltsam, wenn etwas, das für künstliche kybernetische Systeme so wichtig ist, für natürliche nicht wichtig wäre). Der Kontext dieser Wissenschaft umfasste organisch die Fragen, die von alten Philosophen über die Natur unseres Wissens, unsere Fähigkeit, Bilder, Muster und Situationen der Welt um uns herum zu erkennen, gestellt wurden. Tatsächlich besteht praktisch kein Zweifel daran, dass die Mechanismen zum Erkennen der einfachsten Bilder, wie Bilder eines sich nähernden gefährlichen Raubtiers oder Nahrung, viel früher gebildet wurden, als die elementare Sprache und der formale logische Apparat entstanden. Und zweifellos sind solche Mechanismen auch bei höheren Tieren ausreichend entwickelt, die in ihrer vitalen Aktivität auch dringend die Fähigkeit benötigen, ein ziemlich komplexes System von Zeichen der Natur zu unterscheiden. In der Natur sehen wir also, dass das Phänomen des Denkens und Bewusstseins eindeutig auf der Fähigkeit beruht, Muster zu erkennen, und der weitere Fortschritt der Intelligenzwissenschaft direkt mit der Tiefe des Verständnisses der grundlegenden Gesetze des Erkennens zusammenhängt. Um die Tatsache zu verstehen, dass die obigen Fragen weit über die Standarddefinition von Mustererkennung hinausgehen (in der englischen Literatur ist der Begriff überwachtes Lernen gebräuchlicher), ist es auch notwendig zu verstehen, dass sie tiefe Verbindungen zu dieser relativ engen (aber immer noch weit entfernten) Definition haben aus erschöpfter) Richtung.

Schon jetzt ist die Mustererkennung fest im Alltag angekommen und gehört zu den wichtigsten Kenntnissen eines modernen Ingenieurs. In der Medizin hilft die Mustererkennung Ärzten, genauere Diagnosen zu stellen, in Fabriken dient sie der Vorhersage von Fehlern in Warenchargen. Auch biometrische Personenidentifikationssysteme als algorithmischer Kern basieren auf den Ergebnissen dieser Disziplin. Die Weiterentwicklung der künstlichen Intelligenz, insbesondere das Design von Computern der fünften Generation, die in der Lage sind, direkter mit einer Person in natürlichen Sprachen für Menschen und durch Sprache zu kommunizieren, ist ohne Anerkennung undenkbar. Hier ist die Robotik, künstliche Steuerungssysteme, die Erkennungssysteme als lebensnotwendige Subsysteme enthalten, in greifbare Nähe gerückt.

Aus diesem Grund wurde der Entwicklung der Mustererkennung von Anfang an viel Aufmerksamkeit von Spezialisten verschiedener Profile gewidmet - Kybernetiker, Neurophysiologen, Psychologen, Mathematiker, Ökonomen usw. Vor allem aus diesem Grund speist sich die moderne Mustererkennung selbst aus den Ideen dieser Disziplinen. Ohne den Anspruch auf Vollständigkeit zu erheben (und es ist unmöglich, dies in einem kurzen Essay zu behaupten), werden wir die Geschichte der Mustererkennung und Schlüsselideen beschreiben.

Definitionen

Bevor wir zu den Hauptmethoden der Mustererkennung übergehen, geben wir einige notwendige Definitionen.

Die Erkennung von Bildern (Objekten, Signalen, Situationen, Phänomenen oder Prozessen) ist die Aufgabe, ein Objekt zu identifizieren oder eine seiner Eigenschaften anhand seines Bildes (optische Erkennung) oder Audioaufnahme (akustische Erkennung) und anderer Merkmale zu bestimmen.

Eines der grundlegenden ist das Konzept einer Menge, die keine spezifische Formulierung hat. In einem Computer wird eine Menge durch eine Menge sich nicht wiederholender Elemente des gleichen Typs dargestellt. Das Wort "sich nicht wiederholend" bedeutet, dass ein Element in der Menge entweder vorhanden ist oder nicht vorhanden ist. Die universelle Menge enthält alle möglichen Elemente für das zu lösende Problem, die leere Menge enthält keine.

Ein Bild ist eine Klassifikationsgruppierung in einem Klassifikationssystem, das eine bestimmte Gruppe von Objekten gemäß einem Attribut vereint (aussondert). Bilder haben eine charakteristische Eigenschaft, die sich darin manifestiert, dass die Kenntnis einer endlichen Anzahl von Phänomenen aus derselben Menge es ermöglicht, eine beliebig große Anzahl ihrer Vertreter zu erkennen. Bilder haben charakteristische objektive Eigenschaften in dem Sinne, dass verschiedene Menschen, die aus unterschiedlichem Beobachtungsmaterial lernen, dieselben Objekte meist gleich und unabhängig voneinander klassifizieren. In der klassischen Formulierung des Erkennungsproblems wird die universelle Menge in Teilbilder zerlegt. Jede Abbildung eines beliebigen Objekts auf die Wahrnehmungsorgane des Erkennungssystems, unabhängig von seiner Position relativ zu diesen Organen, wird gewöhnlich als Bild des Objekts bezeichnet, und Sätze solcher Bilder, die durch einige gemeinsame Eigenschaften vereint sind, sind Bilder.

Die Methode der Zuordnung eines Elements zu einem beliebigen Bild wird als Entscheidungsregel bezeichnet. Ein weiteres wichtiges Konzept sind Metriken, eine Möglichkeit, den Abstand zwischen Elementen einer universellen Menge zu bestimmen. Je kleiner dieser Abstand ist, desto ähnlicher sind die Objekte (Symbole, Geräusche usw.), die wir erkennen. Typischerweise werden die Elemente als Zahlensatz und die Metrik als Funktion angegeben. Die Effizienz des Programms hängt von der Wahl der Bilddarstellung und der Implementierung der Metrik ab, ein Erkennungsalgorithmus mit unterschiedlichen Metriken wird mit unterschiedlicher Häufigkeit Fehler machen.

Lernen wird gewöhnlich als der Prozess bezeichnet, in einem System eine bestimmte Reaktion auf Gruppen von externen identischen Signalen zu entwickeln, indem das externe Korrektursystem wiederholt beeinflusst wird. Eine solche externe Anpassung im Training wird üblicherweise als „Ermutigung“ und „Bestrafung“ bezeichnet. Der Mechanismus zur Generierung dieser Anpassung bestimmt fast vollständig den Lernalgorithmus. Selbstlernen unterscheidet sich vom Lernen dadurch, dass hier keine zusätzlichen Informationen über die Korrektheit der Reaktion auf das System gemeldet werden.

Anpassung ist ein Prozess der Änderung von Parametern und Struktur des Systems und möglicherweise auch von Steuerungsmaßnahmen auf der Grundlage aktueller Informationen, um einen bestimmten Zustand des Systems mit anfänglicher Unsicherheit und sich ändernden Betriebsbedingungen zu erreichen.

Lernen ist ein Prozess, durch den das System allmählich die Fähigkeit erwirbt, auf bestimmte äußere Einflüsse mit den erforderlichen Reaktionen zu reagieren, und Anpassung ist die Anpassung der Parameter und der Struktur des Systems, um die erforderliche Qualität zu erreichen Kontrolle unter Bedingungen ständiger Änderungen der äußeren Bedingungen.

Beispiele für Mustererkennungsaufgaben: - Buchstabenerkennung;

Vortrag Nummer 17.MUSTERERKENNUNGSMETHODEN

Es gibt folgende Gruppen von Erkennungsverfahren:

Näherungsfunktionsmethoden

Diskriminanzfunktionsmethoden

Statistische Methoden der Anerkennung.

Linguistische Methoden

heuristische Methoden.

Die ersten drei Methodengruppen konzentrieren sich auf die Analyse von Merkmalen, die durch Zahlen oder Vektoren mit numerischen Komponenten ausgedrückt werden.

Die Gruppe der linguistischen Methoden bietet Mustererkennung auf der Grundlage der Analyse ihrer Struktur, die durch die entsprechenden Strukturmerkmale und Beziehungen zwischen ihnen beschrieben wird.

Die Gruppe der heuristischen Verfahren fasst die charakteristischen Techniken und logischen Verfahren des Menschen zur Mustererkennung zusammen.

Näherungsfunktionsmethoden

Die Verfahren dieser Gruppe basieren auf der Verwendung von Funktionen, die das Maß der Nähe zwischen dem erkennbaren Bild und dem Vektor auswerten x * = (x * 1 ,….,x*n) und Referenzbilder verschiedener Klassen, dargestellt durch Vektoren x ich = (x ich 1 ,…, x ich n), ich= 1,…,N, wo ich- Bildklassennummer.

Das Erkennungsverfahren gemäß diesem Verfahren besteht darin, den Abstand zwischen dem Punkt des erkannten Bildes und jedem der das Referenzbild darstellenden Punkte zu berechnen, d. h. bei der Berechnung aller Werte d ich , ich= 1,…,N. Das Bild gehört zu der Klasse, für die der Wert d ich hat den geringsten Wert von allen ich= 1,…,N .

Eine Funktion, die jedes Vektorpaar abbildet x ich, x * eine reelle Zahl als Maß für ihre Nähe, d.h. Die Bestimmung des Abstands zwischen ihnen kann ziemlich willkürlich sein. In der Mathematik wird eine solche Funktion Raummetrik genannt. Es muss die folgenden Axiome erfüllen:

r(x, y)=r(y,x);

r(x, y) > 0 wenn x nicht gleich j und r(x, y)=0 wenn x=y;

r(x, y) <=r(x, z)+r(z, y)

Diese Axiome werden insbesondere durch die folgenden Funktionen erfüllt

ein ich= 1/2 , j=1,2,…n.

b ich= Summe, j=1,2,…n.

c ich= max abs ( x ichx j *), j=1,2,…n.

Die erste davon wird die euklidische Norm eines Vektorraums genannt. Dementsprechend werden die Räume, in denen die angegebene Funktion als Metrik verwendet wird, als euklidischer Raum bezeichnet.

Häufig wird als Näherungsfunktion die quadratische Mitteldifferenz der Koordinaten des erkannten Bildes gewählt x * und Standard x ich, d.h. Funktion

d ich = (1/n) Summe( x ich jx j *) 2 , j=1,2,…n.

Wert d ich geometrisch interpretiert als das Quadrat des Abstands zwischen Punkten im Merkmalsraum, bezogen auf die Dimension des Raums.

Oft stellt sich heraus, dass unterschiedliche Merkmale bei der Wiedererkennung nicht gleich wichtig sind. Um diesen Umstand bei der Berechnung der Näherungsfunktionen der Koordinatendifferenz zu berücksichtigen, werden die entsprechenden wichtigeren Merkmale mit großen Koeffizienten multipliziert, die weniger wichtigen mit kleineren.

In diesem Fall d ich = (1/n) Summe W J (x ich jx j *) 2 , j=1,2,…n,

wo W J- Gewichtskoeffizienten.

Die Einführung von Gewichtungskoeffizienten entspricht dem Skalieren der Achsen des Merkmalsraums und dementsprechend dem Dehnen oder Komprimieren des Raums in getrennten Richtungen.

Diese Deformationen des Merkmalsraums verfolgen das Ziel einer solchen Anordnung von Punkten von Referenzbildern, die einer möglichst zuverlässigen Erkennung unter Bedingungen einer signifikanten Streuung von Bildern jeder Klasse in der Nähe des Punktes des Referenzbildes entspricht.

Gruppen von nahe beieinander liegenden Bildpunkten (Bildcluster) im Merkmalsraum werden Cluster genannt, und das Problem, solche Gruppen zu identifizieren, wird Clustering-Problem genannt.

Die Aufgabe, Cluster zu identifizieren, wird als unüberwachte Mustererkennungsaufgabe bezeichnet, d. h. zu Erkennungsproblemen in Ermangelung eines Beispiels für eine korrekte Erkennung.

Diskriminanzfunktionsmethoden

Die Idee der Methoden dieser Gruppe besteht darin, Funktionen zu konstruieren, die Grenzen im Bildraum definieren und den Raum in Bereiche unterteilen, die Klassen von Bildern entsprechen. Die einfachsten und am häufigsten verwendeten Funktionen dieser Art sind Funktionen, die linear von den Werten von Merkmalen abhängen. Im Merkmalsraum entsprechen sie Trennflächen in Form von Hyperebenen. Bei einem zweidimensionalen Merkmalsraum wirkt eine Gerade als Trennfunktion.

Die allgemeine Form der linearen Entscheidungsfunktion ist durch die Formel gegeben

d(x)=w 1 x 1 + w 2 x 2 +…+w n x n +w n +1 = Wx+w n

wo x- Bildvektor, w=(w 1 , w 2 ,…w n) ist der Vektor der Gewichtskoeffizienten.

Bei Aufteilung in zwei Klassen X 1 und X 2 Diskriminanzfunktion d(x) erlaubt die Anerkennung gemäß der Regel:

x gehört X 1 wenn d(x)>0;

x gehört X 2 wenn d(x)<0.

Wenn ein d(x)=0, dann liegt der Unsicherheitsfall vor.

Bei der Aufteilung in mehrere Klassen werden mehrere Funktionen eingeführt. In diesem Fall ist jeder Klasse von Bildern eine bestimmte Kombination von Zeichen von Unterscheidungsfunktionen zugeordnet.

Führt man beispielsweise drei Diskriminanzfunktionen ein, so ist folgende Variante der Auswahl von Bildklassen möglich:

x gehört X 1 wenn d 1 (x)>0,d 2 (x)<0,d 3 (x)<0;

x gehört X 2 wenn d(x)<0,d 2 (x)>0,d 3 (x)<0;

x gehört X 3 wenn d(x)<0,d 2 (x)<0,d 3 (x)>0.

Dies wird für andere Kombinationen von Werten angenommen d 1 (x),d 2 (x),d 3 (x) liegt ein Unsicherheitsfall vor.

Eine Variation der Methode der Diskriminanzfunktionen ist die Methode der entscheidenden Funktionen. Darin ggf m Es wird davon ausgegangen, dass es Klassen gibt m Funktionen d ich(x), genannt entscheidend, so dass wenn x gehört X ich, dann d ich(x) > dj(x) für alle j nicht gleich ich,jene. entscheidende Funktion d ich(x) hat den maximalen Wert unter allen Funktionen dj(x), j=1,...,n..

Eine Veranschaulichung eines solchen Verfahrens kann ein Klassifikator sein, der auf einer Schätzung des Minimums des euklidischen Abstands im Merkmalsraum zwischen dem Bildpunkt und dem Standard basiert. Zeigen wir es.

Euklidischer Abstand zwischen dem Merkmalsvektor des erkennbaren Bildes x und der Vektor des Referenzbildes wird durch die Formel || bestimmt x ichx|| = 1/2 , j=1,2,…n.

Vektor x wird der Klasse zugeordnet ich, für die der Wert || x ichx *|| Minimum.

Anstelle der Entfernung können Sie auch das Quadrat der Entfernung vergleichen, d.h.

||x ichx|| 2 = (x ichx)(x ichx) t = x x- 2x x ich +x ich x ich

Da der Wert x x für alle gleich ich, das Minimum der Funktion || x ichx|| 2 fällt mit dem Maximum der Entscheidungsfunktion zusammen

d ich(x) = 2x x ich -x ich x ich.

also x gehört X ich, Wenn d ich(x) > dj(x) für alle j nicht gleich ich.

Dass. Die Mindestabstands-Klassifizierungsmaschine basiert auf linearen Entscheidungsfunktionen. Die allgemeine Struktur einer solchen Maschine verwendet Entscheidungsfunktionen der Form

d ich (x)=w ich 1 x 1 + w ich 2 x 2 +…+w in x n +gewinnen +1

Es kann durch das entsprechende Blockdiagramm visuell dargestellt werden.

Für eine Maschine, die eine Klassifizierung nach dem Mindestabstand durchführt, ergeben sich die Gleichsetzungen: wij = -2x ich j , gewinnen +1 = x ich x ich.

Eine äquivalente Erkennung nach der Methode der Diskriminanzfunktionen kann durchgeführt werden, wenn die Diskriminanzfunktionen als Differenzen definiert werden dij (x)=d ich (x)‑dj (x).

Der Vorteil der Methode der Diskriminanzfunktionen ist der einfache Aufbau der Erkennungsmaschine sowie die Möglichkeit ihrer Implementierung hauptsächlich durch überwiegend lineare Entscheidungsblöcke.

Ein weiterer wichtiger Vorteil der Methode der Diskriminanzfunktionen ist die Möglichkeit des automatischen Trainierens der Maschine für die korrekte Erkennung eines gegebenen (Trainings-)Musters von Bildern.

Gleichzeitig erweist sich der automatische Lernalgorithmus im Vergleich zu anderen Erkennungsverfahren als sehr einfach.

Aus diesen Gründen hat die Methode der Diskriminanzfunktionen große Popularität erlangt und wird in der Praxis häufig verwendet.

Selbstlernende Verfahren zur Mustererkennung

Betrachten Sie Verfahren zum Konstruieren einer Diskriminanzfunktion für eine gegebene (Trainings-)Stichprobe, wie sie auf das Problem der Aufteilung von Bildern in zwei Klassen angewendet werden. Wenn zwei Sätze von Bildern gegeben sind, die jeweils zu den Klassen A und B gehören, dann wird die Lösung des Problems der Konstruktion einer linearen Diskriminanzfunktion in Form eines Vektors von Gewichtungskoeffizienten gesucht W=(w 1 ,w 2 ,...,w n,w n+1), die die Eigenschaft hat, dass für jedes Bild die Bedingungen gelten

x gehört zur Klasse A wenn >0, j=1,2,…n.

x gehört zur Klasse B, wenn<0, j=1,2,…n.

Wenn das Trainingsmuster ist N Abbildungen beider Klassen reduziert sich das Problem darauf, einen Vektor w zu finden, der die Gültigkeit des Ungleichungssystems sicherstellt N Bildern beider Klassen reduziert sich das Problem auf das Finden des Vektors w, die die Gültigkeit des Systems der Ungleichungen sicherstellt

x 1 1 w ich+x 21 w 2 +...+x n 1 w n+w n +1 >0;

x 1 2 w ich+x 22 w 2 +...+x n 2 w n+w n +1 <0;

x 1 ichw ich+x 2ich w 2 +...+x ni w n+w n +1 >0;

................................................

x 1 Nw ich + x 2N w 2 +...+x nN w n + w n + 1>0;

hier x ich=(x ich 1 , x i 2 ,...,x ich n ,x ich n+ 1 ) - der Vektor der Werte der Merkmale des Bildes aus dem Trainingsmuster, das Zeichen > entspricht den Vektoren der Bilder x Zugehörigkeit zur Klasse A, und das Zeichen< - векторам x zur Klasse B gehören.

Gewünschter Vektor w existiert, wenn die Klassen A und B trennbar sind, und existiert ansonsten nicht. Vektorkomponentenwerte w können entweder vorläufig in der Phase vor der Hardwareimplementierung des FRO oder direkt vom FRO selbst im Laufe seines Betriebs gefunden werden. Der letzte dieser Ansätze bietet eine größere Flexibilität und Autonomie der SRO. Betrachten Sie es am Beispiel eines Geräts namens Percentron. 1957 vom amerikanischen Wissenschaftler Rosenblatt erfunden. Eine schematische Darstellung des Perzentrons, der dafür sorgt, dass das Bild einer der beiden Klassen zugeordnet wird, zeigt die folgende Abbildung.

Retina S Retina EIN Retina R

oh oh x 1

oh oh x 2

oh oh x 3

o(Summe)-------> R(Reaktion)

oh oh x ich

oh oh x n

oh oh x n +1

Das Gerät besteht aus retinalen sensorischen Elementen S, die zufällig mit den assoziativen Elementen der Netzhaut verbunden sind EIN. Jedes Element der zweiten Netzhaut erzeugt nur dann ein Ausgangssignal, wenn eine ausreichende Anzahl an seinem Eingang angeschlossener sensorischer Elemente in einem angeregten Zustand sind. Reaktion des gesamten Systems R ist proportional zur Summe der Reaktionen der Elemente der assoziativen Netzhaut, die mit bestimmten Gewichten genommen werden.

Bezeichnung durch x ich Reaktion ich assoziatives Element und durch w ich- Reaktionsgewichtskoeffizient ich assoziatives Element kann die Reaktion des Systems geschrieben werden als R=summe( w j x j), j=1,..,n. Wenn ein R>0, dann gehört das dem System präsentierte Bild zur Klasse A, und wenn R<0, то образ относится к классу B. Описание этой процедуры классификации соответствует рассмотренным нами раньше принципам классификации, и, очевидно, перцентронная модель распознавания образов представляет собой, за исключением сенсорной сетчатки, реализацию линейной дискриминантной функции. Принятый в перцентроне принцип формирования значений x 1 , x 2 ,...,x n entspricht einem bestimmten Algorithmus zur Bildung von Merkmalen basierend auf den Signalen der primären Sensoren.

Im Allgemeinen können mehrere Elemente vorhanden sein R, die die Reaktion des Perzeptrons bilden. Man spricht in diesem Fall vom Vorhandensein der Netzhaut im Perzeptron R reagierende Elemente.

Das Percentron-Schema kann auf den Fall erweitert werden, wenn die Anzahl der Klassen mehr als zwei beträgt, indem die Anzahl der Netzhautelemente erhöht wird R bis hin zur Anzahl der unterscheidbaren Klassen und der Einführung eines Blocks zur Bestimmung der maximalen Reaktion gemäß dem in obiger Abbildung dargestellten Schema. In diesem Fall wird das Bild der Klasse mit der Nummer zugeordnet ich, Wenn R ich>RJ, für alle j.

Der Lernprozess des Perzentrons besteht darin, die Werte der Gewichtskoeffizienten auszuwählen W J damit das Ausgangssignal der Klasse entspricht, zu der das erkannte Bild gehört.

Betrachten wir den Perzentron-Aktionsalgorithmus am Beispiel der Erkennung von Objekten zweier Klassen: A und B. Die Objekte der Klasse A müssen dem Wert entsprechen R= +1 und Klasse B - der Wert R= -1.

Der Lernalgorithmus ist wie folgt.

Wenn ein anderes Bild x gehört zur Klasse A, aber R<0 (имеет место ошибка распознавания), тогда коэффициенты W J mit Indizes, die Werten entsprechen xj>0, um einen gewissen Betrag erhöhen dw, und die restlichen Koeffizienten W J abnehmen um dw. In diesem Fall der Wert der Reaktion R erhält einen Zuwachs gegenüber seinen positiven Werten entsprechend der korrekten Einstufung.

Wenn ein x gehört zur Klasse B, aber R>0 (es liegt ein Erkennungsfehler vor), dann die Koeffizienten W J mit Indizes entsprechend xj<0, увеличивают на dw, und die restlichen Koeffizienten W J um den gleichen Betrag reduziert. In diesem Fall der Wert der Reaktion R zu negativen Werten hin inkrementiert, die der korrekten Klassifizierung entsprechen.

Der Algorithmus führt somit eine Änderung im Gewichtsvektor ein w wenn und nur wenn das Bild präsentiert wird k-ten Trainingsschritt, wurde bei diesem Schritt falsch klassifiziert und verlässt den Gewichtsvektor w keine Änderung bei korrekter Einstufung. Der Beweis der Konvergenz dieses Algorithmus wird in [Too, Gonzalez] präsentiert. Ein solches Training wird schließlich (bei richtiger Wahl dw und lineare Trennbarkeit von Bildklassen) führt zu einem Vektor w für die richtige Einstufung.

Statistische Methoden der Anerkennung.

Statistische Methoden basieren darauf, die Wahrscheinlichkeit eines Klassifikationsfehlers zu minimieren. Die Wahrscheinlichkeit P einer fehlerhaften Klassifikation des zur Erkennung empfangenen Bildes, beschrieben durch den Merkmalsvektor x, wird durch die Formel bestimmt

P = Summe[ p(ich) wahrscheinlich ( D(x)+ich | x Klasse ich)]

wo m- Anzahl der Klassen,

p(ich) = Sonde ( x gehört zur Klasse ich) - A-priori-Wahrscheinlichkeit der Zugehörigkeit zu einem beliebigen Bild x zu ich-te Klasse (Häufigkeit des Auftretens von Bildern ich Klasse),

D(x) ist eine Funktion, die eine Klassifizierungsentscheidung trifft (der Merkmalsvektor x entspricht der Klassennummer ich aus der Menge (1,2,..., m}),

prob( D(x) nicht gleich ich| x gehört zur Klasse ich) ist die Wahrscheinlichkeit des Ereignisses " D(x) nicht gleich ich“, wenn die Mitgliedschaftsbedingung erfüllt ist x Klasse ich, d.h. die Wahrscheinlichkeit, dass die Funktion eine fehlerhafte Entscheidung trifft D(x) für einen bestimmten Wert x gehört ich- Klasse.

Es kann gezeigt werden, dass die Wahrscheinlichkeit einer Fehlklassifikation ein Minimum erreicht, wenn D(x)=ich dann und nur dann, wenn p(x|ichp(ich)>p(x|jp(j), für alle i+j, wo p(x|i) - Verteilungsdichte von Bildern ich Klasse im Feature-Raum.

Nach obiger Regel ist der Punkt x gehört zu der Klasse, die dem Maximalwert entspricht p(ich) p(x|i), d.h. das Produkt der A-priori-Wahrscheinlichkeit (Häufigkeit) des Auftretens von Bildern ich-te Klasse und Musterverteilungsdichte ich Klasse im Feature-Raum. Die vorgestellte Klassifikationsregel heißt Bayesianisch, weil es folgt aus der bekannten Bayes-Formel in der Wahrscheinlichkeitstheorie.

Beispiel. Gegeben sei es, diskrete Signale am Ausgang eines mit Rauschen behafteten Informationskanals zu erkennen.

Jedes Eingangssignal ist eine 0 oder 1. Als Ergebnis der Signalübertragung erscheint am Ausgang des Kanals der Wert x, dem Gaußsches Rauschen mit Nullmittelwert und Varianz b überlagert ist.

Für die Synthese eines Klassifikators, der eine Signalerkennung durchführt, verwenden wir die Bayes'sche Klassifikationsregel.

In Klasse Nr. 1 kombinieren wir die Signale, die Einheiten darstellen, in Klasse Nr. 2 - Signale, die Nullen darstellen. Lassen Sie es im Voraus wissen, dass im Durchschnitt von 1000 Signalen a Signale sind Einheiten und b Signale - Nullen. Dann können die Werte der A-priori-Wahrscheinlichkeiten für das Auftreten von Signalen der 1. und 2. Klasse (Einsen bzw. Nullen) gleichgesetzt werden

p(1)=a/1000, p(2)=b/1000.

weil das Rauschen ist Gauß, d.h. gehorcht dem normalen (gaußschen) Verteilungsgesetz, dann ist die Verteilungsdichte von Bildern der ersten Klasse abhängig vom Wert x, oder, was dasselbe ist, die Wahrscheinlichkeit, den Ausgabewert zu erhalten x wenn Signal 1 am Eingang anliegt, wird es durch den Ausdruck bestimmt

p(x¦1) =(2pib) -1/2 exp(-( x-1) 2 /(2b 2)),

und die Verteilungsdichte abhängig vom Wert x Bilder der zweiten Klasse, d.h. die Wahrscheinlichkeit, den Ausgabewert zu erhalten x wenn am Eingang ein Signal 0 anliegt, wird es durch den Ausdruck bestimmt

p(x¦2)= (2pib) -1/2 exp(- x 2 /(2b 2)),

Die Anwendung der Bayes'schen Entscheidungsregel führt zu dem Schluss, dass ein Klasse-2-Signal übertragen wird, d.h. Null überschritten, wenn

p(2) p(x¦2) > p(1) p(x¦1)

oder genauer gesagt, wenn

b exp(- x 2 /(2b 2)) > a exp(-( x-1) 2 /(2b 2)),

Teilen wir die linke Seite der Ungleichung durch die rechte Seite, erhalten wir

(b/a)exp((1-2 x)/(2b 2)) >1,

woraus wir nach dem Logarithmieren finden

1-2x> 2b 2ln(a/b)

x< 0.5 - б 2 ln(a/b)

Aus der resultierenden Ungleichung folgt, dass a=b, d.h. bei gleichen a priori Auftrittswahrscheinlichkeiten der Signale 0 und 1 wird dem Bild der Wert 0 zugewiesen, wenn x<0.5, а значение 1, когда x>0.5.

Wenn im Voraus bekannt ist, dass eines der Signale öfter und das andere seltener auftritt, d.h. bei unterschiedlichen Werten a und b, wird die Ansprechschwelle des Klassifikators auf die eine oder andere Seite verschoben.

Also bei a/b= 2,71 (entspricht 2,71 mal häufigerer Übertragung von Einsen) und b 2 = 0,1, wird dem Bild der Wert 0 zugewiesen, wenn x<0.4, и значение 1, если x>0,4. Liegen keine Informationen über die A-priori-Verteilungswahrscheinlichkeiten vor, so können statistische Erkennungsverfahren verwendet werden, die auf anderen als Bayes'schen Klassifikationsregeln beruhen.

In der Praxis sind jedoch Verfahren, die auf den Regeln von Bayes basieren, aufgrund ihrer größeren Effizienz am gebräuchlichsten und auch aufgrund der Tatsache, dass es bei den meisten Mustererkennungsproblemen möglich ist, a priori Wahrscheinlichkeiten für das Auftreten von Bildern jeder Klasse festzulegen.

Sprachliche Methoden der Mustererkennung.

Linguistische Methoden der Mustererkennung basieren auf der Analyse der Beschreibung eines idealisierten Bildes, dargestellt als Graph oder eine Reihe von Symbolen, das eine Phrase oder ein Satz einer bestimmten Sprache ist.

Betrachten Sie die idealisierten Bilder von Buchstaben, die als Ergebnis der oben beschriebenen ersten Stufe der sprachlichen Erkennung erhalten werden. Diese idealisierten Bilder können durch Beschreibungen von Graphen definiert werden, die beispielsweise in Form von Verbindungsmatrizen dargestellt werden, wie dies im obigen Beispiel geschehen ist. Dieselbe Beschreibung kann durch eine formale Sprachphrase (Ausdruck) dargestellt werden.

Beispiel. Gegeben seien drei Bilder des Buchstabens A, die als Ergebnis einer vorläufigen Bildverarbeitung erhalten werden. Lassen Sie uns diese Bilder mit den Kennungen A1, A2 und A3 benennen.

Zur sprachlichen Beschreibung der präsentierten Bilder verwenden wir die PDL (Picture Description Language). Das PDL-Sprachwörterbuch enthält die folgenden Zeichen:

1. Namen der einfachsten Bilder (Primitive). Angewendet auf den betrachteten Fall sind die Grundelemente und ihre entsprechenden Namen wie folgt.

Bilder in Form einer Linie gerichtet:

hoch und links (le F t), nach Norden (Norden)), nach oben und nach rechts (rechts), nach Osten (Osten)).

Namen: L, N, R, E.

2. Symbole binärer Operationen. (+,*,-) Ihre Bedeutung entspricht der sequentiellen Verbindung von Primitiven (+), der Verbindung der Anfänge und Enden von Primitiven (*), der Verbindung nur der Enden von Primitiven (-).

3. Rechte und linke Klammern. ((,)) Mit runden Klammern können Sie die Reihenfolge angeben, in der Operationen in einem Ausdruck ausgeführt werden sollen.

Die betrachteten Bilder A1, A2 und A3 werden in der PDL-Sprache jeweils durch die folgenden Ausdrücke beschrieben.

T(1)=R+((R-(L+N))*E-L

T(2)=(R+N)+((N+R)-L)*E-L

T(3)=(N+R)+(R-L)*E-(L+N)

Nachdem die sprachliche Beschreibung des Bildes erstellt wurde, muss mithilfe eines Erkennungsverfahrens analysiert werden, ob das gegebene Bild zu der für uns interessanten Klasse (der Klasse der Buchstaben A) gehört, d.h. ob dieses Bild eine Struktur hat oder nicht. Dazu ist es zunächst notwendig, die Klasse von Bildern zu beschreiben, die die uns interessierende Struktur haben.

Offensichtlich enthält der Buchstabe A immer die folgenden Strukturelemente: das linke "Bein", das rechte "Bein" und den Kopf. Nennen wir diese Elemente jeweils STL, STR, TR.

Dann wird in der PDL-Sprache die Symbolklasse A – SIMB A durch den Ausdruck beschrieben

SIMB A = STL + TR - STR

Das linke "Bein" der STL ist immer eine Kette von Elementen R und N, die geschrieben werden kann als

STL ‑> R ¦ N ¦ (STL + R) ¦ (STL + N)

(STL ist das Zeichen R oder N oder eine Zeichenfolge, die durch Hinzufügen von R- oder N-Zeichen zur STL-Quellzeichenfolge erhalten wird.)

Der rechte "Zweig" von STR ist immer eine Kette der Elemente L und N, die wie folgt geschrieben werden kann, d.h.

STR ‑> L¦N¦ (STR + L)¦(STR + N)

Der Kopfteil des Buchstabens - TR ist eine geschlossene Kontur, die sich aus dem Element E und Ketten wie STL und STR zusammensetzt.

In der PDL-Sprache wird die TR-Struktur durch den Ausdruck beschrieben

TR ‑> (STL - STR) * E

Schließlich erhalten wir die folgende Beschreibung der Buchstabenklasse A:

SIMB A ‑> (STL + TR - STR),

STL ‑> R¦N¦ (STL + R)¦(STL + N)

STR ‑> L¦N¦ (STR + L)¦(STR + N)

TR ‑> (STL - STR) * E

Das Erkennungsverfahren kann in diesem Fall wie folgt implementiert werden.

1. Der dem Bild entsprechende Ausdruck wird mit der Referenzstruktur STL + TR - STR verglichen.

2. Jedes Element der Struktur STL, TR, STR, wenn möglich, d.h. wenn die Beschreibung des Bildes mit dem Standard vergleichbar ist, wird ein Teilausdruck des Ausdrucks T(A) abgeglichen. Zum Beispiel,

für A1: STL=R, STR=L, TR=(R-(L+N))*E

für A2: STL = R + N, STR = L, TR = ((N + R) - L) * E

für A3: STL = N + R, STR = L + N, TR = (R - L) * E 3.

STL-, STR-, TR-Ausdrücke werden mit ihren entsprechenden Referenzstrukturen verglichen.

4. Wenn die Struktur jedes STL-, STR-, TR-Ausdrucks der Referenz entspricht, wird gefolgert, dass das Bild zur Buchstabenklasse A gehört. Wenn in einer der Stufen 2, 3, 4 eine Diskrepanz zwischen der Struktur besteht Aus dem analysierten Ausdruck und der Referenz wird geschlossen, dass das Bild nicht zur SIMB-Klasse A gehört. Der Abgleich der Ausdrucksstruktur kann mit den algorithmischen Sprachen LISP, PLANER, PROLOG und anderen ähnlichen Sprachen für künstliche Intelligenz erfolgen.

Im betrachteten Beispiel bestehen alle STL-Strings aus N und R Zeichen und STR-Strings aus L und N Zeichen, was der gegebenen Struktur dieser Strings entspricht. Die TR-Struktur in den betrachteten Bildern entspricht auch der Referenz, da besteht aus "Differenz" von Zeichenketten vom Typ STL, STR, "multipliziert" mit dem Symbol E.

Somit kommen wir zu dem Schluss, dass die betrachteten Bilder zur Klasse gehören SIMB A.


Synthese eines Fuzzy-DC-Elektroantriebsreglersin der "MatLab"-Umgebung

Synthese eines Fuzzy-Reglers mit einem Ein- und Ausgang.

Das Problem besteht darin, den Antrieb dazu zu bringen, den verschiedenen Eingaben genau zu folgen. Die Entwicklung der Regelaktion erfolgt durch einen Fuzzy-Controller, bei dem folgende Funktionsblöcke strukturell unterschieden werden können: Fuzzifier, Regelblock und Defuzzifier.

Abb.4 Verallgemeinertes Funktionsdiagramm eines Systems mit zwei linguistischen Variablen.

Abb.5 Schematische Darstellung eines Fuzzy-Reglers mit zwei linguistischen Variablen.

Der Fuzzy-Regelalgorithmus ist im allgemeinen Fall eine Transformation der Eingangsgrößen des Fuzzy-Reglers in seine Ausgangsgrößen mit folgenden zusammenhängenden Verfahren:

1. Transformation von physikalischen Eingangsgrößen, die von Messsensoren des Regelobjekts erhalten werden, in sprachliche Eingangsgrößen eines Fuzzy-Reglers;

2. Verarbeitung logischer Aussagen, sogenannter linguistischer Regeln, bezüglich der linguistischen Eingangs- und Ausgangsvariablen des Controllers;

3. Transformation der ausgegebenen linguistischen Größen des Fuzzy-Reglers in physikalische Regelgrößen.

Betrachten wir zunächst den einfachsten Fall, wenn nur zwei linguistische Variablen zur Steuerung des Servoantriebs eingeführt werden:

"Winkel" - Eingabevariable;

"control action" - Ausgangsvariable.

Wir werden den Controller in der MatLab-Umgebung mit der Fuzzy-Logic-Toolbox synthetisieren. Es ermöglicht die Erstellung von Fuzzy-Inferenz- und Fuzzy-Klassifizierungssystemen innerhalb der MatLab-Umgebung mit der Möglichkeit, sie in Simulink zu integrieren. Das Grundkonzept der Fuzzy Logic Toolbox ist die FIS-Struktur - Fuzzy Inference System. Die FIS-Struktur enthält alle notwendigen Daten für die Implementierung der funktionalen Abbildung "Eingänge-Ausgänge" auf der Grundlage einer Fuzzy-Logik-Inferenz gemäß dem in Fig. 2 gezeigten Schema. 6.


Abbildung 6. Fuzzy-Inferenz.

X - gestochen scharfer Vektor eingeben; - Vektor von Fuzzy-Mengen entsprechend dem Eingangsvektor X;
- das Ergebnis der logischen Inferenz in Form eines Vektors von Fuzzy-Sets; Y - Ausgabe eines scharfen Vektors.

Mit dem Fuzzy-Modul können Sie zwei Arten von Fuzzy-Systemen erstellen - Mamdani und Sugeno. In Systemen vom Mamdani-Typ besteht die Wissensbasis aus Regeln der Form „Wenn x 1 =niedrig und x 2 =mittel, dann y=hoch“. In Systemen vom Sugeno-Typ besteht die Wissensbasis aus Regeln der Form „Wenn x 1 =niedrig und x 2 =mittel, dann y=a 0 +a 1 x 1 +a 2 x 2 ". Der Hauptunterschied zwischen dem Mamdani- und dem Sugeno-System liegt also in den unterschiedlichen Möglichkeiten, die Werte der Ausgangsvariablen in den Regeln festzulegen, die die Wissensbasis bilden. In Systemen vom Mamdani-Typ werden die Werte der Ausgangsvariablen durch Fuzzy-Terme angegeben, in Systemen vom Sugeno-Typ - als lineare Kombination von Eingangsvariablen. In unserem Fall werden wir das Sugeno-System verwenden, weil es eignet sich besser für die Optimierung.

Um den Servoantrieb zu steuern, werden zwei linguistische Variablen eingeführt: "Fehler" (nach Position) und "Steueraktion". Der erste davon ist der Input, der zweite der Output. Lassen Sie uns einen Ausdruckssatz für die angegebenen Variablen definieren.

Die Hauptkomponenten der Fuzzy-Inferenz. Fuzzifier.

Für jede linguistische Variable definieren wir einen grundlegenden Begriffssatz der Form, der Fuzzy-Mengen enthält, die bezeichnet werden können: negativ hoch, negativ niedrig, Null, positiv niedrig, positiv hoch.

Lassen Sie uns zunächst subjektiv definieren, was mit den Begriffen "großer Fehler", "kleiner Fehler" usw. gemeint ist, indem die Zugehörigkeitsfunktionen für die entsprechenden Fuzzy-Mengen definiert werden. Hier kann man sich vorerst nur an der erforderlichen Genauigkeit, bekannten Parametern für die Klasse der Eingangssignale und gesundem Menschenverstand orientieren. Bisher konnte niemand einen starren Algorithmus zur Wahl der Parameter von Zugehörigkeitsfunktionen anbieten. In unserem Fall sieht die linguistische Variable "Fehler" so aus.

Abb.7. Sprachvariable "Fehler".

Bequemer ist es, die linguistische Variable „Management“ in Form einer Tabelle darzustellen:

Tabelle 1

Regelblock.

Betrachten Sie die Reihenfolge der Definition mehrerer Regeln, die einige Situationen beschreiben:

Nehmen wir zum Beispiel an, dass der Ausgangswinkel gleich dem Eingangssignal ist (d. h. der Fehler ist Null). Offensichtlich ist dies die gewünschte Situation, und deshalb müssen wir nichts tun (die Steueraktion ist Null).

Betrachten Sie nun einen anderen Fall: Der Positionsfehler ist viel größer als Null. Natürlich müssen wir dies kompensieren, indem wir ein großes positives Steuersignal erzeugen.

Dass. Es wurden zwei Regeln aufgestellt, die formal wie folgt definiert werden können:

Wenn Fehler = null, dann Kontrollaktion = Null.

Wenn Fehler = groß positiv, dann Kontrollaktion = groß positiv.

Abb.8. Kontrollbildung mit einem kleinen positiven Positionsfehler.

Abb.9. Bildung der Kontrolle bei Nullfehler nach Position.

Die folgende Tabelle zeigt alle Regeln, die allen Situationen für diesen einfachen Fall entsprechen.

Tabelle 2

Insgesamt können für einen Fuzzy-Regler mit n Eingängen und 1 Ausgang Steuerregeln bestimmt werden, wobei die Anzahl der Fuzzy-Sets für den i-ten Eingang ist, aber für die normale Funktion des Reglers es nicht notwendig ist, alle möglichen zu verwenden Regeln, aber Sie können mit einer kleineren Anzahl von ihnen auskommen. In unserem Fall werden alle 5 möglichen Regeln verwendet, um ein Fuzzy-Steuersignal zu bilden.

Defuzzifizierer.

Somit wird die resultierende Auswirkung U gemäß der Implementierung einer beliebigen Regel bestimmt. Wenn eine Situation auftritt, in der mehrere Regeln gleichzeitig ausgeführt werden, wird die resultierende Aktion U gemäß der folgenden Beziehung gefunden:

, wobei n die Anzahl der ausgelösten Regeln ist (Defuzzifizierung nach der Bereichszentrumsmethode), u n der physikalische Wert des Steuersignals ist, das jedem der Fuzzy-Mengen entspricht UBO, UMo, UZ, UMp, UBP. mUn(u) ist der Grad der Zugehörigkeit des Steuersignals u zur entsprechenden Fuzzy-Menge Un=( UBO, UMo, UZ, UMp, UBP). Es gibt auch andere Methoden der Defuzzifizierung, wenn die ausgegebene linguistische Variable proportional zur "starken" oder "schwachen" Regel selbst ist.

Lassen Sie uns die Steuerung des Elektroantriebs mit dem oben beschriebenen Fuzzy-Regler simulieren.

Abb.10. Blockdiagramm des Systems in der Umgebungmatlab.

Abb.11. Strukturdiagramm eines Fuzzy-Reglers in der Umgebungmatlab.

Abb.12. Transienter Prozess bei einem einstufigen Aufprall.

Reis. 13. Transienter Prozess unter harmonischer Eingabe für ein Modell mit einem Fuzzy-Controller, der eine linguistische Eingabevariable enthält.

Eine Analyse der Kennlinien eines Antriebs mit synthetisiertem Regelalgorithmus zeigt, dass diese bei weitem nicht optimal und schlechter sind als bei der Regelsynthese durch andere Methoden (zu viel Regelzeit bei Einzelschritteffekt und Fehler bei Oberschwingungseffekt). . Dies erklärt sich dadurch, dass die Parameter der Zugehörigkeitsfunktionen ziemlich willkürlich gewählt wurden und nur die Größe des Positionsfehlers als Reglereingang verwendet wurde. Von einer Optimalität des erhaltenen Reglers kann natürlich keine Rede sein. Damit stellt sich die Aufgabe, den Fuzzy-Regler zu optimieren, um möglichst hohe Regelgütekennzahlen zu erreichen. Jene. Die Aufgabe besteht darin, die Zielfunktion f(a 1 ,a 2 …a n) zu optimieren, wobei a 1 ,a 2 …a n die Koeffizienten sind, die Art und Eigenschaften des Fuzzy-Reglers bestimmen. Zur Optimierung des Fuzzy-Reglers verwenden wir den ANFIS-Baustein aus der Matlab-Umgebung. Eine der Möglichkeiten zur Verbesserung der Eigenschaften des Controllers kann auch darin bestehen, die Anzahl seiner Eingänge zu erhöhen. Dadurch wird der Regler flexibler und seine Leistung verbessert. Lassen Sie uns eine weitere linguistische Eingangsvariable hinzufügen - die Änderungsrate des Eingangssignals (seine Ableitung). Dementsprechend wird auch die Zahl der Regeln zunehmen. Dann hat der Schaltplan des Reglers die Form:

Abb.14 Schematische Darstellung eines Fuzzy-Reglers mit drei linguistischen Variablen.

Sei der Wert der Geschwindigkeit des Eingangssignals. Der Basistermsatz Tn ist definiert als:

Тn=("negativ (VO)", "null (Z)", "positiv (VR)").

Die Position der Zugehörigkeitsfunktionen für alle linguistischen Variablen ist in der Abbildung gezeigt.

Abb.15. Zugehörigkeitsfunktionen der linguistischen Variablen "Fehler".

Abb.16. Zugehörigkeitsfunktionen der linguistischen Variablen "Eingangssignalgeschwindigkeit".

Durch das Hinzufügen einer weiteren linguistischen Variablen erhöht sich die Anzahl der Regeln auf 3x5=15. Das Prinzip ihrer Zusammenstellung ist dem oben besprochenen völlig ähnlich. Alle sind in der folgenden Tabelle aufgeführt:

Tisch 3

unscharfes Signal

Management

Positionsfehler

Geschwindigkeit

Zum Beispiel, wenn Wenn Fehler = Null und Eingangssignalableitung = groß positiv, dann Kontrollaktion = klein negativ.

Abb.17. Kontrollbildung unter drei sprachlichen Variablen.

Durch die Zunahme der Anzahl der Eingänge und dementsprechend der Regeln selbst wird auch die Struktur des Fuzzy-Reglers komplizierter.

Abb.18. Strukturdiagramm eines Fuzzy-Reglers mit zwei Eingängen.

Zeichnung hinzufügen

Abb.20. Transienter Prozess unter harmonischer Eingabe für ein Modell mit einem Fuzzy-Controller, der zwei linguistische Eingabevariablen enthält.

Reis. 21. Fehlersignal unter harmonischer Eingabe für ein Modell mit einem Fuzzy-Regler, der zwei linguistische Eingabevariablen enthält.

Lassen Sie uns den Betrieb eines Fuzzy-Controllers mit zwei Eingängen in der Matlab-Umgebung simulieren. Das Blockdiagramm des Modells ist genau das gleiche wie in Abb. 19. Aus dem Diagramm des transienten Prozesses für den harmonischen Eingang ist ersichtlich, dass die Genauigkeit des Systems erheblich zugenommen hat, aber gleichzeitig seine Oszillation zugenommen hat, insbesondere an Stellen, an denen die Ableitung der Ausgangskoordinate dazu tendiert Null. Es ist offensichtlich, dass die Gründe dafür, wie oben erwähnt, in der nicht optimalen Wahl von Parametern von Zugehörigkeitsfunktionen sowohl für Eingangs- als auch für Ausgangssprachvariablen liegen. Daher optimieren wir den Fuzzy-Regler mit dem ANFISedit-Block in der Matlab-Umgebung.

Fuzzy-Controller-Optimierung.

Betrachten Sie die Verwendung genetischer Algorithmen zur Fuzzy-Controller-Optimierung. Genetische Algorithmen sind adaptive Suchverfahren, die in den letzten Jahren häufig zur Lösung funktionaler Optimierungsprobleme eingesetzt werden. Sie basieren auf der Ähnlichkeit zu den genetischen Prozessen biologischer Organismen: Biologische Populationen entwickeln sich über mehrere Generationen, gehorchend den Gesetzen der natürlichen Auslese und nach dem von Charles Darwin entdeckten Prinzip des „Survival of the fittest“. Durch die Nachahmung dieses Prozesses sind genetische Algorithmen in der Lage, Lösungen für reale Probleme zu „entwickeln“, wenn sie entsprechend codiert sind.

Genetische Algorithmen arbeiten mit einer Reihe von "Individuen" - einer Population, von denen jedes eine mögliche Lösung für ein bestimmtes Problem darstellt. Jedes Individuum wird nach dem Maß seiner „Fitness“ danach beurteilt, wie „gut“ die Lösung des ihm entsprechenden Problems ist. Die fittesten Individuen sind in der Lage, Nachkommen durch "Kreuzung" mit anderen Individuen der Population zu "reproduzieren". Dies führt zur Entstehung neuer Individuen, die einige der von ihren Eltern geerbten Eigenschaften in sich vereinen. Die am wenigsten fitten Individuen reproduzieren sich mit geringerer Wahrscheinlichkeit, sodass die Eigenschaften, die sie besitzen, allmählich aus der Population verschwinden.

Auf diese Weise wird die gesamte neue Population machbarer Lösungen reproduziert, indem die besten Vertreter der vorherigen Generation ausgewählt, gekreuzt und viele neue Individuen gewonnen werden. Diese neue Generation enthält einen höheren Anteil an Eigenschaften, die die guten Mitglieder der vorherigen Generation besitzen. So werden von Generation zu Generation gute Eigenschaften in der gesamten Bevölkerung verteilt. Letztendlich wird sich die Bevölkerung der optimalen Lösung des Problems annähern.

Es gibt viele Möglichkeiten, die Idee der biologischen Evolution im Rahmen genetischer Algorithmen umzusetzen. Herkömmlich, kann in Form des folgenden Blockdiagramms dargestellt werden, das in Abbildung 22 gezeigt wird, wobei:

1. Initialisierung der Anfangspopulation - Generierung einer bestimmten Anzahl von Lösungen für das Problem, von denen aus der Optimierungsprozess beginnt;

2. Anwendung von Crossover- und Mutationsoperatoren;

3. Stoppbedingungen – normalerweise wird der Optimierungsprozess fortgesetzt, bis eine Lösung für das Problem mit einer bestimmten Genauigkeit gefunden wird oder bis sich herausstellt, dass der Prozess konvergiert ist (d. h. es gab keine Verbesserung bei der Lösung des Problems im letzten N Generationen).

In der Matlab-Umgebung werden genetische Algorithmen durch eine separate Toolbox sowie durch das ANFIS-Paket repräsentiert. ANFIS ist eine Abkürzung für Adaptive-Network-Based Fuzzy Inference System – Adaptive Fuzzy Inference Network. ANFIS ist eine der ersten Varianten hybrider Neuro-Fuzzy-Netze – ein neuronales Netz einer besonderen Art der direkten Signalausbreitung. Die Architektur eines Neuro-Fuzzy-Netzwerks ist isomorph zu einer Fuzzy-Wissensbasis. In Neuro-Fuzzy-Netzen werden differenzierbare Implementierungen von Dreiecksnormen (Multiplikation und probabilistisches ODER) sowie glatte Zugehörigkeitsfunktionen verwendet. Dies ermöglicht die Verwendung schneller und genetischer Algorithmen zum Trainieren neuronaler Netze auf Basis des Backpropagation-Verfahrens zum Tunen von Neuro-Fuzzy-Netzen. Die Architektur und Regeln für den Betrieb jeder Schicht des ANFIS-Netzwerks werden unten beschrieben.

ANFIS implementiert das Fuzzy-Inferenzsystem von Sugeno als fünfschichtiges neuronales Feed-Forward-Netzwerk. Der Zweck der Schichten ist wie folgt: Die erste Schicht sind die Terme der Eingabevariablen; die zweite Schicht - Antezedenzien (Pakete) von Fuzzy-Regeln; die dritte Ebene ist die Normalisierung des Erfüllungsgrades der Regeln; die vierte Schicht sind die Schlussfolgerungen der Regeln; die fünfte Schicht ist die Aggregation der nach verschiedenen Regeln erhaltenen Ergebnisse.

Die Netzwerkeingänge werden keiner separaten Schicht zugeordnet. Abbildung 23 zeigt ein ANFIS-Netz mit einer Eingangsvariablen („Fehler“) und fünf Fuzzy-Regeln. Für die sprachliche Bewertung der Eingangsgröße „Fehler“ werden 5 Begriffe verwendet.


Abb.23. StrukturANFIS-Netzwerke.

Lassen Sie uns die folgende Notation einführen, die für die weitere Darstellung notwendig ist:

Seien die Eingänge des Netzwerks;

y - Netzwerkausgang;

Fuzzy-Regel mit Ordnungszahl r;

m - Anzahl der Regeln;

Fuzzy-Term mit Zugehörigkeitsfunktion , verwendet zur sprachlichen Auswertung einer Variablen in der r-ten Regel (,);

Reelle Zahlen im Schluss der r-ten Regel (,).

Das ANFIS-Netzwerk funktioniert wie folgt.

Schicht 1 Jeder Knoten der ersten Schicht repräsentiert einen Term mit einer glockenförmigen Zugehörigkeitsfunktion. Die Eingänge des Netzwerks sind nur mit ihren Begriffen verbunden. Die Anzahl der Knoten in der ersten Schicht ist gleich der Summe der Kardinalitäten der Ausdruckssätze der Eingabevariablen. Die Ausgabe des Knotens ist der Grad der Zugehörigkeit des Werts der Eingangsvariablen zum entsprechenden Fuzzy-Term:

,

wobei a, b und c konfigurierbare Parameter der Zugehörigkeitsfunktion sind.

Schicht 2 Die Anzahl der Knoten in der zweiten Schicht ist m. Jeder Knoten dieser Schicht entspricht einer Fuzzy-Regel. Der Knoten der zweiten Schicht ist mit denjenigen Knoten der ersten Schicht verbunden, die die Vorläufer der entsprechenden Regel bilden. Daher kann jeder Knoten der zweiten Schicht 1 bis n Eingangssignale empfangen. Der Ausgang des Knotens ist der Ausführungsgrad der Regel, der als Produkt der Eingangssignale berechnet wird. Bezeichnen Sie die Ausgänge der Knoten dieser Schicht mit , .

Schicht 3 Die Anzahl der Knoten in der dritten Schicht ist ebenfalls m. Jeder Knoten dieser Schicht berechnet den relativen Erfüllungsgrad der Fuzzy-Regel:

Schicht 4 Die Anzahl der Knoten in der vierten Schicht ist ebenfalls m. Jeder Knoten ist mit einem Knoten der dritten Schicht sowie mit allen Eingängen des Netzwerks verbunden (Verbindungen zu den Eingängen sind in Fig. 18 nicht gezeigt). Der Knoten der vierten Schicht berechnet den Beitrag einer Fuzzy-Regel zur Netzwerkausgabe:

Schicht 5 Der einzelne Knoten dieser Schicht fasst die Beiträge aller Regeln zusammen:

.

Typische Trainingsprozeduren für neuronale Netze können angewendet werden, um das ANFIS-Netz abzustimmen, da es nur differenzierbare Funktionen verwendet. Typischerweise wird eine Kombination aus Gradientenabstieg in Form von Backpropagation und kleinsten Quadraten verwendet. Der Backpropagation-Algorithmus passt die Parameter von Regelvorläufern an, d. h. Zugehörigkeitsfunktionen. Die Regelschlusskoeffizienten werden nach der Methode der kleinsten Quadrate geschätzt, da sie in linearer Beziehung zum Netzwerkausgang stehen. Jede Iteration des Abstimmungsverfahrens wird in zwei Schritten durchgeführt. In der ersten Stufe wird den Eingängen ein Trainingssample zugeführt und aus der Diskrepanz zwischen Soll- und Ist-Verhalten des Netzes mit der iterativen Methode der kleinsten Quadrate die optimalen Parameter der Knoten der vierten Schicht ermittelt. In der zweiten Stufe wird die Restdiskrepanz vom Netzwerkausgang zu den Eingängen übertragen und die Parameter der Knoten der ersten Schicht werden durch das Error-Backpropagation-Verfahren modifiziert. Gleichzeitig ändern sich die in der ersten Stufe gefundenen Regelschlusskoeffizienten nicht. Die iterative Abstimmungsprozedur wird fortgesetzt, bis der Rest einen vorbestimmten Wert überschreitet. Um die Zugehörigkeitsfunktionen abzustimmen, können zusätzlich zu dem Fehler-Backpropagation-Verfahren andere Optimierungsalgorithmen verwendet werden, beispielsweise das Levenberg-Marquardt-Verfahren.

Abb.24. ANFISedit-Arbeitsbereich.

Versuchen wir nun, den Fuzzy-Regler für eine Einzelschrittaktion zu optimieren. Der gewünschte Einschwingvorgang ist ungefähr der folgende:

Abb.25. gewünschten Übergangsprozess.

Aus dem in Abb. Daraus folgt, dass der Motor die meiste Zeit mit voller Leistung laufen sollte, um die maximale Geschwindigkeit zu gewährleisten, und wenn er sich dem gewünschten Wert nähert, sollte er sanft langsamer werden. Geleitet von diesen einfachen Überlegungen, nehmen wir die folgende Stichprobe von Werten als Trainingswerte, die unten in Form einer Tabelle dargestellt werden:

Tabelle 4


Fehlerwert

Managementwert

Fehlerwert

Managementwert

Fehlerwert

Managementwert


Abb.26. Art des Trainingssets.

Das Training wird in 100 Schritten durchgeführt. Dies ist mehr als genug für die Konvergenz der verwendeten Methode.

Abb.27. Der Lernprozess eines neuronalen Netzes.

Beim Lernprozess werden die Parameter der Zugehörigkeitsfunktionen so gebildet, dass der Regler bei gegebenem Fehlerwert die notwendige Regelung erzeugt. Im Abschnitt zwischen den Knotenpunkten ist die Abhängigkeit der Regelung vom Fehler eine Interpolation der Tabellendaten. Das Interpolationsverfahren hängt davon ab, wie das neuronale Netzwerk trainiert wird. Tatsächlich kann das Fuzzy-Reglermodell nach dem Training als eine nichtlineare Funktion einer Variablen dargestellt werden, deren Graph unten dargestellt ist.

Abb.28. Diagramm der Abhängigkeit der Steuerung vom Fehler zur Position innerhalb des Reglers.

Nachdem wir die gefundenen Parameter der Zugehörigkeitsfunktionen gespeichert haben, simulieren wir das System mit einem optimierten Fuzzy-Regler.


Reis. 29. Transienter Prozess unter harmonischer Eingabe für ein Modell mit einem optimierten Fuzzy-Regler, der eine linguistische Eingangsvariable enthält.

Abb.30. Fehlersignal unter harmonischer Eingabe für ein Modell mit einem Fuzzy-Regler, der zwei linguistische Eingabevariablen enthält.


Aus den Graphen geht hervor, dass die Optimierung des Fuzzy-Reglers durch Training des neuronalen Netzes erfolgreich war. Deutlich verringerte Fluktuation und das Ausmaß des Fehlers. Daher ist der Einsatz eines neuronalen Netzes zur Optimierung von Reglern durchaus sinnvoll, deren Prinzip auf Fuzzy-Logik basiert. Allerdings kann auch ein optimierter Regler die Anforderungen an die Genauigkeit nicht erfüllen, so dass es ratsam ist, ein anderes Regelverfahren in Betracht zu ziehen, wenn der Fuzzy-Regler das Objekt nicht direkt regelt, sondern je nach Situation mehrere Regelgesetze kombiniert.

So, 29. März 2015

Derzeit gibt es viele Aufgaben, bei denen es erforderlich ist, abhängig vom Vorhandensein eines Objekts im Bild eine Entscheidung zu treffen oder es zu klassifizieren. Die Fähigkeit zu „erkennen“ gilt als die Haupteigenschaft biologischer Wesen, während Computersysteme diese Eigenschaft nicht vollständig besitzen.

Betrachten Sie die allgemeinen Elemente des Klassifizierungsmodells.

Klasse- eine Menge von Objekten, die gemeinsame Eigenschaften haben. Bei Objekten derselben Klasse wird das Vorhandensein von "Ähnlichkeit" angenommen. Für die Erkennungsaufgabe kann eine beliebige Anzahl von Klassen definiert werden, mehr als 1. Die Anzahl der Klassen wird durch die Zahl S bezeichnet. Jede Klasse hat ihre eigene identifizierende Klassenbezeichnung.

Einstufung- der Vorgang des Zuweisens von Klassenetiketten zu Objekten gemäß einer Beschreibung der Eigenschaften dieser Objekte. Ein Klassifikator ist ein Gerät, das eine Reihe von Merkmalen eines Objekts als Eingabe empfängt und als Ergebnis eine Klassenbezeichnung erzeugt.

Überprüfung- der Prozess des Abgleichens einer Objektinstanz mit einem einzelnen Objektmodell oder einer Klassenbeschreibung.

Unter Weg Wir werden den Namen des Bereichs im Raum der Attribute verstehen, in dem viele Objekte oder Phänomene der materiellen Welt angezeigt werden. Schild- eine quantitative Beschreibung einer bestimmten Eigenschaft des untersuchten Objekts oder Phänomens.

Feature-Raum dies ist ein N-dimensionaler Raum, der für eine gegebene Erkennungsaufgabe definiert ist, wobei N eine feste Anzahl von gemessenen Merkmalen für beliebige Objekte ist. Der dem Objekt des Erkennungsproblems entsprechende Vektor aus dem Merkmalsraum x ist ein N-dimensionaler Vektor mit Komponenten (x_1,x_2,…,x_N), die die Werte der Merkmale für das gegebene Objekt sind.

Mit anderen Worten, Mustererkennung kann definiert werden als die Zuordnung von Ausgangsdaten zu einer bestimmten Klasse, indem wesentliche Merkmale oder Eigenschaften, die diese Daten charakterisieren, aus der allgemeinen Masse irrelevanter Details extrahiert werden.

Beispiele für Klassifizierungsprobleme sind:

  • Zeichenerkennung;
  • Spracherkennung;
  • Erstellen einer medizinischen Diagnose;
  • Wettervorhersage;
  • Gesichtserkennung
  • Klassifizierung von Dokumenten usw.

Meistens ist das Quellmaterial das von der Kamera empfangene Bild. Die Aufgabe kann so formuliert werden, dass für jede Klasse im betrachteten Bild Merkmalsvektoren ermittelt werden. Der Prozess kann als Codierprozess angesehen werden, der darin besteht, jedem Merkmal aus dem Merkmalsraum für jede Klasse einen Wert zuzuweisen.

Betrachten wir 2 Klassen von Objekten: Erwachsene und Kinder. Als Merkmale können Sie Größe und Gewicht auswählen. Wie aus der Abbildung hervorgeht, bilden diese beiden Klassen zwei sich nicht überschneidende Mengen, was durch die gewählten Merkmale erklärt werden kann. Allerdings ist es nicht immer möglich, die richtigen gemessenen Parameter als Merkmale von Klassen auszuwählen. Beispielsweise sind die ausgewählten Parameter nicht dazu geeignet, nicht überlappende Klassen von Fußballspielern und Basketballspielern zu erstellen.

Die zweite Erkennungsaufgabe ist die Auswahl charakteristischer Merkmale oder Eigenschaften aus den Originalbildern. Diese Aufgabe kann der Vorverarbeitung zugeschrieben werden. Betrachten wir die Aufgabe der Spracherkennung, können wir Merkmale wie Vokale und Konsonanten unterscheiden. Das Attribut muss eine charakteristische Eigenschaft einer bestimmten Klasse sein, während es dieser Klasse gemeinsam ist. Zeichen, die die Unterschiede zwischen - Klassenzeichen charakterisieren. Merkmale, die allen Klassen gemeinsam sind, enthalten keine nützlichen Informationen und werden bei dem Erkennungsproblem nicht als Merkmale betrachtet. Die Auswahl von Merkmalen ist eine der wichtigen Aufgaben, die mit dem Aufbau eines Erkennungssystems verbunden sind.

Nachdem die Merkmale bestimmt sind, ist es notwendig, das optimale Entscheidungsverfahren für die Klassifizierung zu bestimmen. Stellen Sie sich ein Mustererkennungssystem vor, das dafür ausgelegt ist, verschiedene M-Klassen zu erkennen, die als m_1,m_2,…,m bezeichnet werden 3. Dann können wir annehmen, dass der Bildraum aus M Regionen besteht, die jeweils Punkte enthalten, die einem Bild aus einer Klasse entsprechen. Dann kann das Erkennungsproblem als Konstruktion von Grenzen betrachtet werden, die M Klassen auf der Grundlage der akzeptierten Messvektoren trennen.

Die Lösung des Problems der Bildvorverarbeitung, der Merkmalsextraktion und des Problems, die optimale Lösung und Klassifizierung zu erhalten, ist normalerweise mit der Notwendigkeit verbunden, eine Reihe von Parametern zu bewerten. Dies führt zu dem Problem der Parameterschätzung. Darüber hinaus ist es offensichtlich, dass die Merkmalsextraktion zusätzliche Informationen basierend auf der Art der Klassen verwenden kann.

Der Vergleich von Objekten kann anhand ihrer Darstellung in Form von Messvektoren erfolgen. Es ist praktisch, Messdaten als reelle Zahlen darzustellen. Dann kann die Ähnlichkeit der Merkmalsvektoren zweier Objekte mit der euklidischen Distanz beschrieben werden.

wobei d die Dimension des Merkmalsvektors ist.

Es gibt 3 Gruppen von Mustererkennungsverfahren:

  • Probenvergleich. Diese Gruppe umfasst die Klassifizierung nach dem nächsten Mittelwert, die Klassifizierung nach der Entfernung zum nächsten Nachbarn. Auch Strukturerkennungsverfahren können in die Probenvergleichsgruppe aufgenommen werden.
  • Statistische Methoden. Wie der Name schon sagt, verwenden statistische Methoden einige statistische Informationen, wenn sie ein Erkennungsproblem lösen. Das Verfahren bestimmt die Zugehörigkeit eines Objekts zu einer bestimmten Klasse basierend auf der Wahrscheinlichkeit.In einigen Fällen läuft dies darauf hinaus, die A-posteriori-Wahrscheinlichkeit einesObjekts zu bestimmen, dass ein Objekt zu einer bestimmten Klasse gehört, vorausgesetzt,dass die Merkmale dieses Objekts das Passende angenommen haben Werte. Ein Beispiel ist das Bayessche Entscheidungsregelverfahren.
  • Neuronale Netze. Eine separate Klasse von Erkennungsmethoden. Ein Unterscheidungsmerkmal von anderen ist die Fähigkeit zu lernen.

Klassifizierung nach dem nächsten Mittelwert

Beim klassischen Ansatz der Mustererkennung wird ein unbekanntes Objekt zur Klassifikation als Vektor elementarer Merkmale dargestellt. Ein merkmalsbasiertes Erkennungssystem kann auf verschiedene Arten entwickelt werden. Diese Vektoren können dem System als Ergebnis des Trainings im Voraus bekannt sein oder basierend auf einigen Modellen in Echtzeit vorhergesagt werden.

Ein einfacher Klassifizierungsalgorithmus besteht aus der Gruppierung von Klassenreferenzdaten unter Verwendung des Klassenerwartungsvektors (Mittelwert).

wobei x(i,j) das j-te Referenzmerkmal der Klasse i ist, n_j die Anzahl der Referenzvektoren der Klasse i ist.

Dann gehört das unbekannte Objekt zur Klasse i, wenn es viel näher am Erwartungsvektor der Klasse i liegt als an den Erwartungsvektoren anderer Klassen. Dieses Verfahren eignet sich für Probleme, bei denen die Punkte jeder Klasse kompakt und weit entfernt von den Punkten anderer Klassen liegen.

Schwierig wird es, wenn die Klassen beispielsweise etwas komplexer aufgebaut sind als in der Abbildung. In diesem Fall wird die Klasse 2 in zwei nicht überlappende Abschnitte unterteilt, die durch einen einzigen Durchschnittswert schlecht beschrieben werden. Außerdem ist Klasse 3 zu langgestreckt, Proben der 3. Klasse mit großen Werten von x_2-Koordinaten liegen näher am Durchschnittswert der 1. Klasse als der 3. Klasse.

Das beschriebene Problem kann in einigen Fällen durch eine Änderung der Entfernungsberechnung gelöst werden.

Wir werden die Eigenschaft der "Streuung" von Klassenwerten - σ_i entlang jeder Koordinatenrichtung i berücksichtigen. Die Standardabweichung ist gleich der Quadratwurzel der Varianz. Der skalierte euklidische Abstand zwischen dem Vektor x und dem Erwartungsvektor x_c ist

Diese Abstandsformel reduziert die Anzahl der Klassifizierungsfehler, aber in Wirklichkeit können die meisten Probleme nicht durch eine so einfache Klasse dargestellt werden.

Klassifizierung nach Entfernung zum nächsten Nachbarn

Ein weiterer Ansatz zur Klassifizierung besteht darin, einen unbekannten Merkmalsvektor x der Klasse zuzuordnen, der dieser Vektor am nächsten an einer separaten Stichprobe liegt. Diese Regel wird als Nächster-Nachbar-Regel bezeichnet. Die Klassifizierung des nächsten Nachbarn kann effizienter sein, selbst wenn die Klassen komplex sind oder wenn sich die Klassen überschneiden.

Dieser Ansatz erfordert keine Annahmen über die Verteilungsmodelle von Merkmalsvektoren im Raum. Der Algorithmus verwendet nur Informationen über bekannte Referenzproben. Das Lösungsverfahren basiert auf der Berechnung des Abstands x zu jeder Probe in der Datenbank und dem Finden des Mindestabstands. Die Vorteile dieser Vorgehensweise liegen auf der Hand:

  • Sie können jederzeit neue Proben zur Datenbank hinzufügen;
  • Baum- und Gitterdatenstrukturen reduzieren die Anzahl der berechneten Distanzen.

Außerdem wird die Lösung besser, wenn Sie in der Datenbank nicht nach einem nächsten Nachbarn suchen, sondern nach k. Dann liefert es für k > 1 die beste Stichprobe der Verteilung von Vektoren im d-dimensionalen Raum. Die effiziente Nutzung von k-Werten hängt jedoch davon ab, ob in jedem Bereich des Raums genug vorhanden ist. Bei mehr als zwei Klassen ist es schwieriger, die richtige Entscheidung zu treffen.

Literatur

  • M.Castrillon, . O. Deniz, . D. Hernández und J. Lorenzo, „Ein Vergleich von Gesichts- und Gesichtsmerkmalsdetektoren basierend auf dem allgemeinen Objekterkennungsrahmen von Viola-Jones“, International Journal of Computer Vision, Nr. 22, S. 481-494, 2011.
  • Y.-Q. Wang, „An Analysis of Viola-Jones Face Detection Algorithm“, IPOL Journal, 2013.
  • L. Shapiro und D. Stockman, Computer Vision, Binom. Wissenslabor, 2006.
  • Z. N. G., Erkennungsmethoden und ihre Anwendung, Sowjetischer Rundfunk, 1972.
  • J. Tu, R. Gonzalez, Mathematische Prinzipien der Mustererkennung, Moskau: „Mir“ Moskau, 1974.
  • Khan, H. Abdullah und M. Shamian Bin Zainal, "Effizienter Augen- und Munderkennungsalgorithmus unter Verwendung einer Kombination aus Viola Jones und Hautfarben-Pixelerkennung", International Journal of Engineering and Applied Sciences, Nr. Vol. 3, No. 3 Nr. 4, 2013.
  • V. Gaede und O. Gunther, „Multidimensional Access Methods“, ACM Computing Surveys, S. 170-231, 1998.

Überblick über bestehende Mustererkennungsverfahren

LP Popova , UND ÜBER. Datiev

Die Fähigkeit zu „erkennen“ gilt als die Haupteigenschaft des Menschen, wie auch anderer Lebewesen. Mustererkennung ist ein Zweig der Kybernetik, der Prinzipien und Methoden entwickelt, um Objekte, Phänomene, Prozesse, Signale, Situationen zu klassifizieren und zu identifizieren – all jene Objekte, die durch eine endliche Menge einiger Merkmale oder Eigenschaften beschrieben werden können, die ein Objekt charakterisieren.

Ein Bild ist eine Beschreibung eines Objekts. Bilder haben eine charakteristische Eigenschaft, die sich darin manifestiert, dass die Kenntnis einer endlichen Anzahl von Phänomenen aus derselben Menge es ermöglicht, eine beliebig große Anzahl ihrer Vertreter zu erkennen.

Es gibt zwei Hauptrichtungen in der Theorie der Mustererkennung:

    das Studium des Erkennungsvermögens von Menschen und anderen lebenden Organismen;

    Entwicklung von Theorie und Methoden zum Bau von Geräten zur Lösung individueller Probleme der Mustererkennung in bestimmten Anwendungsbereichen.

Weiterhin beschreibt der Artikel die Probleme, Prinzipien und Verfahren zum Implementieren von Mustererkennungssystemen, die mit der Entwicklung der zweiten Richtung in Zusammenhang stehen. Der zweite Teil des Artikels diskutiert neuronale Netzwerkmethoden der Mustererkennung, die der ersten Richtung der Mustererkennungstheorie zuzuordnen sind.

Probleme beim Aufbau von Bilderkennungssystemen

Die beim Bau von automatischen Mustererkennungssystemen anfallenden Aufgaben lassen sich meist in mehrere Hauptbereiche einteilen. Die erste bezieht sich auf die Präsentation der erhaltenen Anfangsdaten als Messergebnisse für das zu erkennende Objekt Empfindlichkeitsproblem. Jeder gemessene Wert ist eine Eigenschaft eines Bildes oder eines Objekts. Nehmen wir zum Beispiel an, dass die Bilder alphanumerische Zeichen sind. In diesem Fall kann eine messende Retina, ähnlich der in Abb. 1 (a), erfolgreich verwendet werden im Sensor dar. Besteht die Netzhaut aus n Elementen, so können die Messergebnisse als Messvektor oder Bildvektor dargestellt werden ,

wobei jedes Element xi zum Beispiel den Wert 1 annimmt, wenn das Bild des Symbols durch die i-te Zelle der Netzhaut geht, andernfalls den Wert 0.

Betrachten Sie Abb. 2(b). In diesem Fall sind die Bilder stetige Funktionen (nach Art von Tonsignalen) der Variablen t. Werden die Funktionswerte an diskreten Punkten t1,t2, ..., tn gemessen, so kann der Bildvektor durch x1= f(t1),x2=f(t2),... , xn = gebildet werden f(tn).

Abbildung 1. Messung der Netzhaut

Das zweite Problem der Mustererkennung betrifft die Auswahl charakteristischer Merkmale oder Eigenschaften aus den gewonnenen Ausgangsdaten und die Reduktion der Dimension von Mustervektoren. Dieses Problem wird oft als Problem definiert Vorverarbeitung und Merkmalsauswahl.

Merkmale einer Klasse von Bildern sind charakteristische Eigenschaften, die allen Bildern einer bestimmten Klasse gemeinsam sind. Die Merkmale, die die Unterschiede zwischen einzelnen Klassen charakterisieren, können als Interklassenmerkmale interpretiert werden. Klasseninterne Merkmale, die allen betrachteten Klassen gemeinsam sind, enthalten keine nützlichen Informationen aus Sicht der Anerkennung und dürfen nicht berücksichtigt werden. Die Auswahl der Merkmale gilt als eine der wichtigen Aufgaben beim Bau von Erkennungssystemen. Wenn die Messergebnisse es ermöglichen, einen vollständigen Satz von Unterscheidungsmerkmalen für alle Klassen zu erhalten, bereitet die eigentliche Mustererkennung und -klassifizierung keine besonderen Schwierigkeiten. Die automatische Erkennung würde sich dann auf einen einfachen Matching-Prozess oder Verfahren wie Tabellensuchen reduzieren. Bei den meisten praktischen Erkennungsproblemen ist es jedoch äußerst schwierig, wenn nicht unmöglich, einen vollständigen Satz von Unterscheidungsmerkmalen zu bestimmen. Aus den Originaldaten lassen sich in der Regel einige Unterscheidungsmerkmale extrahieren und damit den Prozess der automatischen Mustererkennung vereinfachen. Insbesondere kann die Dimension der Messvektoren durch Transformationen reduziert werden, die den Informationsverlust minimieren.

Das dritte Problem im Zusammenhang mit der Konstruktion von Mustererkennungssystemen besteht darin, die optimalen Entscheidungsprozeduren zu finden, die zur Identifizierung und Klassifizierung erforderlich sind. Nachdem die über die zu erkennenden Muster gesammelten Daten durch Punkte oder Messvektoren im Musterraum dargestellt sind, lassen Sie die Maschine herausfinden, welcher Klasse von Mustern diese Daten entsprechen. Die Maschine sei so ausgelegt, dass sie zwischen M Klassen unterscheidet, die mit w1, w2, ... ..., wm bezeichnet werden. In diesem Fall kann angenommen werden, dass der Bildraum aus M Regionen besteht, von denen jede Punkte enthält, die Bildern aus derselben Klasse entsprechen. In diesem Fall kann das Erkennungsproblem als das Konstruieren der Grenzen der Entscheidungsregionen betrachtet werden, die M Klassen auf der Grundlage der registrierten Messvektoren trennen. Diese Grenzen seien beispielsweise durch Entscheidungsfunktionen d1(х),d2(x),..., dm(х) definiert. Diese Funktionen, auch Diskriminanzfunktionen genannt, sind skalare und einwertige Funktionen des Bildes von x. Wenn di (x) > dj (x), dann gehört das Bild von x zur Klasse w1. Mit anderen Worten, wenn die i-te Entscheidungsfunktion di(x) den höchsten Wert hat, dann zeigt Abb. 2 (nach dem Schema "GR" - der Generator entscheidender Funktionen).

Abbildung 2. Schema der automatischen Klassifizierung.

Entscheidungsfunktionen können auf verschiedene Weise erhalten werden. In den Fällen, in denen vollständige a priori-Informationen über die erkennbaren Muster verfügbar sind, können die Entscheidungsfunktionen genau auf der Grundlage dieser Informationen bestimmt werden. Wenn nur qualitative Informationen über die Muster verfügbar sind, können vernünftige Annahmen über die Form der Entscheidungsfunktionen getroffen werden. Im letzteren Fall können die Grenzen der Entscheidungsregionen erheblich von den wahren abweichen, und daher ist es notwendig, ein System zu schaffen, das in der Lage ist, durch eine Reihe aufeinanderfolgender Anpassungen zu einem zufriedenstellenden Ergebnis zu gelangen.

Objekte (Bilder), die mit einem automatischen Mustererkennungssystem erkannt und klassifiziert werden sollen, müssen eine Reihe messbarer Eigenschaften aufweisen. Wenn für eine ganze Gruppe von Bildern die Ergebnisse der entsprechenden Messungen ähnlich sind, wird davon ausgegangen, dass diese Objekte zur selben Klasse gehören. Der Zweck des Mustererkennungssystems besteht darin, auf der Grundlage der gesammelten Informationen eine Klasse von Objekten mit Eigenschaften zu bestimmen, die denen ähneln, die für erkennbare Objekte gemessen wurden. Die Korrektheit der Erkennung hängt von der Menge an Unterscheidungsinformationen ab, die in den gemessenen Merkmalen enthalten sind, und der Effizienz der Nutzung dieser Informationen.

      Grundlegende Methoden zur Implementierung von Mustererkennungssystemen

Mustererkennung ist die Aufgabe, formale Operationen auf numerische oder symbolische Darstellungen von Objekten der realen oder idealen Welt zu konstruieren und anzuwenden, deren Ergebnisse die Äquivalenzbeziehungen zwischen diesen Objekten widerspiegeln. Äquivalenzbeziehungen drücken die Zugehörigkeit der bewerteten Objekte zu einigen Klassen aus, die als unabhängige semantische Einheiten betrachtet werden.

Bei der Konstruktion von Erkennungsalgorithmen können Äquivalenzklassen von einem Forscher festgelegt werden, der seine eigenen sinnvollen Ideen verwendet oder externe zusätzliche Informationen über die Ähnlichkeit und den Unterschied von Objekten im Kontext des zu lösenden Problems verwendet. Dann spricht man von „unterscheiden mit dem Lehrer“. Ansonsten, d.h. Wenn ein automatisiertes System ein Klassifizierungsproblem löst, ohne externe Trainingsinformationen einzubeziehen, spricht man von automatischer Klassifizierung oder „unüberwachter Erkennung“. Die meisten Mustererkennungsalgorithmen erfordern eine sehr erhebliche Rechenleistung, die nur durch Hochleistungscomputertechnologie bereitgestellt werden kann.

Verschiedene Autoren (Yu.L. Barabash, V.I. Vasiliev, A.L. Gorelik, V.A. Skripkin, R. Duda, P. Hart, L.T. Kuzin, F.I. Peregudov, F.P. Tarasenko, Temnikov F.E., Afonin V.A., Dmitriev V.I., J. Tu, R. Gonzalez, P. Winston, K. Fu, Ya.Z. Tsypkin und andere) geben eine andere Typologie der Mustererkennungsmethoden an. Einige Autoren unterscheiden zwischen parametrischen, nicht-parametrischen und heuristischen Methoden, während andere Gruppen von Methoden herausgreifen, die auf historischen Schulen und Trends in diesem Bereich basieren.

Gleichzeitig berücksichtigen bekannte Typologien ein sehr signifikantes Merkmal nicht, das die Besonderheiten der Art und Weise widerspiegelt, wie Wissen über das Fachgebiet durch einen formalen Mustererkennungsalgorithmus repräsentiert wird. D.A. Pospelov identifiziert zwei Hauptarten der Darstellung von Wissen:

    Intensionale Darstellung - in Form eines Beziehungsdiagramms zwischen Attributen (Features).

    Extensionsrepräsentation - mit Hilfe konkreter Fakten (Objekte, Beispiele).

Es sollte angemerkt werden, dass die Existenz dieser zwei Gruppen von Erkennungsverfahren: diejenigen, die mit Merkmalen arbeiten, und diejenigen, die mit Objekten arbeiten, zutiefst natürlich ist. Aus dieser Sicht ermöglicht keine dieser Methoden, getrennt voneinander, eine adäquate Reflexion des Fachgebiets. Zwischen diesen Methoden besteht eine Komplementaritätsbeziehung im Sinne von N. Bohr, daher sollten vielversprechende Erkennungssysteme die Implementierung beider dieser Methoden und nicht nur einer von ihnen vorsehen.

Die von D.A. Pospelov vorgeschlagene Klassifikation der Erkennungsmethoden basiert also auf den Grundgesetzen, die der menschlichen Erkenntnisweise im Allgemeinen zugrunde liegen, was sie in eine ganz besondere (privilegierte) Stellung gegenüber anderen Klassifikationen bringt, die vor diesem Hintergrund blicken leichter und künstlicher.

Intensionale Methoden

Ein charakteristisches Merkmal intensionaler Verfahren besteht darin, dass sie unterschiedliche Eigenschaften von Merkmalen und ihre Beziehungen als Elemente von Operationen bei der Konstruktion und Anwendung von Mustererkennungsalgorithmen verwenden. Solche Elemente können Einzelwerte oder Intervalle von Merkmalswerten, Mittelwerte und Varianzen, Merkmalsbeziehungsmatrizen usw. sein, auf denen Aktionen ausgeführt werden, in analytischer oder konstruktiver Form ausgedrückt. Gleichzeitig werden Objekte in diesen Methoden nicht als integrale Informationseinheiten betrachtet, sondern dienen als Indikatoren zur Beurteilung des Zusammenspiels und Verhaltens ihrer Eigenschaften.

Die Gruppe der intensionalen Mustererkennungsverfahren ist umfangreich und ihre Einteilung in Unterklassen etwas willkürlich:

– Methoden, die auf Schätzungen der Verteilungsdichten von Merkmalswerten basieren

– Methoden, die auf Annahmen über die Klasse der Entscheidungsfunktionen beruhen

– logische Methoden

– linguistische (strukturelle) Methoden.

Methoden, die auf Schätzungen der Verteilungsdichten von Merkmalswerten basieren. Diese Mustererkennungsverfahren sind der klassischen Theorie statistischer Entscheidungen entlehnt, in der die Untersuchungsobjekte als Realisierungen einer mehrdimensionalen Zufallsvariablen betrachtet werden, die gemäß einem Gesetz im Merkmalsraum verteilt sind. Sie basieren auf dem Bayes'schen Entscheidungsfindungsschema, das sich auf a priori Wahrscheinlichkeiten von Objekten bezieht, die zu der einen oder anderen erkennbaren Klasse gehören, und auf bedingte Verteilungsdichten der Merkmalsvektorwerte. Diese Verfahren reduzieren sich auf die Bestimmung des Likelihood-Verhältnisses in verschiedenen Bereichen des mehrdimensionalen Merkmalsraums.

Die Gruppe der Methoden, die auf der Schätzung der Verteilungsdichten von Merkmalswerten basieren, steht in direktem Zusammenhang mit den Methoden der Diskriminanzanalyse. Der bayessche Ansatz zur Entscheidungsfindung ist einer der am weitesten entwickelten in der modernen Statistik, den sogenannten parametrischen Methoden, für die der analytische Ausdruck des Verteilungsgesetzes (in diesem Fall das Normalgesetz) als bekannt und nur als gering angesehen wird Anzahl von Parametern (Mittelwertvektoren und Kovarianzmatrizen) geschätzt werden müssen.

Diese Gruppe umfasst auch ein Verfahren zur Berechnung des Wahrscheinlichkeitsverhältnisses für unabhängige Merkmale. Diese Methode impliziert, abgesehen von der Annahme der Merkmalsunabhängigkeit (die in der Realität praktisch nie erfüllt wird), keine Kenntnis der funktionalen Form des Verteilungsgesetzes. Dies kann auf nichtparametrische Methoden zurückgeführt werden.

Eine Sonderstellung nehmen andere nichtparametrische Verfahren ein, die dann eingesetzt werden, wenn die Form der Verteilungsdichtekurve unbekannt ist und keinerlei Annahmen über ihre Natur getroffen werden können. Dazu gehören die bekannte Methode der mehrdimensionalen Histogramme, die Methode der „k-nächsten Nachbarn“, die Methode der euklidischen Distanz, die Methode der Potentialfunktionen usw., deren Verallgemeinerung die als „Parzen-Schätzungen“ bezeichnete Methode ist. Diese Methoden operieren formal mit Objekten als integralen Strukturen, können aber je nach Art der Erkennungsaufgabe sowohl in intensionalen als auch in extensionalen Hypostasen agieren.

Nichtparametrische Verfahren analysieren die relative Anzahl von Objekten, die in die gegebenen mehrdimensionalen Volumina fallen, und verwenden verschiedene Abstandsfunktionen zwischen den Objekten der Trainingsprobe und den erkannten Objekten. Bei quantitativen Merkmalen spielen Operationen mit Objekten, wenn ihre Anzahl viel kleiner als die Stichprobengröße ist, eine Zwischenrolle bei der Schätzung lokaler Verteilungsdichten bedingter Wahrscheinlichkeiten, und Objekte tragen nicht die semantische Last unabhängiger Informationseinheiten. Wenn gleichzeitig die Anzahl der Merkmale proportional oder größer ist als die Anzahl der untersuchten Objekte und die Merkmale qualitativer oder dichotomer Natur sind, dann kann keine Rede von lokalen Schätzungen der Wahrssein. Dabei werden die Objekte in diesen nichtparametrischen Methoden als eigenständige Informationseinheiten (ganzheitliche empirische Fakten) betrachtet und diese Methoden erhalten die Bedeutung von Bewertungen der Ähnlichkeit und Differenz der untersuchten Objekte.

Somit sind die gleichen technologischen Operationen von nichtparametrischen Methoden, abhängig von den Bedingungen des Problems, entweder für lokale Schätzungen der Wahrsvon Merkmalswerten oder für Schätzungen der Ähnlichkeit und Differenz von Objekten sinnvoll.

Im Zusammenhang mit der intensionalen Repräsentation von Wissen wird hier die erste Seite nicht-parametrischer Verfahren als Schätzungen von Wahrsbetrachtet. Viele Autoren stellen fest, dass nichtparametrische Methoden wie Parzen-Schätzungen in der Praxis gut funktionieren. Die Hauptschwierigkeiten bei der Anwendung dieser Methoden sind die Notwendigkeit, sich an die gesamte Trainingsstichprobe zu erinnern, um Schätzungen der lokalen Wahrszu berechnen, und die hohe Empfindlichkeit gegenüber der Nichtrepräsentativität der Trainingsstichprobe.

Methoden, die auf Annahmen über die Klasse der Entscheidungsfunktionen basieren. In dieser Gruppe von Verfahren wird die allgemeine Form der Entscheidungsfunktion als bekannt angesehen und ihr Gütefunktional angegeben. Basierend auf diesem Funktional wird die beste Annäherung der Entscheidungsfunktion für die Trainingssequenz gesucht. Am gebräuchlichsten sind Darstellungen von Entscheidungsfunktionen in Form von linearen und verallgemeinerten nichtlinearen Polynomen. Das Qualitätsfunktional der Entscheidungsregel ist üblicherweise mit dem Klassifikationsfehler verbunden.

Der Hauptvorteil von Verfahren, die auf Annahmen über die Klasse von Entscheidungsfunktionen beruhen, ist die Klarheit der mathematischen Formulierung des Erkennungsproblems als Extremumsproblem. Die Lösung dieses Problems wird oft unter Verwendung irgendeiner Art von Gradientenalgorithmen erreicht. Die Vielfalt der Methoden dieser Gruppe erklärt sich durch die breite Palette der verwendeten Entscheidungsregelqualitätsfunktionale und Extremum-Suchalgorithmen. Eine Verallgemeinerung der betrachteten Algorithmen, zu denen insbesondere der Newtonsche Algorithmus, perzeptronartige Algorithmen usw. gehören, ist die Methode der stochastischen Approximation. Im Gegensatz zu parametrischen Erkennungsverfahren hängt der Erfolg dieser Gruppe von Verfahren nicht so sehr von der Diskrepanz theoretischer Vorstellungen über die Verteilungsgesetze von Objekten im Merkmalsraum mit der empirischen Realität ab. Alle Operationen sind einem Hauptziel untergeordnet - dem Finden des Extremums des Qualitätsfunktionals der Entscheidungsregel. Gleichzeitig können die Ergebnisse der parametrischen und der betrachteten Methoden ähnlich sein. Wie oben gezeigt, führen parametrische Verfahren für den Fall von Normalverteilungen von Objekten in verschiedenen Klassen mit gleichen Kovarianzmatrizen zu linearen Entscheidungsfunktionen. Wir weisen auch darauf hin, dass die Algorithmen zur Auswahl informativer Merkmale in linearen diagnostischen Modellen als besondere Varianten von Gradientenalgorithmen zur Suche nach einem Extremum interpretiert werden können.

Die Möglichkeiten von Gradientenalgorithmen zur Extremumsfindung, insbesondere in der Gruppe der linearen Entscheidungsregeln, sind recht gut untersucht. Die Konvergenz dieser Algorithmen ist nur für den Fall bewiesen, dass die erkennbaren Klassen von Objekten im Merkmalsraum durch kompakte geometrische Strukturen dargestellt werden. Der Wunsch nach ausreichender Qualität der Entscheidungsregel kann jedoch oft mit Hilfe von Algorithmen befriedigt werden, die keinen strengen mathematischen Beweis für die Konvergenz der Lösung zum globalen Extremum haben.

Solche Algorithmen umfassen eine große Gruppe heuristischer Programmierverfahren, die die Richtung der evolutionären Modellierung darstellen. Evolutionäre Modellierung ist eine bionische Methode, die der Natur entlehnt ist. Es basiert auf der Nutzung bekannter Evolutionsmechanismen, um den Prozess der sinnvollen Modellierung eines komplexen Objekts durch eine phänomenologische Modellierung seiner Evolution zu ersetzen.

Ein bekannter Vertreter der evolutionären Modellierung in der Mustererkennung ist die Methode des Group Accounting of Arguments (MGUA). Die GMDH basiert auf dem Prinzip der Selbstorganisation, und die GMDH-Algorithmen reproduzieren das Schema der Massenselektion. In GMDH-Algorithmen werden Mitglieder eines verallgemeinerten Polynoms synthetisiert und auf eine spezielle Weise ausgewählt, die oft als Kolmogorov-Gabor-Polynom bezeichnet wird. Diese Synthese und Auswahl wird mit zunehmender Komplexität durchgeführt, und es ist unmöglich vorherzusagen, welche endgültige Form das verallgemeinerte Polynom haben wird. Zunächst werden in der Regel einfache paarweise Kombinationen von Anfangsmerkmalen betrachtet, aus denen sich die Gleichungen der entscheidenden Funktionen in der Regel nicht höher als zweiter Ordnung zusammensetzen. Jede Gleichung wird als unabhängige Entscheidungsfunktion analysiert, und die Werte der Parameter der zusammengesetzten Gleichungen werden auf die eine oder andere Weise aus der Trainingsprobe ermittelt. Dann wird aus dem resultierenden Satz von Entscheidungsfunktionen ein Teil der in gewissem Sinne besten ausgewählt. Die Qualität einzelner Entscheidungsfunktionen wird an einer Kontrollprobe (Testprobe) überprüft, was manchmal als Prinzip der externen Zugabe bezeichnet wird. Die ausgewählten partiellen Entscheidungsfunktionen werden im Folgenden als Zwischenvariablen betrachtet, die als Ausgangsargumente für eine ähnliche Synthese neuer Entscheidungsfunktionen usw. dienen. Der Prozess einer solchen hierarchischen Synthese wird fortgesetzt, bis das Extremum des Qualitätskriteriums der Entscheidungsfunktion erreicht ist, was in der Praxis der Fall ist manifestiert sich in der Verschlechterung dieser Qualität, wenn versucht wird, die Ordnung der Mitglieder des Polynoms relativ zu den ursprünglichen Merkmalen weiter zu erhöhen.

Das der GMDH zugrunde liegende Prinzip der Selbstorganisation wird als heuristische Selbstorganisation bezeichnet, da der gesamte Vorgang auf der Einführung heuristisch gewählter externer Zusätze beruht. Das Ergebnis der Entscheidung kann maßgeblich von diesen Heuristiken abhängen. Das resultierende diagnostische Modell hängt davon ab, wie die Objekte in Trainings- und Testmuster aufgeteilt werden, wie das Erkennungsqualitätskriterium bestimmt wird, wie viele Variablen in der nächsten Auswahlzeile übersprungen werden usw.

Diese Merkmale von GMDH-Algorithmen sind auch charakteristisch für andere Ansätze zur evolutionären Modellierung. Aber wir bemerken hier noch einen weiteren Aspekt der betrachteten Methoden. Dies ist ihre inhaltliche Essenz. Unter Verwendung von Methoden, die auf Annahmen über die Klasse von Entscheidungsfunktionen (evolutionär und Gradient) basieren, ist es möglich, diagnostische Modelle hoher Komplexität aufzubauen und praktisch akzeptable Ergebnisse zu erhalten. Gleichzeitig geht das Erreichen praktischer Ziele in diesem Fall nicht mit der Gewinnung neuer Erkenntnisse über die Natur erkennbarer Objekte einher. Die Möglichkeit, dieses Wissen zu extrahieren, insbesondere Wissen über die Mechanismen der Interaktion von Attributen (Merkmale), wird hier grundsätzlich durch die gegebene Struktur solcher Interaktion, fixiert in der gewählten Form entscheidender Funktionen, begrenzt. Daher kann nach dem Erstellen eines bestimmten diagnostischen Modells höchstens gesagt werden, dass die Kombinationen von Merkmalen und die Merkmale selbst aufgelistet werden, die in dem resultierenden Modell enthalten sind. Aber die Bedeutung von Kombinationen, die Art und Struktur der Verteilungen der untersuchten Objekte widerspiegeln, bleibt im Rahmen dieses Ansatzes oft unentdeckt.

Boolesche Methoden. Logische Verfahren der Mustererkennung basieren auf dem Apparat der logischen Algebra und erlauben es, mit Informationen zu operieren, die nicht nur in einzelnen Merkmalen, sondern auch in Kombinationen von Merkmalswerten enthalten sind. Bei diesen Methoden werden die Werte beliebiger Attribute als elementare Ereignisse betrachtet.

In der allgemeinsten Form lassen sich logische Methoden als eine Art Suche nach logischen Mustern in der Trainingsstichprobe und die Bildung eines bestimmten Systems logischer Entscheidungsregeln (zB in Form von Konjunktionen von Elementarereignissen) charakterisieren was sein Eigengewicht hat. Die Gruppe der logischen Methoden ist vielfältig und umfasst Methoden unterschiedlicher Komplexität und Analysetiefe. Für dichotome (boolesche) Merkmale sind die sogenannten baumartigen Klassifikatoren, das Dead-End-Testverfahren, der Kora-Algorithmus und andere beliebt. Komplexere Methoden basieren auf der Formalisierung der induktiven Methoden von D. S. Mill. Die Formalisierung erfolgt durch den Aufbau einer quasi-axiomatischen Theorie und basiert auf einer mehrfach sortierten mehrwertigen Logik mit Quantoren über Tupel variabler Länge.

Der Kora-Algorithmus ist wie andere logische Mustererkennungsverfahren recht aufwendig, da bei der Auswahl von Konjunktionen eine vollständige Aufzählung notwendig ist. Daher werden bei der Anwendung logischer Verfahren hohe Anforderungen an die effiziente Organisation des Rechenvorgangs gestellt, und diese Verfahren funktionieren bei relativ kleinen Dimensionen des Merkmalsraums und nur auf leistungsfähigen Rechnern gut.

Sprachliche (syntaktische oder strukturelle) Methoden. Linguistische Methoden der Mustererkennung basieren auf der Verwendung spezieller Grammatiken, die Sprachen erzeugen, mit deren Hilfe eine Reihe von Eigenschaften erkennbarer Objekte beschrieben werden können. Grammatik bezieht sich auf die Regeln zum Konstruieren von Objekten aus diesen nicht abgeleiteten Elementen.

Erfolgt die Beschreibung von Bildern mit Hilfe von nicht-abgeleiteten Elementen (Teilbildern) und deren Beziehungen, dann wird ein linguistischer oder syntaktischer Ansatz verwendet, um automatische Erkennungssysteme nach dem Prinzip der Gemeinsamkeit von Eigenschaften aufzubauen. Ein Bild kann unter Verwendung einer hierarchischen Struktur von Teilbildern ähnlich der syntaktischen Struktur einer Sprache beschrieben werden. Dieser Umstand ermöglicht es, die Theorie der formalen Sprachen bei der Lösung von Problemen der Mustererkennung anzuwenden. Es wird angenommen, dass die Grammatik von Bildern endliche Mengen von Elementen enthält, die als Variablen, nicht abgeleitete Elemente und Substitutionsregeln bezeichnet werden. Die Art der Substitutionsregeln bestimmt die Art der Grammatik. Zu den am besten untersuchten Grammatiken gehören reguläre, kontextfreie und direkte Konstituentengrammatiken. Die Kernpunkte dieses Ansatzes sind die Auswahl nicht-abgeleiteter Elemente des Bildes, die Vereinigung dieser Elemente und die sie verbindenden Beziehungen zu Bildgrammatiken und schließlich die Implementierung der Analyse- und Erkennungsprozesse in der entsprechenden Sprache . Dieser Ansatz ist besonders nützlich, wenn mit Bildern gearbeitet wird, die entweder nicht durch numerische Messungen beschrieben werden können oder so komplex sind, dass ihre lokalen Merkmale nicht identifiziert werden können und man auf die globalen Eigenschaften von Objekten zurückgreifen muss.

Zum Beispiel E.A. Butakov, W.I. Ostrovsky, I.L. Fadeev schlägt die folgende Systemstruktur für die Bildverarbeitung (Fig. 3) unter Verwendung eines linguistischen Ansatzes vor, wobei jeder der Funktionsblöcke ein Software-(Mikroprogramm-)Komplex (Modul) ist, der die entsprechenden Funktionen implementiert.

Abbildung 3. Strukturdiagramm des Erkenners

Versuche, die Methoden der mathematischen Linguistik auf das Problem der Bildanalyse anzuwenden, führen zu der Notwendigkeit, eine Reihe von Problemen zu lösen, die sich auf die Abbildung einer zweidimensionalen Bildstruktur auf eindimensionale Ketten einer formalen Sprache beziehen.

Erweiterungsmethoden

Bei den Methoden dieser Gruppe wird im Gegensatz zur intensionalen Richtung jedem untersuchten Objekt ein mehr oder weniger eigenständiger diagnostischer Wert beigemessen. Im Kern sind diese Methoden dem klinischen Ansatz nahe, der Menschen nicht als eine Kette von Objekten betrachtet, die nach dem einen oder anderen Indikator geordnet sind, sondern als integrale Systeme, von denen jedes individuell ist und einen besonderen diagnostischen Wert hat. Eine solch sorgfältige Einstellung zu den Untersuchungsobjekten erlaubt es einem nicht, Informationen über jedes einzelne Objekt auszuschließen oder zu verlieren, was auftritt, wenn man die Methoden der intensionalen Richtung anwendet, indem man Objekte nur verwendet, um die Verhaltensmuster ihrer Attribute zu erkennen und zu fixieren.

Die Hauptoperationen bei der Mustererkennung unter Verwendung der besprochenen Verfahren sind die Operationen zum Bestimmen der Ähnlichkeit und des Unterschieds von Objekten. Objekte in der angegebenen Gruppe von Methoden spielen die Rolle von diagnostischen Präzedenzfällen. Gleichzeitig kann die Rolle eines einzelnen Präzedenzfalls je nach den Bedingungen einer bestimmten Aufgabe innerhalb der weitesten Grenzen variieren: von der hauptsächlichen und bestimmenden bis zu einer sehr indirekten Beteiligung am Anerkennungsprozess. Die Bedingungen des Problems können wiederum die Teilnahme einer unterschiedlichen Anzahl diagnostischer Präzedenzfälle für eine erfolgreiche Lösung erfordern: von einem in jeder erkennbaren Klasse bis zur gesamten Stichprobengröße sowie unterschiedliche Methoden zur Berechnung der Ähnlichkeits- und Unterschiedsmaße Objekte. Diese Anforderungen erklären die weitere Unterteilung von Erweiterungsmethoden in Unterklassen:

    Prototyp-Vergleichsverfahren;

    k-nächster-Nachbar-Verfahren;

    Teams von Entscheidungsregeln.

Prototypische Vergleichsmethode. Dies ist die einfachste Erweiterungserkennungsmethode. Sie wird beispielsweise verwendet, wenn die erkannten Klassen im Merkmalsraum in kompakten geometrischen Gruppierungen dargestellt werden. In diesem Fall wird üblicherweise das Zentrum der geometrischen Gruppierung der Klasse (oder das Objekt, das dem Zentrum am nächsten liegt) als Prototyppunkt gewählt.

Um ein unbekanntes Objekt zu klassifizieren, wird der ihm am nächsten liegende Prototyp gefunden, und das Objekt gehört zu derselben Klasse wie dieser Prototyp. Offensichtlich werden bei diesem Verfahren keine verallgemeinerten Klassenbilder gebildet.

Als Maß für die Nähe können verschiedene Arten von Entfernungen verwendet werden. Für dichotome Merkmale wird häufig die Hamming-Distanz verwendet, die in diesem Fall gleich dem Quadrat der euklidischen Distanz ist. In diesem Fall entspricht die Entscheidungsregel zur Klassifizierung von Objekten einer linearen Entscheidungsfunktion.

Diese Tatsache ist besonders zu beachten. Es zeigt deutlich die Verbindung zwischen Prototyp und indikativer Darstellung von Informationen über die Datenstruktur. Unter Verwendung der obigen Darstellung kann beispielsweise jede herkömmliche Messskala, die eine lineare Funktion der Werte dichotomer Merkmale ist, als hypothetischer diagnostischer Prototyp betrachtet werden. Wenn wiederum die Analyse der räumlichen Struktur der erkannten Klassen den Schluss zulässt, dass sie geometrisch kompakt sind, dann reicht es aus, jede dieser Klassen durch einen Prototyp zu ersetzen, der eigentlich einem linearen diagnostischen Modell entspricht.

In der Praxis stellt sich die Situation natürlich oft anders dar als in dem idealisierten Beispiel beschrieben. Ein Forscher, der beabsichtigt, ein Erkennungsverfahren anzuwenden, das auf einem Vergleich mit den Prototypen diagnostischer Klassen basiert, steht vor schwierigen Problemen. Dies ist zunächst einmal die Wahl eines Näherungsmaßes (Metrik), das die räumliche Konfiguration der Verteilung von Objekten signifikant verändern kann. Und zweitens ist ein eigenständiges Problem die Analyse mehrdimensionaler Strukturen experimenteller Daten. Diese beiden Probleme sind für den Forscher besonders akut unter Bedingungen hoher Dimension des Merkmalsraums, was typisch für reale Probleme ist.

Methode der k-nächsten Nachbarn. Die k-nächste-Nachbar-Methode zur Lösung von Diskriminanzanalyseproblemen wurde erstmals 1952 vorgeschlagen. Es ist wie folgt.

Beim Klassifizieren eines unbekannten Objekts wird eine bestimmte Anzahl (k) von anderen Objekten, die ihm im Merkmalsraum geometrisch am nächsten sind (nächste Nachbarn), mit bereits bekannter Zugehörigkeit zu erkennbaren Klassen gefunden. Die Entscheidung, ein unbekanntes Objekt einer bestimmten diagnostischen Klasse zuzuordnen, wird getroffen, indem Informationen über diese bekannte Zugehörigkeit zu seinen nächsten Nachbarn analysiert werden, beispielsweise unter Verwendung einer einfachen Stimmenzählung.

Anfänglich wurde die k-nächste-Nachbar-Methode als nicht-parametrisches Verfahren zum Schätzen des Likelihood-Verhältnisses betrachtet. Für dieses Verfahren werden theoretische Schätzungen seiner Wirksamkeit im Vergleich mit dem optimalen Bayes'schen Klassifikator erhalten. Es ist bewiesen, dass die asymptotischen Fehlerwahrscheinlichkeiten für die k-nächste-Nachbar-Methode die Fehler der Bayes-Regel um nicht mehr als das Doppelte überschreiten.

Wie oben erwähnt, ist es bei realen Problemen oft notwendig, mit Objekten zu operieren, die durch eine große Anzahl qualitativer (dichotomer) Merkmale beschrieben werden. Gleichzeitig entspricht oder übersteigt die Dimension des Merkmalsraums das Volumen der untersuchten Probe. Unter solchen Bedingungen ist es zweckmäßig, jedes Objekt der Trainingsstichprobe als separaten linearen Klassifikator zu interpretieren. Dann wird diese oder jene diagnostische Klasse nicht durch einen Prototyp repräsentiert, sondern durch eine Reihe linearer Klassifikatoren. Das kombinierte Zusammenspiel linearer Klassifikatoren führt zu einer stückweise linearen Oberfläche, die die erkennbaren Klassen im Merkmalsraum trennt. Die Art der Trennfläche, bestehend aus Stücken von Hyperebenen, kann variiert werden und hängt von der relativen Position der klassifizierten Aggregate ab.

Eine andere Interpretation von Klassifizierungsmechanismen für k-nächste Nachbarn kann ebenfalls verwendet werden. Es basiert auf der Idee der Existenz einiger latenter Variablen, die abstrakt sind oder durch eine Transformation mit dem ursprünglichen Merkmalsraum in Beziehung stehen. Wenn die paarweisen Abstände zwischen Objekten im Raum der latenten Variablen die gleichen sind wie im Raum der Anfangsmerkmale und die Anzahl dieser Variablen viel kleiner ist als die Anzahl der Objekte, dann kann die Interpretation der Methode der k-nächsten Nachbarn in Betracht gezogen werden aus der Sicht des Vergleichs von nichtparametrischen Schätzungen bedingter Wahrscheinlichkeitsverteilungsdichten. Das hier vorgestellte Konzept der latenten Variablen ist dem Konzept der wahren Dimensionalität und anderen Repräsentationen, die in verschiedenen Verfahren zur Dimensionsreduktion verwendet werden, nahe.

Bei der Anwendung der k-Nächsten-Nachbarn-Methode zur Mustererkennung muss der Forscher das schwierige Problem der Wahl einer Metrik zur Bestimmung der Nähe diagnostizierter Objekte lösen. Dieses Problem unter den Bedingungen einer großen Dimension des Merkmalsraums wird aufgrund der ausreichenden Mühe dieses Verfahrens, das sogar für Hochleistungscomputer bedeutsam wird, extrem verschlimmert. Daher ist es hier ebenso wie bei dem Prototyp-Vergleichsverfahren notwendig, das kreative Problem der Analyse der mehrdimensionalen Struktur experimenteller Daten zu lösen, um die Anzahl von Objekten zu minimieren, die diagnostische Klassen darstellen.

Algorithmen zur Notenberechnung (Voting). Das Funktionsprinzip von Algorithmen zur Berechnung von Scores (ABO) besteht darin, die Priorität (Ähnlichkeitsscores) zu berechnen, die die „Nähe“ der erkannten und Referenzobjekte nach dem System der Merkmalsensembles charakterisieren, das ein System von Teilmengen eines Gegebenen ist Satz von Funktionen.

Im Gegensatz zu allen bisher betrachteten Verfahren operieren Algorithmen zur Berechnung von Schätzungen auf grundlegend neue Weise mit Objektbeschreibungen. Für diese Algorithmen existieren Objekte gleichzeitig in sehr unterschiedlichen Unterräumen des Merkmalsraums. Die ABO-Klasse bringt die Idee der Verwendung von Merkmalen zu ihrem logischen Ende: Da nicht immer bekannt ist, welche Kombinationen von Merkmalen am aussagekräftigsten sind, wird in ABO der Ähnlichkeitsgrad von Objekten durch Vergleich aller möglichen oder bestimmter Merkmalskombinationen berechnet in die Objektbeschreibungen aufgenommen.

Teams von Entscheidungsregeln. Die Entscheidungsregel verwendet ein zweistufiges Erkennungsschema. Auf der ersten Ebene arbeiten private Erkennungsalgorithmen, deren Ergebnisse auf der zweiten Ebene im Syntheseblock zusammengeführt werden. Die gängigsten Methoden einer solchen Kombination basieren auf der Zuordnung von Kompetenzbereichen eines bestimmten Algorithmus. Der einfachste Weg, Kompetenzbereiche zu finden, besteht darin, den Merkmalsraum a priori basierend auf fachlichen Überlegungen einer bestimmten Wissenschaft aufzuteilen (z. B. Schichtung der Stichprobe nach einem Merkmal). Dann wird für jeden der ausgewählten Bereiche ein eigener Erkennungsalgorithmus aufgebaut. Ein weiteres Verfahren basiert auf der Verwendung einer formalen Analyse, um lokale Bereiche des Merkmalsraums als Nachbarschaften von erkennbaren Objekten zu bestimmen, für die der Erfolg eines bestimmten Erkennungsalgorithmus nachgewiesen wurde.

Der allgemeinste Ansatz zum Aufbau eines Syntheseblocks betrachtet die resultierenden Indikatoren partieller Algorithmen als Anfangsmerkmale zum Aufbau einer neuen verallgemeinerten Entscheidungsregel. In diesem Fall können alle oben genannten Methoden der Intensions- und Extensionsrichtungen in der Mustererkennung verwendet werden. Effektiv zur Lösung des Problems der Erstellung eines Satzes von Entscheidungsregeln sind logische Algorithmen vom Typ „Kora“ und Algorithmen zur Berechnung von Schätzungen (ABO), die die Grundlage des sogenannten algebraischen Ansatzes bilden, der Forschung und konstruktive Beschreibung bietet Erkennungsalgorithmen, in die alle existierenden Arten von Algorithmen passen.

Methoden neuronaler Netze

Neuronale Netzverfahren sind Verfahren, die auf der Verwendung verschiedener Arten von neuronalen Netzen (NN) beruhen. Die Haupteinsatzgebiete verschiedener NNs zur Muster- und Bilderkennung:

    Anwendung zum Extrahieren von Schlüsselmerkmalen oder -merkmalen bestimmter Bilder,

    Klassifikation der Bilder selbst oder der bereits daraus extrahierten Merkmale (im ersten Fall erfolgt die Extraktion von Schlüsselmerkmalen implizit innerhalb des Netzwerks),

    Lösung von Optimierungsproblemen.

Mehrschichtige neuronale Netze. Die Architektur eines mehrschichtigen neuronalen Netzes (MNN) besteht aus sequentiell verbundenen Schichten, wobei das Neuron jeder Schicht mit allen Neuronen der vorherigen Schicht mit seinen Eingängen und mit den Ausgängen der nächsten Schicht verbunden ist.

Die einfachste Anwendung eines Single-Layer-NN (als autoassoziativer Speicher bezeichnet) besteht darin, das Netzwerk zu trainieren, um die Feed-Bilder zu rekonstruieren. Indem dem Eingang ein Testbild zugeführt und die Qualität des rekonstruierten Bildes berechnet wird, kann man abschätzen, wie gut das Netzwerk das Eingangsbild erkannt hat. Die positiven Eigenschaften dieser Methode sind, dass das Netzwerk verzerrte und verrauschte Bilder wiederherstellen kann, aber es ist nicht für ernsthaftere Zwecke geeignet.

MNN wird auch zur direkten Klassifizierung von Bildern verwendet - die Eingabe ist entweder das Bild selbst in irgendeiner Form oder ein Satz zuvor extrahierter Schlüsselmerkmale des Bildes, am Ausgang zeigt das Neuron mit maximaler Aktivität die Zugehörigkeit zur erkannten Klasse an (Abb 4). Wenn diese Aktivität unter einem bestimmten Schwellenwert liegt, wird davon ausgegangen, dass das eingereichte Bild keiner der bekannten Klassen angehört. Der Lernprozess stellt die Entsprechung der eingegebenen Bilder mit der Zugehörigkeit zu einer bestimmten Klasse her. Dies nennt man überwachtes Lernen. Dieser Ansatz eignet sich gut für Zugriffskontrollaufgaben für eine kleine Gruppe von Personen. Dieser Ansatz bietet einen direkten Vergleich der Bilder selbst durch das Netzwerk, aber mit zunehmender Anzahl von Klassen nimmt die Zeit für Training und Netzwerkbetrieb exponentiell zu. Daher ist es für Aufgaben wie die Suche nach einer ähnlichen Person in einer großen Datenbank erforderlich, einen kompakten Satz von Schlüsselmerkmalen zu extrahieren, aus denen gesucht werden kann.

Ein Klassifikationsansatz unter Verwendung der Frequenzeigenschaften des gesamten Bildes ist in beschrieben. Es wurde ein einschichtiges NS verwendet, das auf mehrwertigen Neuronen basiert.

B zeigt die Verwendung von NN zur Bildklassifizierung, wenn der Netzwerkeingang die Ergebnisse der Bildzerlegung nach der Methode der Hauptkomponenten empfängt.

Beim klassischen MNS sind die neuralen Verbindungen zwischen den Schichten vollständig verbunden, und das Bild wird als eindimensionaler Vektor dargestellt, obwohl es zweidimensional ist. Die Architektur des Convolutional Neural Network zielt darauf ab, diese Mängel zu überwinden. Es wurden lokale Rezeptorfelder (die eine lokale zweidimensionale Konnektivität von Neuronen bereitstellen), allgemeine Gewichtungen (die die Erkennung einiger Merkmale überall im Bild bereitstellen) und eine hierarchische Organisation mit räumlicher Unterabtastung (räumliche Unterabtastung) verwendet. Convolutional NN (CNN) bietet teilweisen Widerstand gegen Skalierungsänderungen, Verschiebungen, Drehungen und Verzerrungen.

MNS werden auch verwendet, um Objekte eines bestimmten Typs zu erkennen. Abgesehen davon, dass jedes trainierte MNS einigermaßen feststellen kann, ob Bilder zu „seiner“ Klasse gehören, kann es speziell darauf trainiert werden, bestimmte Klassen zuverlässig zu erkennen. In diesem Fall sind die Ausgabeklassen Klassen, die zu dem angegebenen Bildtyp gehören und nicht zu ihm gehören. Ein neuronaler Netzwerkdetektor wurde verwendet, um das Gesichtsbild im Eingangsbild zu erkennen. Das Bild wurde mit einem Fenster von 20 x 20 Pixeln gescannt, das dem Eingang des Netzwerks zugeführt wurde, das entscheidet, ob der gegebene Bereich zur Klasse der Gesichter gehört. Das Training wurde sowohl mit positiven Beispielen (verschiedene Bilder von Gesichtern) als auch mit negativen Beispielen (Bilder, die keine Gesichter sind) durchgeführt. Um die Erkennungssicherheit zu erhöhen, wurde ein Team von NNs eingesetzt, die mit unterschiedlichen Anfangsgewichten trainiert wurden, wodurch die NNs auf unterschiedliche Weise Fehler machten, und die endgültige Entscheidung durch Abstimmung des gesamten Teams getroffen wurde.

Abbildung 5. Hauptkomponenten (Eigengesichter) und Zerlegung des Bildes in Hauptkomponenten

NN wird auch verwendet, um die Schlüsselmerkmale des Bildes zu extrahieren, die dann für die anschließende Klassifizierung verwendet werden. In 1 ist ein Verfahren zur neuronalen Netzwerkimplementierung des Hgezeigt. Das Wesen des Hbesteht darin, die maximal entkernten Koeffizienten zu erhalten, die die Eingangsmuster charakterisieren. Diese Koeffizienten werden als Hauptkomponenten bezeichnet und für die statistische Bildkomprimierung verwendet, bei der eine kleine Anzahl von Koeffizienten verwendet wird, um das gesamte Bild darzustellen. Ein NN mit einer verborgenen Schicht, die N Neuronen enthält (was viel kleiner als die Bilddimension ist), das durch die Methode der Fehlerrückpropagation trainiert wurde, um das Eingangsbild am Ausgang wiederherzustellen, bildet die Koeffizienten der ersten N Hauptkomponenten am Ausgang des versteckte Neuronen, die zum Vergleich herangezogen werden. Typischerweise werden 10 bis 200 Hauptkomponenten verwendet. Mit zunehmender Komponentenzahl nimmt die Repräsentativität stark ab und es macht keinen Sinn, Komponenten mit großen Zahlen zu verwenden. Bei Verwendung nichtlinearer Aktivierungsfunktionen neuronaler Elemente ist eine nichtlineare Zerlegung in Hauptkomponenten möglich. Nichtlinearität ermöglicht es Ihnen, die Variationen in den Eingabedaten genauer wiederzugeben. Indem wir die Hauptkomponentenanalyse auf die Zerlegung von Gesichtsbildern anwenden, erhalten wir die Hauptkomponenten, sogenannte richtige Gesichter, die auch eine nützliche Eigenschaft haben – es gibt Komponenten, die hauptsächlich so wesentliche Gesichtsmerkmale wie Geschlecht, Rasse, Emotionen widerspiegeln. Nach der Restaurierung haben die Komponenten ein gesichtsähnliches Aussehen, wobei erstere die allgemeinste Form des Gesichts widerspiegeln, letztere verschiedene geringfügige Unterschiede zwischen Gesichtern darstellen (Abb. 5). Dieses Verfahren eignet sich gut zum Suchen ähnlicher Gesichtsbilder in großen Datenbanken. Auch die Möglichkeit einer weiteren Reduzierung der Dimension von Hauptkomponenten mit Hilfe von NS wird aufgezeigt. Indem man die Qualität der Rekonstruktion des Eingangsbildes bewertet, kann man sehr genau bestimmen, ob es zur Klasse der Gesichter gehört.

Neuronale Netze hoher Ordnung. Neuronale Netze höherer Ordnung (HNNs) unterscheiden sich von MNNs dadurch, dass sie nur eine Schicht haben, aber die Eingaben von Neuronen auch Terme höherer Ordnung erhalten, die das Produkt von zwei oder mehr Komponenten des Eingabevektors sind. Solche Netzwerke können auch komplexe Trennflächen bilden.

Hopfield neuronale Netze. Hopfield NN (HSH) ist einschichtig und vollständig verbunden (es gibt keine Verbindungen von Neuronen zu sich selbst), seine Ausgänge sind mit Eingängen verbunden. Im Gegensatz zum MNS ist das NSH relaxierend, d.h. In den Anfangszustand versetzt, funktioniert es, bis es einen stabilen Zustand erreicht, der sein Ausgangswert sein wird. Zur Suche nach einem globalen Minimum in Bezug auf Optimierungsprobleme werden stochastische Modifikationen des NSH verwendet.

Die Verwendung von NSH als assoziativer Speicher ermöglicht es Ihnen, die Bilder, auf die das Netzwerk trainiert wurde, genau wiederherzustellen, wenn ein verzerrtes Bild in den Eingang eingespeist wird. In diesem Fall „merkt“ sich das Netzwerk das nächste (im Sinne des lokalen Energieminimums) Bild und erkennt es somit. Ein solches Funktionieren kann man sich auch als sequentielle Anwendung des oben beschriebenen autoassoziativen Gedächtnisses vorstellen. Im Gegensatz zum autoassoziativen Speicher stellt NSH das Bild absolut genau wieder her. Um Störminima zu vermeiden und die Netzkapazität zu erhöhen, werden verschiedene Verfahren eingesetzt.

Kohonen selbstorganisierende neuronale Netze. Selbstorganisierende neuronale Netze (SNNCs) von Kohonen sorgen für eine topologische Ordnung des Eingangsbildraums. Sie ermöglichen eine topologisch kontinuierliche Abbildung des n-dimensionalen Eingangsraums in den m-dimensionalen Ausgangsraum m<

Kognitron. Das Kognitron ähnelt in seiner Architektur der Struktur des visuellen Kortex, es hat eine hierarchische mehrschichtige Organisation, in der Neuronen zwischen Schichten nur lokal verbunden sind. Ausgebildet durch kompetitives Lernen (ohne Lehrer). Jede Schicht des Gehirns implementiert unterschiedliche Verallgemeinerungsebenen; Die Eingabeschicht reagiert empfindlich auf einfache Muster wie Linien und ihre Ausrichtung in bestimmten Bereichen des visuellen Bereichs, während die Reaktion anderer Schichten komplexer, abstrakter und unabhängiger von der Position des Musters ist. Ähnliche Funktionen werden im Cognitron implementiert, indem die Organisation des visuellen Kortex modelliert wird.

Neocognitron ist eine Weiterentwicklung der Cognitron-Idee und spiegelt die Struktur des visuellen Systems genauer wider, ermöglicht es Ihnen, Bilder unabhängig von ihren Transformationen, Drehungen, Verzerrungen und Skalierungsänderungen zu erkennen.

Cognitron ist ein leistungsfähiges Bilderkennungswerkzeug, erfordert jedoch hohe Rechenkosten, die derzeit unerreichbar sind.

Die betrachteten neuronalen Netzwerkverfahren liefern eine schnelle und zuverlässige Bilderkennung, jedoch treten bei der Verwendung dieser Verfahren Probleme bei der Erkennung von dreidimensionalen Objekten auf. Dieser Ansatz hat jedoch viele Vorteile.

      Fazit

Gegenwärtig gibt es eine ziemlich große Anzahl automatischer Mustererkennungssysteme für verschiedene angewandte Probleme.

Die Mustererkennung durch formale Methoden als grundlegende wissenschaftliche Richtung ist unerschöpflich.

Mathematische Methoden der Bildverarbeitung haben vielfältige Anwendungen: Wissenschaft, Technik, Medizin, Soziales. In Zukunft wird die Rolle der Mustererkennung im menschlichen Leben noch weiter zunehmen.

Neuronale Netzwerkverfahren sorgen für eine schnelle und zuverlässige Bilderkennung. Dieser Ansatz hat viele Vorteile und ist einer der vielversprechendsten.

Literatur

    DV Brilyuk, V.V. Starowoitow. Neuronale Netzwerkverfahren zur Bilderkennung // /

    Kuzin L.T. Grundlagen der Kybernetik: Grundlagen kybernetischer Modelle. T.2. - M.: Energie, 1979. - 584 S.

    Peregudov F.I., Tarasenko F.P. Einführung in die Systemanalyse: Lehrbuch. - M.: Höhere Schule, 1997. - 389s.

    Temnikov F.E., Afonin V.A., Dmitriev V.I. Theoretische Grundlagen der Informationstechnik. - M.: Energie, 1979. - 511s.

    Tu J., Gonzalez R. Prinzipien der Mustererkennung. / Pro. aus dem Englischen. - M.: Mir, 1978. - 410s.

    Winston P. Künstliche Intelligenz. / Pro. aus dem Englischen. - M.: Mir, 1980. - 520er.

    Fu K. Strukturelle Methoden in der Mustererkennung: Aus dem Englischen übersetzt. - M.: Mir, 1977. - 320s.

    Tsypkin Ya.Z. Grundlagen der Informationstheorie der Identifikation. - M.: Nauka, 1984. - 520er.

    Pospelov G.S. Künstliche Intelligenz ist die Basis der neuen Informationstechnologie. - M.: Nauka, 1988. - 280er.

    Yu Lifshits, Statistische Methoden der Mustererkennung ///modern/07modernnote.pdf

    Bohr N. Atomphysik und menschliches Wissen. / Übersetzung aus dem Englischen. - M.: Mir, 1961. - 151s.

    Butakov E.A., Ostrovsky V.I., Fadeev I.L. Bildverarbeitung auf einem Computer.1987.-236s.

    Duda R., Hart P. Mustererkennung und Szenenanalyse. / Übersetzung aus dem Englischen. - M.: Mir, 1978. - 510er.

    Herzog V.A. Computerpsychodiagnostik. - St. Petersburg: Bruderschaft, 1994. - 365 p.

    Aizenberg I. N., Aizenberg N. N. und Krivosheev G. A. Mehrwertige und universelle binäre Neuronen: Lernalgorithmen, Anwendungen zur Bildverarbeitung und -erkennung. Vorlesungsunterlagen in Künstlicher Intelligenz - Maschinelles Lernen und Data Mining in der Mustererkennung, 1999, S. 21-35.

    Ranganath S. und Arun K. Gesichtserkennung mit Transformationsfunktionen und neuronalen Netzen. Mustererkennung 1997, Vol. 3, No. 30, S. 1615-1622.

    Golowko V.A. Neurointelligenz: Theorie und Anwendungen. Buch 1. Organisation und Training von neuronalen Netzen mit direktem und Feedback - Brest: BPI, 1999, - 260s.

    Vetter T. und Poggio T. Lineare Objektklassen und Bildsynthese aus einem einzigen Beispielbild. IEEE Transactions on Pattern Analysis and Machine Intelligence 1997, Bd. 19, S. 733-742.

    Golowko V.A. Neurointelligenz: Theorie und Anwendungen. Buch 2. Selbstorganisation, Fehlertoleranz und die Verwendung neuronaler Netze - Brest: BPI, 1999, - 228s.

    Lawrence S., Giles C. L., Tsoi A. C. und Back A. D. Face Recognition: A Convolutional Neural Network Approach. IEEE Transactions on Neural Networks, Special Issue on Neural Networks and Pattern Recognition, pp. 1-24.

    Wasserman F. Neurocomputertechnologie: Theorie und Praxis, 1992 - 184p.

    Rowley H. A., Baluja S. und Kanade T. Neural Network-Based Face Detection. IEEE Transactions on Pattern Analysis and Machine Intelligence 1998, Bd. 20, S. 23-37.

    Valentin D., Abdi H., O "Toole A. J. and Cottrell G. W. Connectionist models of face processing: a survey. IN: Pattern Recognition 1994, Vol. 27, pp. 1209-1230.

    Dokumentieren

    Sie bilden Algorithmen ErkennungBilder. MethodenErkennungBilder Wie oben erwähnt ... die Realität ist es nicht existieren"Ökosysteme im Allgemeinen" und existieren nur ein paar ... Schlussfolgerungen daraus detailliert ÜberprüfungMethodenErkennung wir präsentierten in...

  1. Überblick über Methoden zur Identifizierung von Personen anhand von Gesichtsbildern unter Berücksichtigung der Merkmale der visuellen Erkennung

    Überprüfung

    ... Erkennung durch eine Person von kontrastarmen Objekten, inkl. Personen. Gebracht Überprüfung gemeinsames Methoden ... Existieren ganze Linie Methoden ... Weg, als Ergebnis der Studie, eine Plattform für die Entwicklung von MethodeErkennung ...

  2. Imeni Glazkova Valentina Vladimirovna FORSCHUNG UND ENTWICKLUNG VON METHODEN ZUR KONSTRUKTION VON SOFTWARE-TOOLS ZUR KLASSIFIZIERUNG VON MULTI-TOPISCHEN HYPERTEXT-DOKUMENTEN Fachgebiet 05

    Zusammenfassung der Dissertation

    Hypertext-Dokumente. Das Kapitel enthält ÜberprüfungbestehendenMethoden Lösung des betrachteten Problems, Beschreibung ... durch Abschneiden der am wenigsten relevanten Klassen // Mathematisch MethodenErkennungBilder: 13. Allrussische Konferenz. Oblast Leningrad...

  3. Folie 0 Überblick über die Aufgaben der Bioinformatik im Zusammenhang mit der Analyse und Verarbeitung genetischer Texte

    Vorlesung

    DNA- und Proteinsequenzen. Überprüfung Aufgaben der Bioinformatik als Aufgaben ... Signale erfordern den Einsatz moderner MethodenErkennungBilder, statistische Ansätze und ... mit geringer Gendichte. Bestehenden Genvorhersageprogramme nicht...

Kapitel 3: Analytische Überprüfung von Mustererkennungs- und Entscheidungsmethoden

Mustererkennungstheorie und Steuerungsautomatisierung

Die Hauptaufgaben der adaptiven Mustererkennung

Erkennung ist ein Informationsprozess, der von einem Informationskonverter (intelligenter Informationskanal, Erkennungssystem) implementiert wird, der eine Eingabe und eine Ausgabe hat. Die Eingabe des Systems sind Informationen darüber, welche Eigenschaften die präsentierten Objekte haben. Die Ausgabe des Systems zeigt Informationen darüber an, welchen Klassen (generalisierten Bildern) die erkennbaren Objekte zugeordnet sind.

Beim Erstellen und Betreiben eines automatisierten Mustererkennungssystems werden eine Reihe von Aufgaben gelöst. Betrachten wir diese Aufgaben kurz und einfach. Beachten Sie, dass die Formulierungen dieser Aufgaben und der Satz selbst nicht mit verschiedenen Autoren übereinstimmen, da dies bis zu einem gewissen Grad von dem spezifischen mathematischen Modell abhängt, auf dem dieses oder jenes Erkennungssystem basiert. Außerdem haben einige Aufgaben in bestimmten Erkennungsmodellen keine Lösung und werden dementsprechend nicht gestellt.

Die Aufgabe, das Fachgebiet zu formalisieren

Tatsächlich handelt es sich bei dieser Aufgabe um eine Codierungsaufgabe. Es wird eine Liste verallgemeinerter Klassen zusammengestellt, die spezifische Implementierungen von Objekten enthalten kann, sowie eine Liste von Merkmalen, die diese Objekte im Prinzip haben können.

Die Aufgabe, ein Trainingsmuster zu bilden

Das Trainingsbeispiel ist eine Datenbank, die Beschreibungen spezifischer Implementierungen von Objekten in der Merkmalssprache enthält, ergänzt durch Informationen über die Zugehörigkeit dieser Objekte zu bestimmten Erkennungsklassen.

Die Aufgabe, das Erkennungssystem zu trainieren

Das Trainingsmuster wird verwendet, um verallgemeinerte Bilder von Erkennungsklassen basierend auf der Verallgemeinerung von Informationen darüber zu bilden, welche Merkmale die Objekte des Trainingsmusters haben, die zu dieser Klasse und anderen Klassen gehören.

Das Problem der Merkmalsraum-Dimensionsreduktion

Nach dem Trainieren des Erkennungssystems (Erhalten von Statistiken über die Verteilung von Merkmalshäufigkeiten nach Klassen) wird es möglich, für jedes Merkmal seinen Wert zum Lösen des Erkennungsproblems zu bestimmen. Danach können die am wenigsten wertvollen Merkmale aus dem Merkmalssystem entfernt werden. Dann muss das Erkennungssystem neu trainiert werden, da sich durch das Entfernen einiger Merkmale die Verteilungsstatistik der verbleibenden Merkmale nach Klassen ändert. Dieser Vorgang kann wiederholt werden, d.h. iterativ sein.

Erkennungsaufgabe

Es werden Objekte eines erkennbaren Musters erkannt, die insbesondere aus einem Objekt bestehen können. Das erkennbare Muster wird ähnlich wie das Trainingsmuster gebildet, enthält jedoch keine Informationen über die Zugehörigkeit von Objekten zu Klassen, da genau dies im Erkennungsprozess bestimmt wird. Das Ergebnis der Erkennung jedes Objekts ist eine Verteilung oder eine Liste aller Erkennungsklassen in absteigender Reihenfolge des Ähnlichkeitsgrades des erkannten Objekts mit ihnen.

Aufgabe zur Qualitätskontrolle der Erkennung

Nach der Anerkennung kann die Angemessenheit festgestellt werden. Für Objekte des Trainingsmusters kann dies sofort erfolgen, da für sie einfach bekannt ist, zu welchen Klassen sie gehören. Für andere Objekte können diese Informationen später eingeholt werden. In jedem Fall kann die tatsächliche durchschnittliche Fehlerwahrscheinlichkeit für alle Erkennungsklassen ermittelt werden, sowie die Fehlerwahrscheinlichkeit bei der Zuordnung eines erkannten Objekts zu einer bestimmten Klasse.

Die Erkennungsergebnisse sollten unter Berücksichtigung der verfügbaren Informationen über die Erkennungsqualität interpretiert werden.

Anpassungsaufgabe

Stellt sich das Qualitätskontrollverfahren als unbefriedigend heraus, so können die Beschreibungen der falsch erkannten Objekte aus dem Erkennungsmuster in das Trainingsmuster kopiert, mit adäquaten Klassifikationsinformationen ergänzt und zur Neuformulierung der Entscheidung verwendet werden Regeln, d.h. berücksichtigt. Wenn diese Objekte außerdem nicht zu den bereits existierenden Erkennungsklassen gehören, was der Grund für ihre falsche Erkennung sein könnte, dann kann diese Liste erweitert werden. Dadurch passt sich das Erkennungssystem an und beginnt, diese Objekte adäquat zu klassifizieren.

Inverses Erkennungsproblem

Die Aufgabe der Erkennung besteht darin, dass das System für ein bestimmtes Objekt anhand seiner bekannten Merkmale seine Zugehörigkeit zu einer zuvor unbekannten Klasse feststellt. Bei dem inversen Erkennungsproblem hingegen bestimmt das System für eine gegebene Erkennungsklasse, welche Merkmale am charakteristischsten für Objekte dieser Klasse sind und welche nicht (oder welche Objekte der Trainingsprobe zu dieser Klasse gehören).

Aufgaben der Cluster- und konstruktiven Analyse

Cluster sind solche Gruppen von Objekten, Klassen oder Merkmalen, die innerhalb jedes Clusters so ähnlich wie möglich sind und zwischen verschiedenen Clustern so unterschiedlich wie möglich sind.

Ein Konstrukt (in dem in diesem Abschnitt betrachteten Kontext) ist ein System von entgegengesetzten Clustern. Konstrukte sind also gewissermaßen das Ergebnis einer Clusteranalyse von Clustern.

Bei der Clusteranalyse wird der Ähnlichkeits- und Unterschiedsgrad von Objekten (Klassen, Merkmalen) quantitativ gemessen und diese Information zur Klassifizierung verwendet. Das Ergebnis der Clusteranalyse ist die eigentliche Klassifizierung von Objekten nach Clustern. Diese Klassifizierung kann in Form von semantischen Netzen dargestellt werden.

Die Aufgabe der kognitiven Analyse

In der kognitiven Analyse sind Informationen über Ähnlichkeit und Unterschied von Klassen oder Merkmalen für den Forscher an sich von Interesse und nicht, um sie wie in der Cluster- und konstruktiven Analyse zur Klassifizierung zu verwenden.

Wenn zwei Anerkennungsklassen durch das gleiche Merkmal gekennzeichnet sind, trägt dies zur Ähnlichkeit dieser beiden Klassen bei. Wenn dieses Merkmal für eine der Klassen uncharakteristisch ist, dann trägt dies zum Unterschied bei.

Wenn zwei Zeichen miteinander korrelieren, dann können sie gewissermaßen als ein Zeichen betrachtet werden, und wenn sie antikorreliert sind, dann als verschieden. Unter Berücksichtigung dieses Umstandes trägt auch das Vorhandensein unterschiedlicher Merkmale in verschiedenen Klassen zu deren Ähnlichkeit und Unterschiedlichkeit bei.

Die Ergebnisse der kognitiven Analyse können in Form von kognitiven Diagrammen dargestellt werden.

Mustererkennungsverfahren und ihre Eigenschaften

Prinzipien der Klassifikation von Mustererkennungsverfahren

Mustererkennung ist die Aufgabe, formale Operationen auf numerische oder symbolische Darstellungen von Objekten der realen oder idealen Welt zu konstruieren und anzuwenden, deren Lösungsergebnisse die Äquivalenzbeziehungen zwischen diesen Objekten widerspiegeln. Äquivalenzbeziehungen drücken die Zugehörigkeit der bewerteten Objekte zu einigen Klassen aus, die als unabhängige semantische Einheiten betrachtet werden.

Bei der Konstruktion von Erkennungsalgorithmen können Äquivalenzklassen von einem Forscher festgelegt werden, der seine eigenen sinnvollen Ideen verwendet oder externe zusätzliche Informationen über die Ähnlichkeit und den Unterschied von Objekten im Kontext des zu lösenden Problems verwendet. Dann spricht man von „Anerkennung beim Lehrer“. Ansonsten, d.h. Wenn ein automatisiertes System ein Klassifizierungsproblem löst, ohne externe Trainingsinformationen einzubeziehen, spricht man von automatischer Klassifizierung oder „unüberwachter Erkennung“. Die meisten Mustererkennungsalgorithmen erfordern eine sehr erhebliche Rechenleistung, die nur durch Hochleistungscomputertechnologie bereitgestellt werden kann.

Verschiedene Autoren (Yu.L. Barabash, V.I. Vasiliev, A.L. Gorelik, V.A. Skripkin, R. Duda, P. Hart, L.T. Kuzin, F.I. Peregudov, F.P. Tarasenko, F. E. Temnikov, J. Tu, R. Gonzalez, P. Winston, K. Fu, Ya. Z. Tsypkin und andere) geben eine andere Typologie von Mustererkennungsverfahren an. Einige Autoren unterscheiden zwischen parametrischen, nichtparametrischen und heuristischen Methoden, während andere Gruppen von Methoden herausgreifen, die auf historischen Schulen und Trends auf diesem Gebiet basieren. Beispielsweise wird in der Arbeit, die einen wissenschaftlichen Überblick über Erkennungsverfahren gibt, folgende Typologie von Mustererkennungsverfahren verwendet:

  • Methoden, die auf dem Prinzip der Trennung beruhen;
  • statistische Methoden;
  • Methoden, die auf der Grundlage von „potentiellen Funktionen“ aufgebaut sind;
  • Methoden zur Notenberechnung (Voting);
  • Methoden, die auf dem Aussagenkalkül basieren, insbesondere auf dem Apparat der Algebra der Logik.

Diese Klassifikation basiert auf dem Unterschied in den formalen Methoden der Mustererkennung, und daher wird die Berücksichtigung des heuristischen Ansatzes zur Erkennung, der in Expertensystemen vollständig und angemessen entwickelt wurde, weggelassen. Der heuristische Ansatz basiert auf schwer formalisierbarem Wissen und der Intuition des Forschers. Gleichzeitig bestimmt der Forscher selbst, welche Informationen und wie das System nutzen soll, um den gewünschten Wiedererkennungseffekt zu erzielen.

Eine ähnliche Typologie von Erkennungsverfahren mit unterschiedlichem Detaillierungsgrad findet sich in vielen Arbeiten zur Erkennung. Gleichzeitig berücksichtigen die bekannten Typologien ein sehr signifikantes Merkmal nicht, das die Besonderheiten der Art und Weise widerspiegelt, wie Wissen über das Fachgebiet durch einen formalen Mustererkennungsalgorithmus repräsentiert wird.

D. A. Pospelov (1990) identifiziert zwei Hauptarten der Wissensrepräsentation:

  • intensional, in Form eines Schemas von Verbindungen zwischen Attributen (Merkmale).
  • extensional, mit Hilfe konkreter Fakten (Objekte, Beispiele).

Die intensionale Darstellung erfasst die Muster und Beziehungen, die die Struktur der Daten erklären. Im Hinblick auf diagnostische Aufgaben besteht eine solche Fixierung darin, Operationen an den Attributen (Merkmale) von Objekten zu bestimmen, die zu dem gewünschten diagnostischen Ergebnis führen. Intensionale Darstellungen werden durch Operationen an Attributwerten implementiert und implizieren keine Operationen an bestimmten Informationsfakten (Objekten).

Extensionale Wissensrepräsentationen wiederum sind mit der Beschreibung und Fixierung spezifischer Objekte aus dem Fachgebiet verbunden und werden in Operationen implementiert, deren Elemente Objekte als integrale Systeme sind.

Es ist möglich, eine Analogie zwischen intensionalen und extensionalen Repräsentationen von Wissen und den Mechanismen zu ziehen, die der Aktivität der linken und rechten Hemisphäre des menschlichen Gehirns zugrunde liegen. Ist die rechte Hemisphäre durch eine ganzheitliche prototypische Repräsentation der umgebenden Welt gekennzeichnet, so operiert die linke Hemisphäre mit Mustern, die die Zusammenhänge der Attribute dieser Welt widerspiegeln.

Die beiden oben beschriebenen grundlegenden Arten der Wissensrepräsentation erlauben uns, die folgende Klassifizierung von Mustererkennungsverfahren vorzuschlagen:

  • Intensionale Methoden, die auf Operationen mit Attributen basieren.
  • Erweiterungsmethoden, die auf Operationen mit Objekten basieren.

Es ist notwendig zu betonen, dass die Existenz dieser zwei (und nur zwei) Gruppen von Erkennungsmethoden: diejenigen, die mit Merkmalen arbeiten, und diejenigen, die mit Objekten arbeiten, zutiefst natürlich ist. Aus dieser Sicht ermöglicht keine dieser Methoden, getrennt voneinander, eine adäquate Reflexion des Fachgebiets. Zwischen diesen Methoden besteht laut den Autoren ein Komplementaritätsverhältnis im Sinne von N. Bohr, daher sollten erfolgversprechende Erkennungssysteme die Umsetzung beider Methoden und nicht nur einer von ihnen sicherstellen.

Die von D. A. Pospelov vorgeschlagene Klassifikation von Erkennungsverfahren basiert also auf den Grundgesetzen, die der menschlichen Erkenntnisweise im Allgemeinen zugrunde liegen, was sie in eine ganz besondere (privilegierte) Stellung gegenüber anderen Klassifikationen bringt, die vor diesem Hintergrund blicken leichter und künstlicher.

Intensionale Methoden

Ein charakteristisches Merkmal intensionaler Verfahren besteht darin, dass sie unterschiedliche Eigenschaften von Merkmalen und ihre Beziehungen als Elemente von Operationen bei der Konstruktion und Anwendung von Mustererkennungsalgorithmen verwenden. Solche Elemente können Einzelwerte oder Intervalle von Merkmalswerten, Mittelwerte und Varianzen, Merkmalsbeziehungsmatrizen usw. sein, auf denen Aktionen ausgeführt werden, in analytischer oder konstruktiver Form ausgedrückt. Gleichzeitig werden Objekte in diesen Methoden nicht als integrale Informationseinheiten betrachtet, sondern dienen als Indikatoren zur Beurteilung des Zusammenspiels und Verhaltens ihrer Eigenschaften.

Die Gruppe der intensionalen Mustererkennungsverfahren ist umfangreich und ihre Einteilung in Unterklassen etwas willkürlich.

Methoden, die auf Schätzungen der Verteilungsdichten von Merkmalswerten basieren

Diese Mustererkennungsverfahren sind der klassischen Theorie statistischer Entscheidungen entlehnt, in der die Untersuchungsobjekte als Realisierungen einer mehrdimensionalen Zufallsvariablen betrachtet werden, die gemäß einem Gesetz im Merkmalsraum verteilt sind. Sie basieren auf dem Bayes'schen Entscheidungsfindungsschema, das sich auf a priori Wahrscheinlichkeiten von Objekten bezieht, die zu der einen oder anderen erkennbaren Klasse gehören, und auf bedingte Verteilungsdichten der Merkmalsvektorwerte. Diese Verfahren reduzieren sich auf die Bestimmung des Likelihood-Verhältnisses in verschiedenen Bereichen des mehrdimensionalen Merkmalsraums.

Die Gruppe der Methoden, die auf der Schätzung der Verteilungsdichten von Merkmalswerten basieren, steht in direktem Zusammenhang mit den Methoden der Diskriminanzanalyse. Der bayessche Ansatz zur Entscheidungsfindung ist einer der am weitesten entwickelten in der modernen Statistik, den sogenannten parametrischen Methoden, für die der analytische Ausdruck des Verteilungsgesetzes (in diesem Fall das Normalgesetz) als bekannt und nur als gering angesehen wird Anzahl von Parametern (Mittelwertvektoren und Kovarianzmatrizen) geschätzt werden müssen.

Die Hauptschwierigkeiten bei der Anwendung dieser Methoden sind die Notwendigkeit, sich an die gesamte Trainingsstichprobe zu erinnern, um Schätzungen der lokalen Wahrszu berechnen, und die hohe Empfindlichkeit gegenüber der Nichtrepräsentativität der Trainingsstichprobe.

Methoden, die auf Annahmen über die Klasse der Entscheidungsfunktionen basieren

In dieser Gruppe von Verfahren wird die allgemeine Form der Entscheidungsfunktion als bekannt angesehen und ihr Gütefunktional angegeben. Basierend auf diesem Funktional wird die beste Annäherung der Entscheidungsfunktion aus der Trainingssequenz gefunden. Am gebräuchlichsten sind Darstellungen von Entscheidungsfunktionen in Form von linearen und verallgemeinerten nichtlinearen Polynomen. Das Qualitätsfunktional der Entscheidungsregel ist üblicherweise mit dem Klassifikationsfehler verbunden.

Der Hauptvorteil von Verfahren, die auf Annahmen über die Klasse von Entscheidungsfunktionen beruhen, ist die Klarheit der mathematischen Formulierung des Erkennungsproblems als Extremumsproblem. Die Vielfalt der Methoden dieser Gruppe erklärt sich durch die breite Palette der verwendeten Entscheidungsregelqualitätsfunktionale und Extremum-Suchalgorithmen. Eine Verallgemeinerung der betrachteten Algorithmen, zu denen insbesondere der Newtonsche Algorithmus, perzeptronartige Algorithmen usw. gehören, ist die Methode der stochastischen Approximation.

Die Möglichkeiten von Gradientenalgorithmen zur Extremumsfindung, insbesondere in der Gruppe der linearen Entscheidungsregeln, sind recht gut untersucht. Die Konvergenz dieser Algorithmen ist nur für den Fall bewiesen, dass die erkennbaren Klassen von Objekten im Merkmalsraum durch kompakte geometrische Strukturen dargestellt werden.

Eine ausreichend hohe Qualität der Entscheidungsregel kann mit Algorithmen erreicht werden, die keinen strengen mathematischen Beweis der Konvergenz der Lösung zum globalen Extremum haben. Solche Algorithmen umfassen eine große Gruppe heuristischer Programmierverfahren, die die Richtung der evolutionären Modellierung darstellen. Evolutionäre Modellierung ist eine bionische Methode, die der Natur entlehnt ist. Es basiert auf der Nutzung bekannter Evolutionsmechanismen, um den Prozess der sinnvollen Modellierung eines komplexen Objekts durch eine phänomenologische Modellierung seiner Evolution zu ersetzen. Ein bekannter Vertreter der evolutionären Modellierung in der Mustererkennung ist die Methode des Group Accounting of Arguments (MGUA). Die GMDH basiert auf dem Prinzip der Selbstorganisation, und die GMDH-Algorithmen reproduzieren das Schema der Massenselektion.

Das Erreichen praktischer Ziele geht in diesem Fall jedoch nicht mit der Gewinnung neuer Erkenntnisse über die Natur erkennbarer Objekte einher. Die Möglichkeit, dieses Wissen zu extrahieren, insbesondere Wissen über die Mechanismen der Interaktion von Attributen (Merkmale), wird hier grundsätzlich durch die gegebene Struktur solcher Interaktion, fixiert in der gewählten Form entscheidender Funktionen, begrenzt.

Boolesche Methoden

Logische Verfahren der Mustererkennung basieren auf dem Apparat der logischen Algebra und erlauben es, mit Informationen zu operieren, die nicht nur in einzelnen Merkmalen, sondern auch in Kombinationen von Merkmalswerten enthalten sind. Bei diesen Methoden werden die Werte beliebiger Attribute als elementare Ereignisse betrachtet.

In der allgemeinsten Form lassen sich logische Methoden als eine Art Suche nach logischen Mustern in der Trainingsstichprobe und die Bildung eines bestimmten Systems logischer Entscheidungsregeln (zB in Form von Konjunktionen von Elementarereignissen) charakterisieren was sein Eigengewicht hat. Die Gruppe der logischen Methoden ist vielfältig und umfasst Methoden unterschiedlicher Komplexität und Analysetiefe. Für dichotome (boolesche) Merkmale sind die sogenannten baumartigen Klassifikatoren, das Dead-End-Testverfahren, der Bark-Algorithmus usw. beliebt.

Der Kora-Algorithmus ist wie andere logische Mustererkennungsverfahren recht rechenaufwändig, da bei der Auswahl von Konjunktionen eine vollständige Aufzählung erforderlich ist. Daher werden bei der Anwendung logischer Verfahren hohe Anforderungen an die effiziente Organisation des Rechenvorgangs gestellt, und diese Verfahren funktionieren bei relativ kleinen Dimensionen des Merkmalsraums und nur auf leistungsfähigen Rechnern gut.

Sprachwissenschaftliche (strukturelle) Methoden

Linguistische Methoden der Mustererkennung basieren auf der Verwendung spezieller Grammatiken, die Sprachen erzeugen, mit denen eine Reihe von Eigenschaften erkennbarer Objekte beschrieben werden können.

Für verschiedene Klassen von Objekten werden nicht abgeleitete (atomare) Elemente (Teilbilder, Zeichen) und mögliche Beziehungen zwischen ihnen unterschieden. Grammatik bezieht sich auf die Regeln zum Konstruieren von Objekten aus diesen nicht abgeleiteten Elementen.

Somit ist jedes Objekt eine Sammlung von nicht abgeleiteten Elementen, die auf die eine oder andere Weise miteinander "verbunden" sind, oder mit anderen Worten, durch einen "Satz" einer "Sprache". Ich möchte den sehr bedeutenden ideologischen Wert dieses Gedankens betonen.

Durch Analysieren (Parsen) eines "Satzes" wird seine syntaktische "Korrektheit" bestimmt, oder äquivalent, ob irgendeine feste Grammatik, die eine Klasse beschreibt, eine existierende Beschreibung eines Objekts erzeugen kann.

Die Aufgabe, Grammatiken aus einem bestimmten Satz von Aussagen (Sätzen - Beschreibungen von Objekten) wiederherzustellen (zu definieren), die eine bestimmte Sprache erzeugen, ist jedoch schwer zu formalisieren.

Erweiterungsmethoden

Bei den Methoden dieser Gruppe wird im Gegensatz zur intensionalen Richtung jedem untersuchten Objekt ein mehr oder weniger eigenständiger diagnostischer Wert beigemessen. Im Kern sind diese Methoden dem klinischen Ansatz nahe, der Menschen nicht als eine Kette von Objekten betrachtet, die nach dem einen oder anderen Indikator geordnet sind, sondern als integrale Systeme, von denen jedes individuell ist und einen besonderen diagnostischen Wert hat. Eine solch sorgfältige Einstellung zu den Untersuchungsobjekten erlaubt es einem nicht, Informationen über jedes einzelne Objekt auszuschließen oder zu verlieren, was auftritt, wenn man die Methoden der intensionalen Richtung anwendet, indem man Objekte nur verwendet, um die Verhaltensmuster ihrer Attribute zu erkennen und zu fixieren.

Die Hauptoperationen bei der Mustererkennung unter Verwendung der besprochenen Verfahren sind die Operationen zum Bestimmen der Ähnlichkeit und des Unterschieds von Objekten. Objekte in der angegebenen Gruppe von Methoden spielen die Rolle von diagnostischen Präzedenzfällen. Gleichzeitig kann die Rolle eines einzelnen Präzedenzfalls je nach den Bedingungen einer bestimmten Aufgabe innerhalb der weitesten Grenzen variieren: von der hauptsächlichen und bestimmenden bis zu einer sehr indirekten Beteiligung am Anerkennungsprozess. Die Bedingungen des Problems können wiederum die Teilnahme einer unterschiedlichen Anzahl diagnostischer Präzedenzfälle für eine erfolgreiche Lösung erfordern: von einem in jeder erkennbaren Klasse bis zur gesamten Stichprobengröße sowie unterschiedliche Methoden zur Berechnung der Ähnlichkeits- und Unterschiedsmaße Objekte. Diese Anforderungen erklären die weitere Unterteilung von Erweiterungsmethoden in Unterklassen.

Prototypische Vergleichsmethode

Dies ist die einfachste Erweiterungserkennungsmethode. Sie wird beispielsweise verwendet, wenn die erkannten Klassen durch kompakte geometrische Gruppierungen im Merkmalsraum dargestellt werden. In diesem Fall wird üblicherweise das Zentrum der geometrischen Gruppierung der Klasse (oder das Objekt, das dem Zentrum am nächsten liegt) als Prototyppunkt gewählt.

Um ein unbekanntes Objekt zu klassifizieren, wird der ihm am nächsten liegende Prototyp gefunden, und das Objekt gehört zu derselben Klasse wie dieser Prototyp. Offensichtlich werden bei diesem Verfahren keine verallgemeinerten Klassenbilder gebildet.

Als Maß für die Nähe können verschiedene Arten von Entfernungen verwendet werden. Für dichotome Merkmale wird häufig die Hamming-Distanz verwendet, die in diesem Fall gleich dem Quadrat der euklidischen Distanz ist. In diesem Fall entspricht die Entscheidungsregel zur Klassifizierung von Objekten einer linearen Entscheidungsfunktion.

Diese Tatsache ist besonders zu beachten. Es zeigt deutlich die Verbindung zwischen Prototyp und indikativer Darstellung von Informationen über die Datenstruktur. Unter Verwendung der obigen Darstellung kann beispielsweise jede herkömmliche Messskala, die eine lineare Funktion der Werte dichotomer Merkmale ist, als hypothetischer diagnostischer Prototyp betrachtet werden. Wenn wiederum die Analyse der räumlichen Struktur der erkannten Klassen den Schluss zulässt, dass sie geometrisch kompakt sind, dann reicht es aus, jede dieser Klassen durch einen Prototyp zu ersetzen, der eigentlich einem linearen diagnostischen Modell entspricht.

In der Praxis sieht die Situation natürlich oft anders aus als in dem beschriebenen idealisierten Beispiel. Ein Forscher, der beabsichtigt, ein Erkennungsverfahren anzuwenden, das auf einem Vergleich mit den Prototypen diagnostischer Klassen basiert, steht vor schwierigen Problemen.

Erstens ist es die Wahl eines Näherungsmaßes (Metrik), das die räumliche Konfiguration der Verteilung von Objekten signifikant verändern kann. Zweitens ist ein eigenständiges Problem die Analyse mehrdimensionaler Strukturen experimenteller Daten. Diese beiden Probleme sind für den Forscher besonders akut unter Bedingungen hoher Dimension des Merkmalsraums, was typisch für reale Probleme ist.

k Nächste-Nachbar-Methode

Die k-Nächste-Nachbarn-Methode zur Lösung von Diskriminanzanalyseproblemen wurde erstmals 1952 vorgeschlagen. Es ist wie folgt.

Beim Klassifizieren eines unbekannten Objekts wird eine bestimmte Anzahl (k) von anderen Objekten, die ihm im Merkmalsraum geometrisch am nächsten sind (nächste Nachbarn), mit bereits bekannter Zugehörigkeit zu erkennbaren Klassen gefunden. Die Entscheidung, ein unbekanntes Objekt einer bestimmten diagnostischen Klasse zuzuordnen, wird getroffen, indem Informationen über diese bekannte Zugehörigkeit zu seinen nächsten Nachbarn analysiert werden, beispielsweise unter Verwendung einer einfachen Stimmenzählung.

Anfänglich wurde die k-nächste-Nachbarn-Methode als nichtparametrische Methode zum Schätzen des Likelihood-Verhältnisses betrachtet. Für dieses Verfahren werden theoretische Schätzungen seiner Wirksamkeit im Vergleich mit dem optimalen Bayes'schen Klassifikator erhalten. Es ist bewiesen, dass die asymptotischen Fehlerwahrscheinlichkeiten für die k-nächste-Nachbar-Methode die Fehler der Bayes-Regel um nicht mehr als das Doppelte überschreiten.

Bei der Verwendung der Methode der k nächsten Nachbarn zur Mustererkennung muss der Forscher das schwierige Problem lösen, eine Metrik auszuwählen, um die Nähe von diagnostizierten Objekten zu bestimmen. Dieses Problem unter den Bedingungen einer großen Dimension des Merkmalsraums wird aufgrund der ausreichenden Mühe dieses Verfahrens, das sogar für Hochleistungscomputer bedeutsam wird, extrem verschlimmert. Daher ist es hier ebenso wie bei dem Prototyp-Vergleichsverfahren notwendig, das kreative Problem der Analyse der mehrdimensionalen Struktur experimenteller Daten zu lösen, um die Anzahl von Objekten zu minimieren, die diagnostische Klassen darstellen.

Die Notwendigkeit, die Anzahl der Objekte in der Trainingsstichprobe (diagnostische Präzedenzfälle) zu reduzieren, ist ein Nachteil dieser Methode, da sie die Repräsentativität der Trainingsstichprobe verringert.

Algorithmen zur Notenberechnung („Voting“)

Das Funktionsprinzip von Bewertungsalgorithmen (ABO) besteht darin, Prioritäten (Ähnlichkeitswerte) zu berechnen, die die „Nähe“ der erkannten und Referenzobjekte gemäß dem System der Merkmalsensembles charakterisieren, das ein System von Teilmengen einer gegebenen Menge von Merkmalen ist .

Im Gegensatz zu allen bisher betrachteten Verfahren operieren Algorithmen zur Berechnung von Schätzungen auf grundlegend neue Weise mit Objektbeschreibungen. Für diese Algorithmen existieren Objekte gleichzeitig in sehr unterschiedlichen Unterräumen des Merkmalsraums. Die ABO-Klasse bringt die Idee der Verwendung von Merkmalen zu ihrem logischen Ende: Da nicht immer bekannt ist, welche Kombinationen von Merkmalen am aussagekräftigsten sind, wird in ABO der Ähnlichkeitsgrad von Objekten durch Vergleich aller möglichen oder bestimmter Merkmalskombinationen berechnet in die Objektbeschreibungen aufgenommen.

Die verwendeten Kombinationen von Attributen (Unterräume) werden als Unterstützungsmengen oder Mengen von Teilbeschreibungen von Objekten bezeichnet. Das Konzept der generalisierten Nähe zwischen dem erkannten Objekt und Objekten der Trainingsprobe (mit bekannter Klassifizierung), die als Referenzobjekte bezeichnet werden, wird eingeführt. Diese Nähe wird durch eine Kombination der Nähe des erkannten Objekts mit den auf Sätzen von Teilbeschreibungen berechneten Referenzobjekten dargestellt. Somit ist ABO eine Erweiterung der Methode der k nächsten Nachbarn, bei der die Nähe von Objekten nur in einem gegebenen Merkmalsraum berücksichtigt wird.

Eine weitere Erweiterung des ABO besteht darin, dass in diesen Algorithmen das Problem der Bestimmung der Ähnlichkeit und des Unterschieds von Objekten als parametrisches formuliert wird und die Stufe der Einstellung des ABO gemäß der Trainingsprobe ausgewählt wird, bei der die optimalen Werte der eingegebene Parameter werden ausgewählt. Das Qualitätskriterium ist der Erkennungsfehler, und buchstäblich alles ist parametrisiert:

  • Regeln zur Berechnung der Nähe von Objekten nach individuellen Merkmalen;
  • Regeln zum Berechnen der Nähe von Objekten in Merkmalsunterräumen;
  • der Grad der Bedeutung eines bestimmten Referenzobjekts als diagnostischer Präzedenzfall;
  • die Bedeutung des Beitrags jeder Referenzgruppe von Merkmalen zur endgültigen Bewertung der Ähnlichkeit des erkannten Objekts mit einer beliebigen diagnostischen Klasse.

Luftkühlerparameter werden in Form von Schwellenwerten und (oder) als Gewichte der angegebenen Komponenten festgelegt.

Die theoretischen Möglichkeiten von ABO sind zumindest nicht geringer als die jedes anderen Mustererkennungsalgorithmus, da mit Hilfe von ABO alle denkbaren Operationen mit den Untersuchungsobjekten durchgeführt werden können.

Aber wie es gewöhnlich der Fall ist, stößt die Erweiterung der Möglichkeiten auf große Schwierigkeiten bei ihrer praktischen Umsetzung, insbesondere in der Phase der Konstruktion (Abstimmung) von Algorithmen dieses Typs.

Getrennte Schwierigkeiten wurden früher festgestellt, als die k-nächste-Nachbarn-Methode diskutiert wurde, die als eine verkürzte Version von ABO interpretiert werden könnte. Es kann auch in einer parametrischen Form betrachtet werden und das Problem darauf reduzieren, eine gewichtete Metrik des ausgewählten Typs zu finden. Gleichzeitig ergeben sich hier bereits für hochdimensionale Probleme komplexe theoretische Fragen und Probleme der Organisation eines effizienten Rechenprozesses.

Versucht man für ABO, die Möglichkeiten dieser Algorithmen voll auszuschöpfen, erhöhen sich diese Schwierigkeiten um ein Vielfaches.

Die genannten Probleme erklären die Tatsache, dass in der Praxis die Verwendung von ABO zum Lösen hochdimensionaler Probleme von der Einführung jeglicher heuristischer Beschränkungen und Annahmen begleitet wird. Insbesondere gibt es ein Beispiel für den Einsatz von ABO in der Psychodiagnostik, bei dem eine Version von ABO getestet wurde, die eigentlich der k-Nächsten-Nachbarn-Methode entspricht.

Entscheidende Regelkollektive

Lassen Sie uns am Ende der Überprüfung von Mustererkennungsmethoden auf einen weiteren Ansatz eingehen. Dies sind die sogenannten Teams of Decision Rules (CRC).

Da sich verschiedene Erkennungsalgorithmen auf derselben Stichprobe von Objekten unterschiedlich verhalten, stellt sich natürlich die Frage nach einer synthetischen Entscheidungsregel, die die Stärken dieser Algorithmen adaptiv nutzt. Die synthetische Entscheidungsregel verwendet ein zweistufiges Erkennungsschema. Auf der ersten Ebene arbeiten private Erkennungsalgorithmen, deren Ergebnisse auf der zweiten Ebene im Syntheseblock zusammengeführt werden. Die gängigsten Methoden einer solchen Kombination basieren auf der Zuordnung von Kompetenzbereichen eines bestimmten Algorithmus. Der einfachste Weg, Kompetenzbereiche zu finden, besteht darin, den Attributraum a priori auf der Grundlage professioneller Überlegungen einer bestimmten Wissenschaft aufzuteilen (z. B. Schichtung der Stichprobe nach einem Attribut). Dann wird für jeden der ausgewählten Bereiche ein eigener Erkennungsalgorithmus aufgebaut. Ein weiteres Verfahren basiert auf der Verwendung einer formalen Analyse, um lokale Bereiche des Merkmalsraums als Nachbarschaften von erkennbaren Objekten zu bestimmen, für die der Erfolg eines bestimmten Erkennungsalgorithmus nachgewiesen wurde.

Der allgemeinste Ansatz zum Aufbau eines Syntheseblocks betrachtet die resultierenden Indikatoren partieller Algorithmen als Anfangsmerkmale zum Aufbau einer neuen verallgemeinerten Entscheidungsregel. In diesem Fall können alle oben genannten Methoden der Intensions- und Extensionsrichtungen in der Mustererkennung verwendet werden. Effektiv zur Lösung des Problems der Erstellung eines Satzes von Entscheidungsregeln sind logische Algorithmen vom Typ "Kora" und Algorithmen zur Berechnung von Schätzungen (ABO), die die Grundlage des sogenannten algebraischen Ansatzes bilden, der Forschung und konstruktive Beschreibung bietet Erkennungsalgorithmen, in die alle existierenden Arten von Algorithmen passen.

Vergleichende Analyse von Mustererkennungsverfahren

Vergleichen wir die oben beschriebenen Mustererkennungsverfahren und bewerten den Grad ihrer Angemessenheit gegenüber den in Abschnitt 3.3.3 formulierten Anforderungen an SDA-Modelle für adaptive automatisierte Steuerungssysteme für komplexe Systeme.

Zur Lösung realer Probleme aus der Gruppe der Methoden der Intensionsrichtung sind parametrische Methoden und Methoden, die auf Vorschlägen zur Form entscheidender Funktionen beruhen, von praktischem Wert. Parametrische Methoden bilden die Grundlage der traditionellen Methodik zur Konstruktion von Indikatoren. Die Anwendung dieser Methoden in realen Problemstellungen ist mit der Auferlegung starker Restriktionen der Datenstruktur verbunden, die zu linearen diagnostischen Modellen mit sehr ungefähren Schätzungen ihrer Parameter führen. Auch bei Methoden, die auf Annahmen über die Form von Entscheidungsfunktionen beruhen, ist der Forscher gezwungen, sich linearen Modellen zuzuwenden. Dies liegt an der für reale Probleme typischen hohen Dimension des Merkmalsraums, der mit zunehmendem Grad der polynomialen Entscheidungsfunktion eine enorme Zunahme der Anzahl ihrer Mitglieder bei problematischer damit einhergehender Zunahme der Qualität der Anerkennung. Wenn wir also den Bereich der potenziellen Anwendung von intensionalen Erkennungsmethoden auf reale Probleme projizieren, erhalten wir ein Bild, das der etablierten traditionellen Methodik linearer diagnostischer Modelle entspricht.

Die Eigenschaften von linearen diagnostischen Modellen, in denen der diagnostische Indikator durch eine gewichtete Summe von Anfangsmerkmalen repräsentiert wird, sind gut untersucht. Die Ergebnisse dieser Modelle (mit geeigneter Normalisierung) werden als Entfernungen von den untersuchten Objekten zu einer Hyperebene im Merkmalsraum oder äquivalent als Projektionen der Objekte auf eine gerade Linie im gegebenen Raum interpretiert. Daher sind lineare Modelle nur für einfache geometrische Konfigurationen von Merkmalsraumbereichen ausreichend, in die Objekte unterschiedlicher Diagnoseklassen abgebildet werden. Bei komplexeren Verteilungen können diese Modelle viele Merkmale der experimentellen Datenstruktur grundsätzlich nicht wiedergeben. Gleichzeitig können solche Merkmale wertvolle diagnostische Informationen liefern.

Gleichzeitig sollte das Auftreten einfacher mehrdimensionaler Strukturen (insbesondere mehrdimensionaler Normalverteilungen) in jedem realen Problem eher als Ausnahme denn als Regel betrachtet werden. Häufig werden diagnostische Klassen aufgrund komplexer äußerer Kriterien gebildet, was automatisch die geometrische Heterogenität dieser Klassen im Merkmalsraum zur Folge hat. Dies gilt insbesondere für die in der Praxis am häufigsten anzutreffenden Kriterien „Lebensdauer“. Unter solchen Bedingungen erfasst die Verwendung linearer Modelle nur die "grobsten" Muster experimenteller Informationen.

Die Verwendung von Extensionsverfahren ist mit keinerlei Annahmen über die Struktur experimenteller Informationen verbunden, außer dass es innerhalb der erkannten Klassen eine oder mehrere Gruppen von Objekten geben muss, die sich einigermaßen ähneln, und dass sich Objekte verschiedener Klassen teilweise voneinander unterscheiden müssen Weg. Es ist offensichtlich, dass diese Anforderung für jede endliche Dimension der Trainingsstichprobe (und sie kann nicht anders sein) immer erfüllt ist, einfach weil es zufällige Unterschiede zwischen Objekten gibt. Als Ähnlichkeitsmaße werden verschiedene Maße der Nähe (Entfernung) von Objekten im Merkmalsraum verwendet. Daher hängt der effektive Einsatz von extensionalen Mustererkennungsverfahren davon ab, wie gut diese Näherungsmaße bestimmt werden, sowie davon, welche Objekte der Trainingsstichprobe (Objekte mit bekannter Klassifikation) die Rolle diagnostischer Präzedenzfälle spielen. Eine erfolgreiche Lösung dieser Probleme ergibt ein Ergebnis, das sich den theoretisch erreichbaren Grenzen der Erkennungseffizienz nähert.

Den Vorteilen extensionaler Mustererkennungsverfahren steht zunächst der hohe technische Aufwand ihrer praktischen Umsetzung gegenüber. Für hochdimensionale Merkmalsräume wird die scheinbar einfache Aufgabe, Paare von nächstgelegenen Punkten zu finden, zu einem ernsthaften Problem. Viele Autoren sehen auch ein Problem in der Notwendigkeit, sich an eine ausreichend große Anzahl von Objekten zu erinnern, die erkennbare Klassen darstellen.

Dies ist an sich kein Problem, wird aber (z. B. bei der k-nächsten-Nachbarn-Methode) deshalb als Problem empfunden, weil bei der Erkennung jedes Objekts eine vollständige Aufzählung aller Objekte im Trainingsmuster erfolgt.

Daher ist es ratsam, das Modell des Erkennungssystems anzuwenden, bei dem das Problem einer vollständigen Aufzählung von Objekten des Trainingsmusters während der Erkennung beseitigt wird, da es nur einmal durchgeführt wird, wenn verallgemeinerte Bilder von Erkennungsklassen gebildet werden. Bei der Erkennung selbst wird das identifizierte Objekt nur mit verallgemeinerten Bildern von Erkennungsklassen verglichen, deren Anzahl feststeht und überhaupt nicht von der Dimension des Trainingsmusters abhängt. Dieser Ansatz ermöglicht es Ihnen, die Dimension des Trainingsmusters zu erhöhen, bis die erforderliche hohe Qualität der verallgemeinerten Bilder erreicht ist, ohne befürchten zu müssen, dass dies zu einer unannehmbaren Erhöhung der Erkennungszeit führen könnte (da die Erkennungszeit in diesem Modell nicht davon abhängt die Dimension des Trainings überhaupt).

Die theoretischen Probleme der Anwendung von Erweiterungserkennungsverfahren beziehen sich auf die Probleme der Suche nach informativen Gruppen von Merkmalen, des Findens optimaler Metriken zum Messen der Ähnlichkeit und des Unterschieds von Objekten und der Analyse der Struktur experimenteller Informationen. Gleichzeitig ermöglicht die erfolgreiche Lösung dieser Probleme nicht nur den Entwurf effektiver Erkennungsalgorithmen, sondern auch den Übergang vom extensionalen Wissen über empirische Fakten zum intensionalen Wissen über die Muster ihrer Struktur.

Der Übergang von extensionalem Wissen zu intensionalem Wissen erfolgt in dem Stadium, in dem bereits ein formaler Erkennungsalgorithmus konstruiert und seine Wirksamkeit nachgewiesen wurde. Dann wird die Untersuchung der Mechanismen durchgeführt, durch die die erzielte Effizienz erreicht wird. Eine solche Studie, verbunden mit der Analyse der geometrischen Struktur von Daten, kann beispielsweise zu dem Schluss führen, dass es ausreicht, die Objekte, die eine bestimmte Diagnoseklasse repräsentieren, durch einen typischen Vertreter (Prototyp) zu ersetzen. Dies entspricht, wie oben erwähnt, dem Festlegen einer herkömmlichen linearen diagnostischen Skala. Es ist auch möglich, dass es ausreicht, jede diagnostische Klasse durch mehrere Objekte zu ersetzen, die als typische Vertreter einiger Unterklassen sinnvoll sind, was der Konstruktion eines Fächers aus linearen Skalen gleichkommt. Es gibt noch andere Möglichkeiten, die weiter unten besprochen werden.

Somit zeigt ein Überblick über Erkennungsverfahren, dass gegenwärtig eine Reihe unterschiedlicher Verfahren zur Mustererkennung theoretisch entwickelt worden sind. Die Literatur bietet eine detaillierte Klassifizierung von ihnen. Für die meisten dieser Methoden fehlt jedoch ihre Softwareimplementierung, und dies ist zutiefst natürlich, man könnte sogar sagen, „vorbestimmt“ durch die Eigenschaften der Erkennungsmethoden selbst. Dies lässt sich daran ablesen, dass solche Systeme in der Fachliteratur und anderen Informationsquellen kaum erwähnt werden.

Folglich bleibt die Frage der praktischen Anwendbarkeit bestimmter theoretischer Erkennungsverfahren zur Lösung praktischer Probleme mit realen (d. h. recht signifikanten) Datendimensionen und auf realen modernen Computern unzureichend entwickelt.

Der obige Umstand kann verstanden werden, wenn wir uns daran erinnern, dass die Komplexität des mathematischen Modells die Komplexität der Softwareimplementierung des Systems exponentiell erhöht und in gleichem Maße die Chancen verringert, dass dieses System in der Praxis funktioniert. Das bedeutet, dass am Markt nur Softwaresysteme implementiert werden können, die auf relativ einfachen und „transparenten“ mathematischen Modellen basieren. Daher nähert sich ein Entwickler, der an der Replikation seines Softwareprodukts interessiert ist, der Frage der Auswahl eines mathematischen Modells nicht aus rein wissenschaftlicher Sicht, sondern pragmatisch unter Berücksichtigung der Möglichkeiten der Softwareimplementierung. Er ist der Meinung, dass das Modell so einfach wie möglich sein sollte, das heißt, es sollte zu geringeren Kosten und mit besserer Qualität implementiert werden, und es sollte auch funktionieren (praktisch effektiv sein).

In dieser Hinsicht ist die Aufgabe, in Erkennungssystemen einen Mechanismus zum Verallgemeinern von Beschreibungen von Objekten zu implementieren, die zu derselben Klasse gehören, d. h. Mechanismus zur Bildung kompakter verallgemeinerter Bilder. Es ist offensichtlich, dass ein derartiger Verallgemeinerungsmechanismus das "Komprimieren" einer beliebigen Trainingsprobe in Bezug auf die Dimension auf eine Basis von verallgemeinerten Bildern, die im Voraus in Bezug auf die Dimension bekannt sind, ermöglicht. Damit können wir auch eine Reihe von Problemen stellen und lösen, die in Erkennungsverfahren wie dem Vergleich mit dem Prototypenverfahren, dem k-Nächsten-Nachbarn-Verfahren und ABO gar nicht formuliert werden können.

Das sind die Aufgaben:

  • Bestimmen des Informationsbeitrags von Merkmalen zum Informationsportrait eines verallgemeinerten Bildes;
  • Cluster-konstruktive Analyse generalisierter Bilder;
  • Bestimmung der semantischen Last des Merkmals;
  • semantische Cluster-konstruktive Analyse von Merkmalen;
  • ein aussagekräftiger Vergleich verallgemeinerter Klassenbilder untereinander und Merkmale untereinander (kognitive Diagramme, einschließlich Merlin-Diagramme).

Auch das Verfahren, das die Lösung dieser Probleme ermöglichte, unterscheidet das darauf basierende Perspektivensystem von anderen Systemen, ebenso wie sich Compiler von Interpretern unterscheiden, da aufgrund der Bildung von verallgemeinerten Bildern in diesem Perspektivensystem die Erkennungszeit davon unabhängig ist die Größe der Trainingsstichprobe. Es ist bekannt, dass gerade das Vorhandensein dieser Abhängigkeit bei Verfahren wie der k-nächsten-Nachbarn-Methode, ABO und CRP zu einem praktisch nicht akzeptablen Rechenzeitaufwand für die Erkennung bei solchen Dimensionen der Trainingsstichprobe führt, wenn man von ausreichend sprechen kann Statistiken.

Zum Abschluss eines kurzen Überblicks über Erkennungsmethoden präsentieren wir die Essenz des Obigen in einer zusammenfassenden Tabelle (Tabelle 3.1), die eine kurze Beschreibung der verschiedenen Methoden der Mustererkennung in den folgenden Parametern enthält:

  • Klassifizierung von Erkennungsmethoden;
  • Anwendungsgebiete von Erkennungsverfahren;
  • Einstufung der Grenzen von Erkennungsmethoden.
Klassifizierung von Erkennungsmethoden Anwendungsgebiet Einschränkungen (Nachteile)
Intensive Erkennungsmethoden Methoden, die auf Schätzungen der Verteilungsdichten von Merkmalswerten (oder Ähnlichkeiten und Unterschieden zwischen Objekten) basieren Probleme mit einer bekannten Verteilung, normalerweise normal, die Notwendigkeit, große Statistiken zu sammeln Die Notwendigkeit, den gesamten Trainingssatz während der Erkennung aufzuzählen, hohe Empfindlichkeit gegenüber Nicht-Repräsentativität des Trainingssatzes und Artefakte
Methoden, die auf Annahmen über die Klasse der Entscheidungsfunktionen basieren Klassen sollten gut trennbar sein, das Merkmalssystem sollte orthonormal sein Die Form der Entscheidungsfunktion muss vorher bekannt sein. Die Unmöglichkeit, neue Erkenntnisse über Korrelationen zwischen Merkmalen zu berücksichtigen
Boolesche Methoden Bei der Auswahl logischer Entscheidungsregeln (Konjunktionen) ist eine vollständige Aufzählung erforderlich. Hohe Rechenkomplexität
Sprachwissenschaftliche (strukturelle) Methoden Probleme der kleinen Dimension des Merkmalsraums Die Aufgabe, die Grammatik aus einer bestimmten Menge von Aussagen (Beschreibungen von Objekten) wiederherzustellen (zu definieren), ist schwer zu formalisieren. Ungelöste theoretische Probleme
Erweiterungsmethoden der Anerkennung Prototypische Vergleichsmethode Probleme der kleinen Dimension des Merkmalsraums Hohe Abhängigkeit der Klassifikationsergebnisse von Distanzmaßen (Metriken). Unbekannte optimale Metrik
k Nächste-Nachbar-Methode Hohe Abhängigkeit der Klassifikationsergebnisse von Distanzmaßen (Metriken). Die Notwendigkeit einer vollständigen Aufzählung des Trainingsmusters während der Erkennung. Rechenkomplexität
Algorithmen zur Notenberechnung (Voting) AVO Probleme kleiner Dimension in Bezug auf die Anzahl der Klassen und Merkmale Abhängigkeit der Klassifikationsergebnisse vom Abstandsmaß (Metrik). Die Notwendigkeit einer vollständigen Aufzählung des Trainingsmusters während der Erkennung. Hoher technischer Aufwand des Verfahrens
Entscheidende Regelkollektive (CRCs) Probleme kleiner Dimension in Bezug auf die Anzahl der Klassen und Merkmale Sehr hoher technischer Aufwand der Methode, die ungelöste Anzahl theoretischer Probleme, sowohl bei der Bestimmung der Kompetenzbereiche bestimmter Methoden als auch bei den jeweiligen Methoden selbst

Tabelle 3.1 - Übersichtstabelle zur Klassifizierung von Erkennungsverfahren, Vergleich ihrer Anwendungsbereiche und Grenzen

Rolle und Ort der Mustererkennung bei der Automatisierung komplexer Systemverwaltungen

Das automatisierte Steuersystem besteht aus zwei Hauptteilen: dem Steuerobjekt und dem Steuersystem.

Das Steuerungssystem erfüllt folgende Funktionen:

  • Identifizierung des Zustands des Steuerobjekts;
  • Entwicklung einer Kontrollmaßnahme basierend auf den Zielen des Managements unter Berücksichtigung des Zustands des Kontrollobjekts und der Umgebung;
  • Bereitstellen einer Steuerwirkung auf das Steuerobjekt.

Mustererkennung ist nichts anderes als die Identifizierung des Zustands eines Objekts.

Daher erscheint die Möglichkeit, das Mustererkennungssystem auf der Stufe des Identifizierens des Zustands des Steuerobjekts zu verwenden, ziemlich offensichtlich und natürlich. Dies ist jedoch möglicherweise nicht erforderlich. Daher stellt sich die Frage, in welchen Fällen der Einsatz des Erkennungssystems im automatisierten Kontrollsystem sinnvoll ist und in welchen nicht.

Gemäß den Literaturdaten werden in vielen früher entwickelten und modernen automatisierten Steuerungssystemen in den Subsystemen zur Erkennung des Zustands des Steuerungsobjekts und zur Generierung von Steuerungsaktionen deterministische mathematische Modelle des "direkten Zählens" verwendet, die eindeutig und ganz einfach bestimmen, was zu tun ist tun mit dem Kontrollobjekt, wenn es bestimmte externe Parameter hat.

Gleichzeitig wird die Frage, wie diese Parameter mit bestimmten Zuständen des Steuerobjekts zusammenhängen, nicht aufgeworfen oder gelöst. Diese Position entspricht der Sichtweise, die darin besteht, dass ihre Eins-zu-Eins-Beziehung „standardmäßig“ akzeptiert wird. Daher werden die Begriffe „Parameter des Steuerobjekts“ und „Zustand des Steuerobjekts“ als Synonyme betrachtet, und das Konzept „Zustand des Steuerobjekts“ wird überhaupt nicht explizit eingeführt. Es ist jedoch offensichtlich, dass im allgemeinen Fall die Beziehung zwischen den beobachteten Parametern des Steuerobjekts und seinem Zustand dynamisch und probabilistisch ist.

Daher sind herkömmliche automatisierte Steuersysteme im Wesentlichen parametrische Steuersysteme, d. h. Systeme, die nicht die Zustände des Steuerobjekts verwalten, sondern nur seine beobachtbaren Parameter. Die Entscheidung über die Steuerhandlung wird in solchen Systemen quasi "blind", d.h. ohne ein ganzheitliches Bild des Steuerungsobjekts und der Umgebung in ihrem aktuellen Zustand zu bilden, sowie ohne die Entwicklung der Umgebung und die Reaktion des Steuerungsobjekts auf bestimmte Steuerungseingriffe darauf vorherzusagen, gleichzeitig mit dem prognostizierten Einfluss der Umgebung zu wirken .

Ausgehend von den in diesem Beitrag entwickelten Positionen ist der Begriff „Entscheidungsfindung“ im modernen Sinne kaum auf traditionelle automatisierte Steuerungssysteme anwendbar. Tatsache ist, dass es zumindest bei der „Entscheidungsfindung“ um eine ganzheitliche Betrachtung eines Objekts in der Umgebung geht, und zwar nicht nur in seinem aktuellen Zustand, sondern auch in der Dynamik und im Zusammenspiel sowohl untereinander als auch mit dem Steuerungssystem, beinhaltet die Betrachtung verschiedener alternativer Optionen für die Entwicklung dieses Gesamtsystems sowie die Einengung der Vielfalt (Reduktion) dieser Alternativen anhand bestimmter Zielkriterien. Nichts davon ist offensichtlich nicht in traditionellem ACS enthalten, oder es ist, aber in einer vereinfachten Form.

Natürlich ist die traditionelle Methode ausreichend und ihre Anwendung ist in Fällen richtig und gerechtfertigt, in denen das Kontrollobjekt tatsächlich ein stabiles und starr bestimmtes System ist und der Einfluss der Umgebung darauf vernachlässigt werden kann.

In anderen Fällen ist diese Methode jedoch unwirksam.

Wenn das Steuerobjekt dynamisch ist, werden die seinen Steueralgorithmen zugrunde liegenden Modelle schnell unzureichend, da sich die Beziehung zwischen Eingabe- und Ausgabeparametern sowie der Satz wesentlicher Parameter selbst ändert. Im Wesentlichen bedeutet dies, dass herkömmliche automatisierte Steuerungssysteme den Zustand des Steuerungsobjekts nur nahe dem Gleichgewichtspunkt durch schwache Steuerungseinwirkungen darauf steuern können, d. h. nach der Methode der kleinen Störungen. Weit entfernt vom Gleichgewichtszustand sieht das Verhalten des Kontrollobjekts aus traditioneller Sicht unvorhersehbar und unkontrollierbar aus.

Besteht kein eindeutiger Zusammenhang zwischen den Eingangs- und Ausgangsparametern des Steuerungsobjekts (d. h. zwischen den Eingangsparametern und dem Zustand des Objekts), also wenn dieser Zusammenhang einen ausgeprägt probabilistischen Charakter hat, dann sind deterministische Modelle in bei denen davon ausgegangen wird, dass das Ergebnis der Messung eines bestimmten Parameters einfach eine Zahl ist, zunächst nicht zutreffend. Außerdem kann die Form dieser Beziehung einfach unbekannt sein, und dann muss von der allgemeinsten Annahme ausgegangen werden: dass sie wahrscheinlichkeitstheoretisch oder überhaupt nicht definiert ist.

Ein auf traditionellen Prinzipien aufgebautes automatisiertes Steuerungssystem kann nur auf der Grundlage von Parametern arbeiten, deren Beziehungsmuster bereits bekannt, untersucht und im mathematischen Modell widergespiegelt sind. In dieser Studie wurde die Aufgabe gestellt, solche Methoden zur Gestaltung automatisierter Steuerungen zu entwickeln Systeme, die die Schaffung von Systemen ermöglichen, die die wichtigsten Parameter identifizieren und einstellen und die Art der Verbindungen zwischen ihnen und den Zuständen des Steuerobjekts bestimmen können.

In diesem Fall ist es notwendig, weiter entwickelte und angemessene Messmethoden auf die reale Situation anzuwenden:

  • Klassifikation oder Mustererkennung (Lernen auf der Grundlage einer Trainingsprobe, Anpassbarkeit von Erkennungsalgorithmen, Anpassbarkeit von Sätzen von Klassen und untersuchten Parametern, Auswahl der wichtigsten Parameter und Reduzierung der Beschreibungsdimension unter Beibehaltung einer gegebenen Redundanz usw.);
  • statistische Messungen, wenn das Ergebnis der Messung eines bestimmten Parameters keine einzelne Zahl, sondern eine Wahrscheinlichkeitsverteilung ist: Eine Änderung einer statistischen Variablen bedeutet keine Änderung ihres Wertes an sich, sondern eine Änderung der Eigenschaften der Wahrscheinlichkeitsverteilung seine Werte.

Infolgedessen funktionieren automatisierte Steuerungssysteme, die auf dem traditionellen deterministischen Ansatz basieren, praktisch nicht mit komplexen dynamischen, schwach bestimmten Steuerungsobjekten mit mehreren Parametern, wie beispielsweise makro- und mikro-sozioökonomische Systeme in einer dynamischen Wirtschaft der „ Übergangszeit“, hierarchische Eliten und ethnische Gruppen, Gesellschaft und Wählerschaft, menschliche Physiologie und Psyche, natürliche und künstliche Ökosysteme und viele andere.

Es ist sehr bezeichnend, dass die Schule von I.Prigozhin Mitte der 80er Jahre einen Ansatz entwickelt hat, nach dem sich bei der Entwicklung eines Systems (einschließlich einer Person) Perioden abwechseln, in denen sich das System entweder als „größtenteils deterministisch“ verhält, oder als „meist zufällig“. Natürlich muss ein reales Steuerungssystem das Steuerungsobjekt nicht nur in „deterministischen“ Abschnitten seiner Geschichte stabil verwalten, sondern auch in Punkten, in denen sein weiteres Verhalten höchst ungewiss wird. Allein dies macht es erforderlich, Ansätze für das Management von Systemen zu entwickeln, in deren Verhalten ein großer Teil der Zufälligkeit (oder was derzeit mathematisch als "Randomness" bezeichnet wird) vorhanden ist.

Daher wird die Zusammensetzung vielversprechender automatisierter Steuerungssysteme, die die Steuerung komplexer dynamischer, schwach deterministischer Multiparametersysteme ermöglichen, als wesentliche funktionale Verbindungen offensichtlich Subsysteme zur Identifizierung und Vorhersage der Zustände der Umgebung und des Steuerungsobjekts auf der Grundlage von Methoden der künstlichen Intelligenz umfassen (vorwiegend Mustererkennung), Methoden der Entscheidungsunterstützung und Informationstheorie.

Betrachten wir kurz die Problematik der Verwendung von Bilderkennungssystemen zur Entscheidungsfindung über eine Kontrollaktion (diese Problematik wird später ausführlicher erörtert, da sie für diese Arbeit von zentraler Bedeutung ist). Nimmt man das Ziel und andere Zustände des Kontrollobjekts als Erkennungsklassen und die es beeinflussenden Faktoren als Merkmale, so kann im Mustererkennungsmodell ein Maß für die Beziehung zwischen Faktoren und Zuständen gebildet werden. Dies ermöglicht es, Informationen über die Faktoren zu erhalten, die zu seinem Übergang in diesen Zustand beitragen oder ihn behindern, basierend auf einem gegebenen Zustand des Steuerobjekts, und auf dieser Grundlage eine Entscheidung über die Steueraktion zu entwickeln.

Faktoren lassen sich in folgende Gruppen einteilen:

  • Charakterisieren der Vorgeschichte des Kontrollobjekts;
  • Charakterisieren des aktuellen Zustands des Steuerobjekts;
  • Umweltfaktoren;
  • technologische (gesteuerte) Faktoren.

Somit können Bilderkennungssysteme als Teil eines automatisierten Steuerungssystems verwendet werden: in Subsystemen zum Identifizieren des Zustands eines Steuerungsobjekts und zum Generieren von Steuerungsaktionen.

Dies ist nützlich, wenn das Steuerobjekt ein komplexes System ist.

Treffen einer Entscheidung über die Kontrollaktion im automatisierten Kontrollsystem

Die Lösung des Problems der Synthese adaptiver automatisierter Steuerungssysteme durch komplexe Systeme wird in diesem Beitrag betrachtet, wobei zahlreiche und tiefe Analogien zwischen den Methoden der Mustererkennung und der Entscheidungsfindung berücksichtigt werden.

Aufgabe der Mustererkennung ist einerseits die Entscheidung über die Zugehörigkeit eines erkennbaren Objekts zu einer bestimmten Erkennungsklasse.

Andererseits schlagen die Autoren vor, das Problem der Entscheidungsfindung als inverses Problem der Dekodierung oder als inverses Problem der Mustererkennung zu betrachten (siehe Abschnitt 2.2.2).

Die Gemeinsamkeit der Grundgedanken der Methoden der Mustererkennung und Entscheidungsfindung wird besonders deutlich, wenn man sie aus informationstheoretischer Sicht betrachtet.

Vielfältige Entscheidungsaufgaben

Entscheidungsfindung als Verwirklichung eines Ziels

Definition: Das Treffen einer Entscheidung („Wahl“) ist eine Handlung auf einer Menge von Alternativen, wodurch sich die ursprüngliche Menge von Alternativen verengt, d.h. es wird reduziert.

Wahl ist eine Handlung, die allen Aktivitäten Zweckmäßigkeit verleiht. Durch Wahlhandlungen wird die Unterordnung aller Aktivitäten unter ein bestimmtes Ziel oder eine Reihe miteinander verbundener Ziele verwirklicht.

Damit der Akt der Wahl möglich wird, ist also Folgendes erforderlich:

  • Generierung oder Entdeckung einer Reihe von Alternativen, anhand derer eine Wahl getroffen werden kann;
  • Bestimmung der Ziele, für deren Erreichung die Wahl getroffen wird;
  • Entwicklung und Anwendung einer Methode zum Vergleich von Alternativen, d.h. Bestimmung einer Präferenzbewertung für jede Alternative nach bestimmten Kriterien, wodurch indirekt beurteilt werden kann, wie jede Alternative das Ziel erreicht.

Die moderne Arbeit auf dem Gebiet der Entscheidungsunterstützung hat eine charakteristische Situation offenbart, die darin besteht, dass die vollständige Formalisierung des Findens der (in gewissem Sinne) besten Lösung nur für gut untersuchte, relativ einfache Probleme möglich ist, während in der Praxis Häufiger sind schwach strukturierte Probleme, für die keine vollständig formalisierten Algorithmen entwickelt wurden (mit Ausnahme von erschöpfender Aufzählung und Trial-and-Error). Erfahrene, kompetente und fähige Fachleute treffen jedoch oft Entscheidungen, die sich als recht gut herausstellen. Daher besteht der aktuelle Trend in der Entscheidungspraxis in natürlichen Situationen darin, die Fähigkeit einer Person, nicht-formalisierte Probleme zu lösen, mit den Fähigkeiten formaler Methoden und Computermodellierung zu kombinieren: interaktive Entscheidungsunterstützungssysteme, Expertensysteme, adaptive Mensch-Maschine-Automatisierung Steuersysteme, neuronale Netze und kognitive Systeme.

Entscheidungsfindung als Beseitigung von Unsicherheit (Informationsansatz)

Der Prozess der Informationsbeschaffung kann als Abnahme der Unsicherheit durch den Empfang eines Signals betrachtet werden, und die Informationsmenge als quantitatives Maß für den Grad der Beseitigung der Unsicherheit.

Aber als Ergebnis der Auswahl einer Teilmenge von Alternativen aus der Menge, d.h. als Ergebnis einer Entscheidung passiert dasselbe (Abnahme der Unsicherheit). Das bedeutet, dass jede Wahl, jede Entscheidung eine bestimmte Menge an Informationen generiert und daher informationstheoretisch beschrieben werden kann.

Klassifikation von Entscheidungsproblemen

Die Vielfalt der Entscheidungsaufgaben liegt darin begründet, dass jede Komponente der Entscheidungssituation in qualitativ unterschiedlichen Varianten umgesetzt werden kann.

Hier sind nur einige dieser Optionen:

  • die Menge der Alternativen kann einerseits endlich, abzählbar oder stetig sein, andererseits geschlossen (d. h. vollständig bekannt) oder offen (einschließlich unbekannter Elemente);
  • Alternativen können nach einem oder mehreren Kriterien bewertet werden, die wiederum quantitativ oder qualitativ sein können;
  • Der Auswahlmodus kann einfach (einmalig) oder mehrfach, repetitiv sein, einschließlich Feedback zu den Ergebnissen der Auswahl, d.h. Ermöglichung des Erlernens von Entscheidungsfindungsalgorithmen unter Berücksichtigung der Folgen früherer Wahlen;
  • Die Folgen der Wahl jeder Alternative können im Voraus genau bekannt sein (Wahl unter Gewissheit), probabilistischer Natur sein, wenn die Wahrscheinlichkeiten möglicher Ergebnisse bekannt sind, nachdem die Wahl getroffen wurde (Wahl unter Risiko) oder ein mehrdeutiges Ergebnis mit unbekannten Wahrscheinlichkeiten haben (Wahl unter Unsicherheit);
  • die Verantwortung für die Wahl kann fehlen, eine Einzelperson oder eine Gruppe sein;
  • Der Grad der Übereinstimmung der Ziele in einer Gruppenentscheidung kann von der vollständigen Übereinstimmung der Interessen der Parteien (kooperative Wahl) bis zu ihrem Gegenteil (Wahl in einer Konfliktsituation) variieren. Auch Zwischenoptionen sind möglich: ein Kompromiss, eine Koalition, ein wachsender oder schwindender Konflikt.

Verschiedene Kombinationen dieser Optionen führen zu zahlreichen Entscheidungsproblemen, die in unterschiedlichem Maße untersucht wurden.

Sprachen zur Beschreibung von Entscheidungsmethoden

Über ein und dasselbe Phänomen kann in verschiedenen Sprachen unterschiedlicher Allgemeinheit und Angemessenheit gesprochen werden. Bis heute gab es drei Hauptsprachen zur Beschreibung der Auswahl.

Die einfachste, am weitesten entwickelte und beliebteste ist die Kriteriumssprache.

Kriteriensprache

Der Name dieser Sprache ist mit der Grundannahme verbunden, dass jede einzelne Alternative durch eine bestimmte (eine) Zahl bewertet werden kann, wonach der Vergleich von Alternativen auf einen Vergleich ihrer entsprechenden Zahlen reduziert wird.

Sei zum Beispiel (X) eine Menge von Alternativen und x eine bestimmte Alternative, die zu dieser Menge gehört: x∈X. Dann wird überlegt, dass für alle x eine Funktion q(x) gegeben werden kann, die als Kriterium bezeichnet wird (Qualitätskriterium, Zielfunktion, Präferenzfunktion, Nutzenfunktion usw.), die die Eigenschaft hat, dass wenn die Alternative x 1 ist bevorzugt x 2 (bezeichnet als: x 1 > x 2), dann q (x 1) > q (x 2).

In diesem Fall reduziert sich die Auswahl darauf, eine Alternative mit dem höchsten Wert der Kriteriumsfunktion zu finden.

Die Verwendung nur eines Kriteriums zum Vergleich des Präferenzgrades von Alternativen erweist sich in der Praxis jedoch als ungerechtfertigte Vereinfachung, da eine genauere Betrachtung von Alternativen dazu führt, dass diese nicht nach einer, sondern nach vielen bewertet werden müssen Kriterien, die unterschiedlicher Art und qualitativ voneinander verschieden sein können.

Beispielsweise wird bei der Auswahl des Flugzeugtyps, der für die Passagiere und die Betriebsorganisation auf bestimmten Streckentypen am besten geeignet ist, der Vergleich gleichzeitig nach vielen Kriteriengruppen durchgeführt: technisch, technologisch, wirtschaftlich, sozial, ergonomisch usw.

Multikriterielle Probleme haben keine eindeutige allgemeine Lösung. Daher werden viele Wege vorgeschlagen, um einem multikriteriellen Problem eine bestimmte Form zu geben, die eine einzige allgemeine Lösung ermöglicht. Natürlich sind diese Lösungen im Allgemeinen für verschiedene Verfahren unterschiedlich. Daher ist vielleicht die Hauptsache bei der Lösung eines multikriteriellen Problems die Rechtfertigung dieser Art seiner Formulierung.

Es werden verschiedene Optionen zur Vereinfachung des multikriteriellen Auswahlproblems verwendet. Lassen Sie uns einige davon auflisten.

  1. Bedingte Maximierung (es wird nicht das globale Extremum des Integralkriteriums gefunden, sondern das lokale Extremum des Hauptkriteriums).
  2. Suche nach einer Alternative mit gegebenen Eigenschaften.
  3. Finden der Pareto-Menge.
  4. Reduktion eines Mehrkriterienproblems auf ein Einkriteriumproblem durch Einführung eines integralen Kriteriums.

Betrachten wir die formale Formulierung der Methode zur Reduzierung eines Problems mit mehreren Kriterien auf ein Problem mit nur einem Kriterium genauer.

Wir führen das Integralkriterium q 0 (x) als Skalarfunktion des Vektorarguments ein:

q 0 (x) = q 0 ((q 1 (x), q 2 (x), ..., q n (x)).

Das Integralkriterium ermöglicht es, die Alternativen nach q 0 zu ordnen und damit die beste hervorzuheben (im Sinne dieses Kriteriums). Die Form der Funktion q 0 wird dadurch bestimmt, wie konkret wir uns den Beitrag jedes Kriteriums zum integralen Kriterium vorstellen. Üblicherweise werden additive und multiplikative Funktionen verwendet:

q 0 = ∑a ich ⋅q ich /s ich

1 - q 0 = ∏(1 - b ich ⋅q ich /s ich)

Koeffizienten s i liefern:

  1. Dimensionslosigkeit oder eine einzelne Dimension der Zahl a i ⋅q i /s i (verschiedene bestimmte Kriterien können verschiedene Dimensionen haben, und dann ist es unmöglich, arithmetische Operationen an ihnen durchzuführen und sie auf ein ganzzahliges Kriterium zu reduzieren).
  2. Normalisierung, d.h. Bereitstellung der Bedingung: b i ⋅q i /s i<1.

Die Koeffizienten a i und b i spiegeln den relativen Beitrag bestimmter Kriterien q i zum integralen Kriterium wider.

In einer Umgebung mit mehreren Kriterien reduziert sich das Problem der Entscheidung über die Wahl einer der Alternativen also auf die Maximierung des integralen Kriteriums:

x * = arg max(q 0 (q 1 (x), q 2 (x), ..., q n (x)))

Das Hauptproblem bei der multikriteriellen Formulierung des Entscheidungsproblems besteht darin, dass eine solche analytische Form der Koeffizienten a i und b i gefunden werden muss, die die folgenden Eigenschaften des Modells liefern würde:

  • ein hohes Maß an Angemessenheit des Fachgebiets und der Expertensicht;
  • minimale Rechenschwierigkeiten bei der Maximierung des Integralkriteriums, d. h. seine Berechnung für verschiedene Alternativen;
  • Stabilität der Ergebnisse der Maximierung des Integralkriteriums bei kleinen Störungen der Anfangsdaten.
  • Die Stabilität der Lösung bedeutet, dass eine kleine Änderung der Anfangsdaten zu einer kleinen Änderung des Wertes des Integralkriteriums und dementsprechend zu einer kleinen Änderung der getroffenen Entscheidung führen sollte. Wenn also die Anfangsdaten praktisch gleich sind, dann sollte die Entscheidung entweder gleich oder sehr ähnlich getroffen werden.

Sequentielle binäre Auswahlsprache

Die Sprache der binären Relationen ist eine Verallgemeinerung der multikriteriellen Sprache und basiert darauf, dass bei der Bewertung einer Alternative diese Bewertung immer relativ ist, d.h. explizit oder häufiger implizit werden andere Alternativen aus der untersuchten Gruppe oder aus der Allgemeinbevölkerung als Basis oder Bezugsrahmen für Vergleiche verwendet. Das menschliche Denken basiert auf der Suche und Analyse von Gegensätzen (Konstrukten), daher fällt es uns immer leichter, eine von zwei gegensätzlichen Optionen zu wählen, als eine Option aus einer großen und keineswegs ungeordneten Menge.

Daher laufen die Hauptannahmen dieser Sprache auf Folgendes hinaus:

  • eine einzige Alternative wird nicht bewertet, d.h. die Kriteriumsfunktion wird nicht eingeführt;
  • für jedes Paar von Alternativen kann auf irgendeine Weise festgestellt werden, dass eine der Alternativen der anderen vorzuziehen ist oder dass sie gleichwertig oder nicht vergleichbar sind;
  • die Präferenzrelation in jedem Paar von Alternativen hängt nicht von den anderen zur Auswahl gestellten Alternativen ab.

Es gibt verschiedene Möglichkeiten, binäre Beziehungen anzugeben: direkt, Matrix, Verwendung von Präferenzgraphen, die Schnittmethode usw.

Beziehungen zwischen Alternativen eines Paares werden durch die Begriffe Äquivalenz, Ordnung und Dominanz ausgedrückt.

Verallgemeinerte Sprachwahlfunktionen

Die Sprache der Auswahlfunktionen basiert auf der Mengenlehre und ermöglicht es, mit Abbildungen von Mengen auf ihre Teilmengen zu arbeiten, die verschiedenen Auswahlmöglichkeiten entsprechen, ohne dass Elemente aufgezählt werden müssen. Diese Sprache ist sehr allgemein und ermöglicht potenziell die Beschreibung jeder Wahl. Der mathematische Apparat der verallgemeinerten Auswahlfunktionen wird derzeit jedoch hauptsächlich an Problemen entwickelt und getestet, die bereits mit kriteriellen oder binären Ansätzen gelöst wurden.

Gruppenwahl

Lassen Sie es eine Gruppe von Menschen geben, die das Recht haben, an der kollektiven Entscheidungsfindung teilzunehmen. Angenommen, diese Gruppe erwägt eine Reihe von Alternativen, und jedes Mitglied der Gruppe trifft seine Wahl. Die Aufgabe besteht darin, eine Lösung zu entwickeln, die in gewisser Weise individuelle Entscheidungen koordiniert und in gewisser Weise die "allgemeine Meinung" der Gruppe zum Ausdruck bringt, d.h. als Gruppenwahl genommen.

Natürlich entsprechen unterschiedliche Gruppenentscheidungen unterschiedlichen Prinzipien für die Koordinierung individueller Entscheidungen.

Die Regeln zur Koordinierung einzelner Entscheidungen in einer Gruppenwahl werden Abstimmungsregeln genannt. Am gebräuchlichsten ist die „Mehrheitsregel“, bei der die Gruppenentscheidung von der Alternative getroffen wird, die die meisten Stimmen erhält.

Es muss verstanden werden, dass eine solche Entscheidung nur die Verbreitung unterschiedlicher Standpunkte in der Gruppe widerspiegelt und keine wirklich optimale Option darstellt, für die überhaupt niemand stimmen kann. "Wahrheit wird nicht durch Abstimmung bestimmt."

Darüber hinaus gibt es sogenannte „Wahlparadoxe“, von denen das bekannteste das Arrow-Paradoxon ist.

Diese Paradoxien können zu sehr unangenehmen Merkmalen des Abstimmungsverfahrens führen und führen manchmal auch dazu: Beispielsweise gibt es Fälle, in denen die Gruppe überhaupt keine einzige Entscheidung treffen kann (es gibt kein Quorum oder jeder stimmt für seine eigene einzigartige Option usw .), und manchmal (bei mehrstufigen Abstimmungen) kann die Minderheit der Mehrheit ihren Willen aufzwingen.

Wahl unter Unsicherheit

Gewissheit ist ein Spezialfall von Ungewissheit, nämlich: es ist eine Ungewissheit nahe Null.

In der modernen Entscheidungstheorie wird angenommen, dass es drei Haupttypen von Unsicherheit bei Entscheidungsproblemen gibt:

  1. Informative (statistische) Unsicherheit von Ausgangsdaten für die Entscheidungsfindung.
  2. Unsicherheit über die Folgen der Entscheidungsfindung (Wahl).
  3. Unschärfe in der Beschreibung der Bestandteile des Entscheidungsprozesses.

Betrachten wir sie der Reihe nach.

Informative (statistische) Unsicherheit in Ausgangsdaten

Die über den Themenbereich gewonnenen Daten können nicht als absolut genau betrachtet werden. Darüber hinaus ist es offensichtlich, dass diese Daten für uns nicht an sich interessant sind, sondern nur als Signale, die möglicherweise bestimmte Informationen darüber enthalten, woran wir wirklich interessiert sind. Daher ist es realistischer anzunehmen, dass wir es mit Daten zu tun haben, die nicht nur verrauscht und ungenau, sondern auch indirekt und möglicherweise unvollständig sind. Zudem betreffen diese Daten nicht die gesamte untersuchte (allgemeine) Bevölkerung, sondern nur eine bestimmte Teilmenge davon, über die wir tatsächlich Daten erheben konnten, gleichzeitig aber Rückschlüsse auf die gesamte Bevölkerung ziehen wollen, und wir wollen auch wissen, wie zuverlässig diese Schlussfolgerungen sind.

Unter diesen Bedingungen wird die Theorie der statistischen Entscheidungen verwendet.

Es gibt zwei Hauptquellen der Unsicherheit in dieser Theorie. Erstens ist nicht bekannt, welcher Verteilung die Originaldaten gehorchen. Zweitens ist nicht bekannt, welche Verteilung die Menge (Allgemeinbevölkerung) hat, auf die wir aus ihrer Teilmenge, die die Ausgangsdaten bildet, Rückschlüsse ziehen wollen.

Statistische Verfahren sind die Entscheidungsverfahren, die diese beiden Arten von Unsicherheit beseitigen.

Es ist zu beachten, dass es eine Reihe von Gründen gibt, die zu einer falschen Anwendung statistischer Methoden führen:

  • Statistische Schlussfolgerungen haben wie alle anderen immer eine gewisse Zuverlässigkeit oder Gewissheit. Aber im Gegensatz zu vielen anderen Fällen ist die Zuverlässigkeit statistischer Ergebnisse bekannt und wird im Laufe der statistischen Forschung bestimmt;
  • die Qualität der als Ergebnis der Anwendung des statistischen Verfahrens erhaltenen Lösung hängt von der Qualität der Ausgangsdaten ab;
  • Daten, die keinen statistischen Charakter haben, sollten keiner statistischen Verarbeitung unterzogen werden;
  • Es ist notwendig, statistische Verfahren zu verwenden, die dem Grad der A-priori-Information über die untersuchte Population entsprechen (z. B. sollten Sie keine Methoden der Varianzanalyse auf nicht-Gaußsche Daten anwenden). Wenn die Verteilung der Originaldaten unbekannt ist, muss man sie entweder ermitteln oder mehrere verschiedene Methoden anwenden und die Ergebnisse vergleichen. Wenn sie sehr unterschiedlich sind, weist dies auf die Unanwendbarkeit einiger der verwendeten Verfahren hin.

Ungewissheit der Folgen

Wenn die Folgen der Wahl einer Alternative eindeutig durch die Alternative selbst bestimmt sind, können wir nicht zwischen einer Alternative und ihren Folgen unterscheiden, da wir davon ausgehen, dass wir bei der Wahl einer Alternative tatsächlich ihre Folgen wählen.

In der Praxis hat man es jedoch oft mit einer komplexeren Situation zu tun, wenn die Wahl der einen oder anderen Alternative die Konsequenzen der getroffenen Wahl mehrdeutig bestimmt.

Im Falle einer diskreten Menge von Alternativen und Ergebnissen ihrer Wahl können wir unter der Voraussetzung, dass die Menge möglicher Ergebnisse allen Alternativen gemeinsam ist, davon ausgehen, dass sich verschiedene Alternativen in der Verteilung der Ergebniswahrscheinlichkeiten voneinander unterscheiden. Diese Wahrscheinlichkeitsverteilungen können im allgemeinen Fall von den Ergebnissen der Alternativenwahl und den daraus tatsächlich eingetretenen Ergebnissen abhängen. Im einfachsten Fall sind die Ergebnisse gleich wahrscheinlich. Die Ergebnisse selbst haben normalerweise die Bedeutung von Gewinnen oder Verlusten und werden quantifiziert.

Wenn die Ergebnisse für alle Alternativen gleich sind, gibt es nichts zu wählen. Wenn sie unterschiedlich sind, können Alternativen verglichen werden, indem bestimmte quantitative Schätzungen für sie eingeführt werden. Die Vielfalt der Problemstellungen in der Spieltheorie ist verbunden mit einer unterschiedlichen Wahl numerischer Merkmale von Verlusten und Gewinnen infolge der Wahl von Alternativen, unterschiedlichen Konfliktstärken zwischen den Parteien, die Alternativen wählen, usw.

Betrachten Sie diese Art von Unsicherheit als vage Unsicherheit

Jedes Auswahlproblem ist eine Zielverengung der Menge von Alternativen. Sowohl eine formale Beschreibung von Alternativen (ihre Liste selbst, eine Liste ihrer Attribute oder Parameter) als auch eine Beschreibung der Regeln für ihren Vergleich (Kriterien, Beziehungen) werden immer in Bezug auf die eine oder andere Messskala gegeben (auch wenn derjenige, der weiß das nicht).

Es ist bekannt, dass alle Skalen verschwommen sind, aber in unterschiedlichem Maße. Der Begriff "Verwischen" bezieht sich auf die Eigenschaft der Skalen, die darin besteht, dass immer zwei unterscheidbare Alternativen darstellbar sind, d.h. in einer Skala unterschiedlich und nicht unterscheidbar, d.h. sind identisch, in der anderen - mehr verschwommen. Je weniger Abstufungen in einer bestimmten Skala, desto unschärfer ist sie.

So können wir die Alternativen klar sehen und gleichzeitig vage einordnen, d.h. unklar sein, zu welchen Klassen sie gehören.

Bereits in ihrer ersten Arbeit zur Entscheidungsfindung in einer unscharfen Situation haben Bellman und Zadeh die Idee vertreten, dass sowohl Ziele als auch Einschränkungen als unscharfe (unscharfe) Mengen auf einer Menge von Alternativen dargestellt werden sollten.

Über einige Einschränkungen des Optimierungsansatzes

Bei allen oben betrachteten Auswahlproblemen und Entscheidungsverfahren bestand das Problem darin, die besten in der Anfangsmenge unter gegebenen Bedingungen zu finden, d.h. in gewissem Sinne optimale Alternativen.

Der Optimalitätsgedanke ist der Leitgedanke der Kybernetik und hat sich fest in die Praxis des Entwerfens und Betreibens technischer Systeme eingeschlichen. Gleichzeitig ist diese Idee mit Vorsicht zu genießen, wenn wir versuchen, sie auf den Bereich des Managements komplexer, großer und schwach determinierter Systeme, wie beispielsweise sozioökonomischer Systeme, zu übertragen.

Für diese Schlussfolgerung gibt es gute Gründe. Betrachten wir einige davon:

  1. Die optimale Lösung stellt sich oft als instabil heraus, d.h. Geringfügige Änderungen der Bedingungen des Problems, der Eingabedaten oder der Einschränkungen können zur Auswahl erheblich unterschiedlicher Alternativen führen.
  2. Optimierungsmodelle werden nur für enge Klassen ziemlich einfacher Aufgaben entwickelt, die reale Steuerungsobjekte nicht immer angemessen und systematisch widerspiegeln. Meistens ermöglichen es Optimierungsmethoden, nur relativ einfache und formal gut beschriebene Teilsysteme einiger großer und komplexer Systeme zu optimieren, d.h. nur lokale Optimierung zulassen. Wenn jedoch jedes Teilsystem eines großen Systems optimal funktioniert, bedeutet dies keineswegs, dass das System als Ganzes auch optimal funktioniert. Die Optimierung eines Teilsystems führt also nicht zwangsläufig zu dessen Verhalten, das bei der Optimierung des Gesamtsystems von ihm gefordert wird. Darüber hinaus kann eine lokale Optimierung manchmal zu negativen Folgen für das Gesamtsystem führen. Daher ist es bei der Optimierung von Teilsystemen und des Gesamtsystems notwendig, den Baum der Ziele und Teilziele und deren Priorität festzulegen.
  3. Oft wird das Maximieren des Optimierungskriteriums gemäß einem mathematischen Modell als das Ziel der Optimierung angesehen, aber in Wirklichkeit ist das Ziel, das Steuerobjekt zu optimieren. Optimierungskriterien und mathematische Modelle beziehen sich immer nur indirekt auf das Ziel, d.h. mehr oder weniger angemessen, aber immer ungefähr.

Daher muss die Idee der Optimalität, die für Systeme, die sich für eine angemessene mathematische Formalisierung eignen, äußerst fruchtbar ist, mit Vorsicht auf komplexe Systeme übertragen werden. Natürlich können mathematische Modelle, die manchmal für solche Systeme vorgeschlagen werden können, optimiert werden. Allerdings sollte man immer die starke Vereinfachung dieser Modelle berücksichtigen, die bei komplexen Systemen nicht mehr zu vernachlässigen ist, sowie die Tatsache, dass der Grad der Angemessenheit dieser Modelle bei komplexen Systemen eigentlich unbekannt ist . Welche rein praktische Bedeutung diese Optimierung hat, ist daher nicht bekannt. Die hohe Praktikabilität der Optimierung in technischen Systemen sollte nicht den Eindruck erwecken, dass sie bei der Optimierung komplexer Systeme ebenso effektiv ist. Eine sinnvolle mathematische Modellierung komplexer Systeme ist sehr schwierig, ungefähr und ungenau. Je komplexer das System, desto vorsichtiger sollte man mit der Idee seiner Optimierung umgehen.

Bei der Entwicklung von Steuerungsverfahren für komplexe, große, schwach bestimmte Systeme achten die Autoren daher nicht nur auf die Optimalität des gewählten Ansatzes aus formalmathematischer Sicht, sondern auch auf seine Zweckmäßigkeit und die Natur des Kontrollobjekt.

Expertenauswahlmethoden

Bei der Untersuchung komplexer Systeme treten häufig Probleme auf, die mit dem derzeit entwickelten mathematischen Apparat aus verschiedenen Gründen nicht rigoros gestellt und gelöst werden können. In diesen Fällen wird auf die Dienste von Experten (Systemanalytikern) zurückgegriffen, deren Erfahrung und Intuition helfen, die Komplexität des Problems zu reduzieren.

Dabei ist jedoch zu berücksichtigen, dass Experten selbst hochkomplexe Systeme sind und ihre Tätigkeit zudem von vielen externen und internen Rahmenbedingungen abhängt. Daher wird bei den Methoden zur Organisation von Expertenbewertungen viel Wert darauf gelegt, günstige externe und psychologische Bedingungen für die Arbeit von Experten zu schaffen.

Folgende Faktoren beeinflussen die Arbeit eines Sachverständigen:

  • Verantwortung für die Verwendung der Prüfungsergebnisse;
  • zu wissen, dass andere Experten beteiligt sind;
  • Verfügbarkeit von Informationskontakten zwischen Experten;
  • zwischenmenschliche Beziehungen von Experten (wenn Informationskontakt zwischen ihnen besteht);
  • eigenes Interesse des Sachverständigen an den Ergebnissen der Begutachtung;
  • persönliche Qualitäten von Experten (Selbstwertgefühl, Konformität, Wille etc.)

Die Interaktion zwischen Experten kann ihre Aktivität entweder anregen oder hemmen. Daher werden in verschiedenen Fällen unterschiedliche Untersuchungsmethoden verwendet, die sich in der Art der Interaktion von Experten untereinander unterscheiden: anonyme und offene Umfragen und Fragebögen, Meetings, Diskussionen, Planspiele, Brainstorming usw.

Es gibt verschiedene Methoden der mathematischen Aufbereitung von Gutachten. Experten werden gebeten, verschiedene Alternativen entweder durch einen oder durch ein System von Indikatoren zu bewerten. Darüber hinaus werden sie gebeten, den Grad der Bedeutung jedes Indikators (sein „Gewicht“ oder „Beitrag“) zu bewerten. Auch den Experten selbst wird ein Kompetenzniveau zugeordnet, das dem Beitrag jedes einzelnen von ihnen zur resultierenden Meinung der Gruppe entspricht.

Eine entwickelte Methode der Zusammenarbeit mit Experten ist die „Delphi“-Methode. Der Grundgedanke dieser Methode ist, dass Kritik und Argumentation sich positiv auf den Experten auswirken, wenn sein Selbstwertgefühl nicht beeinträchtigt wird und Bedingungen gegeben sind, die eine persönliche Konfrontation ausschließen.

Es sollte betont werden, dass es einen grundlegenden Unterschied in der Art der Verwendung von Expertenmethoden in Expertensystemen und in der Entscheidungsunterstützung gibt. Wenn im ersten Fall Experten benötigt werden, um die Methoden der Entscheidungsfindung zu formalisieren, dann im zweiten - nur die Entscheidung selbst als solche.

Da Experten an der Umsetzung genau jener Funktionen beteiligt sind, die derzeit von automatisierten Systemen entweder gar nicht erbracht oder schlechter als von Menschen ausgeführt werden, ist eine vielversprechende Richtung in der Entwicklung automatisierter Systeme die maximale Automatisierung dieser Funktionen.

Automatisierte Entscheidungsunterstützungssysteme

Assistenten hat ein Mensch schon immer bei der Entscheidungsfindung eingesetzt: Sie waren sowohl einfache Informationsgeber über das Steuerungsobjekt als auch Berater (Berater), die Entscheidungsoptionen anbieten und deren Folgen analysieren. Entscheidende Personen treffen diese immer in einem bestimmten Informationsumfeld: Für einen Militärkommandanten ist dies das Hauptquartier, für den Rektor der Akademische Rat, für den Minister das Kollegium.

Automatisierte Systeme zur iterativen Entscheidungsbewertung und insbesondere Entscheidungsunterstützungssysteme (DDS – Decision Support Systems), d.h. automatisierte Systeme, die speziell dafür ausgelegt sind, die Informationen aufzubereiten, die eine Person benötigt, um eine Entscheidung zu treffen. Die Entwicklung von Entscheidungsunterstützungssystemen erfolgt insbesondere im Rahmen eines internationalen Projekts unter der Schirmherrschaft des International Institute for Applied Systems Analysis in Laxenburg (Österreich).

Die Wahl in realen Situationen erfordert die Durchführung einer Reihe von Operationen, von denen einige effizienter von einer Person und andere von einer Maschine ausgeführt werden. Eine effektive Kombination ihrer Vorteile bei gleichzeitigem Ausgleich von Mängeln ist in automatisierten Entscheidungsunterstützungssystemen verkörpert.

Ein Mensch trifft Entscheidungen besser als eine Maschine unter Bedingungen der Ungewissheit, aber um die richtige Entscheidung treffen zu können, benötigt er auch adäquate (vollständige und verlässliche) Informationen, die das Fachgebiet charakterisieren. Es ist jedoch bekannt, dass eine Person mit großen Mengen an "rohen", unverarbeiteten Informationen nicht gut zurechtkommt. Daher kann die Rolle der Maschine bei der Entscheidungsunterstützung darin bestehen, eine vorbereitende Aufbereitung von Informationen über das Kontrollobjekt und unkontrollierbare Faktoren (Umgebung) durchzuführen, die Folgen bestimmter Entscheidungen sichtbar zu machen und all diese Informationen auch visuell darzustellen und bequemer Weg, um Entscheidungen zu treffen.

So gleichen automatisierte Entscheidungsunterstützungssysteme die Schwächen eines Menschen aus, befreien ihn von der routinemäßigen Vorverarbeitung von Informationen und bieten ihm eine komfortable Informationsumgebung, in der er seine Stärken besser ausspielen kann. Diese Systeme zielen nicht darauf ab, die Funktionen des Entscheidungsträgers zu automatisieren (und ihm dadurch diese Funktionen und damit die Verantwortung für die getroffenen Entscheidungen zu entfremden, was oft nicht akzeptabel ist), sondern ihm eine Hilfestellung bei der Suche nach einem Entscheidungsträger zu geben gute Lösung.