O reconhecimento de imagens é realizado com base em processos. Tarefa de controle de qualidade de reconhecimento

E sinais. Essas tarefas são resolvidas com bastante frequência, por exemplo, ao atravessar ou dirigir uma rua nos semáforos. Reconhecer a cor de um semáforo aceso e conhecer as regras da estrada permite que você tome a decisão certa sobre atravessar ou não a rua no momento.

No processo de evolução biológica, muitos animais resolveram problemas com a ajuda de aparelhos visuais e auditivos. reconhecimento de padrões bom o bastante. Criação de sistemas artificiais reconhecimento de padrões continua a ser um problema teórico e técnico difícil. A necessidade de tal reconhecimento surge em uma variedade de áreas - desde assuntos militares e sistemas de segurança até a digitalização de todos os tipos de sinais analógicos.

Tradicionalmente, as tarefas de reconhecimento de imagem estão incluídas no escopo das tarefas de inteligência artificial.

Direções no reconhecimento de padrões

Existem duas direções principais:

  • O estudo das habilidades de reconhecimento dos seres vivos, sua explicação e modelagem;
  • Desenvolvimento da teoria e métodos para a construção de dispositivos destinados a resolver problemas individuais em problemas aplicados.

Declaração formal do problema

O reconhecimento de padrões é a atribuição de dados iniciais a uma determinada classe, destacando características essenciais que caracterizam esses dados da massa total de dados não essenciais.

Ao definir problemas de reconhecimento, eles tentam usar a linguagem matemática, tentando, ao contrário da teoria das redes neurais artificiais, onde a base é obter um resultado por experimento, substituir o experimento por raciocínio lógico e provas matemáticas.

Na maioria das vezes, imagens monocromáticas são consideradas em problemas de reconhecimento de padrões, o que possibilita considerar uma imagem como uma função em um plano. Se considerarmos um ponto situado em um plano T, onde a função x(x,y) expressa em cada ponto da imagem sua característica - brilho, transparência, densidade óptica, então tal função é um registro formal da imagem.

O conjunto de todas as funções possíveis x(x,y) na superfície T- existe um modelo do conjunto de todas as imagens X. Apresentando o conceito semelhanças entre as imagens, você pode definir a tarefa de reconhecimento. A forma específica de tal cenário depende fortemente dos estágios subsequentes de reconhecimento de acordo com uma ou outra abordagem.

Métodos de reconhecimento de padrões

Para reconhecimento óptico de imagem, você pode aplicar o método de iteração sobre a aparência de um objeto em diferentes ângulos, escalas, deslocamentos, etc. Para letras, você precisa iterar sobre a fonte, propriedades da fonte etc.

A segunda abordagem é encontrar o contorno do objeto e examinar suas propriedades (conectividade, presença de cantos, etc.)

Outra abordagem é usar redes neurais artificiais. Esse método requer um grande número de exemplos da tarefa de reconhecimento (com respostas corretas) ou uma estrutura de rede neural especial que leva em consideração as especificidades dessa tarefa.

Perceptron como um método de reconhecimento de padrões

F. Rosenblatt, introduzindo o conceito de um modelo cerebral, cuja tarefa é mostrar como fenômenos psicológicos podem surgir em algum sistema físico, cuja estrutura e propriedades funcionais são conhecidas - descreveu o mais simples experimentos de discriminação. Esses experimentos estão inteiramente relacionados a métodos de reconhecimento de padrões, mas diferem pelo fato de o algoritmo de solução não ser determinístico.

O experimento mais simples, com base no qual é possível obter informações psicologicamente significativas sobre um determinado sistema, resume-se ao fato de que o modelo é apresentado a dois estímulos diferentes e é obrigado a responder a eles de maneiras diferentes. O objetivo de tal experimento pode ser estudar a possibilidade de sua discriminação espontânea pelo sistema na ausência de intervenção do experimentador, ou, inversamente, estudar a discriminação forçada, na qual o experimentador procura ensinar o sistema a realizar o experimento. classificação exigida.

Em um experimento de aprendizado, um perceptron geralmente é apresentado com uma certa sequência de imagens, que inclui representantes de cada uma das classes a serem distinguidas. De acordo com alguma regra de modificação de memória, a escolha correta da reação é reforçada. Em seguida, o estímulo de controle é apresentado ao perceptron e a probabilidade de obter a resposta correta para estímulos dessa classe é determinada. Dependendo se o estímulo de controle selecionado corresponde ou não a uma das imagens que foram usadas na sequência de treinamento, são obtidos resultados diferentes:

  • 1. Se o estímulo de controle não coincide com nenhum dos estímulos de aprendizagem, então o experimento está associado não apenas a pura discriminação, mas também inclui elementos generalizações.
  • 2. Se o estímulo de controle excita um determinado conjunto de elementos sensoriais que são completamente diferentes daqueles que foram ativados sob a influência de estímulos da mesma classe apresentados anteriormente, então o experimento é um estudo pura generalização .

Os perceptrons não têm a capacidade de generalização pura, mas funcionam satisfatoriamente em experimentos de discriminação, especialmente se o estímulo de controle coincide o suficiente com um dos padrões sobre os quais o perceptron já acumulou alguma experiência.

Exemplos de problemas de reconhecimento de padrões

  • Reconhecimento de letras.
  • Reconhecimento de código de barras.
  • Reconhecimento de placas.
  • Reconhecimento facial.
  • Reconhecimento de fala.
  • Reconhecimento de imagem.
  • Reconhecimento de áreas locais da crosta terrestre em que se encontram depósitos minerais.

Programas de reconhecimento de padrões

Veja também

Notas

Links

  • Yuri Lifshits. Curso "Problemas Modernos de Informática Teórica" ​​- aulas sobre métodos estatísticos de reconhecimento de padrões, reconhecimento facial, classificação de textos
  • Journal of Pattern Recognition Research (Journal of Pattern Recognition Research)

Literatura

  • David A. Forsyth, Jean Pons Visão por computador. Abordagem Moderna = Visão Computacional: Uma Abordagem Moderna. - M.: "Williams", 2004. - S. 928. - ISBN 0-13-085198-1
  • George Stockman, Linda Shapiro Visão por computador = Visão por computador. - M.: Binom. Laboratório do Conhecimento, 2006. - S. 752. - ISBN 5947743841
  • A. L. Gorelik, V. A. Skripkin, Métodos de reconhecimento, M.: Escola superior, 1989.
  • Sh.-K. Cheng, Princípios de design de sistemas de informação visual, M.: Mir, 1994.

Fundação Wikimedia. 2010.

- em tecnologia, uma direção científica e técnica associada ao desenvolvimento de métodos e à construção de sistemas (inclusive com base em um computador) para estabelecer a pertença de um determinado objeto (objeto, processo, fenômeno, situação, sinal) a um do pré... ... Grande Dicionário Enciclopédico

Uma das novas regiões cibernética. O conteúdo da teoria de R. sobre. é a extrapolação das propriedades de objetos (imagens) pertencentes a várias classes para objetos que estão próximos a eles em algum sentido. Normalmente, ao ensinar um autômato R. sobre. há ... ... Enciclopédia Geológica

Inglês reconhecimento, imagem; Alemão Gestalt alterkennung. Ramo da cibernética matemática que desenvolve princípios e métodos para classificar e identificar objetos descritos por um conjunto finito de características que os caracterizam. Antinazi. Enciclopédia ... ... Enciclopédia de Sociologia

Reconhecimento de padrões- método de estudar objetos complexos com a ajuda de um computador; consiste na seleção de características e no desenvolvimento de algoritmos e programas que permitem aos computadores classificar automaticamente os objetos de acordo com essas características. Por exemplo, para determinar qual ... ... Dicionário Econômico e Matemático

- (técnico), uma direção científica e técnica associada ao desenvolvimento de métodos e à construção de sistemas (incluindo os baseados em computador) para estabelecer a pertença de um objeto (sujeito, processo, fenômeno, situação, sinal) a um dos pré... ... dicionário enciclopédico

RECONHECIMENTO DE PADRÕES- uma seção de cibernética matemática que desenvolve métodos para classificar, bem como identificar objetos, fenômenos, processos, sinais, situações de todos os objetos que podem ser descritos por um conjunto finito de certas características ou propriedades, ... ... enciclopédia sociológica russa

reconhecimento de padrões- Reconhecimento de 160 padrões: Identificação de representações e configurações de formulários usando meios automáticos

Neste artigo, pretendo destacar alguns dos resultados fundamentais da teoria do aprendizado de máquina de uma maneira que torne os conceitos compreensíveis para leitores que estejam um pouco familiarizados com problemas de classificação e regressão. A ideia de escrever tal artigo se manifestava cada vez mais claramente em minha mente a cada livro que lia, em que as ideias de máquinas de reconhecimento de ensino eram contadas como se fossem do meio e não estava nada claro o que os autores deste ou esse método confiou ao desenvolvê-lo. Por outro lado, existem vários livros dedicados aos conceitos básicos de aprendizado de máquina, mas a apresentação do material neles pode parecer complicada demais para uma primeira leitura.

Motivação

Vamos considerar tal tarefa. Temos maçãs de duas classes - saborosas e não saborosas, 1 e 0. As maçãs têm características - cor e tamanho. A cor mudará continuamente de 0 a 1, ou seja, 0 - maçã completamente verde, 1 - completamente vermelha. O tamanho pode mudar da mesma forma, 0 - maçã pequena, 1 - grande. Gostaríamos de desenvolver um algoritmo que pegasse uma cor e tamanho como entrada e retornasse a classe de uma maçã como saída - seja saborosa ou não. É altamente desejável que o número de erros neste caso seja quanto menor, melhor. Ao mesmo tempo, temos uma lista final que contém dados históricos sobre a cor, tamanho e classe das maçãs. Como poderíamos resolver um problema desses?

abordagem lógica

Resolvendo nosso problema, o primeiro método que pode vir à mente pode ser este: vamos compor manualmente as regras if-else e, dependendo dos valores de cor e tamanho, atribuiremos uma determinada classe à maçã. Aqueles. temos pré-requisitos - isso é cor e tamanho, e há uma consequência - o sabor de uma maçã. É bastante razoável quando há poucos sinais e você pode estimar os limites para comparação a olho nu. Mas pode acontecer que não seja possível apresentar condições claras, e não é óbvio a partir dos dados quais limites tomar, e o número de recursos pode aumentar no futuro. Mas e se em nossa lista com dados históricos, encontramos duas maçãs com a mesma cor e tamanho, mas uma está marcada como saborosa e a outra não? Assim, nosso primeiro método não é tão flexível e escalável quanto gostaríamos.

Notação

Vamos introduzir a seguinte notação. Vamos denotar a ª maçã como . Por sua vez, cada um consiste em dois números - cor e tamanho. Vamos denotar este fato por um par de números: . Denotamos a classe de cada -ésima maçã como . A lista com dados históricos será indicada pela letra , o comprimento desta lista é igual a . O º elemento desta lista é o valor do atributo da maçã e sua classe. Aqueles. . Também o chamaremos de amostra. Em letras maiúsculas e denotamos variáveis ​​que podem assumir os valores de um determinado recurso e classe. Introduzimos um novo conceito - uma regra de decisão é uma função que recebe um valor de cor e tamanho como entrada e retorna um rótulo de classe como saída:

Abordagem probabilística

Desenvolvendo a ideia de um método lógico com premissas e consequências, vamos nos fazer a pergunta - qual é a probabilidade de que a -ésima maçã, que não pertence à nossa amostra, seja saborosa, dados os valores medidos​​​ de cor e tamanho? Na notação da teoria da probabilidade, esta questão pode ser escrita da seguinte forma:

Nessa expressão, pode ser interpretado como premissa, como consequência, mas a transição de premissa para consequência obedecerá a leis probabilísticas, não lógicas. Aqueles. em vez de uma tabela verdade com valores booleanos de 0 e 1 para a classe, haverá valores de probabilidade que assumem valores de 0 a 1. Aplique a fórmula de Bayes e obtenha a seguinte expressão:

Vamos considerar o lado direito dessa expressão com mais detalhes. O multiplicador é chamado de probabilidade anterior e significa a probabilidade de encontrar uma maçã saborosa entre todas as maçãs possíveis. A probabilidade a priori de encontrar uma maçã intragável é . Essa probabilidade pode refletir nosso conhecimento pessoal de como as maçãs boas e ruins são distribuídas na natureza. Por exemplo, sabemos por experiência anterior que 80% de todas as maçãs são deliciosas. Ou podemos estimar esse valor simplesmente contando a proporção de maçãs deliciosas em nossa lista com dados históricos S. O próximo multiplicador mostra a probabilidade de obter um valor específico de cor e tamanho para uma maçã classe 1. Essa expressão também é chamada de função de verossimilhança e pode ser da forma de alguma distribuição particular, por exemplo, normal. Usamos o denominador como constante de normalização para que a probabilidade desejada varie de 0 a 1. Nosso objetivo final não é buscar probabilidades, mas encontrar uma regra de decisão que nos dê imediatamente uma classe. A forma final da regra de decisão depende de quais valores e parâmetros conhecemos. Por exemplo, só podemos conhecer os valores da probabilidade anterior, e o restante dos valores não pode ser estimado. Então a regra decisiva será a seguinte - atribuir a todas as maçãs o valor da classe para a qual a probabilidade a priori é maior. Aqueles. se sabemos que 80% das maçãs na natureza são saborosas, então colocamos a classe 1 para cada maçã, então nosso erro será de 20%. Se também podemos estimar os valores da função de verossimilhança $p(X=x_m | Y=1)$, também podemos encontrar o valor da probabilidade necessária usando a fórmula de Bayes, conforme escrito acima. A regra de decisão aqui será a seguinte: coloque o rótulo da classe para a qual a probabilidade é máxima:

Chamaremos essa regra de classificador Bayesiano. Como estamos lidando com probabilidades, mesmo um valor de probabilidade grande não garante que a maçã não pertença à classe 0. Vamos estimar a probabilidade de erro na maçã da seguinte forma: se a regra de decisão retornou o valor da classe igual a 1, então a probabilidade de erro será e vice-versa:

Estamos interessados ​​na probabilidade de erro do classificador não apenas neste exemplo em particular, mas em geral para todas as maçãs possíveis:

Esta expressão é a expectativa matemática do erro. Então, resolvendo o problema original, chegamos ao classificador Bayesiano, mas quais são suas desvantagens? O principal problema é estimar a probabilidade condicional a partir dos dados. No nosso caso, representamos o objeto como um par de números - cor e tamanho, mas em tarefas mais complexas, a dimensão das feições pode ser muitas vezes maior, e o número de observações da nossa lista com dados históricos pode não ser suficiente para estimar a probabilidade de uma variável aleatória multidimensional. A seguir, tentaremos generalizar nosso conceito de erro de classificador, e também ver se é possível escolher algum outro classificador para resolver o problema.

Perdas devido a erros do classificador

Suponha que já tenhamos algum tipo de regra de decisão. Então ele pode cometer dois tipos de erros - o primeiro é atribuir um objeto à classe 0, que tem uma classe real de 1, e vice-versa, atribuir um objeto à classe 1, que tem uma classe real de 0. Em alguns problemas, pode ser importante distinguir entre esses casos. Por exemplo, sofremos mais com o fato de uma maçã rotulada como saborosa se tornar insípida e vice-versa. Formalizamos o grau de nosso desconforto com expectativas enganadas no conceito.Mais geralmente, temos uma função de perda que retorna um número para cada erro do classificador. Let Ser um rótulo de classe real. A função de perda retorna o valor de perda para o rótulo de classe real e o valor de nossa regra de decisão. Um exemplo de uso dessa função é pegar de uma maçã com uma classe conhecida, passar a maçã para a entrada de nossa regra de decisão, obter a estimativa de classe da regra de decisão, se os valores e corresponderem, então consideramos que o classificador não se enganou e não há perda, se os valores não corresponderem, então a quantidade de perda nossa função dirá

Risco condicional e Bayesiano

Agora que temos uma função de perda e sabemos o quanto perdemos com a classificação incorreta de objetos, seria bom entender o quanto perdemos em média em muitos objetos. Se soubermos o valor - a probabilidade de que a -ésima maçã seja saborosa, dados os valores medidos de cor e tamanho, bem como o valor real da classe (por exemplo, pegue uma maçã da amostra S, veja no início do artigo), então podemos introduzir o conceito de risco condicional. O risco condicional é o valor médio das perdas na instalação para a regra de decisão:

No nosso caso de classificação binária, quando acontece:

Acima, descrevemos a regra de decisão que atribui um objeto à classe que possui o maior valor de probabilidade. Tal regra fornece um mínimo para nossas perdas médias (risco bayesiano), de modo que o classificador bayesiano é ótimo em termos do funcional de risco que introduzimos . Isso significa que o classificador Bayesiano tem o menor erro de classificação possível.

Algumas funções típicas de perda

Uma das funções de perda mais comuns é uma função simétrica, quando as perdas do primeiro e do segundo tipo de erro são equivalentes. Por exemplo, a função de perda 1-0 (perda zero-um) é definida da seguinte forma:

Então o risco condicional para a(x) = 1 será simplesmente o valor de probabilidade de obter a classe 0 no objeto:

Da mesma forma para a(x) = 0:

A função de perda 1-0 assume o valor 1 se o classificador cometer um erro no objeto e 0 se não o fizer. Agora vamos fazer com que o valor do erro não seja 1, mas outra função Q, dependendo da regra de decisão e do rótulo da classe real:

Então o risco condicional pode ser escrito da seguinte forma:

Notas sobre notação

O texto anterior foi escrito de acordo com a notação adotada no livro de Duda e Hart. No livro original de V.N. Vapnik considerou tal processo: a natureza seleciona um objeto de acordo com a distribuição $p(x)$, e então atribui um rótulo de classe a ele de acordo com a distribuição condicional $p(y|x)$. Então o risco (expectativa de perda) é definido como

Onde está a função com a qual estamos tentando aproximar a dependência desconhecida, é a função de perda para o valor real e o valor de nossa função . Esta notação é mais descritiva para introduzir o próximo conceito - risco empírico.

Risco empírico

Nesta fase, já descobrimos que o método lógico não é adequado para nós, porque não é flexível o suficiente, e não podemos usar o classificador bayesiano quando há muitos recursos e há um número limitado de dados para treinamento, e não poderemos restaurar a probabilidade. Também sabemos que o classificador Bayesiano tem o menor erro de classificação possível. Como não podemos usar um classificador Bayesiano, vamos fazer algo mais simples. Vamos fixar alguma família paramétrica de funções H e selecionar um classificador dessa família.

Exemplo: seja o conjunto de todas as funções da forma

Todas as funções deste conjunto diferem umas das outras apenas por coeficientes. Quando escolhemos tal família, assumimos que nas coordenadas de tamanho de cor entre pontos da classe 1 e pontos da classe 0 é possível traçar uma linha reta com coeficientes de tal forma que pontos com classes diferentes estão localizados ao longo de lados opostos de uma linha reta. Sabe-se que para uma reta desse tipo, o vetor de coeficientes é a normal à reta. Agora fazemos isso - pegamos nossa maçã, medimos sua cor e tamanho e traçamos um ponto com as coordenadas obtidas no gráfico nos eixos de tamanho de cor. Em seguida, medimos o ângulo entre este ponto e o vetor $w$. Notamos que nosso ponto pode estar de um lado ou do outro lado da linha. Então o ângulo entre e o ponto será agudo ou obtuso, e o produto escalar será positivo ou negativo. É aí que entra a regra de decisão:

Depois de fixar a classe de funções $H$, surge a pergunta - como escolher uma função com os coeficientes necessários? A resposta é - vamos escolher a função que entrega o mínimo ao nosso risco Bayesiano $R()$. Novamente, o problema é que, para calcular os valores do risco Bayesiano, você precisa conhecer a distribuição $p(x,y)$, mas ela não nos é fornecida e nem sempre é possível restaurar isto. Outra ideia é minimizar o risco não em todos os objetos possíveis, mas apenas em uma amostra. Aqueles. função minimizar:

Essa função é chamada de risco empírico. A próxima pergunta é por que decidimos que, minimizando o risco empírico, também minimizamos o risco Bayesiano? Deixe-me lembrá-lo de que nossa tarefa prática é cometer o menor número possível de erros de classificação. Quanto menos erros, menor o risco Bayesiano. A justificativa para a convergência do risco empírico para Bayesiano com um aumento na quantidade de dados foi obtida na década de 70 por dois cientistas - V. N. Vapnik e A. Ya. Chervonenkis.

Garantias de convergência. O caso mais simples

Assim, chegamos à conclusão de que o classificador Bayesiano dá o menor erro possível, mas na maioria dos casos não podemos treiná-lo, e também não podemos calcular o erro (risco). No entanto, podemos calcular uma aproximação ao risco Bayesiano, que é chamado de risco empírico, e conhecendo o risco empírico, escolher uma função de aproximação que minimize o risco empírico. Vamos considerar a situação mais simples onde a minimização do risco empírico produz um classificador que também minimiza o risco Bayesiano. Para o caso mais simples, teremos que fazer uma suposição que raramente é cumprida na prática, mas que pode ser enfraquecida posteriormente. Fixamos uma classe finita de funções da qual escolheremos nosso classificador e assumimos que a função real que a natureza usa para marcar nossas maçãs para sabor está neste conjunto finito de hipóteses: . Também temos uma amostra obtida a partir de uma distribuição sobre objetos. Todos os objetos de amostra são considerados distribuídos igualmente independentemente (iid). Então o seguinte será verdadeiro

Teorema

Ao escolher uma função de uma classe usando minimização de risco empírico, temos a garantia de encontrar tal que ela tenha um pequeno valor de risco Bayesiano se a amostra na qual estamos minimizando tiver tamanho suficiente.

Para o significado de "pequeno valor" e "tamanho suficiente", consulte a literatura abaixo.

Ideia de prova

Pela condição do teorema, obtemos uma amostra da distribuição , ou seja. o processo de seleção de objetos da natureza é aleatório. Toda vez que coletamos uma amostra, ela será da mesma distribuição, mas os objetos em si podem ser diferentes. A ideia principal da prova é que podemos obter uma amostra tão infeliz que o algoritmo que escolhemos minimizando o risco empírico em uma determinada amostra será ruim para minimizar o risco bayesiano, mas ao mesmo tempo será bom para minimizar o risco empírico, mas a probabilidade de obter tal amostra é pequena e, aumentando o tamanho da amostra, essa probabilidade cai. Teoremas semelhantes existem para suposições mais realistas, mas não os consideraremos aqui.

Resultados práticos

Tendo evidências de que a função encontrada minimizando o risco empírico não terá um grande erro em dados previamente não observados com tamanho suficiente da amostra de treinamento, podemos usar esse princípio na prática, por exemplo, da seguinte forma - tomamos a expressão:

E substituímos diferentes funções de perda, dependendo do problema que está sendo resolvido. Para regressão linear:

Para regressão logística:

Embora as máquinas de vetores de suporte sejam motivadas principalmente pela geometria, elas também podem ser pensadas como problemas empíricos de minimização de riscos.

Conclusão

Muitos métodos de ensino supervisionado podem ser considerados, entre outras coisas, como casos especiais da teoria desenvolvida por V. N. Vapnik e A. Ya. Chervonenkis. Essa teoria fornece garantias quanto ao erro no conjunto de teste, dado um tamanho suficiente do conjunto de treinamento e alguns requisitos para o espaço de hipóteses no qual estamos procurando nosso algoritmo.

Livros usados

  • A Natureza da Teoria da Aprendizagem Estatística, Vladimir N. Vapnik
  • Classificação de padrões, 2ª edição, Richard O. Duda, Peter E. Hart, David G. Stork
  • Entendendo o aprendizado de máquina: da teoria aos algoritmos, Shai Shalev-Shwartz, Shai Ben-David
P.S. Por favor, escreva em um pessoal sobre todas as imprecisões e erros de digitação

Etiquetas: adicionar etiquetas

Capítulo 3: Revisão Analítica de Reconhecimento de Padrões e Métodos de Tomada de Decisão

Teoria de reconhecimento de padrões e automação de controle

As principais tarefas do reconhecimento adaptativo de padrões

O reconhecimento é um processo de informação implementado por algum conversor de informação (canal de informação inteligente, sistema de reconhecimento) que possui uma entrada e uma saída. A entrada do sistema são informações sobre quais características os objetos apresentados possuem. A saída do sistema exibe informações sobre quais classes (imagens generalizadas) os objetos reconhecíveis são atribuídos.

Ao criar e operar um sistema automatizado de reconhecimento de padrões, várias tarefas são resolvidas. Consideremos brevemente e simplesmente essas tarefas. Deve-se notar que as formulações desses problemas, e o próprio conjunto, não coincidem com autores diferentes, pois em certa medida depende do modelo matemático específico em que se baseia este ou aquele sistema de reconhecimento. Além disso, algumas tarefas em determinados modelos de reconhecimento não têm solução e, portanto, não são propostas.

A tarefa de formalizar a área temática

Na verdade, essa tarefa é uma tarefa de codificação. É compilada uma lista de classes generalizadas, que podem incluir implementações específicas de objetos, bem como uma lista de recursos que esses objetos, em princípio, podem ter.

A tarefa de formar uma amostra de treinamento

A amostra de treinamento é um banco de dados contendo descrições de implementações específicas de objetos na linguagem de recursos, complementada com informações sobre a pertença desses objetos a determinadas classes de reconhecimento.

A tarefa de treinar o sistema de reconhecimento

A amostra de treinamento é usada para formar imagens generalizadas de classes de reconhecimento com base na generalização de informações sobre quais recursos os objetos da amostra de treinamento possuem que pertencem a essa classe e a outras classes.

O problema da redução da dimensão do espaço de recursos

Após treinar o sistema de reconhecimento (obtendo estatísticas sobre a distribuição de frequências de características por classe), torna-se possível determinar para cada característica seu valor para a resolução do problema de reconhecimento. Depois disso, os recursos menos valiosos podem ser removidos do sistema de recursos. Em seguida, o sistema de reconhecimento deve ser retreinado, pois como resultado da remoção de algumas feições, as estatísticas de distribuição das feições restantes por classe mudam. Este processo pode ser repetido, i.e. seja iterativo.

Tarefa de reconhecimento

Os objetos de uma amostra reconhecível são reconhecidos, que, em particular, podem consistir em um objeto. A amostra reconhecível é formada de forma semelhante à de treinamento, mas não contém informações sobre o pertencimento dos objetos às classes, pois é justamente isso que é determinado no processo de reconhecimento. O resultado do reconhecimento de cada objeto é uma distribuição ou uma lista de todas as classes de reconhecimento em ordem decrescente do grau de similaridade do objeto reconhecido com elas.

Tarefa de controle de qualidade de reconhecimento

Após o reconhecimento, sua adequação pode ser estabelecida. Para objetos da amostra de treinamento, isso pode ser feito imediatamente, pois para eles é simplesmente conhecido a quais classes pertencem. Para outros objetos, essas informações podem ser obtidas posteriormente. Em qualquer caso, a probabilidade de erro média real para todas as classes de reconhecimento pode ser determinada, bem como a probabilidade de erro ao atribuir um objeto reconhecido a uma determinada classe.

Os resultados do reconhecimento devem ser interpretados levando em consideração as informações disponíveis sobre a qualidade do reconhecimento.

Tarefa de adaptação

Se, como resultado do procedimento de controle de qualidade, for estabelecido que ele é insatisfatório, as descrições de objetos incorretamente reconhecidos podem ser copiadas da amostra reconhecível para a de treinamento, complementadas com informações de classificação adequadas e usadas para reformular a decisão regras, ou seja, levado em conta. Além disso, se esses objetos não pertencem às classes de reconhecimento já existentes, o que pode ser o motivo de seu reconhecimento incorreto, essa lista pode ser expandida. Como resultado, o sistema de reconhecimento se adapta e começa a classificar adequadamente esses objetos.

Problema de reconhecimento inverso

A tarefa de reconhecimento é que para um determinado objeto, de acordo com suas características conhecidas, o sistema estabelece sua pertença a alguma classe previamente desconhecida. No problema de reconhecimento inverso, ao contrário, para uma determinada classe de reconhecimento, o sistema determina quais características são mais características de objetos dessa classe e quais não são (ou quais objetos da amostra de treinamento pertencem a essa classe).

Tarefas de cluster e análise construtiva

Clusters são grupos de objetos, classes ou recursos que dentro de cada cluster são tão semelhantes quanto possível, e entre diferentes clusters são tão diferentes quanto possível.

Um construto (no contexto considerado nesta seção) é um sistema de clusters opostos. Assim, em certo sentido, os construtos são o resultado de uma análise de cluster de clusters.

Na análise de agrupamento, o grau de similaridade e diferença dos objetos (classes, características) é medido quantitativamente, e essa informação é utilizada para classificação. O resultado da análise de cluster é a própria classificação dos objetos por clusters. Essa classificação pode ser representada na forma de redes semânticas.

A tarefa da análise cognitiva

Na análise cognitiva, as informações sobre a semelhança e diferença de classes ou características são de interesse do pesquisador em si, e não para serem utilizadas para classificação, como na análise de agrupamento e construtiva.

Se duas classes de reconhecimento são caracterizadas pela mesma característica, isso contribui para a semelhança dessas duas classes. Se para uma das classes esse recurso não for característico, isso contribui para a diferença.

Se dois signos se correlacionam, então, em certo sentido, eles podem ser considerados como um signo, e se são anticorrelacionados, então como diferentes. Tendo em conta esta circunstância, a presença de diferentes características em diferentes classes contribui também para a sua semelhança e diferença.

Os resultados da análise cognitiva podem ser apresentados na forma de diagramas cognitivos.

Métodos de reconhecimento de padrões e suas características

Princípios de classificação de métodos de reconhecimento de padrões

O reconhecimento de padrões é a tarefa de construir e aplicar operações formais em representações numéricas ou simbólicas de objetos no mundo real ou ideal, cujos resultados refletem as relações de equivalência entre esses objetos. As relações de equivalência expressam o pertencimento dos objetos avaliados a algumas classes, consideradas como unidades semânticas independentes.

Ao construir algoritmos de reconhecimento, as classes de equivalência podem ser definidas por um pesquisador que usa suas próprias ideias significativas ou usa informações adicionais externas sobre a semelhança e diferença de objetos no contexto do problema que está sendo resolvido. Então se fala em "reconhecimento com o professor". Caso contrário, ou seja quando um sistema automatizado resolve um problema de classificação sem envolver informações externas de treinamento, fala-se de classificação automática ou “reconhecimento não supervisionado”. A maioria dos algoritmos de reconhecimento de padrões requer o envolvimento de um poder computacional muito significativo, que só pode ser fornecido por tecnologia de computador de alto desempenho.

Vários autores (Yu.L. Barabash, V.I. Vasiliev, A.L. Gorelik, V.A. Skripkin, R. Duda, P. Hart, L.T. Kuzin, F.I. Peregudov, F.P. Tarasenko, F.E. Temnikov, J. Tu, R. Gonzalez, P. Winston, K. Fu, Ya. Z. Tsypkin e outros) dão uma tipologia diferente de métodos de reconhecimento de padrões. Alguns autores distinguem entre métodos paramétricos, não paramétricos e heurísticos, enquanto outros destacam grupos de métodos baseados em escolas históricas e tendências da área. Por exemplo, no trabalho, que dá uma visão acadêmica dos métodos de reconhecimento, é usada a seguinte tipologia de métodos de reconhecimento de padrões:

  • métodos baseados no princípio da separação;
  • Métodos estatísticos;
  • métodos construídos com base em "funções potenciais";
  • métodos de cálculo de notas (votação);
  • métodos baseados no cálculo proposicional, em particular no aparato da álgebra da lógica.

Esta classificação baseia-se na diferença dos métodos formais de reconhecimento de padrões e, portanto, é omitida a consideração da abordagem heurística de reconhecimento, que recebeu desenvolvimento completo e adequado em sistemas especialistas. A abordagem heurística baseia-se no conhecimento e na intuição do pesquisador de difícil formalização. Ao mesmo tempo, o próprio pesquisador determina quais informações e como o sistema deve usar para alcançar o efeito de reconhecimento desejado.

Uma tipologia semelhante de métodos de reconhecimento com vários graus de detalhes é encontrada em muitos trabalhos sobre reconhecimento. Ao mesmo tempo, tipologias conhecidas não levam em conta uma característica muito significativa, que reflete as especificidades da forma como o conhecimento sobre a área temática é representado por meio de algum algoritmo formal de reconhecimento de padrões.

D.A. Pospelov (1990) identifica duas formas principais de representar o conhecimento:

  • intencional, na forma de um esquema de conexões entre atributos (features).
  • extensional, com a ajuda de fatos específicos (objetos, exemplos).

A representação intencional captura os padrões e relacionamentos que explicam a estrutura dos dados. No que diz respeito às tarefas de diagnóstico, tal fixação consiste em determinar as operações sobre os atributos (features) dos objetos que conduzem ao resultado de diagnóstico requerido. As representações intencionais são implementadas por meio de operações sobre valores de atributos e não implicam operações sobre fatos de informação específicos (objetos).

Por sua vez, as representações extensionais do conhecimento estão associadas à descrição e fixação de objetos específicos da área temática e são implementadas em operações, cujos elementos são objetos como sistemas integrais.

É possível traçar uma analogia entre as representações intensionais e extensionais do conhecimento e os mecanismos subjacentes à atividade dos hemisférios esquerdo e direito do cérebro humano. Se o hemisfério direito é caracterizado por uma representação prototípica holística do mundo circundante, então o hemisfério esquerdo opera com padrões que refletem as conexões dos atributos desse mundo.

As duas formas fundamentais de representação do conhecimento descritas acima nos permitem propor a seguinte classificação de métodos de reconhecimento de padrões:

  • métodos intensionais baseados em operações com atributos.
  • métodos extensionais baseados em operações com objetos.

É necessário enfatizar que a existência desses dois (e apenas dois) grupos de métodos de reconhecimento: os que operam com feições e os que operam com objetos, é profundamente natural. Deste ponto de vista, nenhum destes métodos, tomados separadamente do outro, permite formar uma reflexão adequada da área temática. Segundo os autores, entre esses métodos existe uma relação de complementaridade no sentido de N. Bohr, portanto, sistemas de reconhecimento promissores devem garantir a implementação de ambos os métodos, e não apenas de um deles.

Assim, a classificação dos métodos de reconhecimento proposta por D. A. Pospelov baseia-se nas leis fundamentais que fundamentam o modo de cognição humano em geral, o que o coloca em uma posição muito especial (privilegiada) em relação a outras classificações, que, neste contexto, procuram mais leve e artificial.

Métodos Intensionais

Uma característica distintiva dos métodos intensionais é que eles utilizam diferentes características de recursos e seus relacionamentos como elementos de operações na construção e aplicação de algoritmos de reconhecimento de padrões. Tais elementos podem ser valores individuais ou intervalos de valores de características, valores médios e variâncias, matrizes de relações de características, etc., sobre as quais as ações são executadas, expressas de forma analítica ou construtiva. Ao mesmo tempo, os objetos nesses métodos não são considerados unidades de informação integral, mas atuam como indicadores para avaliar a interação e o comportamento de seus atributos.

O grupo de métodos de reconhecimento de padrões intensionais é extenso, e sua divisão em subclasses é um tanto arbitrária.

Métodos baseados em estimativas das densidades de distribuição de valores de características

Esses métodos de reconhecimento de padrões são emprestados da teoria clássica das decisões estatísticas, na qual os objetos de estudo são considerados como realizações de uma variável aleatória multidimensional distribuída no espaço de características de acordo com alguma lei. Eles são baseados em um esquema de tomada de decisão Bayesiano que apela a probabilidades a priori de objetos pertencentes a uma determinada classe reconhecível e densidades de distribuição condicional de valores de vetores de características. Esses métodos são reduzidos a determinar a razão de verossimilhança em diferentes áreas do espaço de características multidimensionais.

O grupo de métodos baseados na estimativa das densidades de distribuição de valores de características está diretamente relacionado aos métodos de análise discriminante. A abordagem bayesiana para a tomada de decisão é uma das mais desenvolvidas na estatística moderna, os chamados métodos paramétricos, para os quais se considera conhecida a expressão analítica da lei de distribuição (neste caso, a lei normal), e apenas uma pequeno número de parâmetros (vetores médios e matrizes de covariância) precisam ser estimados.

As principais dificuldades na aplicação desses métodos são a necessidade de lembrar toda a amostra de treinamento para calcular estimativas de densidades de distribuição de probabilidade local e alta sensibilidade à não representatividade da amostra de treinamento.

Métodos baseados em suposições sobre a classe de funções de decisão

Neste grupo de métodos, a forma geral da função de decisão é considerada conhecida e seu funcional de qualidade é dado. Com base nesse funcional, a melhor aproximação da função de decisão é encontrada a partir da sequência de treinamento. As mais comuns são representações de funções de decisão na forma de polinômios lineares e não lineares generalizados. O funcional de qualidade da regra de decisão geralmente está associado ao erro de classificação.

A principal vantagem dos métodos baseados em suposições sobre a classe das funções de decisão é a clareza da formulação matemática do problema de reconhecimento como um problema de encontrar um extremo. A variedade de métodos deste grupo é explicada pela ampla gama de funcionais de qualidade de regra de decisão usados ​​e algoritmos de busca extrema. Uma generalização dos algoritmos considerados, que incluem, em particular, o algoritmo de Newton, algoritmos do tipo perceptron, etc., é o método de aproximação estocástica.

As possibilidades de algoritmos de gradiente para encontrar um extremo, especialmente no grupo de regras de decisão linear, têm sido bastante estudadas. A convergência desses algoritmos foi provada apenas para o caso em que as classes reconhecíveis de objetos são exibidas no espaço de características por estruturas geométricas compactas.

Uma qualidade suficientemente alta da regra de decisão pode ser alcançada usando algoritmos que não possuem uma prova matemática rigorosa da convergência da solução para o extremo global. Tais algoritmos incluem um grande grupo de procedimentos de programação heurística que representam a direção da modelagem evolutiva. A modelagem evolutiva é um método biônico emprestado da natureza. Baseia-se no uso de mecanismos de evolução conhecidos para substituir o processo de modelagem significativa de um objeto complexo pela modelagem fenomenológica de sua evolução. Um representante bem conhecido da modelagem evolutiva no reconhecimento de padrões é o método de contabilidade de grupo de argumentos (MGUA). O GMDH é baseado no princípio da auto-organização, e os algoritmos GMDH reproduzem o esquema de seleção em massa.

No entanto, a realização de objetivos práticos neste caso não é acompanhada pela extração de novos conhecimentos sobre a natureza dos objetos reconhecíveis. A possibilidade de extrair esse conhecimento, em particular o conhecimento sobre os mecanismos de interação de atributos (características), é fundamentalmente limitada aqui pela estrutura dada de tal interação, fixada na forma escolhida de funções decisivas.

Métodos Booleanos

Os métodos lógicos de reconhecimento de padrões são baseados no aparato da álgebra lógica e permitem operar com informações contidas não apenas em características individuais, mas também em combinações de valores de características. Nesses métodos, os valores de qualquer atributo são considerados como eventos elementares.

Na forma mais geral, os métodos lógicos podem ser caracterizados como uma espécie de busca de padrões lógicos na amostra de treinamento e a formação de um determinado sistema de regras de decisão lógica (por exemplo, na forma de conjunções de eventos elementares), cada um deles que tem seu próprio peso. O grupo de métodos lógicos é diversificado e inclui métodos de complexidade e profundidade de análise variadas. Para recursos dicotômicos (booleanos), os chamados classificadores em forma de árvore, o método de teste sem saída, o algoritmo Bark etc. são populares.

O algoritmo Kora, como outros métodos lógicos de reconhecimento de padrões, é bastante trabalhoso em termos de computação, pois é necessária uma enumeração completa ao selecionar as conjunções. Portanto, ao aplicar métodos lógicos, altos requisitos são colocados na organização eficiente do processo computacional, e esses métodos funcionam bem com dimensões relativamente pequenas do espaço de recursos e apenas em computadores poderosos.

Métodos linguísticos (estruturais)

Os métodos linguísticos de reconhecimento de padrões são baseados no uso de gramáticas especiais que geram linguagens que podem ser usadas para descrever um conjunto de propriedades de objetos reconhecíveis.

Para diferentes classes de objetos, são distinguidos elementos não derivativos (atômicos) (subimagens, signos) e possíveis relações entre eles. A gramática refere-se às regras para construir objetos a partir desses elementos não derivados.

Assim, cada objeto é uma coleção de elementos não derivativos, “conectados” uns aos outros de uma forma ou de outra, ou seja, por uma “frase” de alguma “linguagem”. Gostaria de enfatizar o valor ideológico muito significativo desse pensamento.

Ao analisar (parsing) uma "frase", sua "correção" sintática é determinada, ou, de forma equivalente, se alguma gramática fixa que descreve uma classe pode gerar uma descrição de objeto existente.

No entanto, a tarefa de recuperar (definir) gramáticas a partir de um determinado conjunto de declarações (frases - descrições de objetos) que geram uma determinada linguagem é difícil de formalizar.

Métodos extensionais

Nos métodos deste grupo, ao contrário da direção intensional, cada objeto estudado recebe um valor diagnóstico independente em maior ou menor grau. Em sua essência, esses métodos estão próximos da abordagem clínica, que considera as pessoas não como uma cadeia de objetos classificados de acordo com um ou outro indicador, mas como sistemas integrais, cada um dos quais é individual e tem um valor diagnóstico especial. Tal atitude cuidadosa em relação aos objetos de estudo não permite excluir ou perder informações sobre cada objeto individual, o que ocorre quando se aplicam os métodos de direção intencional, utilizando objetos apenas para detectar e fixar os padrões de comportamento de seus atributos.

As principais operações no reconhecimento de padrões usando os métodos discutidos são as operações de determinação da similaridade e diferença de objetos. Objetos no grupo especificado de métodos desempenham o papel de precedentes diagnósticos. Ao mesmo tempo, dependendo das condições de uma determinada tarefa, o papel de um precedente individual pode variar dentro dos mais amplos limites: desde o principal e definidor até a participação muito indireta no processo de reconhecimento. Por sua vez, as condições do problema podem exigir a participação de um número diferente de precedentes diagnósticos para uma solução bem-sucedida: de um em cada classe reconhecível até o tamanho total da amostra, bem como diferentes formas de calcular as medidas de similaridade e diferença de objetos. Esses requisitos explicam a divisão adicional dos métodos extensionais em subclasses.

Método de comparação de protótipo

Este é o método de reconhecimento extensional mais simples. É usado, por exemplo, no caso em que as classes reconhecidas são exibidas no espaço de características por agrupamentos geométricos compactos. Nesse caso, o centro do agrupamento geométrico da classe (ou o objeto mais próximo do centro) geralmente é escolhido como ponto protótipo.

Para classificar um objeto desconhecido, o protótipo mais próximo dele é encontrado, e o objeto pertence à mesma classe desse protótipo. Obviamente, nenhuma imagem de classe generalizada é formada neste método.

Vários tipos de distâncias podem ser usados ​​como medida de proximidade. Muitas vezes para feições dicotômicas, a distância de Hamming é usada, que neste caso é igual ao quadrado da distância euclidiana. Neste caso, a regra de decisão para classificar objetos é equivalente a uma função de decisão linear.

Este fato deve ser especialmente observado. Demonstra claramente a conexão entre protótipo e representação indicativa de informações sobre a estrutura de dados. Usando a representação acima, por exemplo, qualquer escala de medição tradicional, que é uma função linear dos valores de características dicotômicas, pode ser considerada como um protótipo diagnóstico hipotético. Por sua vez, se a análise da estrutura espacial das classes reconhecidas nos permite concluir que elas são geometricamente compactas, basta substituir cada uma dessas classes por um protótipo, que na verdade equivale a um modelo de diagnóstico linear.

Na prática, é claro, a situação é muitas vezes diferente do exemplo idealizado descrito. Um pesquisador que pretenda aplicar um método de reconhecimento baseado na comparação com os protótipos de classes diagnósticas enfrenta problemas difíceis.

Em primeiro lugar, é a escolha de uma medida de proximidade (métrica), que pode alterar significativamente a configuração espacial da distribuição dos objetos. Em segundo lugar, um problema independente é a análise de estruturas multidimensionais de dados experimentais. Ambos os problemas são especialmente agudos para o pesquisador em condições de alta dimensão do espaço de características, o que é típico para problemas reais.

k método do vizinho mais próximo

O método dos k vizinhos mais próximos para resolver problemas de análise discriminante foi proposto pela primeira vez em 1952. É o seguinte.

Ao classificar um objeto desconhecido, um determinado número (k) de outros objetos geometricamente mais próximos a ele no espaço de características (vizinhos mais próximos) com já conhecidos pertencentes a classes reconhecíveis é encontrado. A decisão de atribuir um objeto desconhecido a uma determinada classe de diagnóstico é feita analisando informações sobre essa associação conhecida de seus vizinhos mais próximos, por exemplo, usando uma simples contagem de votos.

Inicialmente, o método dos k vizinhos mais próximos foi considerado um método não paramétrico para estimar a razão de verossimilhança. Para este método, são obtidas estimativas teóricas de sua eficácia em comparação com o classificador bayesiano ótimo. Prova-se que as probabilidades de erro assintótico para o método dos k vizinhos mais próximos excedem os erros da regra de Bayes em não mais que duas vezes.

Ao utilizar o método dos k vizinhos mais próximos para reconhecimento de padrões, o pesquisador tem que resolver o difícil problema de escolher uma métrica para determinar a proximidade dos objetos diagnosticados. Este problema nas condições de alta dimensão do espaço de características torna-se extremamente agravado devido à complexidade suficiente deste método, que se torna significativo mesmo para computadores de alto desempenho. Portanto, aqui, assim como no método de comparação de protótipos, é necessário resolver o problema criativo de analisar a estrutura multidimensional de dados experimentais para minimizar o número de objetos representando classes diagnósticas.

A necessidade de reduzir o número de objetos na amostra de treinamento (precedentes de diagnóstico) é uma desvantagem desse método, pois reduz a representatividade da amostra de treinamento.

Algoritmos para calcular notas ("votação")

O princípio de funcionamento dos algoritmos de avaliação (ABO) é calcular prioridades (escores de similaridade) que caracterizam a “proximidade” dos objetos reconhecidos e de referência de acordo com o sistema de conjuntos de características, que é um sistema de subconjuntos de um determinado conjunto de características .

Ao contrário de todos os métodos considerados anteriormente, os algoritmos para calcular estimativas operam com descrições de objetos de uma maneira fundamentalmente nova. Para esses algoritmos, os objetos existem simultaneamente em subespaços muito diferentes do espaço de características. A classe ABO traz a ideia de usar recursos à sua conclusão lógica: como nem sempre se sabe quais combinações de recursos são as mais informativas, no ABO o grau de similaridade dos objetos é calculado comparando todas as combinações possíveis ou certas de recursos incluídos nas descrições dos objetos.

As combinações de atributos utilizadas (subespaços) são chamadas de conjuntos de suporte ou conjuntos de descrições parciais de objetos. É introduzido o conceito de proximidade generalizada entre o objeto reconhecido e os objetos da amostra de treinamento (com uma classificação conhecida), que são chamados de objetos de referência. Essa proximidade é representada por uma combinação da proximidade do objeto reconhecido com os objetos de referência calculados em conjuntos de descrições parciais. Assim, ABO é uma extensão do método dos k vizinhos mais próximos, no qual a proximidade dos objetos é considerada apenas em um determinado espaço de características.

Outra extensão do ABO é que nesses algoritmos o problema de determinar a semelhança e a diferença de objetos é formulado como paramétrico e o estágio de ajuste do ABO na amostra de treinamento é selecionado, no qual os valores ótimos dos valores inseridos parâmetros são selecionados. O critério de qualidade é o erro de reconhecimento, e literalmente tudo é parametrizado:

  • regras para calcular a proximidade de objetos por características individuais;
  • regras para calcular a proximidade de objetos em subespaços de recursos;
  • o grau de importância de um determinado objeto de referência como precedente diagnóstico;
  • o significado da contribuição de cada conjunto de características de referência para a avaliação final da semelhança do objeto reconhecido com qualquer classe diagnóstica.

Os parâmetros do resfriador de ar são definidos na forma de valores limite e (ou) como pesos dos componentes indicados.

As possibilidades teóricas do ABO não são pelo menos inferiores às de qualquer outro algoritmo de reconhecimento de padrões, uma vez que com a ajuda do ABO todas as operações concebíveis com os objetos em estudo podem ser implementadas.

Mas, como costuma acontecer, a expansão das potencialidades encontra grandes dificuldades na sua implementação prática, principalmente na fase de construção (tuning) de algoritmos deste tipo.

Dificuldades separadas foram observadas anteriormente ao discutir o método dos k vizinhos mais próximos, que pode ser interpretado como uma versão truncada do ABO. Também pode ser considerado de forma paramétrica e reduzir o problema a encontrar uma métrica ponderada do tipo selecionado. Ao mesmo tempo, questões teóricas complexas e problemas associados à organização de um processo computacional eficiente já surgem aqui para problemas de alta dimensão.

Para ABO, se você tentar usar os recursos desses algoritmos na íntegra, essas dificuldades aumentam muitas vezes.

Os problemas observados explicam o fato de que na prática o uso do ABO para resolver problemas de alta dimensão é acompanhado pela introdução de quaisquer restrições e suposições heurísticas. Em particular, há um exemplo do uso do ABO em psicodiagnóstico, no qual foi testada uma versão do ABO, que na verdade é equivalente ao método dos k vizinhos mais próximos.

Coletivos de Regras Decisivas

Ao final da revisão dos métodos de reconhecimento de padrões, vamos nos deter em mais uma abordagem. Estas são as chamadas equipes de regras de decisão (CRC).

Uma vez que diferentes algoritmos de reconhecimento se comportam de forma diferente na mesma amostra de objetos, surge naturalmente a questão de uma regra de decisão sintética que usa adaptativamente os pontos fortes desses algoritmos. A regra de decisão sintética usa um esquema de reconhecimento de dois níveis. No primeiro nível, os algoritmos de reconhecimento privado funcionam, cujos resultados são combinados no segundo nível no bloco de síntese. Os métodos mais comuns de tal combinação são baseados na alocação de áreas de competência de um determinado algoritmo. A maneira mais simples de encontrar áreas de competência é dividir a priori o espaço de características com base nas considerações profissionais de uma determinada ciência (por exemplo, estratificação da amostra de acordo com alguma característica). Em seguida, para cada uma das áreas selecionadas, é construído seu próprio algoritmo de reconhecimento. Outro método é baseado no uso de análise formal para determinar áreas locais do espaço de características como vizinhanças de objetos reconhecíveis para os quais o sucesso de qualquer algoritmo de reconhecimento particular foi comprovado.

A abordagem mais geral para a construção de um bloco de síntese considera os indicadores resultantes de algoritmos parciais como características iniciais para a construção de uma nova regra de decisão generalizada. Neste caso, todos os métodos acima de direções intensional e extensional no reconhecimento de padrões podem ser usados. Eficazes para resolver o problema de criar um conjunto de regras de decisão são algoritmos lógicos do tipo “Kora” e algoritmos para cálculo de estimativas (ABO), que formam a base da chamada abordagem algébrica, que fornece pesquisa e descrição construtiva de algoritmos de reconhecimento, dentro dos quais se encaixam todos os tipos de algoritmos existentes.

Análise comparativa de métodos de reconhecimento de padrões

Vamos comparar os métodos de reconhecimento de padrões descritos acima e avaliar o grau de sua adequação aos requisitos formulados na Seção 3.3.3 para modelos SDA para sistemas de controle automatizado adaptativo para sistemas complexos.

Para resolver problemas reais do conjunto de métodos da direção intencional, métodos paramétricos e métodos baseados em propostas sobre a forma de funções decisivas são de valor prático. Os métodos paramétricos formam a base da metodologia tradicional de construção de indicadores. A aplicação destes métodos em problemas reais está associada à imposição de fortes restrições na estrutura dos dados, que levam a modelos de diagnóstico lineares com estimativas muito aproximadas de seus parâmetros. Ao usar métodos baseados em suposições sobre a forma das funções de decisão, o pesquisador também é forçado a recorrer a modelos lineares. Isso se deve à alta dimensão do espaço de características, típica de problemas reais, que, com o aumento do grau da função de decisão polinomial, dá um grande aumento no número de seus membros com um aumento concomitante problemático na qualidade do reconhecimento. Assim, projetando a área de aplicação potencial de métodos de reconhecimento intencional a problemas reais, obtemos um quadro que corresponde à metodologia tradicional bem estabelecida de modelos de diagnóstico linear.

As propriedades dos modelos diagnósticos lineares, nos quais o indicador diagnóstico é representado por uma soma ponderada das características iniciais, são bem estudadas. Os resultados desses modelos (com normalização apropriada) são interpretados como distâncias dos objetos em estudo a algum hiperplano no espaço de características ou, equivalentemente, como projeções dos objetos em alguma linha reta no espaço dado. Portanto, os modelos lineares são adequados apenas para configurações geométricas simples de regiões do espaço de características nas quais são mapeados objetos de diferentes classes de diagnóstico. Com distribuições mais complexas, esses modelos fundamentalmente não podem refletir muitos recursos da estrutura de dados experimental. Ao mesmo tempo, esses recursos podem fornecer informações de diagnóstico valiosas.

Ao mesmo tempo, o aparecimento em qualquer problema real de estruturas multidimensionais simples (em particular, distribuições normais multidimensionais) deve ser visto como uma exceção e não como uma regra. Muitas vezes, as classes diagnósticas são formadas com base em critérios externos complexos, o que implica automaticamente na heterogeneidade geométrica dessas classes no espaço de características. Isto é especialmente verdadeiro para os critérios de “vida” que são mais frequentemente encontrados na prática. Sob tais condições, o uso de modelos lineares captura apenas os padrões mais "ásperos" de informações experimentais.

O uso de métodos extensionais não está associado a nenhuma suposição sobre a estrutura da informação experimental, exceto que dentro das classes reconhecidas deve haver um ou mais grupos de objetos que são um pouco semelhantes, e objetos de diferentes classes devem diferir uns dos outros em alguns aspectos. caminho. É óbvio que para qualquer dimensão finita da amostra de treinamento (e não pode ser diferente), esse requisito é sempre atendido simplesmente porque existem diferenças aleatórias entre os objetos. Várias medidas de proximidade (distância) de objetos no espaço de características são usadas como medidas de similaridade. Portanto, o uso efetivo de métodos de reconhecimento de padrões extensionais depende de quão bem essas medidas de proximidade são definidas, bem como de quais objetos da amostra de treinamento (objetos com uma classificação conhecida) desempenham o papel de precedentes diagnósticos. A solução bem-sucedida desses problemas dá um resultado que se aproxima dos limites teoricamente alcançáveis ​​da eficiência do reconhecimento.

As vantagens dos métodos extensionais de reconhecimento de padrões se opõem, em primeiro lugar, à alta complexidade técnica de sua implementação prática. Para espaços de características de alta dimensão, a tarefa aparentemente simples de encontrar pares de pontos mais próximos se torna um problema sério. Além disso, muitos autores notam como um problema a necessidade de lembrar um número suficientemente grande de objetos representando classes reconhecíveis.

Em si, isso não é um problema, mas é percebido como um problema (por exemplo, no método dos k vizinhos mais próximos) pelo motivo de que ao reconhecer cada objeto, ocorre uma enumeração completa de todos os objetos da amostra de treinamento.

Portanto, é aconselhável aplicar o modelo do sistema de reconhecimento, no qual o problema de uma enumeração completa dos objetos da amostra de treinamento durante o reconhecimento é removido, pois é realizado apenas uma vez ao formar imagens generalizadas de classes de reconhecimento. No próprio reconhecimento, o objeto identificado é comparado apenas com imagens generalizadas de classes de reconhecimento, cujo número é fixo e não depende em nada da dimensão da amostra de treinamento. Essa abordagem permite aumentar a dimensão da amostra de treinamento até que a alta qualidade necessária de imagens generalizadas seja alcançada, sem medo de que isso possa levar a um aumento inaceitável no tempo de reconhecimento (já que o tempo de reconhecimento neste modelo não depende de a dimensão do treinamento).

Os problemas teóricos de aplicação de métodos de reconhecimento extensional estão relacionados aos problemas de busca de grupos informativos de características, encontrar métricas ótimas para medir a similaridade e diferença de objetos e analisar a estrutura da informação experimental. Ao mesmo tempo, a solução bem-sucedida desses problemas permite não apenas projetar algoritmos de reconhecimento eficazes, mas também fazer a transição do conhecimento extensional dos fatos empíricos para o conhecimento intencional sobre os padrões de sua estrutura.

A transição do conhecimento extensional para o conhecimento intensional ocorre na fase em que um algoritmo de reconhecimento formal já foi construído e sua eficácia foi demonstrada. Em seguida, é realizado o estudo dos mecanismos pelos quais a eficiência obtida é alcançada. Tal estudo, associado à análise da estrutura geométrica dos dados, pode, por exemplo, levar à conclusão de que basta substituir os objetos que representam uma determinada classe diagnóstica por um representante típico (protótipo). Isso equivale, como observado acima, a definir uma escala de diagnóstico linear tradicional. Também é possível que seja suficiente substituir cada classe diagnóstica por vários objetos significativos como representantes típicos de algumas subclasses, o que equivale a construir um leque de escalas lineares. Existem outras opções, que serão discutidas abaixo.

Assim, uma revisão dos métodos de reconhecimento mostra que vários métodos diferentes de reconhecimento de padrões foram desenvolvidos teoricamente no presente. A literatura fornece uma classificação detalhada deles. No entanto, para a maioria desses métodos, sua implementação em software está ausente, e isso é profundamente natural, pode-se até dizer “predeterminado” pelas características dos próprios métodos de reconhecimento. Isso pode ser julgado pelo fato de tais sistemas serem pouco citados na literatura especializada e em outras fontes de informação.

Consequentemente, a questão da aplicabilidade prática de certos métodos de reconhecimento teórico para resolver problemas práticos com dimensões de dados reais (ou seja, bastante significativas) e em computadores modernos reais permanece insuficientemente desenvolvida.

A circunstância acima pode ser entendida se lembrarmos que a complexidade do modelo matemático aumenta exponencialmente a complexidade da implementação de software do sistema e, na mesma medida, reduz as chances de que esse sistema realmente funcione. Isso significa que apenas sistemas de software baseados em modelos matemáticos bastante simples e “transparentes” podem ser implementados no mercado. Portanto, um desenvolvedor interessado em replicar seu produto de software aborda a questão da escolha de um modelo matemático não do ponto de vista puramente científico, mas como um pragmatista, levando em consideração as possibilidades de implementação do software. Ele acredita que o modelo deve ser o mais simples possível, o que significa que deve ser implementado com menor custo e com melhor qualidade, e também deve funcionar (ser praticamente eficaz).

Nesse sentido, a tarefa de implementar em sistemas de reconhecimento um mecanismo para generalizar descrições de objetos pertencentes à mesma classe, ou seja, mecanismo para a formação de imagens generalizadas compactas. É óbvio que tal mecanismo de generalização permitirá "comprimir" qualquer amostra de treinamento em termos de dimensão para uma base de imagens generalizadas conhecidas antecipadamente em termos de dimensão. Isso também nos permitirá definir e resolver uma série de problemas que não podem ser formulados em métodos de reconhecimento como a comparação com o método do protótipo, o método dos k vizinhos mais próximos e ABO.

Estas são as tarefas:

  • determinar a contribuição de informações de recursos para o retrato de informações de uma imagem generalizada;
  • análise cluster-construtiva de imagens generalizadas;
  • determinação da carga semântica do atributo;
  • análise semântica de agrupamento de características;
  • uma comparação significativa de imagens de classes generalizadas entre si e recursos entre si (diagramas cognitivos, incluindo diagramas de Merlin).

O método que possibilitou a solução desses problemas também diferencia o sistema de perspectiva baseado nele de outros sistemas, assim como os compiladores diferem dos interpretadores, pois devido à formação de imagens generalizadas nesse sistema de perspectiva, o tempo de reconhecimento é independente do o tamanho da amostra de treinamento. Sabe-se que é a existência dessa dependência que leva a gastos praticamente inaceitáveis ​​de tempo computacional para reconhecimento em métodos como o método dos k vizinhos mais próximos, ABO e CRP em tais dimensões da amostra de treinamento, quando se pode falar em quantidade suficiente Estatisticas.

Em conclusão de uma breve revisão dos métodos de reconhecimento, apresentamos a essência do exposto em uma tabela resumo (Tabela 3.1), contendo uma breve descrição dos vários métodos de reconhecimento de padrões nos seguintes parâmetros:

  • classificação de métodos de reconhecimento;
  • áreas de aplicação dos métodos de reconhecimento;
  • classificação das limitações dos métodos de reconhecimento.
Classificação dos métodos de reconhecimento Area de aplicação Limitações (desvantagens)
Métodos de reconhecimento intensivo Métodos baseados em estimativas das densidades de distribuição de valores de características (ou semelhanças e diferenças entre objetos) Problemas com uma distribuição conhecida, geralmente normal, a necessidade de coletar grandes estatísticas A necessidade de enumerar todo o conjunto de treinamento durante o reconhecimento, alta sensibilidade à não representatividade do conjunto de treinamento e artefatos
Métodos baseados em suposições sobre a classe de funções de decisão As classes devem ser bem separáveis, o sistema de características deve ser ortonnormal A forma da função de decisão deve ser conhecida antecipadamente. A impossibilidade de levar em conta novos conhecimentos sobre correlações entre características
Métodos Booleanos Ao selecionar regras de decisão lógica (conjunções), é necessária uma enumeração completa. Alta complexidade computacional
Métodos linguísticos (estruturais) Problemas de pequena dimensão do espaço de recursos A tarefa de restaurar (definir) a gramática de um determinado conjunto de declarações (descrições de objetos) é difícil de formalizar. Problemas teóricos não resolvidos
Métodos extensionais de reconhecimento Método de comparação de protótipo Problemas de pequena dimensão do espaço de recursos Alta dependência dos resultados da classificação em medidas de distância (métricas). Métrica ideal desconhecida
k método do vizinho mais próximo Alta dependência dos resultados da classificação em medidas de distância (métricas). A necessidade de uma enumeração completa da amostra de treinamento durante o reconhecimento. Complexidade computacional
Algoritmos para cálculo de notas (votação) AVO Problemas de pequena dimensão em termos de número de classes e funcionalidades Dependência dos resultados da classificação na medida de distância (métrica). A necessidade de uma enumeração completa da amostra de treinamento durante o reconhecimento. Alta complexidade técnica do método
Coletivos de Regras Decisivas (CRCs) Problemas de pequena dimensão em termos de número de classes e funcionalidades Complexidade técnica muito alta do método, o número não resolvido de problemas teóricos, tanto na determinação das áreas de competência de métodos particulares, quanto nos próprios métodos particulares

Tabela 3.1 - Tabela-resumo de classificação dos métodos de reconhecimento, comparação de suas áreas de aplicação e limitações

O papel e o lugar do reconhecimento de padrões na automação da gestão de sistemas complexos

O sistema de controle automatizado consiste em duas partes principais: o objeto de controle e o sistema de controle.

O sistema de controle executa as seguintes funções:

  • identificação do estado do objeto de controle;
  • desenvolvimento de uma ação de controle com base nos objetivos da gestão, levando em consideração o estado do objeto de controle e o ambiente;
  • fornecendo um efeito de controle sobre o objeto de controle.

O reconhecimento de padrões nada mais é do que a identificação do estado de algum objeto.

Portanto, a possibilidade de usar o sistema de reconhecimento de padrões na fase de identificação do estado do objeto de controle parece bastante óbvia e natural. No entanto, isso pode não ser necessário. Portanto, surge a pergunta em quais casos é aconselhável usar o sistema de reconhecimento no sistema de controle automatizado e em quais não é.

De acordo com os dados da literatura, em muitos sistemas de controle automatizados modernos e desenvolvidos anteriormente, nos subsistemas para identificar o estado do objeto de controle e gerar ações de controle, são usados ​​modelos matemáticos determinísticos de “contagem direta”, que determinam de forma inequívoca e simples o que a ver com o objeto de controle se ele tiver certos parâmetros externos.

Ao mesmo tempo, a questão de como esses parâmetros estão relacionados a determinados estados do objeto de controle não é levantada ou resolvida. Esta posição corresponde ao ponto de vista, que consiste no facto de a sua relação um-para-um ser aceite “por defeito”. Portanto, os termos: "parâmetros do objeto de controle" e "estado do objeto de controle" são considerados como sinônimos, e o conceito de "estado do objeto de controle" não é introduzido explicitamente. No entanto, é óbvio que, no caso geral, a relação entre os parâmetros observados do objeto de controle e seu estado é dinâmica e probabilística.

Assim, os sistemas de controle automatizados tradicionais são essencialmente sistemas de controle paramétricos, ou seja, sistemas que gerenciam não os estados do objeto de controle, mas apenas seus parâmetros observáveis. A decisão sobre a ação de controle é tomada em tais sistemas como se "às cegas", ou seja, sem formar uma imagem holística do objeto de controle e do ambiente em seu estado atual, bem como sem prever o desenvolvimento do ambiente e a reação do objeto de controle a certas ações de controle sobre ele, agindo simultaneamente com a influência prevista do ambiente .

A partir das posições desenvolvidas neste artigo, o termo "tomada de decisão" no sentido moderno dificilmente é aplicável aos sistemas de controle automatizados tradicionais. O fato é que a “tomada de decisão”, pelo menos, envolve uma visão holística de um objeto no ambiente, e não apenas em seu estado atual, mas também em dinâmica, e em interação tanto entre si quanto com o sistema de controle, envolve a consideração de várias opções alternativas para o desenvolvimento de todo este sistema, bem como o estreitamento da diversidade (redução) dessas alternativas com base em determinados critérios-alvo. Nada disso, obviamente, não está no ACS tradicional, ou está, mas de forma simplificada.

É claro que o método tradicional é adequado e sua aplicação é bastante correta e justificada nos casos em que o objeto de controle é de fato um sistema estável e rigidamente determinado, e a influência do ambiente sobre ele pode ser desprezada.

No entanto, em outros casos, este método é ineficaz.

Se o objeto de controle é dinâmico, os modelos subjacentes aos seus algoritmos de controle rapidamente se tornam inadequados, pois a relação entre os parâmetros de entrada e saída muda, bem como o próprio conjunto de parâmetros essenciais. Em essência, isso significa que os sistemas de controle automatizados tradicionais são capazes de controlar o estado do objeto de controle apenas próximo ao ponto de equilíbrio por meio de ações de controle fracas sobre ele, ou seja, pelo método de pequenas perturbações. Longe do estado de equilíbrio, do ponto de vista tradicional, o comportamento do objeto de controle parece imprevisível e incontrolável.

Se não houver uma relação inequívoca entre os parâmetros de entrada e saída do objeto de controle (ou seja, entre os parâmetros de entrada e o estado do objeto), ou seja, se essa relação tiver uma natureza probabilística pronunciada, então os modelos determinísticos, em onde se assume que o resultado da medição de um determinado parâmetro é simplesmente número, inicialmente não aplicável. Além disso, a forma dessa relação pode simplesmente ser desconhecida, e então é necessário partir da suposição mais geral: que ela é probabilística, ou não definida.

Um sistema de controle automatizado construído sobre princípios tradicionais só pode funcionar com base em parâmetros, cujos padrões de relacionamento já são conhecidos, estudados e refletidos no modelo matemático, neste estudo a tarefa foi definida para desenvolver tais métodos para projetar controle automatizado sistemas que permitirão criar sistemas que possam identificar e definir os parâmetros mais significativos e determinar a natureza das ligações entre eles e os estados do objeto de controle.

Neste caso, é necessário aplicar métodos de medição mais desenvolvidos e adequados à situação real:

  • classificação ou reconhecimento de padrões (aprendizagem baseada numa amostra de treino, adaptabilidade de algoritmos de reconhecimento, adaptabilidade de conjuntos de classes e parâmetros estudados, selecção dos parâmetros mais significativos e redução da dimensão de descrição mantendo uma dada redundância, etc.);
  • medidas estatísticas, quando o resultado da medição de um determinado parâmetro não é um único número, mas uma distribuição de probabilidade: uma mudança em uma variável estatística não significa uma mudança em seu valor em si, mas uma mudança nas características da distribuição de probabilidade de seus valores.

Como resultado, os sistemas de controle automatizados baseados na abordagem determinística tradicional praticamente não funcionam com objetos de controle dinâmicos multiparâmetros e fracamente determinados, como, por exemplo, sistemas macro e micro-socioeconômicos em uma economia dinâmica do “ período de transição”, elite hierárquica e grupos étnicos, sociedade e eleitorado, fisiologia e psique humana, ecossistemas naturais e artificiais e muitos outros.

É muito significativo que, em meados dos anos 80, a escola de I.Prigozhin tenha desenvolvido uma abordagem segundo a qual, no desenvolvimento de qualquer sistema (incluindo uma pessoa), períodos alternados durante os quais o sistema se comporta como “principalmente determinista”, ou como "principalmente aleatório". Naturalmente, um sistema de controle real deve gerenciar de forma estável o objeto de controle não apenas em seções “determinísticas” de sua história, mas também em pontos em que seu comportamento posterior se torna altamente incerto. Isso por si só significa que é necessário desenvolver abordagens para o gerenciamento de sistemas em cujo comportamento há um grande elemento de aleatoriedade (ou o que atualmente é descrito matematicamente como "aleatoriedade").

Portanto, a composição de sistemas de controle automatizados promissores que fornecem controle de sistemas dinâmicos complexos multiparamétricos fracamente determinísticos, como elos funcionais essenciais, aparentemente incluirá subsistemas para identificar e prever os estados do ambiente e do objeto de controle, baseados em métodos de inteligência artificial (principalmente reconhecimento de padrões), métodos de apoio à tomada de decisão e teoria da informação.

Consideremos brevemente a questão do uso de sistemas de reconhecimento de imagem para tomar uma decisão sobre uma ação de controle (essa questão será discutida com mais detalhes posteriormente, pois é a chave para este trabalho). Se tomarmos o alvo e outros estados do objeto de controle como classes de reconhecimento, e os fatores que o influenciam como sinais, então uma medida da relação entre fatores e estados pode ser formada no modelo de reconhecimento de padrões. Isso permite obter informações sobre os fatores que contribuem ou dificultam sua transição para esse estado, com base em um determinado estado do objeto de controle, e, a partir disso, desenvolver uma decisão sobre a ação de controle.

Os fatores podem ser divididos nos seguintes grupos:

  • caracterizar a pré-história do objeto de controle;
  • caracterizar o estado atual do objeto de controle;
  • Fatores Ambientais;
  • fatores tecnológicos (gerenciados).

Assim, os sistemas de reconhecimento de imagem podem ser usados ​​como parte de um sistema de controle automatizado: em subsistemas para identificar o estado de um objeto de controle e gerar ações de controle.

Isso é útil quando o objeto de controle é um sistema complexo.

Tomar uma decisão sobre a ação de controle no sistema de controle automatizado

A solução do problema de síntese de sistemas de controle automatizados adaptativos por sistemas complexos é considerada neste artigo, levando em conta inúmeras e profundas analogias entre os métodos de reconhecimento de padrões e tomada de decisão.

Por um lado, a tarefa de reconhecimento de padrões é uma decisão sobre o pertencimento de um objeto reconhecível a uma determinada classe de reconhecimento.

Por outro lado, os autores propõem considerar o problema de tomada de decisão como um problema inverso de decodificação ou um problema inverso de reconhecimento de padrões (ver seção 2.2.2).

A semelhança das ideias básicas subjacentes aos métodos de reconhecimento de padrões e tomada de decisão torna-se especialmente óbvia quando as consideramos do ponto de vista da teoria da informação.

Variedade de tarefas de tomada de decisão

A tomada de decisão como a realização de um objetivo

Definição: tomar uma decisão (“escolha”) é uma ação sobre um conjunto de alternativas, como resultado do estreitamento do conjunto original de alternativas, ou seja, ele é reduzido.

A escolha é uma ação que dá propósito a toda atividade. É por meio de atos de escolha que se realiza a subordinação de toda atividade a um objetivo específico ou a um conjunto de objetivos inter-relacionados.

Assim, para que o ato de escolha se torne possível, é necessário o seguinte:

  • geração ou descoberta de um conjunto de alternativas sobre as quais fazer uma escolha;
  • determinação das metas para a realização das quais a escolha é feita;
  • desenvolvimento e aplicação de um método para comparar alternativas entre si, ou seja, determinação de uma classificação de preferência para cada alternativa de acordo com determinados critérios, permitindo avaliar indiretamente como cada alternativa atende ao objetivo.

O trabalho moderno no campo do suporte à decisão revelou uma situação característica, que consiste no fato de que a formalização completa de encontrar a melhor (em certo sentido) solução só é possível para problemas bem estudados e relativamente simples, enquanto na prática, problemas fracamente estruturados são mais comuns, para os quais algoritmos completamente formalizados não foram desenvolvidos (exceto para enumeração exaustiva e tentativa e erro). No entanto, profissionais experientes, competentes e capazes muitas vezes fazem escolhas que acabam sendo muito boas. Portanto, a tendência atual na prática de tomada de decisão em situações naturais é combinar a capacidade de uma pessoa de resolver problemas não formalizados com as capacidades de métodos formais e modelagem computacional: sistemas interativos de apoio à decisão, sistemas especialistas, sistemas adaptativos homem-máquina automatizados. sistemas de controle, redes neurais e sistemas cognitivos.

Tomada de decisão como remoção de incerteza (abordagem de informação)

O processo de obtenção de informação pode ser considerado como uma diminuição da incerteza como resultado do recebimento de um sinal, e a quantidade de informação como uma medida quantitativa do grau de remoção da incerteza.

Mas como resultado da escolha de algum subconjunto de alternativas do conjunto, ou seja, como resultado da tomada de uma decisão, acontece a mesma coisa (diminuição da incerteza). Isso significa que cada escolha, cada decisão gera uma certa quantidade de informação e, portanto, pode ser descrita em termos de teoria da informação.

Classificação de problemas de tomada de decisão

A multiplicidade de tarefas de tomada de decisão deve-se ao fato de que cada componente da situação em que a tomada de decisão é realizada pode ser implementado em opções qualitativamente diferentes.

Aqui estão apenas algumas dessas opções:

  • o conjunto de alternativas, por um lado, pode ser finito, contável ou contínuo e, por outro, pode ser fechado (ou seja, completamente conhecido) ou aberto (incluindo elementos desconhecidos);
  • as alternativas podem ser avaliadas de acordo com um ou mais critérios, que, por sua vez, podem ser quantitativos ou qualitativos;
  • o modo de seleção pode ser único (uma vez) ou múltiplo, repetitivo, incluindo feedback sobre os resultados da seleção, ou seja, permitir a aprendizagem de algoritmos de tomada de decisão, tendo em conta as consequências das eleições anteriores;
  • as consequências da escolha de cada alternativa podem ser conhecidas com precisão antecipadamente (escolha sob certeza), ter uma natureza probabilística quando as probabilidades de resultados possíveis são conhecidas após a escolha ser feita (escolha sob risco) ou ter um resultado ambíguo com probabilidades desconhecidas (escolha sob incerteza);
  • a responsabilidade pela escolha pode ser ausente, ser individual ou grupal;
  • o grau de consistência dos objetivos em uma escolha grupal pode variar desde a completa coincidência dos interesses das partes (escolha cooperativa) ao seu oposto (escolha em situação de conflito). Opções intermediárias também são possíveis: um compromisso, uma coalizão, um conflito crescente ou desaparecendo.

Várias combinações dessas opções levam a inúmeros problemas de tomada de decisão que foram estudados em graus variados.

Linguagens para descrever métodos de tomada de decisão

Um e o mesmo fenômeno pode ser falado em diferentes línguas de vários graus de generalidade e adequação. Até o momento, existem três linguagens principais para descrever a escolha.

A mais simples, mais desenvolvida e mais popular é a linguagem de critérios.

Idioma dos critérios

O nome dessa linguagem está associado à suposição básica de que cada alternativa individual pode ser avaliada por algum número específico (um), após o qual a comparação de alternativas é reduzida a uma comparação de seus números correspondentes.

Seja, por exemplo, (X) um conjunto de alternativas, e x uma alternativa definida pertencente a este conjunto: x∈X. Então considera-se que para todo x pode ser dada uma função q(x), que é chamada de critério (critério de qualidade, função objetivo, função de preferência, função de utilidade, etc.), que tem a propriedade de que se a alternativa x 1 for preferível a x 2 (indicado: x 1 > x 2), então q (x 1) > q (x 2).

Nesse caso, a escolha se reduz a encontrar uma alternativa com o maior valor da função critério.

No entanto, na prática, a utilização de apenas um critério para comparar o grau de preferência das alternativas acaba sendo uma simplificação injustificada, pois uma consideração mais detalhada das alternativas leva à necessidade de avaliá-las não de acordo com um, mas de acordo com muitos. critérios que podem ser de natureza diferente e qualitativamente diferentes entre si.

Por exemplo, ao escolher o tipo de aeronave mais aceitável para os passageiros e a organização operadora em determinados tipos de rotas, a comparação é realizada simultaneamente de acordo com vários grupos de critérios: técnicos, tecnológicos, econômicos, sociais, ergonômicos etc.

Os problemas multicritério não têm uma solução geral única. Portanto, muitas maneiras são propostas para dar a um problema multicritério uma forma particular que permite uma única solução geral. Naturalmente, essas soluções são geralmente diferentes para diferentes métodos. Portanto, talvez o principal na solução de um problema multicritério seja a justificativa desse tipo de sua formulação.

Várias opções para simplificar o problema de seleção multicritério são usadas. Vamos listar alguns deles.

  1. Maximização condicional (não é encontrado o extremo global do critério integral, mas o extremo local do critério principal).
  2. Procure uma alternativa com as propriedades dadas.
  3. Encontrando o conjunto de Pareto.
  4. Redução de um problema multicritério para um problema de critério único através da introdução de um critério integral.

Consideremos com mais detalhes a formulação formal do método de redução de um problema multicritério a um único critério.

Introduzimos o critério integral q 0 (x) como uma função escalar do argumento vetorial:

q 0 (x) = q 0 ((q 1 (x), q 2 (x), ..., q n (x)).

O critério integral permite ordenar as alternativas por q 0 , destacando a melhor (no sentido deste critério). A forma da função q 0 é determinada por quão especificamente imaginamos a contribuição de cada critério para o critério integral. Geralmente funções aditivas e multiplicativas são usadas:

q 0 = ∑a i ⋅q i /si

1 - q 0 = ∏(1 - b i ⋅q i /s i)

Coeficientes s i fornecem:

  1. Adimensionalidade ou uma única dimensão do número a i ⋅q i /s i (diferentes critérios particulares podem ter dimensões diferentes, e então é impossível realizar operações aritméticas neles e reduzi-los a um critério integral).
  2. Normalização, ou seja. provisão da condição: b i ⋅q i /s i<1.

Os coeficientes a i e b i refletem a contribuição relativa de critérios particulares q i para o critério integral.

Assim, em um cenário multicritério, o problema de tomar uma decisão sobre a escolha de uma das alternativas é reduzido a maximizar o critério integral:

x * = arg max(q 0 (q 1 (x), q 2 (x), ..., q n (x)))

O principal problema na formulação multicritério do problema de tomada de decisão é que é necessário encontrar tal forma analítica dos coeficientes a i e b i , que forneceria as seguintes propriedades do modelo:

  • alto grau de adequação da área temática e do ponto de vista dos especialistas;
  • dificuldades computacionais mínimas em maximizar o critério integral, ou seja, seu cálculo para diferentes alternativas;
  • estabilidade dos resultados da maximização do critério integral a partir de pequenas perturbações dos dados iniciais.
  • A estabilidade da solução significa que uma pequena mudança nos dados iniciais deve levar a uma pequena mudança no valor do critério integral e, consequentemente, a uma pequena mudança na decisão que está sendo tomada. Assim, se os dados iniciais são praticamente os mesmos, então a decisão deve ser igual ou muito próxima.

Linguagem de Seleção Binária Sequencial

A linguagem das relações binárias é uma generalização da linguagem multicritério e se baseia no fato de que quando avaliamos alguma alternativa, essa avaliação é sempre relativa, ou seja, explicitamente ou mais frequentemente implicitamente, outras alternativas do conjunto em estudo ou da população em geral são usadas como base ou quadro de referência para comparação. O pensamento humano é baseado na busca e análise de opostos (construtos), por isso é sempre mais fácil para nós escolher uma entre duas opções opostas do que uma opção de um conjunto grande e de forma alguma desordenado.

Assim, os principais pressupostos desta linguagem resumem-se ao seguinte:

  • uma única alternativa não é avaliada, ou seja, a função critério não é introduzida;
  • para cada par de alternativas, pode-se estabelecer de alguma forma que uma delas é preferível à outra, ou que são equivalentes ou incomparáveis;
  • a relação de preferência em qualquer par de alternativas não depende das outras alternativas apresentadas para escolha.

Existem várias maneiras de especificar relações binárias: direta, matricial, usando gráficos de preferência, o método das seções, etc.

As relações entre alternativas de um par são expressas através dos conceitos de equivalência, ordem e dominância.

Funções de linguagem generalizada de escolha

A linguagem de funções de escolha é baseada na teoria dos conjuntos e permite operar com mapeamentos de conjuntos para seus subconjuntos correspondentes a diferentes escolhas sem a necessidade de enumerar elementos. Esta linguagem é muito geral e potencialmente permite que qualquer escolha seja descrita. No entanto, o aparato matemático das funções de escolha generalizada está atualmente sendo desenvolvido e testado principalmente em problemas que já foram resolvidos usando abordagens criteriosas ou binárias.

escolha do grupo

Que haja um grupo de pessoas que tenham o direito de tomar parte nas decisões coletivas. Suponha que esse grupo esteja considerando algum conjunto de alternativas e cada membro do grupo faça sua escolha. A tarefa é desenvolver uma solução que de certa forma coordene as escolhas individuais e de alguma forma expresse a "opinião geral" do grupo, ou seja, tomada como uma escolha do grupo.

Naturalmente, diferentes decisões de grupo corresponderão a diferentes princípios de coordenação de decisões individuais.

As regras para coordenar decisões individuais em uma escolha de grupo são chamadas de regras de votação. A mais comum é a "regra da maioria", em que a decisão do grupo é tomada pela alternativa que recebe mais votos.

Deve-se entender que tal decisão reflete apenas a prevalência de diferentes pontos de vista no grupo, e não uma opção verdadeiramente ótima, na qual ninguém pode votar. "A verdade não é determinada pelo voto."

Além disso, existem os chamados "paradoxos do voto", sendo o mais famoso o paradoxo de Arrow.

Esses paradoxos podem levar, e às vezes levam, a aspectos muito desagradáveis ​​do procedimento de votação: por exemplo, há casos em que o grupo não pode tomar uma única decisão (não há quórum ou todos votam em sua própria opção única, etc.). .), e às vezes (na votação em vários estágios) a minoria pode impor sua vontade à maioria.

Escolha sob incerteza

A certeza é um caso especial de incerteza, a saber: é uma incerteza próxima de zero.

Na teoria da escolha moderna, acredita-se que existem três tipos principais de incerteza em problemas de tomada de decisão:

  1. Incerteza informacional (estatística) dos dados iniciais para a tomada de decisão.
  2. Incerteza das consequências da tomada de decisão (escolha).
  3. Vaguidade na descrição dos componentes do processo decisório.

Vamos considerá-los em ordem.

Incerteza informacional (estatística) nos dados iniciais

Os dados obtidos sobre a área temática não podem ser considerados como absolutamente precisos. Além disso, é óbvio que esses dados nos interessam não em si mesmos, mas apenas como sinais que, talvez, tragam certas informações sobre o que realmente nos interessa. Assim, é mais realista considerar que estamos lidando com dados que não são apenas ruidosos e imprecisos, mas também indiretos e possivelmente incompletos. Além disso, esses dados não dizem respeito a toda a população (geral) em estudo, mas apenas a um certo subconjunto dela, sobre o qual conseguimos coletar dados, mas ao mesmo tempo queremos tirar conclusões sobre toda a população, e também queremos saber o grau de confiabilidade dessas conclusões.

Nessas condições, é utilizada a teoria das decisões estatísticas.

Existem duas fontes principais de incerteza nesta teoria. Primeiro, não se sabe a qual distribuição os dados originais obedecem. Em segundo lugar, não se sabe qual distribuição possui o conjunto (população geral) sobre o qual queremos tirar conclusões de seu subconjunto que forma os dados iniciais.

Os procedimentos estatísticos são os procedimentos de tomada de decisão que removem esses dois tipos de incerteza.

Deve-se notar que há uma série de razões que levam à aplicação incorreta de métodos estatísticos:

  • inferências estatísticas, como qualquer outra, sempre têm alguma confiabilidade ou certeza definida. Mas, ao contrário de muitos outros casos, a confiabilidade dos achados estatísticos é conhecida e determinada no decorrer da pesquisa estatística;
  • a qualidade da solução obtida como resultado da aplicação do procedimento estatístico depende da qualidade dos dados iniciais;
  • os dados que não tenham natureza estatística não devem ser submetidos a tratamento estatístico;
  • é necessário utilizar procedimentos estatísticos correspondentes ao nível de informação a priori sobre a população em estudo (por exemplo, não se deve aplicar métodos de análise de variância a dados não gaussianos). Se a distribuição dos dados originais for desconhecida, deve-se estabelecê-la ou usar vários métodos diferentes e comparar os resultados. Se forem muito diferentes, isso indica a inaplicabilidade de alguns dos procedimentos utilizados.

Incerteza das Consequências

Quando as consequências da escolha de uma ou outra alternativa são determinadas exclusivamente pela própria alternativa, então não podemos distinguir entre uma alternativa e suas consequências, tomando como certo que escolhendo uma alternativa, na verdade escolhemos suas consequências.

No entanto, na prática real, muitas vezes temos que lidar com uma situação mais complexa, quando a escolha de uma ou outra alternativa determina de forma ambígua as consequências da escolha feita.

No caso de um conjunto discreto de alternativas e resultados de sua escolha, desde que o conjunto de resultados possíveis seja comum a todas as alternativas, podemos supor que diferentes alternativas diferem umas das outras na distribuição de probabilidades de resultados. Essas distribuições de probabilidade, no caso geral, podem depender dos resultados da escolha das alternativas e dos resultados que de fato ocorreram como resultado disso. No caso mais simples, os resultados são igualmente prováveis. Os próprios resultados geralmente têm o significado de ganhos ou perdas e são quantificados.

Se os resultados forem iguais para todas as alternativas, então não há nada a escolher. Se forem diferentes, as alternativas podem ser comparadas introduzindo certas estimativas quantitativas para elas. A variedade de problemas na teoria dos jogos está associada a uma escolha diferente de características numéricas de perdas e ganhos como resultado da escolha de alternativas, diferentes graus de conflito entre as partes que escolhem alternativas, etc.

Considere este tipo de incerteza como incerteza vaga

Qualquer problema de escolha é um objetivo de estreitamento do conjunto de alternativas. Tanto a descrição formal das alternativas (sua própria lista, a lista de seus atributos ou parâmetros) quanto a descrição das regras para sua comparação (critérios, relações) são sempre dadas em função de uma ou outra escala de medida (mesmo quando aquele que isso não sabe sobre isso).

Sabe-se que todas as escalas são borradas, mas em graus variados. O termo "borrão" refere-se à propriedade das escalas, que consiste no facto de ser sempre possível apresentar duas alternativas distinguíveis, i.e. diferentes em uma escala e indistinguíveis, ou seja, são idênticos, no outro - mais borrados. Quanto menos gradações em uma determinada escala, mais borrada ela é.

Assim, podemos ver claramente as alternativas e ao mesmo tempo classificá-las vagamente, ou seja, ser ambíguo quanto a quais classes pertencem.

Já em seu primeiro trabalho sobre tomada de decisão em uma situação difusa, Bellman e Zadeh apresentaram a ideia de que tanto as metas quanto as restrições devem ser representadas como conjuntos difusos (fuzzy) em um conjunto de alternativas.

Sobre algumas limitações da abordagem de otimização

Em todos os problemas de seleção e métodos de tomada de decisão considerados acima, o problema era encontrar os melhores no conjunto inicial sob determinadas condições, ou seja, alternativas ótimas em certo sentido.

A ideia de otimização é a ideia central da cibernética e entrou firmemente na prática de projetar e operar sistemas técnicos. Ao mesmo tempo, essa ideia precisa ser tratada com cautela quando tentamos transferi-la para a área de gestão de sistemas complexos, grandes e pouco determinados, como, por exemplo, sistemas socioeconômicos.

Há boas razões para esta conclusão. Vamos considerar alguns deles:

  1. A solução ótima muitas vezes acaba sendo instável, ou seja, pequenas mudanças nas condições do problema, dados de entrada ou restrições podem levar à seleção de alternativas significativamente diferentes.
  2. Os modelos de otimização são desenvolvidos apenas para classes restritas de tarefas bastante simples que nem sempre refletem de forma adequada e sistemática os objetos de controle reais. Na maioria das vezes, os métodos de otimização tornam possível otimizar apenas subsistemas bastante simples e bem descritos de alguns sistemas grandes e complexos, ou seja, permitem apenas otimização local. No entanto, se cada subsistema de algum grande sistema funcionar de forma otimizada, isso não significa que o sistema como um todo também funcionará de forma otimizada. Portanto, a otimização de um subsistema não leva necessariamente ao seu comportamento, que é exigido dele ao otimizar o sistema como um todo. Além disso, às vezes a otimização local pode levar a consequências negativas para o sistema como um todo. Portanto, ao otimizar os subsistemas e o sistema como um todo, é necessário determinar a árvore de metas e submetas e sua prioridade.
  3. Muitas vezes, maximizar o critério de otimização de acordo com algum modelo matemático é considerado o objetivo da otimização, mas na realidade o objetivo é otimizar o objeto de controle. Os critérios de otimização e os modelos matemáticos estão sempre relacionados ao objetivo apenas indiretamente, ou seja, mais ou menos adequados, mas sempre aproximados.

Assim, a ideia de otimalidade, que é extremamente frutífera para sistemas que se prestam à formalização matemática adequada, deve ser transferida com cautela para sistemas complexos. É claro que modelos matemáticos que às vezes podem ser propostos para tais sistemas podem ser otimizados. No entanto, deve-se sempre levar em conta a forte simplificação desses modelos, que no caso de sistemas complexos não pode mais ser negligenciada, bem como o fato de o grau de adequação desses modelos no caso de sistemas complexos ser desconhecido. . Portanto, não se sabe qual o significado puramente prático dessa otimização. A alta praticidade da otimização em sistemas técnicos não deve dar origem à ilusão de que ela será tão eficaz na otimização de sistemas complexos. A modelagem matemática significativa de sistemas complexos é muito difícil, aproximada e imprecisa. Quanto mais complexo o sistema, mais cuidadoso deve ser com a ideia de sua otimização.

Portanto, ao desenvolver métodos de controle para sistemas complexos, grandes e fracamente determinados, os autores consideram o principal não apenas a otimalidade da abordagem escolhida do ponto de vista matemático formal, mas também sua adequação ao objetivo e à própria natureza do problema. objeto de controle.

Métodos de seleção de especialistas

No estudo de sistemas complexos, muitas vezes surgem problemas que, por várias razões, não podem ser rigorosamente colocados e resolvidos usando o aparato matemático atualmente desenvolvido. Nestes casos, recorre-se aos serviços de especialistas (analistas de sistemas), cuja experiência e intuição ajudam a reduzir a complexidade do problema.

No entanto, deve-se levar em consideração que os próprios especialistas são sistemas altamente complexos e suas atividades também dependem de muitas condições externas e internas. Portanto, nos métodos de organização de avaliações de especialistas, muita atenção é dada à criação de condições externas e psicológicas favoráveis ​​​​para o trabalho de especialistas.

Os seguintes fatores influenciam o trabalho de um especialista:

  • responsabilidade pelo uso dos resultados do exame;
  • saber que outros especialistas estão envolvidos;
  • disponibilidade de contato de informações entre especialistas;
  • relações interpessoais dos especialistas (se houver contato de informações entre eles);
  • interesse pessoal do perito nos resultados da avaliação;
  • qualidades pessoais dos especialistas (auto-estima, conformidade, vontade, etc.)

A interação entre especialistas pode estimular ou inibir sua atividade. Portanto, em diferentes casos, são utilizados diferentes métodos de exame, que diferem na natureza da interação dos especialistas entre si: pesquisas e questionários anônimos e abertos, reuniões, discussões, jogos de negócios, brainstorming etc.

Existem vários métodos de processamento matemático de opiniões de especialistas. Pede-se aos especialistas que avaliem várias alternativas por um ou por um sistema de indicadores. Além disso, eles são solicitados a avaliar o grau de importância de cada indicador (seu "peso" ou "contribuição"). Aos próprios especialistas também é atribuído um nível de competência correspondente à contribuição de cada um deles para a opinião resultante do grupo.

Um método desenvolvido de trabalhar com especialistas é o método "Delphi". A ideia principal deste método é que a crítica e a argumentação tenham um efeito benéfico sobre o especialista, se sua autoestima não for afetada e forem fornecidas condições que excluam o confronto pessoal.

Deve-se enfatizar que há uma diferença fundamental na natureza do uso de métodos especialistas em sistemas especialistas e no suporte à decisão. Se no primeiro caso, os especialistas são obrigados a formalizar os métodos de tomada de decisão, no segundo - apenas a própria decisão, como tal.

Como os especialistas estão envolvidos na implementação precisamente daquelas funções que atualmente não são fornecidas por sistemas automatizados ou são executadas pior do que por humanos, uma direção promissora no desenvolvimento de sistemas automatizados é a automação máxima dessas funções.

Sistemas automatizados de apoio à decisão

Uma pessoa sempre usou assistentes na tomada de decisões: eles eram simplesmente fornecedores de informações sobre o objeto de controle e consultores (assessores) que oferecem opções para decisões e analisam suas consequências. A pessoa que toma as decisões sempre as tomava em um determinado ambiente de informação: para um comandante militar, este é o quartel-general, para o reitor, o conselho acadêmico, para o ministro, o collegium.

Em nosso tempo, a infraestrutura de informação para tomada de decisão é impensável sem sistemas automatizados para avaliação iterativa de decisões e principalmente sistemas de suporte à decisão (DDS - Decision Support Systems), ou seja, sistemas automatizados que são projetados especificamente para preparar as informações que uma pessoa precisa para tomar uma decisão. O desenvolvimento de sistemas de apoio à decisão é realizado, em particular, no âmbito de um projeto internacional realizado sob os auspícios do Instituto Internacional de Análise de Sistemas Aplicados em Laxenburg (Áustria).

A escolha em situações reais exige a realização de uma série de operações, algumas das quais são realizadas de forma mais eficiente por uma pessoa, e outras por uma máquina. A combinação eficaz de suas vantagens com a compensação simultânea de deficiências é incorporada em sistemas automatizados de suporte à decisão.

Uma pessoa toma decisões melhor do que uma máquina em condições de incerteza, mas para tomar a decisão certa, ela também precisa de informações adequadas (completas e confiáveis) que caracterizem a área de assunto. No entanto, sabe-se que uma pessoa não lida bem com grandes quantidades de informações "cruas" não processadas. Portanto, o papel da máquina no apoio à decisão pode ser realizar a preparação preliminar de informações sobre o objeto de controle e fatores incontroláveis ​​(ambiente), ajudar a visualizar as consequências de tomar certas decisões e também apresentar todas essas informações de forma visual. forma conveniente e conveniente para tomar decisões.

Assim, os sistemas automatizados de apoio à decisão compensam as fraquezas de uma pessoa, liberando-a da rotina de processamento preliminar de informações, e fornecendo-lhe um ambiente informacional confortável no qual ela pode mostrar melhor seus pontos fortes. Esses sistemas não estão focados em automatizar as funções do decisor (e, como resultado, alienar essas funções dele e, portanto, a responsabilidade pelas decisões tomadas, o que geralmente é inaceitável), mas em ajudá-lo a encontrar um boa solução.

Visão geral dos métodos de reconhecimento de padrões existentes

L.P. Popova , E SOBRE. Datav

A capacidade de "reconhecer" é considerada a principal propriedade do ser humano, como, aliás, de outros organismos vivos. O reconhecimento de padrões é uma seção da cibernética que desenvolve princípios e métodos para classificar e identificar objetos, fenômenos, processos, sinais, situações - todos aqueles objetos que podem ser descritos por um conjunto finito de algumas características ou propriedades que caracterizam um objeto.

Uma imagem é uma descrição de um objeto. As imagens têm uma propriedade característica, que se manifesta no fato de que o conhecimento de um número finito de fenômenos do mesmo conjunto permite reconhecer um número arbitrariamente grande de seus representantes.

Existem duas direções principais na teoria do reconhecimento de padrões:

    o estudo dos poderes de reconhecimento possuídos por seres humanos e outros organismos vivos;

    desenvolvimento da teoria e métodos para a construção de dispositivos destinados a resolver problemas individuais de reconhecimento de padrões em determinadas áreas de aplicação.

Além disso, o artigo descreve os problemas, princípios e métodos para implementação de sistemas de reconhecimento de padrões relacionados ao desenvolvimento da segunda direção. A segunda parte do artigo discute métodos de redes neurais de reconhecimento de padrões, que podem ser atribuídos à primeira direção da teoria do reconhecimento de padrões.

Problemas de construção de sistemas de reconhecimento de imagem

As tarefas que surgem na construção de sistemas de reconhecimento automático de padrões geralmente podem ser classificadas em várias áreas principais. A primeira delas está relacionada à apresentação dos dados iniciais obtidos como resultados de medições para o objeto a ser reconhecido. problema de sensibilidade. Cada valor medido é alguma "característica de uma imagem ou de um objeto. Suponha, por exemplo, que as imagens sejam caracteres alfanuméricos. Nesse caso, uma retina de medição, semelhante à mostrada na Fig. 1(a), pode ser usada com sucesso no sensor. Se a retina consiste em n-elementos, os resultados da medição podem ser representados como um vetor de medição ou um vetor de imagem ,

onde cada elemento xi assume, por exemplo, o valor 1 se a imagem do símbolo passar pela i-ésima célula da retina, e o valor 0 caso contrário.

Considere a Fig. 2(b). Neste caso, as imagens são funções contínuas (do tipo de sinais sonoros) da variável t. Se os valores da função são medidos em pontos discretos t1,t2, ..., tn, então o vetor imagem pode ser formado tomando x1= f(t1),x2=f(t2),... , xn = f(tn).

Figura 1. Medição da retina

O segundo problema de reconhecimento de padrões está relacionado à seleção de características ou propriedades características dos dados iniciais obtidos e à redução da dimensão dos vetores de padrões. Este problema é frequentemente definido como um problema pré-processamento e seleção de recursos.

Características de uma classe de imagens são propriedades características comuns a todas as imagens de uma determinada classe. As características que caracterizam as diferenças entre classes individuais podem ser interpretadas como características interclasses. As características intraclasse que são comuns a todas as classes consideradas não trazem informações úteis do ponto de vista do reconhecimento e podem não ser levadas em consideração. A escolha das características é considerada uma das tarefas importantes associadas à construção de sistemas de reconhecimento. Se os resultados da medição permitirem obter um conjunto completo de características distintivas para todas as classes, o reconhecimento e classificação reais dos padrões não causarão nenhuma dificuldade particular. O reconhecimento automático seria então reduzido a um simples processo de correspondência ou procedimentos, como pesquisas de tabela. Na maioria dos problemas práticos de reconhecimento, no entanto, determinar um conjunto completo de características distintivas é extremamente difícil, se não impossível. A partir dos dados originais, geralmente é possível extrair algumas das características distintivas e usá-las para simplificar o processo de reconhecimento automático de padrões. Em particular, a dimensão dos vetores de medição pode ser reduzida usando transformações que minimizam a perda de informação.

O terceiro problema associado à construção de sistemas de reconhecimento de padrões é encontrar os procedimentos de decisão ótimos necessários para identificação e classificação. Depois que os dados coletados sobre os padrões a serem reconhecidos forem representados por pontos ou vetores de medição no espaço de padrões, deixe a máquina descobrir a qual classe de padrões esses dados correspondem. Seja a máquina projetada para distinguir entre M classes, denotadas por w1, w2, ... ..., wm. Neste caso, pode-se considerar que o espaço de imagem consiste em M regiões, cada uma contendo pontos correspondentes a imagens da mesma classe. Neste caso, o problema de reconhecimento pode ser considerado como a construção dos limites das regiões de decisão separando M classes com base nos vetores de medição registrados. Deixe que esses limites sejam definidos, por exemplo, pelas funções de decisão d1(х),d2(x),..., dm(х). Essas funções, também chamadas de funções discriminantes, são funções escalares e de valor único da imagem de x. Se di (x) > dj (x), então a imagem de x pertence à classe w1. Em outras palavras, se a i-ésima função de decisão di(x) tiver o valor mais alto, então uma ilustração significativa de tal esquema de classificação automática baseado na implementação do processo de tomada de decisão é mostrada na Fig. 2 (no esquema "GR" - o gerador de funções decisivas).

Figura 2. Esquema de classificação automática.

As funções de decisão podem ser obtidas de várias maneiras. Nos casos em que informações a priori completas estão disponíveis sobre os padrões reconhecíveis, as funções de decisão podem ser determinadas exatamente com base nessas informações. Se apenas informações qualitativas estiverem disponíveis sobre os padrões, suposições razoáveis ​​podem ser feitas sobre a forma das funções de decisão. Neste último caso, os limites das regiões de decisão podem desviar-se significativamente dos verdadeiros e, portanto, é necessário criar um sistema capaz de chegar a um resultado satisfatório por meio de uma série de ajustes sucessivos.

Os objetos (imagens) a serem reconhecidos e classificados usando um sistema de reconhecimento automático de padrões devem ter um conjunto de características mensuráveis. Quando para um grupo inteiro de imagens os resultados das medidas correspondentes forem semelhantes, considera-se que esses objetos pertencem à mesma classe. O objetivo do sistema de reconhecimento de padrões é determinar, com base nas informações coletadas, uma classe de objetos com características semelhantes às medidas para objetos reconhecíveis. A exatidão do reconhecimento depende da quantidade de informações distintivas contidas nas características medidas e da eficiência do uso dessas informações.

      Métodos básicos para implementação de sistemas de reconhecimento de padrões

O reconhecimento de padrões é a tarefa de construir e aplicar operações formais sobre representações numéricas ou simbólicas de objetos do mundo real ou ideal, cujos resultados, cujas soluções refletem as relações de equivalência entre esses objetos. As relações de equivalência expressam o pertencimento dos objetos avaliados a algumas classes, consideradas como unidades semânticas independentes.

Ao construir algoritmos de reconhecimento, as classes de equivalência podem ser definidas por um pesquisador que usa suas próprias ideias significativas ou usa informações adicionais externas sobre a semelhança e diferença de objetos no contexto do problema que está sendo resolvido. Então se fala em "discernir com o professor". Caso contrário, ou seja quando um sistema automatizado resolve um problema de classificação sem envolver informações externas de treinamento, fala-se de classificação automática ou “reconhecimento não supervisionado”. A maioria dos algoritmos de reconhecimento de padrões requer o envolvimento de um poder computacional muito significativo, que só pode ser fornecido por tecnologia de computador de alto desempenho.

Vários autores (Yu.L. Barabash, V.I. Vasiliev, A.L. Gorelik, V.A. Skripkin, R. Duda, P. Hart, L.T. Kuzin, F.I. Peregudov, F.P. Tarasenko, Temnikov F.E., Afonin V.A., Dmitriev V.I., J. Tu, R. Gonzalez, P. Winston, K. Fu, Ya.Z. Tsypkin e outros) dão uma tipologia diferente de métodos de reconhecimento de padrões. Alguns autores distinguem métodos paramétricos, não paramétricos e heurísticos, enquanto outros destacam grupos de métodos baseados em escolas históricas e tendências neste campo.

Ao mesmo tempo, as tipologias conhecidas não levam em conta uma característica muito significativa, que reflete as especificidades da forma como o conhecimento sobre a área temática é representado por meio de qualquer algoritmo formal de reconhecimento de padrões. D.A. Pospelov identifica duas formas principais de representar o conhecimento:

    Representação intencional - na forma de diagrama de relações entre atributos (features).

    Representação extensional - com a ajuda de fatos concretos (objetos, exemplos).

Deve-se notar que a existência desses dois grupos de métodos de reconhecimento: os que operam com características e os que operam com objetos, é profundamente natural. Deste ponto de vista, nenhum destes métodos, tomados separadamente do outro, permite formar uma reflexão adequada da área temática. Entre esses métodos existe uma relação de complementaridade no sentido de N. Bohr, portanto, sistemas de reconhecimento promissores devem proporcionar a implementação de ambos os métodos, e não apenas de um deles.

Assim, a classificação dos métodos de reconhecimento proposta por D.A. Pospelov baseia-se nas leis fundamentais que fundamentam o modo de cognição humano em geral, o que o coloca em uma posição muito especial (privilegiada) em relação a outras classificações, que, neste contexto, procuram mais leve e artificial.

Métodos Intensionais

Uma característica distintiva dos métodos intensionais é que eles utilizam diferentes características de recursos e seus relacionamentos como elementos de operações na construção e aplicação de algoritmos de reconhecimento de padrões. Tais elementos podem ser valores individuais ou intervalos de valores de características, valores médios e variâncias, matrizes de relações de características, etc., sobre as quais as ações são executadas, expressas de forma analítica ou construtiva. Ao mesmo tempo, os objetos nesses métodos não são considerados unidades de informação integral, mas atuam como indicadores para avaliar a interação e o comportamento de seus atributos.

O grupo de métodos de reconhecimento de padrões intencional é extenso, e sua divisão em subclasses é um tanto arbitrária:

– métodos baseados em estimativas das densidades de distribuição de valores de características

– métodos baseados em suposições sobre a classe de funções de decisão

– métodos lógicos

– métodos linguísticos (estruturais).

Métodos baseados em estimativas das densidades de distribuição de valores de características. Esses métodos de reconhecimento de padrões são emprestados da teoria clássica das decisões estatísticas, na qual os objetos de estudo são considerados como realizações de uma variável aleatória multidimensional distribuída no espaço de características de acordo com alguma lei. Eles são baseados em um esquema de tomada de decisão Bayesiano que apela a probabilidades a priori de objetos pertencentes a uma determinada classe reconhecível e densidades de distribuição condicional de valores de vetores de características. Esses métodos são reduzidos a determinar a razão de verossimilhança em diferentes áreas do espaço de características multidimensionais.

O grupo de métodos baseados na estimativa das densidades de distribuição de valores de características está diretamente relacionado aos métodos de análise discriminante. A abordagem bayesiana para a tomada de decisão é uma das mais desenvolvidas na estatística moderna, os chamados métodos paramétricos, para os quais se considera conhecida a expressão analítica da lei de distribuição (neste caso, a lei normal), e apenas uma pequeno número de parâmetros (vetores médios e matrizes de covariância) precisam ser estimados.

Este grupo também inclui um método para calcular a razão de verossimilhança para características independentes. Este método, com exceção da suposição da independência de características (que na realidade quase nunca é cumprida), não requer conhecimento da forma funcional da lei de distribuição. Pode ser atribuído a métodos não paramétricos.

Outros métodos não paramétricos, usados ​​quando a forma da curva de densidade de distribuição é desconhecida e nenhuma suposição pode ser feita sobre sua natureza, ocupam uma posição especial. Estes incluem o conhecido método dos histogramas multidimensionais, o método dos “k-vizinhos mais próximos”, o método da distância euclidiana, o método das funções potenciais, etc., cuja generalização é o método chamado “estimativas de Parzen”. Esses métodos operam formalmente com objetos como estruturas integrais, mas dependendo do tipo de tarefa de reconhecimento, podem atuar tanto em hipóstases intensionais quanto extensionais.

Métodos não paramétricos analisam os números relativos de objetos que caem em volumes multidimensionais dados e usam várias funções de distância entre os objetos da amostra de treinamento e os objetos reconhecidos. Para características quantitativas, quando seu número é muito menor que o tamanho da amostra, as operações com objetos desempenham um papel intermediário na estimativa de densidades de distribuição local de probabilidades condicionais, e os objetos não carregam a carga semântica de unidades de informação independentes. Ao mesmo tempo, quando o número de feições é comensurável ou maior que o número de objetos em estudo, e as feições são de natureza qualitativa ou dicotômica, então não se pode falar de nenhuma estimativa local das densidades de distribuição de probabilidade. Nesse caso, os objetos nesses métodos não paramétricos são considerados unidades de informação independentes (fatos empíricos holísticos) e esses métodos adquirem o significado de avaliações da semelhança e diferença dos objetos em estudo.

Assim, as mesmas operações tecnológicas de métodos não paramétricos, dependendo das condições do problema, fazem sentido tanto para estimativas locais das densidades de distribuição de probabilidade de valores de características, quanto para estimativas de similaridade e diferença de objetos.

No contexto da representação intencional do conhecimento, considera-se aqui o primeiro lado dos métodos não paramétricos, como estimativas de densidades de distribuição de probabilidade. Muitos autores observam que métodos não paramétricos, como as estimativas de Parzen, funcionam bem na prática. As principais dificuldades na aplicação desses métodos são a necessidade de lembrar toda a amostra de treinamento para calcular estimativas de densidades de distribuição de probabilidade local e alta sensibilidade à não representatividade da amostra de treinamento.

Métodos baseados em pressupostos sobre a classe de funções de decisão. Neste grupo de métodos, a forma geral da função de decisão é considerada conhecida e seu funcional de qualidade é dado. Com base nesse funcional, busca-se a melhor aproximação da função de decisão para a sequência de treinamento. As mais comuns são representações de funções de decisão na forma de polinômios lineares e não lineares generalizados. O funcional de qualidade da regra de decisão geralmente está associado ao erro de classificação.

A principal vantagem dos métodos baseados em suposições sobre a classe das funções de decisão é a clareza da formulação matemática do problema de reconhecimento como um problema de encontrar um extremo. A solução para este problema é muitas vezes alcançada usando algum tipo de algoritmo de gradiente. A variedade de métodos deste grupo é explicada pela ampla gama de funcionais de qualidade de regra de decisão usados ​​e algoritmos de busca extrema. Uma generalização dos algoritmos considerados, que incluem, em particular, o algoritmo de Newton, algoritmos do tipo perceptron, etc., é o método de aproximação estocástica. Ao contrário dos métodos de reconhecimento paramétrico, o sucesso desse grupo de métodos não depende tanto do desencontro de ideias teóricas sobre as leis de distribuição de objetos no espaço de características com a realidade empírica. Todas as operações estão subordinadas a um objetivo principal - encontrar o extremo da qualidade funcional da regra de decisão. Ao mesmo tempo, os resultados dos métodos paramétricos e considerados podem ser semelhantes. Como mostrado acima, os métodos paramétricos para o caso de distribuições normais de objetos em diferentes classes com matrizes de covariância iguais levam a funções de decisão lineares. Também observamos que os algoritmos para selecionar recursos informativos em modelos de diagnóstico linear podem ser interpretados como variantes particulares de algoritmos de gradiente para procurar um extremo.

As possibilidades de algoritmos de gradiente para encontrar um extremo, especialmente no grupo de regras de decisão linear, têm sido bastante estudadas. A convergência desses algoritmos foi provada apenas para o caso em que as classes reconhecíveis de objetos são exibidas no espaço de características por estruturas geométricas compactas. No entanto, o desejo de alcançar qualidade suficiente da regra de decisão muitas vezes pode ser satisfeito com a ajuda de algoritmos que não possuem uma prova matemática rigorosa da convergência da solução para o extremo global.

Tais algoritmos incluem um grande grupo de procedimentos de programação heurística que representam a direção da modelagem evolutiva. A modelagem evolutiva é um método biônico emprestado da natureza. Baseia-se no uso de mecanismos de evolução conhecidos para substituir o processo de modelagem significativa de um objeto complexo pela modelagem fenomenológica de sua evolução.

Um representante bem conhecido da modelagem evolutiva no reconhecimento de padrões é o método de contabilidade de grupo de argumentos (MGUA). O GMDH é baseado no princípio da auto-organização, e os algoritmos GMDH reproduzem o esquema de seleção em massa. Nos algoritmos GMDH, os membros de um polinômio generalizado são sintetizados e selecionados de uma maneira especial, que é frequentemente chamada de polinômio de Kolmogorov-Gabor. Essa síntese e seleção são realizadas com complexidade crescente, sendo impossível prever antecipadamente qual será a forma final do polinômio generalizado. Em primeiro lugar, geralmente são consideradas combinações simples de traços iniciais aos pares, a partir das quais as equações das funções decisivas são compostas, via de regra, não superiores à segunda ordem. Cada equação é analisada como uma função de decisão independente, e os valores dos parâmetros das equações compostas são encontrados de uma forma ou de outra a partir da amostra de treinamento. Então, do conjunto resultante de funções de decisão, uma parte das melhores em algum sentido é selecionada. A qualidade das funções de decisão individuais é verificada em uma amostra de controle (teste), que às vezes é chamada de princípio da adição externa. As funções de decisão parcial selecionadas são consideradas abaixo como variáveis ​​intermediárias que servem como argumentos iniciais para uma síntese semelhante de novas funções de decisão, etc. O processo de tal síntese hierárquica continua até que o extremo do critério de qualidade da função de decisão seja alcançado, o que na prática se manifesta na deterioração dessa qualidade ao tentar aumentar ainda mais a ordem dos membros do polinômio em relação às características originais.

O princípio de auto-organização subjacente ao GMDH é chamado de auto-organização heurística, uma vez que todo o processo é baseado na introdução de adições externas escolhidas heuristicamente. O resultado da decisão pode depender significativamente dessas heurísticas. O modelo de diagnóstico resultante depende de como os objetos são divididos em amostras de treinamento e teste, como o critério de qualidade de reconhecimento é determinado, quantas variáveis ​​são ignoradas na próxima linha de seleção, etc.

Esses recursos dos algoritmos GMDH também são característicos de outras abordagens de modelagem evolutiva. Mas notamos aqui mais um aspecto dos métodos em consideração. Esta é a sua essência de conteúdo. Utilizando métodos baseados em suposições sobre a classe de funções de decisão (evolutivas e gradientes), é possível construir modelos diagnósticos de alta complexidade e obter resultados praticamente aceitáveis. Ao mesmo tempo, a realização de objetivos práticos neste caso não é acompanhada pela extração de novos conhecimentos sobre a natureza dos objetos reconhecíveis. A possibilidade de extrair esse conhecimento, em particular o conhecimento sobre os mecanismos de interação de atributos (características), é fundamentalmente limitada aqui pela estrutura dada de tal interação, fixada na forma escolhida de funções decisivas. Portanto, o máximo que pode ser dito após a construção de um determinado modelo de diagnóstico é listar as combinações de características e as próprias características que estão incluídas no modelo resultante. Mas o significado das combinações que refletem a natureza e a estrutura das distribuições dos objetos em estudo muitas vezes permanece desconhecido dentro da estrutura dessa abordagem.

Métodos Booleanos. Os métodos lógicos de reconhecimento de padrões são baseados no aparato da álgebra lógica e permitem operar com informações contidas não apenas em características individuais, mas também em combinações de valores de características. Nesses métodos, os valores de qualquer atributo são considerados como eventos elementares.

Na forma mais geral, os métodos lógicos podem ser caracterizados como uma espécie de busca de padrões lógicos na amostra de treinamento e a formação de um determinado sistema de regras de decisão lógica (por exemplo, na forma de conjunções de eventos elementares), cada um deles que tem seu próprio peso. O grupo de métodos lógicos é diversificado e inclui métodos de complexidade e profundidade de análise variadas. Para recursos dicotômicos (booleanos), os chamados classificadores em forma de árvore, o método de teste sem saída, o algoritmo Kora e outros são populares. Métodos mais complexos são baseados na formalização dos métodos indutivos de D.S. Mill. A formalização é realizada através da construção de uma teoria quase axiomática e é baseada em lógica multi-classificada de valores múltiplos com quantificadores sobre tuplas de comprimento variável.

O algoritmo Kora, como outros métodos lógicos de reconhecimento de padrões, é bastante trabalhoso, pois é necessária uma enumeração completa ao selecionar as conjunções. Portanto, ao aplicar métodos lógicos, altos requisitos são colocados na organização eficiente do processo computacional, e esses métodos funcionam bem com dimensões relativamente pequenas do espaço de recursos e apenas em computadores poderosos.

Métodos linguísticos (sintáticos ou estruturais). Os métodos linguísticos de reconhecimento de padrões são baseados no uso de gramáticas especiais que geram linguagens, com a ajuda das quais um conjunto de propriedades de objetos reconhecíveis pode ser descrito. A gramática refere-se às regras para construir objetos a partir desses elementos não derivados.

Se a descrição das imagens é feita com a ajuda de elementos não derivativos (sub-imagens) e suas relações, então uma abordagem linguística ou sintática é usada para construir sistemas de reconhecimento automático usando o princípio de comunalidade de propriedades. Uma imagem pode ser descrita usando uma estrutura hierárquica de subimagens semelhante à estrutura sintática de uma linguagem. Esta circunstância torna possível aplicar a teoria das linguagens formais na resolução de problemas de reconhecimento de padrões. Assume-se que a gramática das imagens contém conjuntos finitos de elementos chamados variáveis, elementos não derivados e regras de substituição. A natureza das regras de substituição determina o tipo de gramática. Entre as gramáticas mais estudadas estão gramáticas regulares, livres de contexto e de constituintes diretos. Os pontos-chave desta abordagem são a escolha dos elementos não derivados da imagem, a união desses elementos e as relações que os ligam na gramática das imagens e, por fim, a implementação dos processos de análise e reconhecimento nos Língua. Essa abordagem é especialmente útil ao trabalhar com imagens que não podem ser descritas por medidas numéricas ou são tão complexas que suas características locais não podem ser identificadas e é preciso referir-se às propriedades globais dos objetos.

Por exemplo, E. A. Butakov, V. I. Ostrovsky, I. L. Fadeev propõe a seguinte estrutura de sistema para processamento de imagens (Fig. 3), utilizando uma abordagem linguística, onde cada um dos blocos funcionais é um software (microprograma) complexo (módulo) que implementa as funções correspondentes.

Figura 3. Diagrama estrutural do reconhecedor

As tentativas de aplicar os métodos da linguística matemática ao problema de análise de imagens levam à necessidade de resolver uma série de problemas relacionados ao mapeamento de uma estrutura de imagem bidimensional em cadeias unidimensionais de uma linguagem formal.

Métodos extensionais

Nos métodos deste grupo, ao contrário da direção intensional, cada objeto estudado recebe um valor diagnóstico independente em maior ou menor grau. Em sua essência, esses métodos estão próximos da abordagem clínica, que considera as pessoas não como uma cadeia de objetos classificados de acordo com um ou outro indicador, mas como sistemas integrais, cada um dos quais é individual e tem um valor diagnóstico especial. Tal atitude cuidadosa em relação aos objetos de estudo não permite excluir ou perder informações sobre cada objeto individual, o que ocorre quando se aplicam os métodos de direção intencional, utilizando objetos apenas para detectar e fixar os padrões de comportamento de seus atributos.

As principais operações no reconhecimento de padrões usando os métodos discutidos são as operações de determinação da similaridade e diferença de objetos. Objetos no grupo especificado de métodos desempenham o papel de precedentes diagnósticos. Ao mesmo tempo, dependendo das condições de uma determinada tarefa, o papel de um precedente individual pode variar dentro dos mais amplos limites: desde o principal e definidor até a participação muito indireta no processo de reconhecimento. Por sua vez, as condições do problema podem exigir a participação de um número diferente de precedentes diagnósticos para uma solução bem-sucedida: de um em cada classe reconhecível até o tamanho total da amostra, bem como diferentes formas de calcular as medidas de similaridade e diferença de objetos. Esses requisitos explicam a divisão adicional de métodos extensionais em subclasses:

    método de comparação de protótipos;

    método do k-vizinho mais próximo;

    equipes de regras de decisão.

Método de comparação de protótipos. Este é o método de reconhecimento extensional mais simples. É usado, por exemplo, quando as classes reconhecidas são exibidas no espaço de feição em agrupamentos geométricos compactos. Nesse caso, o centro do agrupamento geométrico da classe (ou o objeto mais próximo do centro) geralmente é escolhido como ponto protótipo.

Para classificar um objeto desconhecido, o protótipo mais próximo dele é encontrado, e o objeto pertence à mesma classe desse protótipo. Obviamente, nenhuma imagem de classe generalizada é formada neste método.

Vários tipos de distâncias podem ser usados ​​como medida de proximidade. Muitas vezes para feições dicotômicas, a distância de Hamming é usada, que neste caso é igual ao quadrado da distância euclidiana. Neste caso, a regra de decisão para classificar objetos é equivalente a uma função de decisão linear.

Este fato deve ser especialmente observado. Demonstra claramente a conexão entre protótipo e representação indicativa de informações sobre a estrutura de dados. Usando a representação acima, por exemplo, qualquer escala de medição tradicional, que é uma função linear dos valores de características dicotômicas, pode ser considerada como um protótipo diagnóstico hipotético. Por sua vez, se a análise da estrutura espacial das classes reconhecidas nos permite concluir que elas são geometricamente compactas, basta substituir cada uma dessas classes por um protótipo, que na verdade equivale a um modelo de diagnóstico linear.

Na prática, é claro, a situação muitas vezes é diferente do exemplo idealizado descrito. Um pesquisador que pretenda aplicar um método de reconhecimento baseado na comparação com os protótipos de classes diagnósticas enfrenta problemas difíceis. Trata-se, antes de mais nada, da escolha de uma medida de proximidade (métrica), que pode alterar significativamente a configuração espacial da distribuição dos objetos. E, em segundo lugar, um problema independente é a análise de estruturas multidimensionais de dados experimentais. Ambos os problemas são especialmente agudos para o pesquisador em condições de alta dimensão do espaço de características, o que é típico para problemas reais.

Método dos k-vizinhos mais próximos. O método de k-vizinhos mais próximos para resolver problemas de análise discriminante foi proposto pela primeira vez em 1952. É o seguinte.

Ao classificar um objeto desconhecido, um determinado número (k) de outros objetos geometricamente mais próximos a ele no espaço de características (vizinhos mais próximos) com já conhecidos pertencentes a classes reconhecíveis é encontrado. A decisão de atribuir um objeto desconhecido a uma determinada classe de diagnóstico é feita analisando informações sobre essa associação conhecida de seus vizinhos mais próximos, por exemplo, usando uma simples contagem de votos.

Inicialmente, o método dos k-vizinhos mais próximos foi considerado como um método não paramétrico para estimar a razão de verossimilhança. Para este método, são obtidas estimativas teóricas de sua eficácia em comparação com o classificador bayesiano ótimo. Prova-se que as probabilidades de erro assintótico para o método dos k-vizinhos mais próximos excedem os erros da regra de Bayes em não mais que duas vezes.

Como observado acima, em problemas reais muitas vezes é necessário operar com objetos que são descritos por um grande número de características qualitativas (dicotômicas). Ao mesmo tempo, a dimensão do espaço de características é proporcional ou excede o volume da amostra em estudo. Sob tais condições, é conveniente interpretar cada objeto da amostra de treinamento como um classificador linear separado. Então esta ou aquela classe diagnóstica é representada não por um protótipo, mas por um conjunto de classificadores lineares. A interação combinada de classificadores lineares resulta em uma superfície linear por partes que separa as classes reconhecíveis no espaço de características. O tipo de superfície divisória, composta por pedaços de hiperplanos, pode ser variada e depende da posição relativa dos agregados classificados.

Outra interpretação dos mecanismos de classificação de k-vizinhos mais próximos também pode ser usada. Baseia-se na ideia da existência de algumas variáveis ​​latentes, abstratas ou relacionadas por alguma transformação com o espaço de características original. Se as distâncias de pares entre objetos no espaço de variáveis ​​latentes são as mesmas que no espaço de características iniciais, e o número dessas variáveis ​​é muito menor que o número de objetos, então a interpretação do método dos k-vizinhos mais próximos pode ser considerada do ponto de vista de comparação de estimativas não paramétricas de densidades de distribuição de probabilidade condicional. O conceito de variáveis ​​latentes aqui apresentado é de natureza próxima ao conceito de dimensionalidade verdadeira e outras representações utilizadas em vários métodos de redução de dimensionalidade.

Ao usar o método de k-vizinhos mais próximos para reconhecimento de padrões, o pesquisador tem que resolver o difícil problema de escolher uma métrica para determinar a proximidade dos objetos diagnosticados. Este problema nas condições de alta dimensão do espaço de características torna-se extremamente agravado devido à complexidade suficiente deste método, que se torna significativo mesmo para computadores de alto desempenho. Portanto, aqui, assim como no método de comparação de protótipos, é necessário resolver o problema criativo de analisar a estrutura multidimensional de dados experimentais para minimizar o número de objetos representando classes diagnósticas.

Algoritmos para cálculo de notas (votação). O princípio de funcionamento dos algoritmos de avaliação (ABO) é calcular a prioridade (escores de similaridade) que caracterizam a “proximidade” dos objetos reconhecidos e de referência de acordo com o sistema de conjuntos de características, que é um sistema de subconjuntos de um determinado conjunto de características.

Ao contrário de todos os métodos considerados anteriormente, os algoritmos para calcular estimativas operam com descrições de objetos de uma maneira fundamentalmente nova. Para esses algoritmos, os objetos existem simultaneamente em subespaços muito diferentes do espaço de características. A classe ABO traz a ideia de usar recursos à sua conclusão lógica: como nem sempre se sabe quais combinações de recursos são as mais informativas, no ABO o grau de similaridade dos objetos é calculado comparando todas as combinações possíveis ou certas de recursos incluídos nas descrições dos objetos.

Equipes de regras de decisão. A regra de decisão usa um esquema de reconhecimento de dois níveis. No primeiro nível, os algoritmos de reconhecimento privado funcionam, cujos resultados são combinados no segundo nível no bloco de síntese. Os métodos mais comuns de tal combinação são baseados na alocação de áreas de competência de um determinado algoritmo. A maneira mais simples de encontrar áreas de competência é dividir a priori o espaço de características com base nas considerações profissionais de uma determinada ciência (por exemplo, estratificação da amostra de acordo com alguma característica). Em seguida, para cada uma das áreas selecionadas, é construído seu próprio algoritmo de reconhecimento. Outro método é baseado no uso de análise formal para determinar áreas locais do espaço de características como vizinhanças de objetos reconhecíveis para os quais o sucesso de qualquer algoritmo de reconhecimento particular foi comprovado.

A abordagem mais geral para a construção de um bloco de síntese considera os indicadores resultantes de algoritmos parciais como características iniciais para a construção de uma nova regra de decisão generalizada. Neste caso, todos os métodos acima de direções intensional e extensional no reconhecimento de padrões podem ser usados. Eficazes para resolver o problema de criar um conjunto de regras de decisão são algoritmos lógicos do tipo “Kora” e algoritmos para cálculo de estimativas (ABO), que são a base da chamada abordagem algébrica, que fornece pesquisa e descrição construtiva de algoritmos de reconhecimento, dentro dos quais se encaixam todos os tipos de algoritmos existentes.

Métodos de rede neural

Os métodos de redes neurais são métodos baseados no uso de vários tipos de redes neurais (RN). As principais áreas de aplicação de vários NNs para reconhecimento de padrões e imagens:

    aplicativo para extrair as principais características ou recursos de determinadas imagens,

    classificação das próprias imagens ou das características já extraídas delas (no primeiro caso, a extração das características-chave ocorre implicitamente dentro da rede),

    solução de problemas de otimização.

Redes neurais multicamadas. A arquitetura de uma rede neural multicamada (MNN) consiste em camadas conectadas sequencialmente, onde o neurônio de cada camada está conectado com todos os neurônios da camada anterior com suas entradas e as saídas da próxima.

A aplicação mais simples de um NN de camada única (chamada memória auto-associativa) é treinar a rede para reconstruir as imagens de alimentação. Alimentando uma imagem de teste na entrada e calculando a qualidade da imagem reconstruída, pode-se estimar quão bem a rede reconheceu a imagem de entrada. As propriedades positivas deste método são que a rede pode recuperar imagens distorcidas e ruidosas, mas não é adequada para propósitos mais sérios.

O MNN também é usado para classificação direta de imagens - a entrada é a própria imagem de alguma forma, ou um conjunto de características-chave da imagem previamente extraídas, na saída, o neurônio com atividade máxima indica pertencer à classe reconhecida (Fig. . 4). Se esta atividade estiver abaixo de um determinado limite, considera-se que a imagem enviada não pertence a nenhuma das classes conhecidas. O processo de aprendizagem estabelece a correspondência das imagens de entrada com o pertencimento a uma determinada classe. Isso é chamado de aprendizado supervisionado. Essa abordagem é boa para tarefas de controle de acesso para um pequeno grupo de pessoas. Essa abordagem proporciona uma comparação direta das próprias imagens pela rede, mas com o aumento do número de aulas, o tempo de treinamento e operação da rede aumenta exponencialmente. Portanto, para tarefas como pesquisar uma pessoa semelhante em um grande banco de dados, é necessário extrair um conjunto compacto de recursos-chave para pesquisar.

Uma abordagem de classificação usando as características de frequência de toda a imagem é descrita em . Um NS de camada única baseado em neurônios multivalorados foi usado.

B mostra o uso de NN para classificação de imagens, quando a entrada da rede recebe os resultados da decomposição da imagem pelo método de componentes principais.

No MNS clássico, as conexões neurais entre camadas são totalmente conectadas e a imagem é representada como um vetor unidimensional, embora seja bidimensional. A arquitetura da rede neural convolucional visa superar essas deficiências. Ele usou campos receptores locais (fornecendo conectividade bidimensional local de neurônios), pesos gerais (fornecendo a detecção de alguns recursos em qualquer lugar da imagem) e organização hierárquica com subamostragem espacial (subamostragem espacial). Convolutional NN (CNN) fornece resistência parcial a mudanças de escala, deslocamentos, rotações, distorções.

MNS também são usados ​​para detectar objetos de um determinado tipo. Além do fato de que qualquer MNS treinado pode, até certo ponto, determinar a pertença de imagens a “suas próprias” classes, ele pode ser especialmente treinado para detectar certas classes de forma confiável. Nesse caso, as classes de saída serão classes que pertencem e não pertencem ao tipo de imagem fornecido. Um detector de rede neural foi usado para detectar a imagem do rosto na imagem de entrada. A imagem foi escaneada com uma janela de 20x20 pixels, que foi alimentada na entrada da rede, que decide se a determinada área pertence à classe de faces. O treinamento foi feito usando exemplos positivos (várias imagens de rostos) e exemplos negativos (imagens que não são rostos). Para melhorar a confiabilidade da detecção, foi utilizada uma equipe de RNs treinados com diferentes pesos iniciais, fazendo com que os RNs cometessem erros de diferentes maneiras, e a decisão final era tomada por votação de toda a equipe.

Figura 5. Componentes principais (eigenfaces) e decomposição da imagem em componentes principais

O NN também é usado para extrair as principais características da imagem, que são usadas para classificação posterior. Em , é mostrado um método para a implementação da rede neural do método de análise de componentes principais. A essência do método de análise de componentes principais é obter os coeficientes maximamente desencorajados que caracterizam os padrões de entrada. Esses coeficientes são chamados de componentes principais e são usados ​​para compressão estatística da imagem, na qual um pequeno número de coeficientes é usado para representar a imagem inteira. Um NN com uma camada oculta contendo N neurônios (que é muito menor que a dimensão da imagem), treinado pelo método de retropropagação de erro para restaurar a imagem de entrada na saída, gera os coeficientes dos primeiros N componentes principais na saída do neurônios ocultos, que são usados ​​para comparação. Normalmente, 10 a 200 componentes principais são usados. À medida que o número do componente aumenta, sua representatividade diminui bastante e não faz sentido usar componentes com números grandes. Ao usar funções de ativação não lineares de elementos neurais, é possível uma decomposição não linear em componentes principais. A não linearidade permite que você reflita com mais precisão as variações nos dados de entrada. Aplicando a análise de componentes principais à decomposição de imagens de rostos, obtemos os componentes principais, chamados rostos próprios, que também possuem uma propriedade útil - existem componentes que refletem principalmente características essenciais do rosto como gênero, raça, emoções. Quando restaurados, os componentes têm uma aparência de rosto, com o primeiro refletindo a forma mais geral do rosto, o segundo representando várias pequenas diferenças entre os rostos (Fig. 5). Este método é bem aplicável para pesquisar imagens de rosto semelhantes em grandes bancos de dados. A possibilidade de redução adicional da dimensão dos componentes principais com a ajuda de NS também é mostrada. Ao avaliar a qualidade da reconstrução da imagem de entrada, pode-se determinar com muita precisão se ela pertence à classe de faces.

Redes neurais de alta ordem. As redes neurais de alta ordem (HNNs) diferem das MNNs por possuírem apenas uma camada, mas as entradas dos neurônios também recebem termos de alta ordem, que são o produto de dois ou mais componentes do vetor de entrada. Essas redes também podem formar superfícies divisórias complexas.

Redes Neurais Hopfield. Hopfield NN (HSH) é de camada única e totalmente conectado (não há conexões de neurônios entre si), suas saídas são conectadas com entradas. Ao contrário do MNS, o NSH é relaxante, ou seja, sendo ajustado para o estado inicial, ele funciona até atingir um estado estável, que será seu valor de saída. Para buscar um mínimo global em relação aos problemas de otimização, são utilizadas modificações estocásticas do NSH.

O uso de NSH como memória associativa permite restaurar com precisão as imagens para as quais a rede foi treinada quando uma imagem distorcida é alimentada na entrada. Nesse caso, a rede “lembrará” a imagem mais próxima (no sentido de mínimo local de energia) e, assim, a reconhecerá. Tal funcionamento também pode ser pensado como uma aplicação sequencial da memória auto-associativa descrita acima. Ao contrário da memória auto-associativa, o NSH restaurará a imagem com precisão perfeita. Para evitar mínimos de interferência e aumentar a capacidade da rede, vários métodos são usados.

Redes neurais auto-organizadas de Kohonen. As redes neurais auto-organizadas de Kohonen (SNNCs) fornecem ordenação topológica do espaço da imagem de entrada. Eles permitem o mapeamento topológico contínuo do espaço n-dimensional de entrada na saída m-dimensional, m<

Cognitron. O cognitron em sua arquitetura é semelhante à estrutura do córtex visual, possui uma organização hierárquica multicamada, na qual os neurônios entre as camadas são conectados apenas localmente. Treinado pela aprendizagem competitiva (sem professor). Cada camada do cérebro implementa diferentes níveis de generalização; a camada de entrada é sensível a padrões simples, como linhas, e sua orientação em determinadas áreas da área visual, enquanto a resposta de outras camadas é mais complexa, abstrata e independente da posição do padrão. Funções semelhantes são implementadas no cognitron pela modelagem da organização do córtex visual.

Neocognitron é um desenvolvimento da ideia de cognitron e reflete com mais precisão a estrutura do sistema visual, permite reconhecer imagens independentemente de suas transformações, rotações, distorções e mudanças de escala.

O Cognitron é uma poderosa ferramenta de reconhecimento de imagens, porém, requer altos custos computacionais, que atualmente são inatingíveis.

Os métodos de rede neural considerados fornecem reconhecimento de imagem rápido e confiável, mas ao usar esses métodos, surgem problemas no reconhecimento de objetos tridimensionais. No entanto, esta abordagem tem muitas vantagens.

      Conclusão

Atualmente, existe um número bastante grande de sistemas de reconhecimento automático de padrões para vários problemas aplicados.

O reconhecimento de padrões por métodos formais como uma direção científica fundamental é inesgotável.

Os métodos matemáticos de processamento de imagens têm uma ampla variedade de aplicações: ciência, tecnologia, medicina, esfera social. No futuro, o papel do reconhecimento de padrões na vida humana aumentará ainda mais.

Os métodos de rede neural fornecem reconhecimento de imagem rápido e confiável. Esta abordagem tem muitas vantagens e é uma das mais promissoras.

Literatura

    D.V. Brilyuk, V. V. Starovoitov. Métodos de rede neural de reconhecimento de imagem // /

    Kuzin L.T. Fundamentos da Cibernética: Fundamentos dos Modelos Cibernéticos. T.2. - M.: Energia, 1979. - 584 p.

    Peregudov F.I., Tarasenko F.P. Introdução à análise de sistemas: livro didático. - M.: Escola Superior, 1997. - 389s.

    Temnikov F.E., Afonin V.A., Dmitriev V.I. Fundamentos teóricos da tecnologia da informação. - M.: Energia, 1979. - 511s.

    Tu J., Gonzalez R. Princípios de Reconhecimento de Padrões. / Por. do inglês. - M.: Mir, 1978. - 410s.

    Winston P. Inteligência artificial. / Por. do inglês. - M.: Mir, 1980. - 520s.

    Fu K. Métodos estruturais no reconhecimento de padrões: Traduzido do inglês. - M.: Mir, 1977. - 320s.

    Tsypkin Ya.Z. Fundamentos da Teoria da Identificação da Informação. - M.: Nauka, 1984. - 520s.

    Pospelov G.S. A inteligência artificial é a base da nova tecnologia da informação. - M.: Nauka, 1988. - 280s.

    Yu. Lifshits, Métodos estatísticos de reconhecimento de padrões ///modern/07modernnote.pdf

    Bohr N. Física atômica e conhecimento humano. / Tradução do inglês. - M.: Mir, 1961. - 151s.

    Butakov E.A., Ostrovsky V.I., Fadeev I.L. Processamento de imagem em um computador.1987.-236s.

    Duda R., Hart P. Reconhecimento de padrões e análise de cena. / Tradução do inglês. - M.: Mir, 1978. - 510s.

    Duque V. A. Psicodiagnóstico por computador. - São Petersburgo: Irmandade, 1994. - 365 p.

    Aizenberg I. N., Aizenberg N. N. e Krivosheev G. A. Neurônios Binários Universais e Multivalorados: Algoritmos de Aprendizagem, Aplicações ao Processamento e Reconhecimento de Imagens. Notas de Aula em Inteligência Artificial - Aprendizado de Máquina e Mineração de Dados em Reconhecimento de Padrões, 1999, pp. 21-35.

    Ranganath S. e Arun K. Reconhecimento facial usando recursos de transformação e redes neurais. Reconhecimento de Padrão 1997, Vol. 30, pág. 1615-1622.

    Golovko V.A. Neurointeligência: Teoria e Aplicações. Livro 1. Organização e treinamento de redes neurais com realimentação direta - Brest: BPI, 1999, - 260s.

    Vetter T. e Poggio T. Classes de objetos lineares e síntese de imagens a partir de uma única imagem de exemplo. Transações IEEE em Análise de Padrões e Inteligência de Máquina 1997, Vol. 19, pág. 733-742.

    Golovko V.A. Neurointeligência: Teoria e Aplicações. Livro 2. Auto-organização, tolerância a falhas e uso de redes neurais - Brest: BPI, 1999, - 228s.

    Lawrence S., Giles C. L., Tsoi A. C. e Back A. D. Face Recognition: A Convolutional Neural Network Approach. Transações IEEE em Redes Neurais, Edição Especial em Redes Neurais e Reconhecimento de Padrões, pp. 1-24.

    Wasserman F. Tecnologia de neurocomputadores: Teoria e prática, 1992 - 184p.

    Rowley H. A., Baluja S. e Kanade T. Detecção de Face Baseada em Rede Neural. Transações IEEE em Análise de Padrões e Inteligência de Máquina 1998, Vol. 20, pág. 23-37.

    Valentin D., Abdi H., O "Toole A. J. e Cottrell G. W. Modelos conexionistas de processamento de rosto: uma pesquisa. IN: Pattern Recognition 1994, Vol. 27, pp. 1209-1230.

    Documento

    Eles inventam algoritmos reconhecimentoimagens. Métodosreconhecimentoimagens Como observado acima ... a realidade não é existe"ecossistemas em geral" e existir apenas algumas... conclusões deste detalhado Revejamétodosreconhecimento apresentamos em...

  1. Visão geral dos métodos de identificação de pessoas com base em imagens de rosto, levando em consideração os recursos de reconhecimento visual

    Análise

    ... reconhecimento por uma pessoa de objetos de baixo contraste, incl. pessoas. Trouxeram Reveja comum métodos ... Existe linha inteira métodos ... caminho, como resultado do estudo, uma plataforma para o desenvolvimento de métodoreconhecimento ...

  2. Imeni Glazkova Valentina Vladimirovna PESQUISA E DESENVOLVIMENTO DE MÉTODOS PARA CONSTRUÇÃO DE FERRAMENTAS DE SOFTWARE PARA CLASSIFICAÇÃO DE DOCUMENTOS DE HIPERTEXTO MULTI-TEMAS Especialidade 05

    Resumo da dissertação

    documentos de hipertexto. O capítulo contém Revejaexistirmétodos solução do problema em consideração, descrição ... cortando as classes menos relevantes // Matemática métodosreconhecimentoimagens: 13ª Conferência de Toda a Rússia. região de Leningrado...

  3. Slide 0 Visão geral das tarefas da bioinformática relacionadas à análise e processamento de textos genéticos

    Palestra

    Sequências de DNA e proteínas. Análise tarefas de bioinformática como tarefas ... sinais exigem o uso de modernos métodosreconhecimentoimagens, abordagens estatísticas e ... com baixa densidade gênica. Existir programas de predição de genes não...

Etc. objetos que são caracterizados por um conjunto finito de certas propriedades e características. Essas tarefas são resolvidas com bastante frequência, por exemplo, ao atravessar ou dirigir uma rua nos semáforos. Reconhecer a cor de um semáforo aceso e conhecer as regras da estrada permite que você tome a decisão certa sobre atravessar ou não a rua.

A necessidade de tal reconhecimento surge em várias áreas - desde assuntos militares e sistemas de segurança até a digitalização de sinais analógicos.

O problema do reconhecimento de imagens adquiriu uma importância destacada em condições de sobrecarga de informações, quando uma pessoa não consegue lidar com uma compreensão linear-sequencial das mensagens recebidas, como resultado do qual seu cérebro muda para o modo de simultaneidade de percepção e pensamento , ao qual esse reconhecimento é característico.

Não é por acaso, portanto, que o problema do reconhecimento de imagens acabou por estar no campo da pesquisa interdisciplinar, inclusive em conexão com o trabalho de criação de inteligência artificial e criação de sistemas técnicos reconhecimento de padrões está atraindo cada vez mais atenção.

YouTube enciclopédico

    1 / 4

    Introdução ao reconhecimento de padrões

    R.V. Shamin. Aula No. 6 Redes Hopfield e Hamming em problemas de reconhecimento de padrões

    [DDSH-2016]: Redes neurais e visão computacional moderna

    Aula 9. Suavização exponencial. Reconhecimento de padrão: método do k-ésimo vizinho mais próximo

    Legendas

Direções no reconhecimento de padrões

Existem duas direções principais:

  • O estudo das capacidades de reconhecimento dos seres vivos, explicando-as e modelando-as;
  • Desenvolvimento da teoria e métodos para a construção de dispositivos destinados a resolver problemas individuais para fins aplicados.

Declaração formal do problema

O reconhecimento de padrões é a atribuição de dados iniciais a uma determinada classe, destacando as características essenciais que caracterizam esses dados da massa total de dados não essenciais.

Ao definir problemas de reconhecimento, eles tentam usar uma linguagem matemática, tentando - ao contrário da teoria das redes neurais artificiais, onde a base é obter um resultado por meio de experimentos - substituir o experimento por raciocínio lógico e provas matemáticas.

Declaração clássica do problema de reconhecimento de padrões: Dado um conjunto de objetos. Eles precisam ser classificados. Um conjunto é representado por subconjuntos, que são chamados de classes. Dado: informações sobre classes, uma descrição de todo o conjunto e uma descrição de informações sobre um objeto cuja pertença a uma determinada classe é desconhecida. É necessário, de acordo com as informações disponíveis sobre as classes e a descrição do objeto, determinar a qual classe esse objeto pertence.

Na maioria das vezes, imagens monocromáticas são consideradas em problemas de reconhecimento de padrões, o que torna possível considerar uma imagem como uma função em um plano. Se considerarmos um ponto situado em um plano T (\displaystyle T), onde a função expressa em cada ponto da imagem sua característica - brilho, transparência, densidade óptica, então tal função é um registro formal da imagem.

O conjunto de todas as funções possíveis f (x, y) (\displaystyle f(x, y)) na superfície T (\displaystyle T)- existe um modelo do conjunto de todas as imagens X (\displaystyle X). Apresentando o conceito semelhanças entre as imagens, você pode definir a tarefa de reconhecimento. A forma específica de tal cenário depende fortemente dos estágios subsequentes de reconhecimento de acordo com uma ou outra abordagem.

Alguns métodos de reconhecimento de imagens gráficas

Para reconhecimento óptico de imagem, você pode aplicar o método de iteração sobre a aparência de um objeto em diferentes ângulos, escalas, deslocamentos, etc. Para letras, você precisa iterar sobre a fonte, propriedades da fonte etc.

A segunda abordagem é encontrar o contorno do objeto e examinar suas propriedades (conectividade, presença de cantos, etc.)

Outra abordagem é usar redes neurais artificiais. Esse método requer um grande número de exemplos da tarefa de reconhecimento (com respostas corretas) ou uma estrutura de rede neural especial que leva em consideração as especificidades dessa tarefa.

Perceptron como um método de reconhecimento de padrões

F. Rosenblatt, introduzindo o conceito de modelo cerebral, cuja tarefa é mostrar como fenômenos psicológicos podem surgir em algum sistema físico, cuja estrutura e propriedades funcionais são conhecidas, descreveu os experimentos mais simples de discriminação. Esses experimentos estão inteiramente relacionados a métodos de reconhecimento de padrões, mas diferem pelo fato de o algoritmo de solução não ser determinístico.

O experimento mais simples, com base no qual é possível obter informações psicologicamente significativas sobre um determinado sistema, resume-se ao fato de que o modelo é apresentado a dois estímulos diferentes e é obrigado a responder a eles de maneiras diferentes. O objetivo de tal experimento pode ser estudar a possibilidade de sua discriminação espontânea pelo sistema na ausência de intervenção do experimentador, ou, inversamente, estudar a discriminação forçada, na qual o experimentador procura ensinar o sistema a realizar o experimento. classificação exigida.

Em um experimento de aprendizado, o perceptron geralmente é apresentado com uma certa sequência de imagens, que inclui representantes de cada uma das classes a serem distinguidas. De acordo com alguma regra de modificação de memória, a escolha correta da reação é reforçada. Em seguida, o estímulo de controle é apresentado ao perceptron e a probabilidade de obter a resposta correta para estímulos dessa classe é determinada. Dependendo se o estímulo de controle selecionado corresponde ou não a uma das imagens que foram usadas na sequência de treinamento, são obtidos resultados diferentes:

  1. Se o estímulo de controle não coincidir com nenhum dos estímulos de aprendizagem, então o experimento está associado não apenas a pura discriminação, mas também inclui elementos generalizações.
  2. Se o estímulo de controle excita um determinado conjunto de elementos sensoriais que são completamente diferentes daqueles que foram ativados sob a influência de estímulos da mesma classe apresentados anteriormente, então o experimento é uma investigação. pura generalização.

Os perceptrons não têm a capacidade de generalização pura, mas funcionam satisfatoriamente em experimentos de discriminação, especialmente se o estímulo de controle coincide o suficiente com um dos padrões sobre os quais o perceptron já acumulou alguma experiência.

Exemplos de problemas de reconhecimento de padrões

  • Reconhecimento de código de barras
  • Reconhecimento de placas
  • Reconhecimento de imagem
  • Reconhecimento de áreas locais da crosta terrestre em que os depósitos estão localizados