O que é informação é uma breve definição. O que é informação? Conceito e tipos de informação

A palavra “informação” é traduzida do latim como “consciência”, “esclarecimento”, e esta definição convinha à humanidade até a década de quarenta do século XX.

Este termo foi utilizado para definir conceitos puramente práticos, como um determinado corpo de conhecimento, informações sobre um assunto, fenômeno ou evento específico. Essas informações são bastante específicas e, em muitos casos, não contêm uma avaliação quantitativa.

Durante milhares de anos a palavra “informação”; era comum, não se destacando entre dezenas de milhares de outras palavras. Durante todo esse tempo, o homem se considerou a única criatura capaz de transmitir, receber e criar informações.

A situação começou a mudar com o advento da cibernética – a ciência da gestão. Cibernética de Norbert Wiener foi publicada em 1948. Ela abriu os olhos das pessoas para o que todos sabem agora - processos de informação ocorrem em qualquer organismo vivo, começando com amebas e vírus. As máquinas feitas pelo homem também operam sob o controle da informação. Qualquer comunidade de seres vivos - formigas, abelhas, peixes, pássaros e, claro, pessoas não pode existir sem fluxos de informação circulando nela.

A data de nascimento da “Teoria da Informação” também é considerada 1948. Foi então que um artigo do engenheiro de comunicações Claude Shannon, de 32 anos, “Teoria Matemática das Comunicações” apareceu no jornal abstrato da companhia telefônica americana Bell System , no qual propôs uma forma de mensurar a quantidade de informações. A partir deste momento, o conceito de “informação” começa a ampliar o alcance de sua aplicação.

A descoberta da unidade de processos em coisas vivas e não vivas, a introdução generalizada de computadores, o rápido aumento no fluxo de informações na forma de jornais, revistas, livros, programas de televisão e rádio deram um significado completamente diferente e novo ao palavra “informação”. No atual estágio de desenvolvimento da ciência, reconhece-se que o conceito de “informação” é muito mais amplo e, o que é muito importante, existe fora da nossa percepção. Em outras palavras, todo o mundo que nos rodeia, acessível e inacessível para nós, possui em todos os lugares uma estrutura de informação.

“Informação” tornou-se um conceito invulgarmente amplo e está no mesmo nível de categorias filosóficas como matéria, energia, espaço e tempo. No entanto, ainda não existe uma definição única de informação geralmente aceita; além disso, este conceito continua sendo um dos mais controversos da ciência moderna.

Aqui estão as várias definições deste conceito:

  1. Informação é a designação do conteúdo recebido do mundo exterior no processo de adaptação a ele (N. Wiener).
  2. A informação é entropia negativa (negentropia) (L. Brillouin).
  3. A informação é a probabilidade de escolha (A. M. Yaglom, I. M. Yaglom).
  4. A informação é a incerteza removida (K. Shannon).
  5. A informação é uma medida da complexidade das estruturas, uma medida da ordem dos sistemas materiais (A. Mol).
  6. Informação - indistinguibilidade removida, transmissão de diversidade (W.R. Ashby).
  7. Informação - diversidade refletida (A. D. Ursul).
  8. A informação é uma medida da heterogeneidade da distribuição de matéria e energia no espaço e no tempo (V. M. Glushkov).

De acordo com as teorias modernas da evolução, o processo de desenvolvimento do Universo é um processo de auto-organização. Durante a auto-organização dos quarks surgiram prótons e nêutrons, durante a auto-organização dos átomos surgiram muitas moléculas, durante a auto-organização das moléculas apareceu uma célula viva, durante a auto-organização das células - um organismo, durante a auto-organização -organização dos organismos - populações e sociedades...

A crescente complexidade do sistema, o seu desenvolvimento progressivo está associado ao aumento da quantidade de informação acumulada pelo sistema, que se manifesta na sua estrutura. Assim, segundo alguns estudos, ao passar do nível atômico para o nível molecular, a quantidade de informação aumenta 10 3 vezes. A quantidade de informações relacionadas ao corpo humano é aproximadamente 10 11 vezes maior do que as informações contidas em um organismo unicelular.

A utilização de um modelo de informação de desenvolvimento permite esclarecer o mecanismo de progresso por meio da complicação, ordenação e aumento do grau de organização dos sistemas materiais (Figura 3).

Informação é informação sobre algo

Conceito e tipos de informação, transmissão e processamento, busca e armazenamento de informação

Informação é, definição

A informação é qualquer inteligência, recebidos e transmitidos, armazenados por diversas fontes. - esta é toda a coleção de informações sobre o mundo que nos rodeia, sobre todos os tipos de processos que nele ocorrem e que podem ser percebidos por organismos vivos, máquinas eletrônicas e outros sistemas de informação.

- Esse informação significativa sobre algo, quando a forma de sua apresentação também é informação, ou seja, tem função de formatação de acordo com sua natureza.

A informação é tudo o que pode ser complementado com nossos conhecimentos e suposições.

A informação é informação sobre algo, independentemente da forma de sua apresentação.

A informação é mental de qualquer organismo psicofísico, produzido por ele ao utilizar qualquer meio denominado meio de informação.

A informação é informações percebidas por humanos e (ou) especialistas. dispositivos como um reflexo dos fatos do mundo material ou espiritual em processo comunicações.

A informação é dados organizados de tal forma que façam sentido para quem os manipula.

A informação é o significado que uma pessoa atribui aos dados com base nas convenções conhecidas usadas para representá-los.

A informação é informação, explicação, apresentação.

A informação é quaisquer dados ou informações que interessem a alguém.

A informação é informações sobre objetos e fenômenos ambientais, seus parâmetros, propriedades e estados, que são percebidos pelos sistemas de informação (organismos vivos, máquinas de controle, etc.) em processo vida e trabalho.

A mesma mensagem informativa (artigo de jornal, anúncio, carta, telegrama, certificado, história, desenho, transmissão de rádio, etc.) pode conter diferentes quantidades de informação para pessoas diferentes - dependendo do seu conhecimento prévio, do nível de compreensão desta mensagem e interesse nisso.

Nos casos em que falam sobre automação trabalhar com informações por meio de quaisquer dispositivos técnicos, eles não estão interessados ​​​​no conteúdo da mensagem, mas em quantos caracteres essa mensagem contém.

A informação é

Em relação ao processamento de dados computacionais, a informação é entendida como uma determinada sequência de designações simbólicas (letras, números, imagens gráficas e sons codificados, etc.), carregando uma carga semântica e apresentadas de forma compreensível ao computador. Cada novo caractere nessa sequência de caracteres aumenta o volume de informações da mensagem.

Atualmente, não existe uma definição única de informação como termo científico. Do ponto de vista das diversas áreas do conhecimento, esse conceito é descrito por seu conjunto específico de características. Por exemplo, o conceito de “informação” é básico num curso de informática, sendo impossível defini-lo através de outros conceitos mais “simples” (assim como em geometria, por exemplo, é impossível expressar o conteúdo do conceitos básicos “ponto”, “linha”, “plano” através de conceitos mais simples).

O conteúdo dos conceitos básicos de qualquer ciência deve ser explicado com exemplos ou identificado comparando-os com o conteúdo de outros conceitos. No caso do conceito “informação”, o problema da sua definição é ainda mais complexo, visto que se trata de um conceito científico geral. Este conceito é utilizado em diversas ciências (informática, cibernética, biologia, física, etc.), e em cada ciência o conceito de “informação” está associado a diferentes sistemas de conceitos.

Conceito de informação

Na ciência moderna, são considerados dois tipos de informação:

Informação objetiva (primária) é propriedade de objetos materiais e fenômenos (processos) de gerar uma variedade de estados, que por meio de interações (interações fundamentais) são transmitidos a outros objetos e impressos em sua estrutura.

Informação subjetiva (semântica, semântica, secundária) é o conteúdo semântico da informação objetiva sobre objetos e processos do mundo material, formada pela consciência humana com o auxílio de imagens semânticas (palavras, imagens e sensações) e registradas em algum meio material.

No sentido cotidiano, informação é informação sobre o mundo circundante e os processos que nele ocorrem, percebida por uma pessoa ou por um dispositivo especial.

Atualmente, não existe uma definição única de informação como termo científico. Do ponto de vista das diversas áreas do conhecimento, esse conceito é descrito por seu conjunto específico de características. De acordo com o conceito de K. Shannon, informação é a remoção da incerteza, ou seja, Informações que devem eliminar, de uma forma ou de outra, a incerteza existente no adquirente antes de recebê-la, e ampliar sua compreensão do objeto com informações úteis.

Do ponto de vista de Gregory Beton, a unidade elementar de informação é uma “diferença não indiferente” ou diferença efetiva para algum sistema de percepção mais amplo. Ele chama aquelas diferenças que não são percebidas de “potenciais” e aquelas que são percebidas de “efetivas”. “A informação consiste em diferenças que não são indiferentes” (c) “Qualquer percepção de informação é necessariamente o recebimento de informação sobre a diferença.” Do ponto de vista da ciência da computação, a informação possui uma série de propriedades fundamentais: novidade, relevância, confiabilidade, objetividade, completude, valor, etc. A ciência da lógica trata principalmente da análise da informação. A palavra “informação” vem da palavra latina informatio, que significa informação, explicação, introdução. O conceito de informação foi considerado pelos filósofos antigos.

A informação é

Antes do início da Revolução Industrial, determinar a essência da informação permanecia prerrogativa principalmente dos filósofos. Além disso, a nova ciência da cibernética começou a considerar questões da teoria da informação.

Às vezes, para compreender a essência de um conceito, é útil analisar o significado da palavra pela qual esse conceito é denotado. Esclarecer a forma interna de uma palavra e estudar a história de seu uso pode lançar uma luz inesperada sobre seu significado, obscurecido pelo uso “tecnológico” usual da palavra e pelas conotações modernas.

A palavra informação entrou na língua russa na era petrina. Foi registrado pela primeira vez nos “Regulamentos Espirituais” de 1721 no significado de “ideia, conceito de algo”. (Nas línguas europeias foi estabelecido anteriormente - por volta do século XIV.)

A informação é

Com base nesta etimologia, pode-se considerar informação qualquer mudança significativa de forma ou, em outras palavras, quaisquer vestígios materialmente registrados, formados pela interação de objetos ou forças e passíveis de compreensão. A informação, portanto, é uma forma convertida de energia. O portador da informação é um signo, e o método de sua existência é a interpretação: identificar o significado de um signo ou de uma sequência de signos.

O significado pode ser um evento reconstruído a partir de um signo que causou sua ocorrência (no caso de signos “naturais” e involuntários, como vestígios, evidências, etc.), ou uma mensagem (no caso de signos convencionais inerentes à esfera da linguagem). É o segundo tipo de signos que constitui o corpo da cultura humana, que, segundo uma definição, é “um conjunto de informações transmitidas não hereditariamente”.

A informação é

As mensagens podem conter informações sobre fatos ou interpretação de fatos (do latim interpretatio, interpretação, tradução).

Um ser vivo recebe informações através dos sentidos, bem como através da reflexão ou intuição. A troca de informações entre sujeitos é comunicação ou comunicação (do latim communicatio, mensagem, transferência, derivado por sua vez do latim communico, tornar comum, comunicar, falar, conectar).

Do ponto de vista prático, a informação é sempre apresentada em forma de mensagem. A mensagem informativa está associada à origem da mensagem, ao destinatário da mensagem e ao canal de comunicação.

Voltando à etimologia latina da palavra informação, vamos tentar responder à pergunta sobre o que exatamente é dado aqui.

É óbvio que, em primeiro lugar, a um determinado sentido que, sendo inicialmente informe e inexpresso, só existe potencialmente e deve ser “construído” para ser percebido e transmitido.

Em segundo lugar, à mente humana, que está treinada para pensar de forma estrutural e clara. Em terceiro lugar, a uma sociedade que, precisamente porque os seus membros partilham estes significados e os utilizam em conjunto, ganha unidade e funcionalidade.

A informação é

a informação como significado inteligente expresso é o conhecimento que pode ser armazenado, transmitido e servir de base para a geração de outros conhecimentos. As formas de conservação do conhecimento (memória histórica) são diversas: desde mitos, crônicas e pirâmides até bibliotecas, museus e bancos de dados computacionais.

Informação - informações sobre o mundo que nos rodeia, sobre os processos que nele ocorrem e que os organismos vivos percebem, gerentes máquinas e outros sistemas de informação.

A palavra "informação" é latina. Ao longo de sua longa vida, seu significado sofreu evolução, ampliando ou estreitando extremamente seus limites. A princípio, a palavra “informação” significava: “representação”, “conceito”, depois “informação”, “transmissão de mensagens”.

Nos últimos anos, os cientistas decidiram que o significado habitual (universalmente aceite) da palavra “informação” é demasiado elástico e vago, e deram-lhe o seguinte significado: “uma medida de certeza numa mensagem”.

A informação é

A teoria da informação ganhou vida pelas necessidades da prática. Sua ocorrência está associada trabalhar"Teoria Matemática da Comunicação" de Claude Shannon, publicada em 1946. Os fundamentos da teoria da informação baseiam-se em resultados obtidos por muitos cientistas. Na segunda metade do século XX, o mundo fervilhava com informações transmitidas por cabos telefônicos e telegráficos e canais de rádio. Mais tarde, surgiram os computadores eletrônicos - processadores de informação. E naquela época, a principal tarefa da teoria da informação era, antes de tudo, aumentar a eficiência dos sistemas de comunicação. A dificuldade em projetar e operar meios, sistemas e canais de comunicação é que não basta ao projetista e ao engenheiro resolver o problema do ponto de vista físico e energético. Destes pontos de vista, o sistema pode ser o mais avançado e económico. Mas ao criar sistemas de transmissão, é importante prestar atenção na quantidade de informação que passará por esse sistema de transmissão. Afinal, a informação pode ser medida quantitativamente, contada. E nesses cálculos agem da maneira mais usual: abstraem do significado da mensagem, assim como abandonam a concretude nas operações aritméticas que todos nós conhecemos (à medida que passam da adição de duas maçãs e três maçãs à adição de números em geral: 2 + 3).

Os cientistas disseram que “ignoraram completamente a avaliação humana da informação”. A uma série sequencial de 100 letras, por exemplo, atribuem um determinado significado de informação, sem prestar atenção se essa informação faz sentido e se, por sua vez, faz sentido na aplicação prática. A abordagem quantitativa é o ramo mais desenvolvido da teoria da informação. Por esta definição, uma coleção de 100 letras – uma frase de 100 letras de um jornal, uma peça de Shakespeare ou o teorema de Einstein – tem exatamente a mesma quantidade de informação.

Esta definição de quantidade de informação é extremamente útil e prática. Corresponde exactamente à tarefa do engenheiro de comunicações, que deve transmitir toda a informação contida no telegrama submetido, independentemente do valor dessa informação para o destinatário. O canal de comunicação não tem alma. Uma coisa é importante para o sistema de transmissão: transmitir a quantidade necessária de informações em um determinado tempo. Como calcular a quantidade de informação em uma determinada mensagem?

A informação é

A estimativa da quantidade de informação é baseada nas leis da teoria das probabilidades, mais precisamente, é determinada através probabilidades eventos. Isto é incompreensível. Uma mensagem tem valor e contém informações apenas quando aprendemos com ela sobre o resultado de um evento que é de natureza aleatória, quando é até certo ponto inesperado. Afinal, a mensagem sobre o que já se sabe não contém nenhuma informação. Aqueles. Se, por exemplo, alguém te telefona e diz: “Faz claro durante o dia e escuro à noite”, então tal mensagem irá surpreendê-lo apenas com o absurdo de afirmar algo óbvio e conhecido de todos, e não com as notícias que ele contém. Outra coisa, por exemplo, é o resultado de uma corrida. Quem virá primeiro? O resultado aqui é difícil de prever. Quanto mais resultados aleatórios um evento de nosso interesse tiver, mais valiosa será a mensagem sobre seu resultado e mais informações. Uma mensagem sobre um evento que tem apenas dois resultados igualmente possíveis contém uma única unidade de informação chamada bit. A escolha da unidade de informação não é acidental. Está associado à forma binária mais comum de codificá-lo durante a transmissão e processamento. Tentemos, pelo menos da forma mais simplificada, imaginar o princípio geral da avaliação quantitativa da informação, que é a pedra angular de toda a teoria da informação.

Já sabemos que a quantidade de informação depende probabilidades certos resultados do evento. Se um evento, como dizem os cientistas, tem dois resultados igualmente prováveis, isso significa que cada resultado é igual a 1/2. Esta é a probabilidade de obter cara ou coroa ao lançar uma moeda. Se um evento tiver três resultados igualmente prováveis, a probabilidade de cada um é 1/3. Observe que a soma das probabilidades de todos os resultados é sempre igual a um: afinal, um de todos os resultados possíveis ocorrerá definitivamente. Um evento, como você mesmo entende, pode ter resultados prováveis ​​de forma desigual. Assim, num jogo de futebol entre uma equipa forte e uma equipa fraca, a probabilidade de a equipa forte vencer é elevada - por exemplo, 4/5. há muito menos empates, por exemplo 20/03. A probabilidade de derrota é muito pequena.

Acontece que a quantidade de informação é uma medida para reduzir a incerteza de uma determinada situação. Várias quantidades de informações são transmitidas pelos canais de comunicação, e a quantidade de informações que passa pelo canal não pode ser maior que sua capacidade. E é determinado pela quantidade de informação que passa aqui por unidade de tempo. Um dos heróis do romance “A Ilha Misteriosa” de Júlio Verne, o jornalista Gideon Spillett, relatou em aparelho telefônico capítulo da Bíblia para que seus concorrentes não pudessem usar o serviço telefônico. Nesse caso, o canal estava totalmente carregado e a quantidade de informações era igual a zero, pois as informações que ele conhecia foram transmitidas ao assinante. Isso significa que o canal estava ocioso, passando um número estritamente definido de pulsos sem carregá-los com nada. Enquanto isso, quanto mais informações cada um de um certo número de pulsos carrega, mais plenamente a capacidade do canal é utilizada. Portanto, você precisa codificar as informações com sabedoria, encontrar uma linguagem econômica e econômica para transmitir mensagens.

As informações são “peneiradas” da maneira mais completa. No telégrafo, letras que ocorrem com frequência, combinações de letras e até frases inteiras são representadas por um conjunto mais curto de zeros e uns, e aquelas que ocorrem com menos frequência são representadas por um conjunto mais longo. No caso em que o comprimento da palavra-código é reduzido para símbolos que ocorrem com frequência e aumentado para símbolos que ocorrem raramente, eles falam de codificação eficaz de informações. Mas, na prática, muitas vezes acontece que o código que surgiu como resultado da “peneiração” mais cuidadosa, o código é conveniente e econômico, pode distorcer a mensagem devido a interferências, o que, infelizmente, sempre acontece nos canais de comunicação: som distorção no telefone, interferência atmosférica, distorção ou escurecimento da imagem na televisão, erros na transmissão em telégrafo. Essa interferência, ou como chamam os especialistas, ruído, ataca a informação. E isso resulta nas surpresas mais incríveis e, naturalmente, desagradáveis.

Portanto, para aumentar a confiabilidade na transmissão e processamento das informações, é necessária a introdução de caracteres extras – uma espécie de proteção contra distorções. Eles – esses símbolos extras – não carregam o conteúdo real da mensagem, são redundantes. Do ponto de vista da teoria da informação, tudo o que torna uma linguagem colorida, flexível, rica em matizes, multifacetada, multivalorada é redundância. Quão redundante, desse ponto de vista, é a carta de Tatyana para Onegin! Quanto excesso de informação há nele para uma mensagem breve e compreensível “eu te amo”! E quão precisas são as placas desenhadas à mão, compreensíveis para todos que hoje entram no metrô, onde em vez de palavras e frases de anúncios há placas simbólicas lacônicas indicando: “Entrada”, “Saída”.

A este respeito, é útil relembrar a anedota contada uma vez pelo famoso cientista americano Benjamin Franklin sobre um fabricante de chapéus que convidou seus amigos para discutir um projeto de sinalização. Era suposto desenhar um chapéu na placa e escrever: “John Thompson , fabricante de chapéus, fabrica e vende chapéus por dinheiro.” Um dos meus amigos notou que as palavras "por dinheiro" dinheiro"são desnecessários - tal lembrete seria ofensivo para comprador. Outro também achou a palavra “vende” supérflua, pois nem é preciso dizer que o chapeleiro vende chapéus e não os distribui de graça. O terceiro considerou que as palavras “chapeleiro” e “faz chapéus” eram uma tautologia desnecessária, e estas últimas palavras foram descartadas. O quarto sugeriu que a palavra “chapeador” também deveria ser descartada – o chapéu pintado diz claramente quem é John Thompson. Por fim, o quinto assegurou que para comprador não fazia a menor diferença se o chapeleiro se chamava John Thompson ou não, e propôs dispensar essa indicação.Assim, no final, nada restou na placa, exceto o chapéu. É claro que se as pessoas usassem apenas este tipo de códigos, sem redundância nas mensagens, então todos os “formulários de informação” – livros, relatórios, artigos – seriam extremamente breves. Mas perderiam em clareza e beleza.

As informações podem ser divididas em tipos de acordo com diferentes critérios: em verdade: verdadeiro e falso;

por meio da percepção:

Visual - percebido pelos órgãos da visão;

Auditivo - percebido pelos órgãos auditivos;

Tátil - percebido por receptores táteis;

Olfativo - percebido pelos receptores olfativos;

Gustativo - percebido pelas papilas gustativas.

conforme forma de apresentação:

Texto - transmitido na forma de símbolos destinados a denotar lexemas da língua;

Numérico - na forma de números e sinais que indicam operações matemáticas;

Gráfico - na forma de imagens, objetos, gráficos;

Som - transmissão oral ou gravada de lexemas de linguagem por meio auditivo.

por propósito:

Massa – contém informações triviais e opera com um conjunto de conceitos compreensíveis para a maior parte da sociedade;

Especial - contém um conjunto específico de conceitos; quando utilizado, são transmitidas informações que podem não ser compreensíveis para a maior parte da sociedade, mas são necessárias e compreensíveis dentro do restrito grupo social onde essas informações são utilizadas;

Segredo - transmitido a um círculo restrito de pessoas e por meio de canais fechados (protegidos);

Pessoal (privado) - um conjunto de informações sobre uma pessoa que determina o status social e os tipos de interações sociais da população.

por valor:

Relevante - informação que é valiosa em um determinado momento;

Confiável – informações obtidas sem distorção;

Compreensível – informação expressa numa linguagem compreensível para aqueles a quem se destina;

Completo – informações suficientes para tomar a decisão ou entendimento correto;

Útil - a utilidade da informação é determinada pelo sujeito que a recebeu dependendo do escopo de possibilidades de sua utilização.

O valor da informação em diversas áreas do conhecimento

Na teoria da informação, muitos sistemas, métodos, abordagens e ideias estão sendo desenvolvidos atualmente. No entanto, os cientistas acreditam que novas direções na teoria da informação serão adicionadas às modernas e novas ideias surgirão. Como prova da correção de seus pressupostos, eles citam a natureza “viva” e em desenvolvimento da ciência, apontando que a teoria da informação está sendo introduzida de forma surpreendentemente rápida e firme nas mais diversas áreas do conhecimento humano. A teoria da informação penetrou na física, química, biologia, medicina, filosofia, linguística, pedagogia, economia, lógica, ciências técnicas e estética. Segundo os próprios especialistas, a doutrina da informação, que surgiu a partir das necessidades da teoria das comunicações e da cibernética, ultrapassou as suas fronteiras. E agora, talvez, tenhamos o direito de falar de informação como um conceito científico que coloca nas mãos dos pesquisadores um método teórico e de informação com o qual se pode penetrar em muitas ciências sobre a natureza viva e inanimada, sobre a sociedade, que não só permitir olhar para todos os problemas de uma nova perspectiva, mas também ver o que ainda não foi visto. É por isso que o termo “informação” se difundiu em nosso tempo, passando a fazer parte de conceitos como sistema de informação, cultura da informação e até ética da informação.

Muitas disciplinas científicas usam a teoria da informação para destacar novas direções em ciências antigas. Foi assim que surgiram, por exemplo, a geografia da informação, a economia da informação e o direito da informação. Mas o termo “informação” adquiriu uma importância extremamente grande em conexão com o desenvolvimento da mais recente tecnologia informática, a automatização do trabalho mental, o desenvolvimento de novos meios de comunicação e processamento de informação e, especialmente, com o surgimento da ciência da computação. Uma das tarefas mais importantes da teoria da informação é o estudo da natureza e das propriedades da informação, a criação de métodos para o seu processamento, em particular a transformação de uma grande variedade de informação moderna em programas de computador, com a ajuda dos quais a automação ocorre o trabalho mental - uma espécie de fortalecimento da inteligência e, portanto, o desenvolvimento dos recursos intelectuais da sociedade.

A palavra “informação” vem da palavra latina informatio, que significa informação, explicação, introdução. O conceito de “informação” é básico em um curso de informática, mas é impossível defini-lo através de outros conceitos mais “simples”. O conceito de “informação” é utilizado em diversas ciências, e em cada ciência o conceito de “ informação” está associada a diferentes sistemas de conceitos. Informação em biologia: A biologia estuda a natureza viva e o conceito de “informação” está associado ao comportamento adequado dos organismos vivos. Nos organismos vivos, as informações são transmitidas e armazenadas por meio de objetos de diferentes naturezas físicas (estado do DNA), que são considerados signos de alfabetos biológicos. A informação genética é herdada e armazenada em todas as células dos organismos vivos. Abordagem filosófica: informação é interação, reflexão, cognição. Abordagem cibernética: informação é característica gerente sinal transmitido através de uma linha de comunicação.

O papel da informação na filosofia

O tradicionalismo do subjetivo dominou constantemente nas primeiras definições da informação como categoria, conceito, propriedade do mundo material. A informação existe fora da nossa consciência e só pode ser refletida em nossa percepção como resultado da interação: reflexão, leitura, recepção na forma de sinal, estímulo. A informação não é material, como todas as propriedades da matéria. A informação se apresenta na seguinte ordem: matéria, espaço, tempo, sistematicidade, função, etc., que são os conceitos fundamentais de uma reflexão formalizada da realidade objetiva em sua distribuição e variabilidade, diversidade e manifestações. A informação é uma propriedade da matéria e reflete suas propriedades (estado ou capacidade de interagir) e quantidade (medida) por meio da interação.

Do ponto de vista material, a informação é a ordem dos objetos no mundo material. Por exemplo, a ordem das letras em uma folha de papel de acordo com certas regras é uma informação escrita. A ordem dos pontos multicoloridos em uma folha de papel de acordo com certas regras é uma informação gráfica. A ordem das notas musicais é uma informação musical. A ordem dos genes no DNA é informação hereditária. A ordem dos bits em um computador é a informação do computador, etc. e assim por diante. Para realizar a troca de informações é necessária a presença de condições necessárias e suficientes.

A informação é

As condições necessárias:

A presença de pelo menos dois objetos diferentes do mundo material ou intangível;

A presença de uma propriedade comum entre os objetos que permite identificá-los como portadores de informação;

A presença de uma propriedade específica nos objetos que lhes permite distinguir objetos uns dos outros;

A presença de uma propriedade de espaço que permite determinar a ordem dos objetos. Por exemplo, o layout das informações escritas no papel é uma propriedade específica do papel que permite que as letras sejam organizadas da esquerda para a direita e de cima para baixo.

Só existe uma condição suficiente: a presença de um sujeito capaz de reconhecer informações. Este é o homem e a sociedade humana, sociedades de animais, robôs, etc. Uma mensagem informativa é construída selecionando cópias de objetos de uma base e organizando esses objetos no espaço em uma determinada ordem. O comprimento da mensagem informativa é definido como o número de cópias dos objetos base e é sempre expresso como um número inteiro. É necessário distinguir entre o comprimento de uma mensagem informativa, que é sempre medido em um número inteiro, e a quantidade de conhecimento contida em uma mensagem informativa, que é medida em uma unidade de medida desconhecida. Do ponto de vista matemático, a informação é uma sequência de números inteiros escritos em um vetor. Os números são o número do objeto na base de informações. O vetor é chamado de invariante de informação, pois não depende da natureza física dos objetos básicos. A mesma mensagem informativa pode ser expressa em letras, palavras, frases, arquivos, imagens, notas, músicas, videoclipes ou qualquer combinação de todos os itens acima.

A informação é

O papel da informação na física

informação é informação sobre o mundo circundante (objeto, processo, fenômeno, evento), que é objeto de transformação (incluindo armazenamento, transmissão, etc.) e é usada para desenvolver comportamento, para tomada de decisão, para gestão ou para aprendizagem.

Os traços característicos da informação são os seguintes:

Este é o recurso mais importante da produção moderna: reduz a necessidade de terra, trabalho, capital e reduz o consumo de matérias-primas e energia. Assim, por exemplo, se você tiver a capacidade de arquivar seus arquivos (ou seja, tiver essas informações), não precisará gastar dinheiro na compra de novos disquetes;

A informação dá vida a novas produções. Por exemplo, a invenção do feixe de laser foi a razão do surgimento e desenvolvimento da produção de discos laser (ópticos);

A informação é uma mercadoria e não se perde após a venda. Assim, se um aluno passar ao amigo informações sobre o horário das aulas durante o semestre, ele não perderá esses dados para si;

A informação acrescenta valor a outros recursos, em particular ao trabalho. Na verdade, um trabalhador com ensino superior é mais valorizado do que aquele com ensino secundário.

Como decorre da definição, três conceitos estão sempre associados à informação:

A fonte de informação é aquele elemento do mundo circundante (objeto, fenômeno, evento), cuja informação é objeto de transformação. Assim, a fonte de informação que o leitor deste livro recebe atualmente é a ciência da computação como esfera da atividade humana;

O adquirente de informação é aquele elemento do mundo circundante que utiliza a informação (para desenvolver comportamentos, tomar decisões, gerir ou aprender). O comprador desta informação é o próprio leitor;

Um sinal é um meio material que registra informações para transferi-las da fonte ao destinatário. Neste caso, o sinal é de natureza eletrônica. Se um aluno retirar este manual da biblioteca, as mesmas informações estarão em papel. Depois de lida e lembrada pelo aluno, a informação adquirirá outro portador – o biológico, quando for “gravada” na memória do aluno.

O sinal é o elemento mais importante neste circuito. As formas de sua apresentação, bem como as características quantitativas e qualitativas das informações que contém, importantes para o adquirente da informação, são discutidas mais adiante nesta seção do livro. As principais características de um computador como principal ferramenta que mapeia a fonte de informação em um sinal (link 1 na figura) e “traz” o sinal ao destinatário da informação (link 2 na figura) são fornecidas na seção Computador . A estrutura dos procedimentos que implementam as conexões 1 e 2 e compõem o processo de informação é objeto de consideração na parte do Processo de Informação.

Os objetos do mundo material estão em um estado de mudança contínua, caracterizado pela troca de energia entre o objeto e o meio ambiente. Uma mudança no estado de um objeto sempre leva a uma mudança no estado de algum outro objeto ambiental. Este fenômeno, independentemente de como, quais estados e quais objetos mudaram, pode ser considerado como a transmissão de um sinal de um objeto para outro. A alteração do estado de um objeto quando um sinal é transmitido a ele é chamada de registro de sinal.

Um sinal ou sequência de sinais forma uma mensagem que pode ser percebida pelo destinatário de uma forma ou de outra, bem como em um ou outro volume. Informação em física é um termo que generaliza qualitativamente os conceitos de “sinal” e “mensagem”. Se sinais e mensagens podem ser quantificados, então podemos dizer que sinais e mensagens são unidades de medida do volume de informação. A mensagem (sinal) é interpretada de forma diferente por diferentes sistemas. Por exemplo, um bipe sucessivamente longo e dois curtos na terminologia do código Morse é a letra de (ou D), na terminologia do BIOS da empresa premiada é um mau funcionamento da placa de vídeo.

A informação é

O papel da informação na matemática

Em matemática, a teoria da informação (teoria matemática da comunicação) é uma seção da matemática aplicada que define o conceito de informação, suas propriedades e estabelece relações limitantes para sistemas de transmissão de dados. Os principais ramos da teoria da informação são a codificação de fonte (codificação de compressão) e a codificação de canal (resistente a ruído). A matemática é mais do que uma disciplina científica. Cria uma linguagem unificada para toda a ciência.

O assunto da pesquisa matemática são objetos abstratos: número, função, vetor, conjunto e outros. Além disso, a maioria deles é introduzida axiomaticamente (axioma), ou seja, sem qualquer ligação com outros conceitos e sem qualquer definição.

A informação é

a informação não está incluída no âmbito da investigação matemática. No entanto, a palavra "informação" é usada em termos matemáticos - autoinformação e informação mútua, relacionada à parte abstrata (matemática) da teoria da informação. Porém, na teoria matemática, o conceito de “informação” está associado exclusivamente a objetos abstratos - variáveis ​​​​aleatórias, enquanto na moderna teoria da informação esse conceito é considerado de forma muito mais ampla - como uma propriedade de objetos materiais. A conexão entre esses dois termos idênticos é inegável. Foi o aparato matemático dos números aleatórios que foi utilizado pelo autor da teoria da informação, Claude Shannon. Ele mesmo quer dizer com o termo “informação” algo fundamental (irredutível). A teoria de Shannon pressupõe intuitivamente que a informação tem conteúdo. A informação reduz a incerteza geral e a entropia da informação. A quantidade de informação é mensurável. No entanto, ele alerta os pesquisadores contra a transferência mecânica de conceitos de sua teoria para outras áreas da ciência.

"A busca por formas de aplicação da teoria da informação em outros campos da ciência não se resume a uma transferência trivial de termos de um campo da ciência para outro. Essa busca se realiza em um longo processo de apresentação de novas hipóteses e seus testes experimentais .” K.Shannon.

A informação é

O papel da informação na cibernética

O fundador da cibernética, Norbert Wiener, falou sobre informações como esta:

informação não é matéria nem energia, informação é informação." Mas a definição básica de informação, que ele deu em vários de seus livros, é a seguinte: informação é uma designação de conteúdo que recebemos do mundo externo, no processo de adaptando a nós e aos nossos sentimentos.

A informação é o conceito básico da cibernética, tal como a informação económica é o conceito básico da cibernética económica.

Existem muitas definições deste termo, são complexas e contraditórias. A razão, obviamente, é que a cibernética como fenômeno é estudada por diferentes ciências, e a cibernética é apenas a mais jovem delas. A informação é objeto de estudo de ciências como a ciência da administração, a matemática, a genética e a teoria da mídia de massa (impressa, rádio, televisão), informática, que trata dos problemas da informação científica e técnica, etc. Por fim, recentemente os filósofos têm demonstrado grande interesse pelos problemas da informação: tendem a considerar a informação como uma das principais propriedades universais da matéria, associada com o conceito de reflexão. Com todas as interpretações do conceito de informação, ele pressupõe a existência de dois objetos: a fonte da informação e o adquirente (destinatário) da informação.A transferência da informação de um para outro ocorre com a ajuda de sinais, que, em geral, pode não ter qualquer ligação física com o seu significado: esta comunicação é determinada por acordo. Por exemplo, tocar o sino do veche significava que era preciso se reunir na praça, mas para quem não sabia dessa ordem ele não comunicou nenhuma informação.

Numa situação de sino veche, quem participa do acordo sobre o significado do sinal sabe que neste momento pode haver duas alternativas: a reunião veche acontecerá ou não. Ou, na linguagem da teoria da informação, um evento incerto (veche) tem dois resultados. O sinal recebido leva a uma diminuição da incerteza: a pessoa agora sabe que o evento (noite) tem apenas um resultado - acontecerá. Porém, se fosse sabido de antemão que a reunião aconteceria em tal e tal hora, a campainha não anunciava nada de novo. Segue-se que quanto menos provável (ou seja, mais inesperada) a mensagem, mais informação ela contém, e vice-versa, quanto maior a probabilidade do resultado antes do evento ocorrer, menos informação ela contém. Aproximadamente o mesmo raciocínio foi feito na década de 40. Século XX ao surgimento de uma teoria estatística, ou “clássica” da informação, que define o conceito de informação através da medida de redução da incerteza do conhecimento sobre a ocorrência de um evento (essa medida foi chamada de entropia). As origens desta ciência foram N. Wiener, K. Shannon e os cientistas soviéticos A. N. Kolmogorov, V. A. Kotelnikov e outros.Eles foram capazes de derivar leis matemáticas para medir a quantidade de informação e, portanto, conceitos como capacidade de canal e ., capacidade de armazenamento de dispositivos I., etc., que serviram como um poderoso incentivo para o desenvolvimento da cibernética como ciência e da tecnologia de computação eletrônica como uma aplicação prática das conquistas da cibernética.

Quanto à determinação do valor e da utilidade da informação para o destinatário, ainda há muita coisa por resolver e pouco clara. Se partirmos das necessidades da gestão económica e, portanto, da cibernética económica, então a informação pode ser definida como toda aquela informação, conhecimento e mensagens que ajudam a resolver um determinado problema de gestão (ou seja, reduzir a incerteza dos seus resultados). Então, abrem-se algumas oportunidades para avaliar a informação: ela é mais útil, mais valiosa, quanto mais cedo ou com menos custos leva a uma solução para o problema. O conceito de informação está próximo do conceito de dados. Porém, há uma diferença entre eles: os dados são sinais dos quais ainda é necessário extrair informações. O processamento de dados é o processo de colocá-los em uma forma adequada para isso.

O processo de sua transferência da fonte ao destinatário e a percepção como informação podem ser considerados como passando por três filtros:

Física ou estatística (limitação puramente quantitativa da capacidade do canal, independentemente do conteúdo dos dados, ou seja, do ponto de vista sintático);

Semântica (seleção daqueles dados que podem ser compreendidos pelo destinatário, ou seja, correspondem ao tesauro de seu conhecimento);

Pragmático (seleção entre as informações compreendidas daquelas que são úteis para a resolução de um determinado problema).

Isto é claramente demonstrado no diagrama retirado do livro de E. G. Yasin sobre informação económica. Conseqüentemente, três aspectos do estudo dos problemas linguísticos são distinguidos – sintático, semântico e pragmático.

De acordo com o conteúdo, a informação divide-se em sociopolítica, socioeconómica (incluindo informação económica), científica e técnica, etc. Via de regra, devido à proximidade dos conceitos, as classificações dos dados são construídas da mesma forma. Por exemplo, as informações são divididas em estáticas (constantes) e dinâmicas (variáveis), e os dados são divididos em constantes e variáveis. Outra divisão são as informações de saída primárias, derivadas (os dados também são classificados da mesma maneira). A terceira divisão é I. controlar e informar. Quarto – redundante, útil e falso. Quinto - completo (contínuo) e seletivo. Esta ideia de Wiener dá uma indicação direta da objetividade da informação, ou seja, sua existência na natureza é independente da consciência humana (percepção).

A informação é

A cibernética moderna define a informação objetiva como a propriedade objetiva dos objetos e fenômenos materiais de gerar uma variedade de estados que, por meio das interações fundamentais da matéria, são transmitidos de um objeto (processo) para outro e ficam impressos em sua estrutura. Um sistema material na cibernética é considerado como um conjunto de objetos que podem estar em estados diferentes, mas o estado de cada um deles é determinado pelos estados de outros objetos do sistema.

A informação é

Na natureza, muitos estados de um sistema representam informação; os próprios estados representam o código primário, ou código-fonte. Assim, todo sistema material é uma fonte de informação. A cibernética define informação subjetiva (semântica) como o significado ou conteúdo de uma mensagem.

O papel da informação na ciência da computação

O tema da ciência são os dados: métodos de sua criação, armazenamento, processamento e transmissão. Conteúdo (também: “conteúdo” (no contexto), “conteúdo do site”) é um termo que significa todos os tipos de informação (texto e multimídia - imagens, áudio, vídeo) que compõem o conteúdo (visualizado, para o visitante, conteúdo ) do site. É utilizado para separar o conceito de informação que compõe a estrutura interna de uma página/site (código) daquilo que acabará sendo exibido na tela.

A palavra “informação” vem da palavra latina informatio, que significa informação, explicação, introdução. O conceito de “informação” é básico em um curso de informática, mas é impossível defini-lo através de outros conceitos mais “simples”.

As seguintes abordagens para determinar informações podem ser distinguidas:

Tradicional (comum) - usado na informática: informação é informação, conhecimento, mensagens sobre o estado de coisas que uma pessoa percebe do mundo exterior por meio dos sentidos (visão, audição, paladar, olfato, tato).

Probabilística - utilizada na teoria da informação: informação é a informação sobre objetos e fenômenos do meio ambiente, seus parâmetros, propriedades e estado, que reduzem o grau de incerteza e incompletude do conhecimento sobre eles.

As informações são armazenadas, transmitidas e processadas de forma simbólica (sinal). A mesma informação pode ser apresentada de diferentes formas:

Escrita de sinais, constituída por vários sinais, entre os quais se distinguem os simbólicos na forma de texto, números, especiais. personagens; gráfico; tabular, etc.;

Na forma de gestos ou sinais;

Forma verbal oral (conversa).

As informações são apresentadas por meio de linguagens como sistemas de signos, que são construídos com base em um alfabeto específico e possuem regras para realizar operações com signos. A linguagem é um sistema de sinais específico para apresentar informações. Existir:

As línguas naturais são línguas faladas na forma falada e escrita. Em alguns casos, a linguagem falada pode ser substituída pela linguagem das expressões faciais e dos gestos, pela linguagem dos sinais especiais (por exemplo, sinais de trânsito);

Linguagens formais são linguagens especiais para diversas áreas da atividade humana, que se caracterizam por um alfabeto estritamente fixo e regras gramaticais e sintáticas mais rígidas. Esta é a linguagem da música (notas), a linguagem da matemática (números, símbolos matemáticos), sistemas numéricos, linguagens de programação, etc. A base de qualquer idioma é o alfabeto – um conjunto de símbolos/sinais. O número total de símbolos do alfabeto é geralmente chamado de potência do alfabeto.

A mídia de informação é um meio ou corpo físico para transmitir, armazenar e reproduzir informações. (São elétricos, luminosos, térmicos, sonoros, rádio sinais, discos magnéticos e laser, publicações impressas, fotografias, etc.)

Os processos de informação são processos associados ao recebimento, armazenamento, processamento e transmissão de informações (ou seja, ações realizadas com informações). Aqueles. São processos durante os quais muda o conteúdo da informação ou a forma de sua apresentação.

Para garantir o processo de informação, são necessários uma fonte de informação, um canal de comunicação e um comprador de informação. A fonte transmite (envia) informações e o receptor as recebe (percebe). A informação transmitida viaja da fonte ao receptor por meio de um sinal (código). Alterar o sinal permite obter informações.

Sendo objeto de transformação e utilização, a informação caracteriza-se pelas seguintes propriedades:

Sintaxe é uma propriedade que determina a forma como a informação é apresentada em um meio (em um sinal). Assim, essas informações são apresentadas em meio eletrônico em fonte específica. Aqui você também pode considerar parâmetros de apresentação de informações como estilo e cor da fonte, tamanho, espaçamento entre linhas, etc. A seleção dos parâmetros necessários como propriedades sintáticas é obviamente determinada pelo método de transformação pretendido. Por exemplo, para uma pessoa com deficiência visual, o tamanho e a cor da fonte são importantes. Se você planeja inserir este texto em um computador por meio de um scanner, o tamanho do papel é importante;

A semântica é uma propriedade que determina o significado da informação como a correspondência do sinal com o mundo real. Assim, a semântica do sinal “ciência da computação” reside na definição dada anteriormente. A semântica pode ser considerada como algum acordo, conhecido pelo adquirente da informação, sobre o que cada sinal significa (a chamada regra de interpretação). Por exemplo, é a semântica dos sinais que um motorista novato estuda, estudando as regras da estrada, aprendendo os sinais de trânsito (neste caso, os próprios sinais são os sinais). A semântica das palavras (sinais) é aprendida por um aluno de uma língua estrangeira. Podemos dizer que o objetivo do ensino da informática é estudar a semântica dos diversos sinais - essência dos conceitos-chave desta disciplina;

A pragmática é uma propriedade que determina a influência da informação no comportamento do adquirente. Assim, a pragmática das informações recebidas pelo leitor deste livro é, no mínimo, a aprovação no exame de informática. Gostaria de acreditar que a pragmática deste trabalho não se limitará a isso, mas servirá para a continuação da formação e da atividade profissional do leitor.

A informação é

Deve-se notar que sinais que diferem na sintaxe podem ter a mesma semântica. Por exemplo, os sinais “computador” e “computador” significam um dispositivo eletrônico para conversão de informações. Nesse caso, costumamos falar em sinonímia de sinal. Por outro lado, um sinal (isto é, informação com uma propriedade sintática) pode ter uma pragmática diferente para os consumidores e uma semântica diferente. Assim, um sinal de trânsito conhecido como “tijolo” e com uma semântica muito específica (“entrada proibida”) significa para um motorista uma proibição de entrada, mas não tem efeito sobre um pedestre. Ao mesmo tempo, o sinal de “chave” pode ter semântica diferente: uma clave de sol, uma clave de mola, uma chave para abrir uma fechadura, uma chave usada na informática para codificar um sinal a fim de protegê-lo de acesso não autorizado (em neste caso falam em homonímia de sinal). Existem sinais - antônimos que possuem semântica oposta. Por exemplo, “frio” e “quente”, “rápido” e “lento”, etc.

O objeto de estudo da ciência da computação são os dados: métodos de sua criação, armazenamento, processamento e transmissão. E a própria informação registrada nos dados, seu significado significativo, interessa aos usuários de sistemas de informação que são especialistas em diversas ciências e áreas de atividade: um médico está interessado em informação médica, um geólogo está interessado em informação geológica, um empresário está interessado em informações comerciais, etc. (Em particular, um cientista da computação está interessado em informações sobre como trabalhar com dados).

Semiótica - ciência da informação

A informação não pode ser imaginada sem o seu recebimento, processamento, transmissão, etc., ou seja, fora do quadro da troca de informações. Todos os atos de troca de informações são realizados por meio de símbolos ou signos, com a ajuda dos quais um sistema influencia outro. Portanto, a principal ciência que estuda a informação é a semiótica - a ciência dos signos e dos sistemas de signos na natureza e na sociedade (teoria dos signos). Em cada acto de troca de informação encontram-se três “participantes”, três elementos: um signo, um objecto que designa e um destinatário (utilizador) do signo.

Dependendo das relações entre os elementos considerados, a semiótica é dividida em três seções: sintática, semântica e pragmática. A sintática estuda os signos e as relações entre eles. Ao mesmo tempo, abstrai o conteúdo do sinal e o seu significado prático para o destinatário. A semântica estuda a relação entre os signos e os objetos que eles denotam, ao mesmo tempo que abstrai do destinatário dos signos e do valor destes últimos: para ele. É claro que o estudo dos padrões de representação semântica de objetos em signos é impossível sem levar em conta e utilizar os padrões gerais de construção de quaisquer sistemas de signos estudados pela sintática. A pragmática estuda a relação entre os signos e seus usuários. No âmbito da pragmática, são estudadas todos os fatores que distinguem um ato de troca de informações de outro, todas as questões sobre os resultados práticos do uso da informação e seu valor para o destinatário.

Nesse caso, muitos aspectos das relações dos signos entre si e com os objetos que eles denotam são inevitavelmente afetados. Assim, as três seções da semiótica correspondem a três níveis de abstração (distração) das características de atos específicos de troca de informações. O estudo da informação em toda a sua diversidade corresponde ao nível pragmático. Distraindo-nos do destinatário da informação, excluindo-o da consideração, passamos a estudá-la ao nível semântico. Com a abstração do conteúdo dos signos, a análise da informação é transferida para o nível da sintática. Essa interpenetração das principais seções da semiótica, associada a diferentes níveis de abstração, pode ser representada por meio do diagrama “Três seções da semiótica e sua inter-relação”. A medição da informação é realizada nesse sentido em três aspectos: sintático, semântico e pragmático. A necessidade de dimensões tão diferentes de informação, como será mostrado abaixo, é ditada pela prática de design e empresas operação de sistemas de informação. Consideremos uma situação típica de produção.

No final do turno, o planejador do local prepara os dados do cronograma de produção. Esses dados chegam ao centro de informação e informática (ICC) da empresa, onde são processados, e na forma de relatórios sobre o estado atual da produção são emitidos aos gestores. Com base nos dados recebidos, o gerente da oficina toma a decisão de alterar o plano de produção para o próximo planejado ou tomar quaisquer outras medidas organizacionais. Obviamente, para o gerente da loja, a quantidade de informação contida no resumo depende da magnitude do impacto económico recebido da sua utilização na tomada de decisões, da utilidade da informação recebida. Para o planejador do site, a quantidade de informações em uma mesma mensagem é determinada pela precisão de sua correspondência com a situação real do site e pelo grau de surpresa dos fatos relatados. Quanto mais inesperados forem, quanto mais cedo você precisar comunicá-los à administração, mais informações haverá nesta mensagem. Para os trabalhadores da ICC, o número de caracteres e o comprimento da mensagem que transporta a informação serão de suma importância, pois é este que determina o tempo de carregamento dos equipamentos informáticos e dos canais de comunicação. Ao mesmo tempo, eles praticamente não estão interessados ​​nem na utilidade da informação nem na medida quantitativa do valor semântico da informação.

Naturalmente, ao organizar um sistema de gestão da produção e construir modelos de seleção de decisões, utilizaremos a utilidade da informação como medida da informatividade das mensagens. Ao construir um sistema contabilidade e relatórios que orientem o andamento do processo produtivo, a medida da quantidade de informações deve ser tomada como a novidade das informações recebidas. Empresa Os mesmos procedimentos para processamento mecânico de informações exigem a medição do volume de mensagens na forma de número de caracteres processados. Estas três abordagens fundamentalmente diferentes para medir a informação não são contraditórias ou mutuamente exclusivas. Pelo contrário, ao medirem a informação em diferentes escalas, permitem uma avaliação mais completa e abrangente do conteúdo informativo de cada mensagem e organizam de forma mais eficaz um sistema de gestão da produção. Segundo a adequada expressão do Prof. NÃO. Kobrinsky, quando se trata de uma empresa racional de fluxos de informação, a quantidade, a novidade e a utilidade da informação estão tão interligadas quanto a quantidade, a qualidade e o custo dos produtos em produção.

Informações no mundo material

informação é um dos conceitos gerais associados à matéria. A informação existe em qualquer objeto material na forma de vários de seus estados e é transferida de objeto para objeto no processo de sua interação. A existência da informação como propriedade objetiva da matéria decorre logicamente das propriedades fundamentais conhecidas da matéria - estrutura, mudança contínua (movimento) e interação de objetos materiais.

A estrutura da matéria se manifesta como o desmembramento interno da integridade, a ordem natural de conexão dos elementos dentro do todo. Em outras palavras, qualquer objeto material, desde a partícula subatômica do Meta Universo (Big Bang) como um todo, é um sistema de subsistemas interligados. Devido ao movimento contínuo, entendido em sentido amplo como movimento no espaço e desenvolvimento no tempo, os objetos materiais mudam de estado. Os estados dos objetos também mudam durante as interações com outros objetos. O conjunto de estados de um sistema material e todos os seus subsistemas representa informações sobre o sistema.

Estritamente falando, devido à incerteza, ao infinito e às propriedades da estrutura, a quantidade de informação objetiva em qualquer objeto material é infinita. Esta informação é chamada de completa. Contudo, é possível distinguir níveis estruturais com conjuntos finitos de estados. A informação que existe em nível estrutural com um número finito de estados é chamada de privada. Para informações privadas, o conceito de quantidade de informação faz sentido.

A partir da apresentação acima, é lógico e simples selecionar uma unidade de medida para a quantidade de informação. Vamos imaginar um sistema que só pode estar em dois estados igualmente prováveis. Vamos atribuir o código “1” a um deles e “0” ao outro. Esta é a quantidade mínima de informações que o sistema pode conter. É uma unidade de medida de informação e é chamada de bit. Existem outros métodos e unidades mais difíceis de definir para medir a quantidade de informação.

Dependendo da forma material do meio, a informação é de dois tipos principais - analógica e discreta. As informações analógicas mudam continuamente ao longo do tempo e assumem valores de um continuum de valores. Informações discretas mudam em alguns momentos e assumem valores de um determinado conjunto de valores. Qualquer objeto ou processo material é a principal fonte de informação. Todos os seus estados possíveis constituem o código-fonte da informação. O valor instantâneo dos estados é representado como um símbolo (“letra”) deste código. Para que a informação seja transmitida de um objeto para outro como receptor, é necessário que exista algum tipo de meio material intermediário que interaja com a fonte. Tais portadores na natureza, via de regra, são processos de propagação rápida da estrutura das ondas - radiação cósmica, gama e raios X, ondas eletromagnéticas e sonoras, potenciais (e talvez ondas ainda não descobertas) do campo gravitacional. Quando a radiação eletromagnética interage com um objeto como resultado de absorção ou reflexão, seu espectro muda, ou seja, as intensidades de alguns comprimentos de onda mudam. Os harmônicos das vibrações sonoras também mudam durante as interações com os objetos. A informação também é transmitida por meio de interação mecânica, mas a interação mecânica, via de regra, leva a grandes mudanças na estrutura dos objetos (até sua destruição), e a informação fica muito distorcida. A distorção da informação durante sua transmissão é chamada de desinformação.

A transferência da informação original para a estrutura do meio é chamada de codificação. Neste caso, o código-fonte é convertido em código da operadora. O meio com o código-fonte transferido para ele na forma de um código portador é chamado de sinal. O receptor de sinal possui seu próprio conjunto de estados possíveis, que é chamado de código receptor. Um sinal, interagindo com um objeto receptor, muda seu estado. O processo de conversão de um código de sinal em um código receptor é chamado de decodificação.A transferência de informações de uma fonte para um receptor pode ser considerada como interação de informações. A interação de informações é fundamentalmente diferente de outras interações. Em todas as outras interações de objetos materiais, ocorre uma troca de matéria e (ou) energia. Nesse caso, um dos objetos perde matéria ou energia e o outro a ganha. Esta propriedade das interações é chamada de simetria. Durante a interação da informação, o receptor recebe a informação, mas a fonte não a perde. A interação da informação é assimétrica.A informação objetiva em si não é material, é uma propriedade da matéria, como estrutura, movimento, e existe em meios materiais na forma de seus próprios códigos.

Informações sobre a vida selvagem

A vida selvagem é complexa e diversificada. As fontes e receptores de informações nele contidos são os organismos vivos e suas células. Um organismo possui uma série de propriedades que o distinguem dos objetos materiais inanimados.

Básico:

Troca contínua de matéria, energia e informação com o meio ambiente;

Irritabilidade, capacidade do corpo de perceber e processar informações sobre mudanças no ambiente e no ambiente interno do corpo;

Excitabilidade, capacidade de responder a estímulos;

Auto-organização, manifestada como mudanças no corpo para adaptação às condições ambientais.

Um organismo, considerado um sistema, possui uma estrutura hierárquica. Essa estrutura relativa ao próprio organismo é dividida em níveis internos: molecular, celular, orgânico e, por fim, o próprio organismo. No entanto, o organismo também interage acima dos sistemas vivos dos organismos, cujos níveis são a população, o ecossistema e toda a natureza viva como um todo (biosfera). Fluxos não apenas de matéria e energia, mas também de informação circulam entre todos esses níveis.As interações de informação na natureza viva ocorrem da mesma forma que na natureza inanimada. Ao mesmo tempo, a natureza viva em processo de evolução criou uma grande variedade de fontes, portadores e receptores de informação.

A reação às influências do mundo externo se manifesta em todos os organismos, pois é causada pela irritabilidade. Nos organismos superiores, a adaptação ao ambiente externo é uma atividade complexa, que só é eficaz com informações suficientemente completas e oportunas sobre o ambiente. Os receptores das informações do ambiente externo são os órgãos dos sentidos, que incluem a visão, a audição, o olfato, o paladar, o tato e o aparelho vestibular. Na estrutura interna dos organismos existem numerosos receptores internos associados ao sistema nervoso. O sistema nervoso consiste em neurônios cujos processos (axônios e dendritos) são análogos aos canais de transmissão de informações. Os principais órgãos que armazenam e processam informações nos vertebrados são a medula espinhal e o cérebro. De acordo com as características dos sentidos, as informações percebidas pelo corpo podem ser classificadas em visuais, auditivas, gustativas, olfativas e táteis.

Quando o sinal atinge a retina do olho humano, ele excita as células constituintes de uma maneira especial. Os impulsos nervosos das células são transmitidos através de axônios ao cérebro. O cérebro lembra dessa sensação na forma de uma certa combinação de estados de seus neurônios constituintes. (O exemplo continua na seção “informação na sociedade humana”). Ao acumular informações, o cérebro cria um modelo de informação coerente do mundo circundante em sua estrutura. Na natureza viva, uma característica importante para um organismo que recebe informações é a sua disponibilidade. A quantidade de informação que o sistema nervoso humano é capaz de enviar ao cérebro durante a leitura de textos é de aproximadamente 1 bit por 1/16 s.

A informação é

O estudo dos organismos é complicado pela sua complexidade. A abstração da estrutura como um conjunto matemático, aceitável para objetos inanimados, dificilmente é aceitável para um organismo vivo, porque para criar um modelo abstrato mais ou menos adequado de um organismo é necessário levar em conta todos os aspectos hierárquicos níveis de sua estrutura. Portanto, é difícil introduzir uma medida da quantidade de informação. É muito difícil determinar as ligações entre os componentes da estrutura. Se se sabe qual órgão é a fonte da informação, então qual é o sinal e qual é o receptor?

Antes do advento dos computadores, a biologia, que trata do estudo dos organismos vivos, utilizava apenas qualitativos, ou seja, modelos descritivos. Num modelo qualitativo, é quase impossível levar em conta as conexões de informação entre os componentes da estrutura. A tecnologia da computação eletrônica tem possibilitado a aplicação de novos métodos na pesquisa biológica, em particular, o método de modelagem de máquinas, que envolve uma descrição matemática de fenômenos e processos conhecidos que ocorrem no corpo, acrescentando-lhes hipóteses sobre alguns processos desconhecidos e calculando possíveis comportamentos padrões do organismo. As opções resultantes são comparadas com o comportamento real do organismo, o que permite determinar a verdade ou falsidade das hipóteses apresentadas. Esses modelos também podem levar em conta a interação de informações. Os processos de informação que garantem a existência da própria vida são extremamente complexos. E embora seja intuitivamente claro que esta propriedade está diretamente relacionada à formação, armazenamento e transmissão de informações completas sobre a estrutura do organismo, por algum tempo uma descrição abstrata desse fenômeno parecia impossível. No entanto, os processos de informação que garantem a existência desta propriedade foram parcialmente revelados através da decifração do código genético e da leitura dos genomas de vários organismos.

Informação na sociedade humana

O desenvolvimento da matéria no processo de movimento visa complicar a estrutura dos objetos materiais. Uma das estruturas mais complexas é o cérebro humano. Até agora, esta é a única estrutura que conhecemos que possui uma propriedade que o próprio homem chama de consciência. Falando em informação, nós, como seres pensantes, queremos dizer a priori que a informação, além de sua presença na forma de sinais que recebemos, também tem algum significado. Ao formar em sua mente um modelo do mundo circundante como um conjunto interconectado de modelos de seus objetos e processos, uma pessoa usa conceitos semânticos em vez de informações. O significado é a essência de qualquer fenômeno que não coincide consigo mesmo e o conecta com o contexto mais amplo da realidade. A própria palavra indica diretamente que o conteúdo semântico da informação só pode ser formado por receptores pensantes da informação. Na sociedade humana, não é a informação em si que tem importância decisiva, mas o seu conteúdo semântico.

Exemplo (continuação). Tendo experimentado tal sensação, a pessoa atribui o conceito “tomate” ao objeto e o conceito “cor vermelha” ao seu estado. Além disso, sua consciência fixa a conexão: “tomate” - “vermelho”. Este é o significado do sinal recebido. (Exemplo continuado abaixo nesta seção). A capacidade do cérebro de criar conceitos significativos e conexões entre eles é a base da consciência. A consciência pode ser considerada como um modelo semântico autodesenvolvido do mundo circundante.Significado não é informação. A informação existe apenas em um meio tangível. A consciência humana é considerada imaterial. O significado existe na mente humana na forma de palavras, imagens e sensações. Uma pessoa pode pronunciar palavras não apenas em voz alta, mas também “para si mesma”. Ele também pode criar (ou lembrar) imagens e sensações “em sua própria mente”. No entanto, ele pode recuperar informações correspondentes a esse significado falando ou escrevendo palavras.

A informação é

Exemplo (continuação). Se as palavras “tomate” e “vermelho” são o significado dos conceitos, então onde está a informação? a informação está contida no cérebro na forma de certos estados de seus neurônios. Também está contido em texto impresso composto por essas palavras e, ao codificar letras com código binário de três bits, seu número é de 120 bits. Se você disser as palavras em voz alta, haverá muito mais informações, mas o significado permanecerá o mesmo. A imagem visual carrega a maior quantidade de informações. Isso se reflete até no folclore - “é melhor ver uma vez do que ouvir cem vezes”. A informação restaurada desta forma é chamada de informação semântica, pois codifica o significado de algumas informações primárias (semântica). Ao ouvir (ou ver) uma frase falada (ou escrita) em um idioma que uma pessoa não conhece, ela recebe informações, mas não consegue determinar seu significado. Portanto, para transmitir o conteúdo semântico da informação, são necessários alguns acordos entre a fonte e o receptor sobre o conteúdo semântico dos sinais, ou seja, palavras Tal acordos pode ser alcançado através da comunicação. A comunicação é uma das condições mais importantes para a existência da sociedade humana.

No mundo moderno, a informação é um dos recursos mais importantes e, ao mesmo tempo, um dos motores do desenvolvimento da sociedade humana. Os processos de informação que ocorrem no mundo material, na natureza viva e na sociedade humana são estudados (ou pelo menos levados em consideração) por todas as disciplinas científicas, da filosofia ao marketing. A crescente complexidade dos problemas de investigação científica levou à necessidade de atrair grandes equipas de cientistas de diferentes especialidades para os resolver. Portanto, quase todas as teorias discutidas abaixo são interdisciplinares. Historicamente, dois ramos complexos da ciência – a cibernética e a ciência da computação – estão envolvidos no estudo da própria informação.

A cibernética moderna é uma área multidisciplinar indústria ciência que estuda sistemas altamente complexos, como:

Sociedade humana (cibernética social);

Economia (cibernética económica);

Organismo vivo (cibernética biológica);

O cérebro humano e sua função é a consciência (inteligência artificial).

A informática, que se formou como ciência em meados do século passado, separou-se da cibernética e se dedica à pesquisa na área de métodos de obtenção, armazenamento, transmissão e processamento de informação semântica. Ambos estes indústria usar várias teorias científicas subjacentes. Isso inclui a teoria da informação e suas seções - teoria da codificação, teoria dos algoritmos e teoria dos autômatos. A pesquisa do conteúdo semântico da informação é baseada em um conjunto de teorias científicas sob o nome geral de semiótica.A teoria da informação é uma teoria complexa, principalmente matemática, que inclui uma descrição e avaliação de métodos de recuperação, transmissão, armazenamento e classificação de informações. Considera os meios de informação como elementos de um conjunto abstrato (matemático), e as interações entre os meios como forma de ordenar os elementos desse conjunto. Esta abordagem permite descrever formalmente o código de informação, ou seja, definir um código abstrato e estudá-lo por meio de métodos matemáticos. Para esses estudos ele utiliza métodos de teoria das probabilidades, estatística matemática, álgebra linear, teoria dos jogos e outras teorias matemáticas.

Os fundamentos desta teoria foram lançados pelo cientista americano E. Hartley em 1928, que determinou a medida da quantidade de informação para determinados problemas de comunicação. Mais tarde, a teoria foi significativamente desenvolvida pelo cientista americano K. Shannon, pelos cientistas russos A.N. Kolmogorov, V.M. Glushkov e outros. A teoria da informação moderna inclui seções como teoria da codificação, teoria dos algoritmos, teoria dos autômatos digitais (veja abaixo) e algumas outras. Existem também teorias da informação alternativas, por exemplo, “Teoria da Informação Qualitativa”, proposta pelo polonês cientista M. Mazur.Toda pessoa conhece o conceito de algoritmo, mesmo sem saber. Aqui está um exemplo de algoritmo informal: “Corte os tomates em círculos ou fatias. Coloque neles a cebola picada, despeje o óleo vegetal, polvilhe com pimentão picado e mexa. Antes de comer polvilhe com sal, coloque numa saladeira e decore com salsa.” (Salada de tomate).

As primeiras regras para resolver problemas aritméticos na história da humanidade foram desenvolvidas por um dos famosos cientistas da antiguidade, Al-Khorezmi, no século IX dC. Em sua homenagem, as regras formalizadas para atingir qualquer objetivo são chamadas de algoritmos.O tema da teoria dos algoritmos é encontrar métodos para construir e avaliar algoritmos computacionais e de controle eficazes (incluindo universais) para processamento de informações. Para fundamentar tais métodos, a teoria dos algoritmos utiliza o aparato matemático da teoria da informação.O conceito científico moderno de algoritmos como métodos de processamento de informação foi introduzido nos trabalhos de E. Post e A. Turing na década de 20 do século XX (Turing Máquina). Os cientistas russos A. Markov (Algoritmo Normal de Markov) e A. Kolmogorov deram uma grande contribuição para o desenvolvimento da teoria dos algoritmos.A teoria dos autômatos é um ramo da cibernética teórica que estuda modelos matemáticos de dispositivos realmente existentes ou fundamentalmente possíveis que processam informações discretas em momentos discretos no tempo.

O conceito de autômato surgiu na teoria dos algoritmos. Se existem alguns algoritmos universais para resolver problemas computacionais, então também deve haver dispositivos (embora abstratos) para implementar tais algoritmos. Na verdade, uma máquina de Turing abstrata, considerada na teoria dos algoritmos, é ao mesmo tempo um autômato definido informalmente. A justificativa teórica para a construção de tais dispositivos é o tema da teoria dos autômatos.A teoria dos autômatos utiliza o aparato das teorias matemáticas - álgebra, lógica matemática, análise combinatória, teoria dos grafos, teoria das probabilidades, etc. , é a principal base teórica para a criação de computadores eletrônicos e sistemas de controle automatizados.A semiótica é um complexo de teorias científicas que estudam as propriedades dos sistemas de signos. Os resultados mais significativos foram alcançados no ramo da semiótica – a semântica. O tema da pesquisa semântica é o conteúdo semântico da informação.

Um sistema de signos é considerado um sistema de objetos concretos ou abstratos (sinais, palavras), a cada um dos quais um certo significado está associado de uma certa maneira. Em teoria, está provado que pode haver duas comparações desse tipo. O primeiro tipo de correspondência determina diretamente o objeto material que esta palavra denota e é chamado de denotação (ou, em algumas obras, nomeado). O segundo tipo de correspondência determina o significado de um signo (palavra) e é chamado de conceito. Ao mesmo tempo, são estudadas propriedades de comparações como “significado”, “verdade”, “definibilidade”, “seguimento”, “interpretação”, etc.. Para a pesquisa, é utilizado o aparato da lógica matemática e da linguística matemática. da semântica, delineada por G. V. Leibniz e F de Saussure no século XIX, formulada e desenvolvida por C. Pierce (1839-1914), C. Morris (n. 1901), R. Carnap (1891-1970), etc. A principal conquista da teoria é a criação de um aparato de análise semântica que permite representar o significado de um texto em uma linguagem natural na forma de um registro em alguma linguagem semântica (semântica) formalizada.A análise semântica é a base para a criação de dispositivos (programas) para tradução automática de uma língua natural para outra.

As informações são armazenadas transferindo-as para alguma mídia física. A informação semântica registrada em um meio de armazenamento tangível é chamada de documento. A humanidade aprendeu a armazenar informações há muito tempo. As formas mais antigas de armazenamento de informações utilizavam a disposição de objetos - conchas e pedras na areia, nós em uma corda. Um desenvolvimento significativo desses métodos foi a escrita – a representação gráfica de símbolos em pedra, argila, papiro e papel. De grande importância no desenvolvimento desta direção foi invenção impressão de livros. Ao longo de sua história, a humanidade acumulou uma enorme quantidade de informações em bibliotecas, arquivos, periódicos e outros documentos escritos.

Atualmente, o armazenamento de informações na forma de sequências de caracteres binários ganhou particular importância. Para implementar esses métodos, vários dispositivos de armazenamento são usados. Eles são o elo central dos sistemas de armazenamento de informações. Além deles, tais sistemas utilizam meios de busca de informações (motor de busca), meios de obtenção de informações (sistemas de informação e referência) e meios de exibição de informações (dispositivo de saída). Formados de acordo com a finalidade da informação, tais sistemas de informação formam bases de dados, bancos de dados e uma base de conhecimento.

A transferência de informação semântica é o processo de sua transferência espacial da fonte para o destinatário (destinatário). O homem aprendeu a transmitir e receber informações ainda antes de armazená-las. A fala é um método de transmissão que nossos ancestrais distantes usavam em contato direto (conversa) - ainda o usamos agora. Para transmitir informações a longas distâncias é necessário utilizar processos de informação muito mais complexos.Para realizar tal processo, a informação deve ser formatada (apresentada) de alguma forma. Para apresentar informações, são utilizados vários sistemas de signos – conjuntos de símbolos semânticos predeterminados: objetos, imagens, palavras escritas ou impressas da linguagem natural. A informação semântica sobre qualquer objeto, fenômeno ou processo apresentado com a ajuda deles é chamada de mensagem.

Obviamente, para transmitir uma mensagem à distância, a informação deve ser transferida para algum tipo de meio móvel. Os transportadores podem circular pelo espaço utilizando veículos, como acontece com as cartas enviadas pelo correio. Este método garante total confiabilidade na transmissão da informação, uma vez que o destinatário recebe a mensagem original, mas requer um tempo significativo para transmissão. Desde meados do século XIX, os métodos de transmissão de informações tornaram-se difundidos usando um portador de informação que se propaga naturalmente - vibrações eletromagnéticas (vibrações elétricas, ondas de rádio, luz). A implementação desses métodos requer:

Transferência preliminar da informação contida na mensagem para o meio - codificação;

Garantir a transmissão do sinal assim recebido ao destinatário através de um canal de comunicação especial;

Conversão reversa do código do sinal em código de mensagem - decodificação.

A informação é

A utilização de meios eletromagnéticos torna a entrega de uma mensagem ao destinatário quase instantânea, mas requer medidas adicionais para garantir a qualidade (confiabilidade e precisão) da informação transmitida, uma vez que os canais reais de comunicação estão sujeitos a interferências naturais e artificiais. Dispositivos que implementam o processo de transferência de dados formam sistemas de comunicação. Dependendo do método de apresentação da informação, os sistemas de comunicação podem ser divididos em sinalização (, telefax), som (), vídeo e sistemas combinados (televisão). O sistema de comunicação mais desenvolvido do nosso tempo é a Internet.

Processamento de dados

Como a informação não é material, seu processamento envolve diversas transformações. Os processos de processamento incluem qualquer transferência de informação de um meio para outro meio. As informações destinadas ao processamento são chamadas de dados. O principal tipo de processamento da informação primária recebida pelos diversos dispositivos é a transformação em uma forma que garanta sua percepção pelos sentidos humanos. Assim, as fotografias do espaço obtidas em raios X são convertidas em fotografias coloridas comuns usando conversores de espectro especiais e materiais fotográficos. Dispositivos de visão noturna convertem a imagem obtida em raios infravermelhos (térmicos) em uma imagem na faixa visível. Para algumas tarefas de comunicação e controle, é necessária a conversão de informações analógicas. Para tanto, são utilizados conversores de sinal analógico para digital e digital para analógico.

O tipo mais importante de processamento da informação semântica é a determinação do significado (conteúdo) contido em uma determinada mensagem. Ao contrário da informação semântica primária, ela não possui estatística características, ou seja, uma medida quantitativa - ou há sentido ou não. E quanto é, se houver, é impossível estabelecer. O significado contido na mensagem é descrito em uma linguagem artificial que reflete as conexões semânticas entre as palavras do texto fonte. Um dicionário desse idioma, denominado tesauro, está localizado no receptor da mensagem. O significado das palavras e frases em uma mensagem é determinado atribuindo-as a determinados grupos de palavras ou frases, cujo significado já foi estabelecido. O tesauro permite, assim, estabelecer o significado da mensagem e, ao mesmo tempo, é reabastecido com novos conceitos semânticos. O tipo descrito de processamento de informação é usado em sistemas de recuperação de informação e sistemas de tradução automática.

Um dos tipos mais difundidos de processamento de informações é a solução de problemas computacionais e de controle automático por meio de computadores. O processamento de informações é sempre realizado para alguma finalidade. Para alcançá-lo, deve-se conhecer a ordem das ações sobre as informações que levam a um determinado objetivo. Este procedimento é chamado de algoritmo. Além do algoritmo em si, você também precisa de algum dispositivo que implemente esse algoritmo. Nas teorias científicas, tal dispositivo é denominado autômato.Deve-se destacar como característica mais importante da informação que, devido à assimetria da interação da informação, novas informações aparecem durante o processamento da informação, mas a informação original não se perde.

Informações analógicas e digitais

O som são vibrações de ondas em qualquer meio, por exemplo, no ar. Quando uma pessoa fala, as vibrações dos ligamentos da garganta são convertidas em vibrações ondulatórias do ar. Se considerarmos o som não como uma onda, mas como vibrações em um ponto, então essas vibrações podem ser representadas como mudanças na pressão do ar ao longo do tempo. Usando um microfone, as alterações de pressão podem ser detectadas e convertidas em tensão elétrica. A pressão do ar é convertida em flutuações de tensão elétrica.

Tal transformação pode ocorrer de acordo com várias leis, na maioria das vezes a transformação ocorre de acordo com uma lei linear. Por exemplo, assim:

você(t)=K(P(t)-P_0),

onde U(t) é a tensão elétrica, P(t) é a pressão do ar, P_0 é a pressão média do ar e K é o fator de conversão.

Tanto a tensão elétrica quanto a pressão do ar são funções contínuas ao longo do tempo. As funções U(t) e P(t) são informações sobre as vibrações dos ligamentos da garganta. Essas funções são contínuas e tais informações são chamadas de analógicas.A música é um caso especial de som e também pode ser representada como uma espécie de função do tempo. Será uma representação analógica da música. Mas a música também é escrita em forma de notas. Cada nota tem uma duração que é um múltiplo de uma duração pré-determinada e uma altura (dó, ré, mi, fá, sal, etc.). Se esses dados forem convertidos em números, obteremos uma representação digital da música.

A fala humana também é um caso especial de som. Também pode ser representado de forma analógica. Mas assim como a música pode ser dividida em notas, a fala pode ser dividida em letras. Se cada letra receber seu próprio conjunto de números, obteremos uma representação digital da fala. A diferença entre a informação analógica e a digital é que a informação analógica é contínua, enquanto a informação digital é discreta. A transformação da informação de um tipo para outro , dependendo do tipo de transformação, é denominado de forma diferente: simplesmente "conversão", como conversão digital para analógico ou conversão analógico para digital; transformações complexas são chamadas de "codificação", por exemplo, codificação delta, codificação por entropia; A conversão entre características como amplitude, frequência ou fase é chamada de "modulação", por exemplo modulação amplitude-frequência, modulação por largura de pulso.

A informação é

Normalmente, as conversões analógicas são bastante simples e podem ser facilmente realizadas por vários dispositivos inventados pelo homem. Um gravador converte a magnetização do filme em som, um gravador de voz converte o som em magnetização no filme, uma câmera de vídeo converte a luz em magnetização no filme, um osciloscópio converte tensão ou corrente elétrica em uma imagem, etc. Converter informações analógicas em digitais é muito mais difícil. A máquina não consegue fazer algumas transformações ou consegue com grande dificuldade. Por exemplo, converter a fala em texto, ou converter uma gravação de um concerto em partituras, e até mesmo uma representação inerentemente digital: o texto no papel é muito difícil para uma máquina converter no mesmo texto na memória do computador.

A informação é

Por que então usar a representação digital da informação se ela é tão complexa? A principal vantagem da informação digital sobre a informação analógica é a imunidade ao ruído. Ou seja, no processo de cópia da informação, a informação digital é copiada como está, pode ser copiada quase um número infinito de vezes, enquanto a informação analógica torna-se ruidosa durante o processo de cópia e sua qualidade se deteriora. Normalmente, as informações analógicas não podem ser copiadas mais do que três vezes. Se você tiver um gravador de áudio de duas fitas, poderá realizar o seguinte experimento: tente reescrever a mesma música várias vezes de fita em fita; depois de apenas algumas dessas regravações você notará o quanto a qualidade da gravação se deteriorou. As informações no cassete são armazenadas em formato analógico. Você pode reescrever músicas em formato mp3 quantas vezes quiser e a qualidade da música não se deteriora. As informações em um arquivo mp3 são armazenadas digitalmente.

Quantidade de informação

Uma pessoa ou algum outro receptor de informação, ao receber uma informação, resolve alguma incerteza. Tomemos a mesma árvore como exemplo. Quando vimos a árvore, resolvemos uma série de incertezas. Aprendemos a altura da árvore, o tipo de árvore, a densidade da folhagem, a cor das folhas e, se fosse uma árvore frutífera, víamos os frutos que estavam nela, quão maduros estavam, etc. Antes de olharmos para a árvore não sabíamos de tudo isso, depois de olharmos para a árvore resolvemos a incerteza - recebemos informações.

Se formos a um prado e olharmos para ele, obteremos um tipo diferente de informação: quão grande é o prado, qual é a altura da grama e qual é a cor da grama. Se um biólogo for a este mesmo prado, então, entre outras coisas, poderá descobrir: que variedades de erva crescem no prado, que tipo de prado é, verá que flores floresceram, quais são prestes a florescer, se o prado é adequado para vacas pastando, etc. Ou seja, ele receberá mais informações do que nós, já que ele tinha mais dúvidas antes de olhar a campina, o biólogo vai resolver mais incertezas.

A informação é

Quanto mais incertezas foram resolvidas no processo de obtenção de informações, mais informações recebemos. Mas esta é uma medida subjetiva da quantidade de informação, e gostaríamos de ter uma medida objetiva. Existe uma fórmula para calcular a quantidade de informação. Temos alguma incerteza, e temos N número de casos de resolução da incerteza, e cada caso tem uma certa probabilidade de resolução, então a quantidade de informação recebida pode ser calculada usando a seguinte fórmula que Shannon nos sugeriu:

I = -(p_1 log_(2)p_1 + p_2 log_(2)p_2 +... +p_N log_(2)p_N), onde

I – quantidade de informações;

N - número de resultados;

p_1, p_2,..., p_N são as probabilidades do resultado.

A informação é

A quantidade de informação é medida em bits - uma abreviatura das palavras inglesas BInary digiT, que significa dígito binário.

Para eventos igualmente prováveis, a fórmula pode ser simplificada:

I = log_(2)N, onde

I – quantidade de informações;

N é o número de resultados.

Vamos pegar, por exemplo, uma moeda e jogá-la na mesa. Ele vai cair cara ou coroa. Temos 2 eventos igualmente prováveis. Depois de lançarmos a moeda, recebemos log_(2)2=1 bit de informação.

Vamos tentar descobrir quanta informação obtemos depois de lançar os dados. O cubo tem seis lados – seis eventos igualmente prováveis. Obtemos: log_(2)6 aproximadamente 2,6. Depois de lançarmos o dado sobre a mesa, recebemos aproximadamente 2,6 bits de informação.

As probabilidades de vermos um dinossauro marciano quando saímos de casa são de uma em dez mil milhões. Quanta informação obteremos sobre o dinossauro marciano quando sairmos de casa?

Esquerda(((1 sobre (10^(10))) log_2(1 sobre (10^(10))) + esquerda(( 1 - (1 sobre (10^(10)))) direita) log_2 esquerda(( 1 - (1 sobre (10 ^ (10))) certo)) certo) aproximadamente 3,4 cdot 10 ^ (-9) bits.

Digamos que jogamos 8 moedas. Temos 2 ^ 8 opções de queda de moedas. Isso significa que depois de lançar moedas obteremos log_2(2^8)=8 bits de informação.

Quando fazemos uma pergunta e temos a mesma probabilidade de receber uma resposta “sim” ou “não”, depois de responder à pergunta recebemos uma pequena informação.

É surpreendente que, se aplicarmos a fórmula de Shannon à informação analógica, obtenhamos uma quantidade infinita de informação. Por exemplo, a tensão em um ponto de um circuito elétrico pode assumir um valor igualmente provável de zero a um volt. O número de resultados que temos é infinito e, ao substituir esse valor na fórmula para eventos igualmente prováveis, obtemos o infinito - uma quantidade infinita de informações.

Agora vou mostrar como codificar “guerra e paz” usando apenas uma marca em qualquer haste de metal. Vamos codificar todas as letras e caracteres encontrados em " guerra e paz”, usando números de dois dígitos - deveriam ser suficientes para nós. Por exemplo, daremos à letra “A” o código “00”, à letra “B” o código “01” e assim por diante, codificaremos sinais de pontuação, letras latinas e números. Vamos recodificar " guerra e o mundo" usando este código e obtenha um número longo, por exemplo, 70123856383901874..., adicione uma vírgula e um zero na frente deste número (0,70123856383901874...). O resultado é um número de zero a um. Vamos colocar risco em uma haste de metal de modo que a razão entre o lado esquerdo da haste e o comprimento desta haste seja exatamente igual ao nosso número. Assim, se de repente quisermos ler “guerra e paz”, simplesmente mediremos o lado esquerdo da barra para riscos e o comprimento de toda a haste, divida um número por outro, pegue um número e recodifique-o novamente em letras (“00” em “A”, “01” em “B”, etc.).

A informação é

Na realidade, não conseguiremos fazer isso, pois não conseguiremos determinar os comprimentos com precisão infinita. Alguns problemas de engenharia nos impedem de aumentar a precisão das medições, e a física quântica nos mostra que depois de um certo limite, as leis quânticas já irão interferir em nós. Intuitivamente, entendemos que quanto menor a precisão da medição, menos informação recebemos, e quanto maior a precisão da medição, mais informação recebemos. A fórmula de Shannon não é adequada para medir a quantidade de informação analógica, mas existem outros métodos para isso, que são discutidos na Teoria da Informação. Na tecnologia de informática, um bit corresponde ao estado físico do portador de informação: magnetizado - não magnetizado, há um buraco - sem buraco, carregado - não carregado, reflete luz - não reflete luz, alto potencial elétrico - baixo potencial elétrico. Neste caso, um estado é geralmente denotado pelo número 0 e o outro pelo número 1. Qualquer informação pode ser codificada com uma sequência de bits: texto, imagem, som, etc.

Junto com um bit, um valor chamado byte é frequentemente usado; geralmente é igual a 8 bits. E se um bit permite que você escolha uma opção igualmente provável entre duas possíveis, então um byte é 1 em 256 (2 ^ 8). Para medir a quantidade de informação, também é comum utilizar unidades maiores:

1 KB (um quilobyte) 210 bytes = 1024 bytes

1 MB (um megabyte) 210 KB = 1024 KB

1 GB (um gigabyte) 210 MB = 1024 MB

Na realidade, os prefixos SI quilo-, mega-, giga- deveriam ser usados ​​para os fatores 10^3, 10^6 e 10^9, respectivamente, mas historicamente tem havido uma prática de usar fatores com potências de dois.

Um bit Shannon e um bit usado em tecnologia de computador são iguais se as probabilidades de um zero ou um aparecer em um bit de computador forem iguais. Se as probabilidades não forem iguais, então a quantidade de informação segundo Shannon torna-se menor, vimos isso no exemplo do dinossauro marciano. A quantidade de informações do computador fornece uma estimativa superior da quantidade de informações. A memória volátil, depois que a energia é aplicada a ela, geralmente é inicializada com algum valor, por exemplo, todos uns ou todos zeros. É claro que depois que a energia é aplicada à memória, não há informação ali, uma vez que os valores nas células da memória são estritamente definidos, não há incerteza. A memória pode armazenar uma certa quantidade de informações, mas depois que a energia é aplicada a ela, não há mais informações nela.

A desinformação é informação deliberadamente falsa fornecida a um inimigo ou parceiro de negócios para a condução mais eficaz de operações militares, cooperação, verificação de vazamento de informações e a direção de seu vazamento, identificação de potenciais clientes do mercado negro. Também a desinformação (também mal informada) é o processo de manipular a própria informação, tais como: enganar alguém fornecendo informações incompletas ou completas, mas não mais necessárias, distorcendo o contexto, distorcendo parte da informação.

O objetivo dessa influência é sempre o mesmo - o oponente deve agir conforme a necessidade do manipulador. A ação do alvo contra o qual a desinformação é dirigida pode consistir na tomada de uma decisão que o manipulador necessita ou na recusa de tomar uma decisão que seja desfavorável ao manipulador. Mas em qualquer caso, o objetivo final é a ação que será tomada pelo adversário.

A desinformação, então, é produtos atividade humana, uma tentativa de criar uma falsa impressão e, consequentemente, empurrar para as ações e/ou inação desejadas.

A informação é

Tipos de desinformação:

Enganar uma pessoa ou grupo específico de pessoas (incluindo uma nação inteira);

Manipulação (ações de uma pessoa ou grupo de pessoas);

Criar opinião pública sobre um problema ou objeto.

A informação é

A deturpação nada mais é do que um engano total, o fornecimento de informações falsas. A manipulação é um método de influência que visa diretamente mudar a direção da atividade das pessoas. Os seguintes níveis de manipulação são diferenciados:

Fortalecer os valores (ideias, atitudes) que existem na mente das pessoas e são benéficos ao manipulador;

Mudança parcial de opinião sobre um determinado evento ou circunstância;

Uma mudança radical nas atitudes de vida.

A criação da opinião pública é a formação na sociedade de uma certa atitude em relação a um problema escolhido.

Fontes e links

ru.wikipedia.org - enciclopédia gratuita Wikipédia

youtube.com - hospedagem de vídeos no YouTube

images.yandex.ua - imagens Yandex

google.com.ua - Google imagens

ru.wikibooks.org - Wikilivros

inf1.info - Planeta Informática

old.russ.ru - revista russa

shkolo.ru - Diretório de informações

5byte.ru - site de ciência da computação

ssti.ru - Tecnologias de informação

klgtu.ru - Ciência da Computação

informatika.sch880.ru - site do professor de ciência da computação O.V. Podvintseva

Enciclopédia de Estudos Culturais

O conceito básico de cibernética, da mesma forma, econômico I. o conceito básico de cibernética econômica. Existem muitas definições deste termo, são complexas e contraditórias. A razão para isso, obviamente, é que I. lida com o fenômeno... ... Dicionário econômico e matemático

Informação- Dados significativos. [GOST R ISO 9000 2008] informação Qualquer tipo de conhecimento sobre objetos, fatos, conceitos, etc. de uma área problemática que é trocado por usuários de um sistema de informação [GOST 34.320 96] informação Informação (mensagens, dados)… … Guia do Tradutor Técnico

Informação- e, f. informação f., andar informacyia, lat. explicação de informações, apresentação. Mensagem, informação sobre algo. BAS 1. Em todos os lugares e em tudo, proteja os interesses dos monarcas com toda a fidelidade, .. para tudo eu dou-lhe informações diretas aos Shvymers... ... Dicionário histórico de galicismos da língua russa

Informação- dados, dados de origem, informações; notificação, mensagem, notificação, notificação; classificação, catamnese, notícias, referência, material, relatório, comunicado de imprensa Dicionário de sinônimos russos. informações veja informações Dicionário de sinônimos da língua russa... ... Dicionário de sinônimo

INFORMAÇÃO- (informação) Dados disponíveis para indivíduos, empresas ou governos na tomada de decisões económicas. Em princípio, existe uma quantidade infinitamente grande de informações; na prática, mesmo organizações grandes e sofisticadas como centrais... ... Dicionário econômico

- (dados) Informação que é processada, acumulada ou emitida por um computador. Negócios. Dicionário. M.: INFRA M, Editora Ves Mir. Graham Betts, Barry Brindley, S. Williams e outros.Editor geral: Ph.D. Osadchaya I.M.. 1998. Informações ... Dicionário de termos comerciais

INFORMAÇÃO- INFORMAÇÃO, informação, mulheres. (livro, oficial). 1. apenas unidades Ação sob o cap. informar. As informações são apresentadas no nível adequado. 2. Uma mensagem informando sobre a situação ou as atividades de alguém, informações sobre algo. Dar... ... Dicionário Explicativo de Ushakov

INFORMAÇÃO- (do latim informatio familiarização, explicação) conceito utilizado na filosofia desde a antiguidade e recentemente recebeu um significado novo e mais amplo graças ao desenvolvimento da cibernética, onde atua como uma das categorias centrais... ... Enciclopédia Filosófica

INFORMAÇÃO- (de lat. explicação informatio, consciência) quaisquer informações e dados que reflitam as propriedades dos objetos naturais (biológicos, físicos, etc.), sociais e técnicos. sistemas e transmitidos por som, gráficos (inclusive escritos) ou outros meios sem... ... Enciclopédia física

Informação(do latim informatio, explicação, apresentação, consciência) - informação sobre algo, independentemente da forma de sua apresentação.

Atualmente, não existe uma definição única de informação como termo científico. Do ponto de vista das diversas áreas do conhecimento, esse conceito é descrito por seu conjunto específico de características. Por exemplo, o conceito de “informação” é básico num curso de informática, sendo impossível defini-lo através de outros conceitos mais “simples” (assim como em geometria, por exemplo, é impossível expressar o conteúdo do conceitos básicos “ponto”, “raio”, “plano” através de conceitos mais simples). O conteúdo dos conceitos básicos de qualquer ciência deve ser explicado com exemplos ou identificado comparando-os com o conteúdo de outros conceitos. No caso do conceito “informação”, o problema da sua definição é ainda mais complexo, visto que se trata de um conceito científico geral. Este conceito é utilizado em diversas ciências (informática, cibernética, biologia, física, etc.), e em cada ciência o conceito de “informação” está associado a diferentes sistemas de conceitos.

História do conceito

A palavra "informação" vem do lat. informatio, que na tradução significa informação, explicação, familiarização. O conceito de informação foi considerado pelos filósofos antigos.

Antes do início da Revolução Industrial, determinar a essência da informação permanecia prerrogativa principalmente dos filósofos. No século 20, a cibernética e a ciência da computação começaram a lidar com questões de teoria da informação.

Classificação das informações

As informações podem ser divididas em tipos de acordo com vários critérios:

Por forma de percepção:

Por formulário de apresentação:

Por propósito:

Por significado:

  • Relevante – informação que é valiosa em um determinado momento.
  • Confiável - informações obtidas sem distorção.
  • Compreensível – informação expressa numa linguagem compreensível para aqueles a quem se destina.
  • Completo – informações suficientes para tomar uma decisão ou entendimento correto.
  • Útil - a utilidade da informação é determinada pelo sujeito que a recebeu dependendo do escopo de possibilidades de sua utilização.

Por verdade:

O significado do termo em diversas áreas do conhecimento

Filosofia

O tradicionalismo do subjetivo dominou constantemente nas primeiras definições filosóficas da informação como categoria, conceito, propriedade do mundo material. A informação existe independentemente da nossa consciência e só pode ser refletida em nossa percepção como resultado da interação: reflexão, leitura, recepção na forma de sinal, estímulo. A informação é imaterial, como todas as propriedades da matéria. A informação se apresenta na seguinte ordem: matéria, espaço, tempo, sistematicidade, função, etc., que são os conceitos fundamentais de uma reflexão formalizada da realidade objetiva em sua distribuição e variabilidade, diversidade e manifestação. A informação é uma propriedade da matéria e reflete suas propriedades (estado ou capacidade de interagir) e quantidade (medida) por meio da interação.

Do ponto de vista material, a informação é a ordem dos objetos no mundo material. Por exemplo, a ordem das letras em uma folha de papel de acordo com certas regras é uma informação escrita. A ordem dos pontos multicoloridos em uma folha de papel de acordo com certas regras é uma informação gráfica. A ordem das notas musicais é uma informação musical. A ordem dos genes no DNA é informação hereditária. A ordem dos bits em um computador é a informação do computador, etc., etc. Para realizar a troca de informações é necessária a presença de condições necessárias e suficientes.

As condições necessárias:

  1. A presença de pelo menos dois objetos diferentes do mundo material ou intangível.
  2. A presença de uma propriedade comum entre os objetos que permite identificá-los como portadores de informação.
  3. A presença de uma propriedade específica nos objetos que lhes permite distinguir objetos uns dos outros.
  4. A presença de uma propriedade de espaço que permite determinar a ordem dos objetos. Por exemplo, o layout das informações escritas no papel é uma propriedade específica do papel que permite que as letras sejam organizadas da esquerda para a direita e de cima para baixo.

Existe apenas uma condição suficiente:

A presença de um sujeito capaz de reconhecer informações. Este é o homem e a sociedade humana, sociedades de animais, robôs, etc.

Vários objetos (letras, símbolos, imagens, sons, palavras, frases, notas, etc.) tomados um de cada vez constituem a base da informação. Uma mensagem informativa é construída selecionando cópias de objetos de uma base e organizando esses objetos no espaço em uma determinada ordem. O comprimento da mensagem informativa é definido como o número de cópias dos objetos base e é sempre expresso como um número inteiro. É necessário distinguir entre o comprimento de uma mensagem informativa, que é sempre medido em um número inteiro, e a quantidade de conhecimento contida em uma mensagem informativa, que é medida em uma unidade de medida desconhecida.

Do ponto de vista matemático, a informação é uma sequência de números inteiros escritos em um vetor. Os números são o número do objeto na base de informações. O vetor é chamado de invariante de informação, pois não depende da natureza física dos objetos básicos. A mesma mensagem informativa pode ser expressa em letras, palavras, frases, arquivos, imagens, notas, músicas, videoclipes ou qualquer combinação de todos os itens acima. Não importa como expressamos a informação, apenas a base muda, não o invariante.

Na ciência da computação

O objeto de estudo da ciência da computação são os dados: métodos de sua criação, armazenamento, processamento e transmissão. E a própria informação registrada nos dados, seu significado significativo, interessa aos usuários de sistemas de informação que são especialistas em diversas ciências e áreas de atividade: um médico está interessado em informação médica, um geólogo está interessado em informação geológica, um empresário está interessado em informações comerciais, etc. (incluindo um cientista da computação interessado em informações sobre questões de trabalho com dados).

Sistemalogia

Trabalhar com informação está associado a transformações e confirma sempre a sua natureza material:

  • gravação - a formação da estrutura da matéria e a modulação dos fluxos através da interação de um instrumento com um meio;
  • armazenamento - estabilidade de estrutura (quase estática) e modulação (quase dinâmica);
  • leitura (estudo) - interação de uma sonda (instrumento, transdutor, detector) com um substrato ou fluxo de matéria.

A sistemalogia considera a informação através da conexão com outras bases: I=S/F, onde: I - informação; S - natureza sistemática do universo; F - conexão funcional; M - matéria; v - (v sublinhado) sinal de grande unificação (sistematicidade, unidade de fundamentos); R - espaço; T-Tempo.

Em física

Os objetos do mundo material estão em um estado de mudança contínua, caracterizado pela troca de energia entre o objeto e o meio ambiente. Uma mudança no estado de um objeto sempre leva a uma mudança no estado de algum outro objeto ambiental. Este fenômeno, independentemente de como, quais estados e quais objetos mudaram, pode ser considerado como a transmissão de um sinal de um objeto para outro. A alteração do estado de um objeto quando um sinal é transmitido a ele é chamada de registro de sinal.

Um sinal ou sequência de sinais forma uma mensagem que pode ser percebida pelo destinatário de uma forma ou de outra, bem como em um ou outro volume. Informação em física é um termo que generaliza qualitativamente os conceitos de “sinal” e “mensagem”. Se sinais e mensagens podem ser quantificados, então podemos dizer que sinais e mensagens são unidades de medida do volume de informação.

A mesma mensagem (sinal) é interpretada de forma diferente por sistemas diferentes. Por exemplo, um sinal sonoro sucessivamente longo e dois curtos (e ainda mais na codificação simbólica -..) na terminologia do código Morse é a letra D (ou D), na terminologia BIOS da empresa AWARD - um mau funcionamento da placa de vídeo.

Na matemática

Em matemática, a teoria da informação (teoria matemática da comunicação) é uma seção da matemática aplicada que define o conceito de informação, suas propriedades e estabelece relações limitantes para sistemas de transmissão de dados. Os principais ramos da teoria da informação são a codificação de fonte (codificação de compressão) e a codificação de canal (resistente a ruído). A matemática é mais do que uma disciplina científica. Cria uma linguagem unificada para toda a ciência.

O assunto da pesquisa matemática são objetos abstratos: número, função, vetor, conjunto e outros. Além disso, a maioria deles é introduzida axiomaticamente (axioma), ou seja, sem qualquer ligação com outros conceitos e sem qualquer definição.

A informação não faz parte do estudo da matemática. No entanto, a palavra "informação" é usada em termos matemáticos - autoinformação e informação mútua, relacionada à parte abstrata (matemática) da teoria da informação. Porém, na teoria matemática, o conceito de “informação” está associado exclusivamente a objetos abstratos - variáveis ​​​​aleatórias, enquanto na moderna teoria da informação esse conceito é considerado de forma muito mais ampla - como uma propriedade de objetos materiais.

A conexão entre esses dois termos idênticos é inegável. Foi o aparato matemático dos números aleatórios que foi utilizado pelo autor da teoria da informação, Claude Shannon. Ele mesmo quer dizer com o termo “informação” algo fundamental (irredutível). A teoria de Shannon pressupõe intuitivamente que a informação tem conteúdo. A informação reduz a incerteza geral e a entropia da informação. A quantidade de informação é mensurável. No entanto, ele alerta os pesquisadores contra a transferência mecânica de conceitos de sua teoria para outras áreas da ciência.

“A busca por formas de aplicação da teoria da informação em outras áreas da ciência não se resume a uma transferência trivial de termos de uma área da ciência para outra. Essa busca é realizada em um longo processo de apresentação de novas hipóteses e testá-las experimentalmente.” K.Shannon.

Na jurisprudência

A definição legal do conceito de “informação” é dada na Lei Federal de 27 de julho de 2006 nº 149-FZ “Sobre Informação, Tecnologias de Informação e Proteção da Informação” (Artigo 2º): “informação - informação (mensagens, dados) independentemente da forma de sua apresentação”.

A Lei Federal nº 149-FZ define e consolida os direitos à proteção e segurança da informação dos cidadãos e organizações em computadores e sistemas de informação, bem como questões de segurança da informação dos cidadãos, das organizações, da sociedade e do Estado.

Na teoria de controle

Na teoria de controle (cibernética), cujo objeto de estudo são as leis básicas de controle, ou seja, o desenvolvimento de sistemas de controle, a informação refere-se a mensagens recebidas pelo sistema do mundo exterior durante o controle adaptativo (adaptação, autopreservação do sistema de controle).

O fundador da cibernética, Norbert Wiener, falou sobre informações como esta:

“Informação não é matéria ou energia, informação é informação.” Mas a definição básica de informação que ele deu em vários dos seus livros é a seguinte: informação é uma designação do conteúdo que recebemos do mundo exterior no processo de adaptação de nós e de nossos sentimentos a ele.

- N. Wiener Cibernética, ou controle e comunicação em animais e máquinas; ou Cibernética e sociedade

Este pensamento de Wiener dá uma indicação direta da objetividade da informação, ou seja, de sua existência na natureza independente da consciência humana (percepção).

A cibernética moderna define a informação objetiva como a propriedade objetiva dos objetos e fenômenos materiais de gerar uma variedade de estados que, por meio das interações fundamentais da matéria, são transmitidos de um objeto (processo) para outro e ficam impressos em sua estrutura.

Um sistema material na cibernética é considerado como um conjunto de objetos que podem estar em estados diferentes, mas o estado de cada um deles é determinado pelos estados de outros objetos do sistema. Na natureza, muitos estados de um sistema representam informação; os próprios estados representam o código primário, ou código-fonte. Assim, todo sistema material é uma fonte de informação.

A cibernética define informação subjetiva (semântica) como o significado ou conteúdo de uma mensagem. (ver ibid.) A informação é uma característica de um objeto.

Desinformação

A desinformação (também desinformação) é uma das formas de manipulação de informação, como enganar alguém fornecendo informações incompletas ou completas, mas não mais necessárias, ou completas, mas não na área exigida, distorção de contexto, distorção de parte da informação.

O objetivo dessa influência é sempre o mesmo - o oponente deve agir conforme a necessidade do manipulador. A ação do alvo contra o qual a desinformação é dirigida pode consistir na tomada de uma decisão que o manipulador necessita ou na recusa de tomar uma decisão que seja desfavorável ao manipulador. Mas em qualquer caso, o objetivo final é a ação que será tomada.

O termo “informação” vem da palavra latina “informatio”, que significa informação, explicação, apresentação. Apesar do uso generalizado deste termo, o conceito de informação é um dos mais polêmicos da ciência.

No “Grande Dicionário Enciclopédico” a informação é definida como “um conceito científico geral que inclui a troca de informações entre pessoas, uma pessoa e um autômato, um autômato e um autômato, a troca de sinais no mundo animal e vegetal; a transferência de características de célula para célula, de organismo para organismo (informação genética).Atualmente, a ciência está tentando encontrar propriedades gerais e padrões inerentes ao conceito multifacetado Informação, mas por enquanto este conceito permanece em grande parte intuitivo e recebe diferentes conteúdos semânticos em vários ramos da atividade humana:

· na vida cotidiana informação é qualquer dado ou informação que interesse a alguém. Por exemplo, uma mensagem sobre quaisquer eventos, sobre as atividades de alguém, etc. "Informar" neste sentido significa "para comunicar algo,anteriormente desconhecido";

· em tecnologia informação refere-se a mensagens transmitidas sob a forma de sinais ou sinais;

· em cibernética Por informação entendemos aquela parte do conhecimento que é utilizada para orientação, ação ativa, gestão, ou seja, a fim de preservar, melhorar e desenvolver o sistema (N. Wiener).

Conceito dados mais geral do que a ciência da computação, nela as propriedades semânticas da mensagem parecem ficar em segundo plano. Quando não há necessidade de enfatizar a diferença entre conceitos dados(todo o conjunto de informações) e Informação(novas informações úteis) essas palavras são usadas como sinônimos.

Conseqüentemente, diferentes unidades são usadas para estimar a quantidade de informação.

Ao transmitir informações, é importante prestar atenção na quantidade de informação que passará pelo sistema transmissor. Afinal, a informação pode ser medida quantitativamente, contada. E nesses cálculos agem da maneira mais usual: abstraem do significado da mensagem, assim como abandonam a concretude nas operações aritméticas que todos nós conhecemos (à medida que passam da adição de duas maçãs e três maçãs à adição de números em geral: 2 + 3).

1.2.2 PropriedadesInformação

As propriedades mais importantes da informação incluem:

  • completude;
  • valor;
  • oportunidade (relevância);
  • compreensibilidade;
  • disponibilidade;
  • brevidade;
  • e etc.

Adequação a informação pode ser expressa de três formas: semântica, sintática, pragmática.

Se informações valiosas e oportunas forem expressas de forma pouco clara, podem tornar-se inúteis.

A informação se torna compreensível, se for expressa na língua falada por aqueles a quem esta informação se destina.

As informações devem ser apresentadas de forma acessível (de acordo com o nível de percepção). Portanto, as mesmas questões são apresentadas de forma diferente nos livros escolares e nas publicações científicas.

As informações sobre o mesmo assunto podem ser apresentadas de forma breve (concisa, sem detalhes sem importância) ou extensivamente (detalhada, detalhada). A concisão das informações é necessária em livros de referência, enciclopédias, livros didáticos e todos os tipos de instruções.

1.2.1. Informatização e informatização da sociedade. Recursos informativos.

Processos de informação(recolha, processamento e transmissão de informação) sempre desempenharam um papel importante na vida da sociedade. No curso da evolução humana, há uma tendência constante para a automação desses processos.

Ferramentas de processamento de informações- são todos os tipos de dispositivos e sistemas criados pela humanidade e, antes de tudo, um computador é uma máquina universal de processamento de informações.

Os computadores processam informações executando alguns algoritmos.

Organismos vivos e plantas processam informações usando seus órgãos e sistemas.

A humanidade processa informações há milhares de anos. Existe a opinião de que o mundo passou por diversas revoluções informacionais.

Primeiro A revolução da informação está associada à invenção e ao domínio da linguagem humana, que, ou melhor, da fala oral, separou o homem do mundo animal. Isso permitiu que uma pessoa armazenasse, transmitisse, melhorasse e aumentasse as informações adquiridas.

Segundo A revolução da informação foi a invenção da escrita. Em primeiro lugar, as capacidades de armazenamento de informação aumentaram acentuadamente (em comparação com a fase anterior). A pessoa recebeu memória externa artificial. A organização dos serviços postais permitiu utilizar a escrita como meio de transmissão de informação. Além disso, o surgimento da escrita foi condição necessária para o início do desenvolvimento das ciências (lembre-se da Grécia Antiga, por exemplo). O surgimento do conceito está aparentemente associado a esta mesma etapa número natural. Todos os povos que possuíam a escrita conheciam o conceito de número e usavam um ou outro sistema numérico.

Ainda assim, o conhecimento registrado nos textos escritos era limitado e, portanto, pouco acessível. Este era o caso antes da invenção da impressão.

O que justifica terceiro revolução da informação. Aqui a ligação entre informação e tecnologia é mais óbvia. A impressão pode facilmente ser chamada de primeira tecnologia da informação. A reprodução da informação foi colocada em funcionamento, numa base industrial. Em comparação com a anterior, esta fase não aumentou tanto a capacidade de armazenamento (embora aqui também tenha havido um ganho: uma fonte escrita - muitas vezes um único exemplar, um livro impresso - toda uma tiragem de exemplares e, portanto, uma baixa probabilidade de perder informações durante o armazenamento (lembre-se de "O Conto do Regimento de Igor")), aumentou muito a disponibilidade de informações e a precisão de sua reprodução. O mecanismo desta revolução foi a imprensa, que tornou os livros mais baratos e a informação mais acessível.

Quarto revolução gradualmente se transformando em quinto, está associada à criação de modernas tecnologias de informação. Esta fase está associada aos sucessos das ciências exatas (principalmente matemática e física) e é caracterizada pelo surgimento de meios de comunicação tão poderosos como o telégrafo (1794 - o primeiro telégrafo óptico, 1841 - o primeiro telégrafo eletromagnético), telefone ( 1876) e o rádio (1895). ), aos quais se juntou a televisão no final da fase (1921). Além das comunicações, surgiram novas oportunidades de recepção e armazenamento de informação - fotografia e cinema. Também é muito importante acrescentar a eles o desenvolvimento de métodos de gravação de informações em meios magnéticos (fitas magnéticas, discos). Mas o mais surpreendente foi a criação de computadores e telecomunicações modernos.

Atualmente o termo "tecnologia da Informação" usado em conexão com o uso de computadores para processar informações. As tecnologias de informação abrangem todas as tecnologias de computação e comunicação e, em parte, a electrónica de consumo, a televisão e a radiodifusão.

Encontram aplicação na indústria, comércio, gestão, sistema bancário, educação, saúde, medicina e ciência, transportes e comunicações, agricultura, sistema de segurança social, e servem de ajuda a pessoas de diversas profissões e donas de casa.

As pessoas dos países desenvolvidos compreendem que melhorar a tecnologia da informação é a tarefa mais importante, embora dispendiosa e difícil.

Atualmente, a criação de sistemas de tecnologia da informação em grande escala é economicamente possível, o que leva ao surgimento de programas nacionais de pesquisa e educação destinados a estimular o seu desenvolvimento.

Após resolver o problema de processamento da informação, o resultado deve ser apresentado aos usuários finais na forma exigida. Esta operação é implementada resolvendo o problema de emissão de informações. As informações geralmente são fornecidas por meio de dispositivos externos de computador na forma de textos, tabelas, gráficos, etc.

O núcleo de qualquer tecnologia da informação é a seleção e implementação das tecnologias mais racionais. processo de informação, que pode ser definido como um conjunto de procedimentos de transformação e processamento de informações.

Por sua vez procedimento de informaçãoÉ geralmente aceito considerar um conjunto de operações homogêneas que influenciam a informação de uma determinada forma. Os principais procedimentos de informação são: registro, coleta, transmissão, codificação, armazenamento e processamento da informação.

A implementação de qualquer tarefa para um usuário específico requer a criação de um sistema de serviços de informação, mais frequentemente denominado sistema de informação.

Seja A=(a1, a2,…, an) o alfabeto de alguma língua. A* é o conjunto de todas as sequências possíveis de símbolos desta linguagem.

Uma linguagem é um subconjunto de A* que satisfaz dois sistemas de regras: sintático (sombreamento azul) e semântico (sombreamento Bordeaux), e somente aquelas construções que satisfazem regras sintáticas podem satisfazer regras semânticas.

Exemplo: bbse - não satisfaz a sintaxe do idioma russo

Petya comeu um trator - todas as regras sintáticas são observadas, mas a frase não satisfaz a semântica da língua russa

Assim, conhecer uma língua significa

1. Conhecimento do seu alfabeto,

2. Conhecimento de regras sintáticas

3. Conhecimento de regras semânticas

Neste caso, você conseguirá se comunicar e será compreendido corretamente.

A conversão de construções de uma língua em uma sequência de letras de outro alfabeto é chamada codificação.

Se falamos sobre codificação, primeiro precisamos determinar qual construção de linguagem consideraremos como um símbolo, ou seja, alguma estrutura indivisível.

Consideremos uma determinada frase da linguagem Q. A frase consiste em palavras, que por sua vez consistem em letras. Existem 3 opções possíveis para definir um símbolo (uma construção de linguagem indivisível):

1. símbolo = letra: frase - uma sequência de letras do alfabeto. Essa abordagem é usada por escrito.

2. símbolo = palavra. Esta representação de sentenças é usada de forma abreviada.

3. símbolo = frase. Esta situação surge ao traduzir de um idioma para outro, e isso é especialmente evidente ao traduzir provérbios, piadas e ditados.

O grande matemático alemão Gottfried Wilhelm Leibniz começou a estudar o problema da codificação; ele provou que o número mínimo de letras necessárias para codificar qualquer alfabeto é 2.

Exemplo. Idioma russo: 33 letras*2 (maiúsculas, minúsculas) -2(ъ,ь) + 10 sinais de pontuação +10 números = 84 caracteres. Um pré-requisito para a codificação correta é a capacidade de converter AÛB de forma inequívoca. Quantos caracteres binários são necessários para codificar um caractere russo?

carta código
A
A
b
B
V
EM
eu
M

Suponha que precisemos codificar a palavra mamãe. Vamos codificá-lo: 10011 0 10010 0. Faça a conversão reversa (decodificação). Os problemas surgem porque Não está claro onde termina uma letra e começa outra. A regra básica de conversão inequívoca de A para B e vice-versa é violada, o motivo é a utilização de um código de comprimento variável, portanto é necessário escolher um código de mesmo comprimento pré-determinado. Qual?

Conclusão: quanto menos letras no alfabeto, mais longo será o símbolo. A língua russa tem 33 letras, as palavras consistem em média de 4 a 6 letras. Existem cerca de 3.000 caracteres no idioma japonês, em média 1 frase ~ 1 caractere.

Os computadores usam codificação binária de informações de qualquer tipo: programas, documentos de texto, imagens gráficas, videoclipes, sons, etc. Surpreendentemente, toda esta riqueza de informação é codificada utilizando apenas dois estados: ligado ou desligado (um ou zero). A formação da representação da informação é chamada de codificação. Num sentido mais restrito, sob codificação refere-se à transição da representação inicial da informação, conveniente para a percepção humana, para uma representação conveniente para armazenamento, transmissão e processamento. Neste caso, a transição reversa para a representação original é chamada decodificação .

Em qualquer tipo de trabalho com informação, estamos sempre falando da sua representação na forma de determinadas estruturas simbólicas. As mais comuns são as representações unidimensionais de informações, nas quais as mensagens assumem a forma de uma sequência de caracteres. É assim que as informações são apresentadas em textos escritos, quando transmitidas pelos canais de comunicação, na memória do computador. No entanto, a representação multidimensional da informação também é amplamente utilizada, e por multidimensionalidade entendemos não apenas a disposição dos elementos de informação num plano ou no espaço na forma de desenhos, diagramas, gráficos, layouts tridimensionais, etc., mas também a representação multidimensional da informação. multiplicidade de características dos símbolos utilizados, por exemplo, cor, tamanho, tipo de fonte no texto.

Motoristaé um programa intermediário entre o equipamento e outros programas.

Assim, os textos são armazenados no disco ou na memória na forma de números e são convertidos programaticamente em imagens de caracteres na tela.

1.2.5. Codificação de imagem

Em 1756, o notável cientista russo Mikhail Vasilyevich Lomonosov (1711 -1765) expressou pela primeira vez a ideia de que para reproduzir qualquer cor da natureza basta misturar três cores primárias em certas proporções: vermelho, verde, azul. A teoria da cor de três componentes afirma que três tipos de excitações nervosas surgem no sistema visual humano, cada um dos quais é independente dos outros.

A codificação de imagens de computador também se baseia nesta teoria. A imagem é dividida em pequenos retângulos por linhas verticais e horizontais. A matriz resultante de retângulos é chamada raster, e os elementos da matriz são píxeis(do inglês Elemento da imagem- elemento de imagem). A cor de cada pixel é representada por um triplo dos valores de intensidade das três cores primárias. Este método de codificação de cores é denominado RGB (do inglês vermelho - vermelho, verde - verde, azul - azul). Quanto mais bits forem alocados para cada cor primária, maior será a gama de cores que podem ser armazenadas para cada elemento da imagem. O padrão, chamado true color, usa 3 bytes para cada ponto raster, 1 byte para cada cor primária. Assim, 256 (=2 8) níveis de brilho do vermelho, 256 níveis de brilho do verde e 256 níveis de brilho do azul juntos fornecem aproximadamente 16,7 milhões de tonalidades de cores diferentes, o que excede a capacidade de percepção de cores do olho humano.

Para armazenar a imagem inteira, basta escrever uma matriz de valores de cores dos pixels em alguma ordem, por exemplo, da esquerda para a direita e de cima para baixo. Algumas informações sobre a imagem serão perdidas durante esta codificação. Quanto menores forem os pixels, menores serão as perdas. Em monitores de computador modernos com diagonal de 15 a 17 polegadas, um compromisso razoável entre a qualidade e o tamanho dos elementos da imagem na tela é fornecido por um raster de 768x1024 pixels.

Conceito de informação

Em conceito "Informação"(de lat. informação- informação, explicação, apresentação) tem um significado diferente de acordo com a indústria onde este conceito é considerado: na ciência, na tecnologia, na vida cotidiana, etc. Normalmente, informação significa quaisquer dados ou informações que interessem a alguém (uma mensagem sobre quaisquer eventos, sobre as atividades de alguém, etc.).

Na literatura você pode encontrar um grande número de definições do termo "Informação", que refletem diferentes abordagens à sua interpretação:

Definição 1

  • Informação– informações (mensagens, dados), independentemente da forma de apresentação (“Lei Federal da Federação Russa de 27 de julho de 2006, No. $149$-FZ Sobre Informação, Tecnologias de Informação e Proteção de Informação”);
  • Informação– informações sobre o mundo circundante e os processos que nele ocorrem, percebidas por uma pessoa ou por um dispositivo especial (Dicionário Explicativo da Língua Russa de Ozhegov).

Quando se fala em processamento de dados computacionais, a informação é entendida como uma determinada sequência de símbolos ou sinais (letras, números, imagens gráficas e sons codificados, etc.), que carrega uma carga semântica e é apresentada de forma compreensível para um computador.

Na ciência da computação, a seguinte definição deste termo é usada com mais frequência:

Definição 2

Informação– trata-se de informação consciente (conhecimento expresso em sinais, mensagens, notícias, notificações, etc.) sobre o mundo que nos rodeia, que é objeto de armazenamento, transformação, transmissão e utilização.

Uma mesma mensagem informativa (artigo de revista, anúncio, reportagem, carta, certificado, fotografia, programa de televisão, etc.) pode transportar diferentes quantidades e conteúdos de informação para diferentes pessoas, dependendo do seu conhecimento acumulado e do nível de acessibilidade desta mensagem e no nível de interesse nele. Por exemplo, notícias escritas em chinês não transmitem qualquer informação a uma pessoa que não conhece esta língua, mas podem ser úteis para uma pessoa que conhece chinês. As notícias apresentadas numa linguagem familiar não conterão qualquer informação nova se o seu conteúdo não for claro ou já for conhecido.

A informação é considerada uma característica não de uma mensagem, mas da relação entre a mensagem e seu destinatário.

Tipos de informação

As informações podem existir em diferentes tipos:

  • texto, desenhos, desenhos, fotografias;
  • sinais luminosos ou sonoros;
  • ondas de rádio;
  • impulsos elétricos e nervosos;
  • gravações magnéticas;
  • gestos e expressões faciais;
  • cheiros e sensações gustativas;
  • cromossomos através dos quais as características e propriedades dos organismos são herdadas, etc.

Distinguir principais tipos de informações, que são classificados de acordo com sua forma de representação, métodos de codificação e armazenamento:

  • gráfico- um dos tipos mais antigos, com a ajuda do qual as informações sobre o mundo circundante eram armazenadas na forma de pinturas rupestres e depois na forma de pinturas, fotografias, diagramas, desenhos em diversos materiais (papel, tela, mármore, etc. .), que retratam imagens do mundo real;
  • som(acústico) - para armazenar informações sonoras, foi inventado um dispositivo de gravação de som em $1877, e para informações musicais foi desenvolvido um método de codificação usando caracteres especiais, que permite armazená-las como informações gráficas;
  • texto– codifica a fala de uma pessoa usando símbolos especiais – letras (diferentes para cada nação); o papel é utilizado para armazenamento (escrever em cadernos, imprimir, etc.);
  • numérico– codifica a medida quantitativa de objetos e suas propriedades no mundo circundante usando símbolos especiais - números (cada sistema de codificação tem o seu próprio); tornou-se especialmente importante com o desenvolvimento do comércio, da economia e do câmbio monetário;
  • informações de vídeo- um método de armazenamento de imagens “vivas” do mundo circundante, que surgiu com a invenção do cinema.

Existem também tipos de informação para os quais os métodos de codificação e armazenamento ainda não foram inventados - informação tátil, organoléptica e etc.

Inicialmente, as informações eram transmitidas a longas distâncias por meio de sinais luminosos codificados, após a invenção da eletricidade - transmitindo um sinal codificado de uma determinada forma por meio de fios e, posteriormente, por meio de ondas de rádio.

Nota 1

Claude Shannon é considerado o fundador da teoria geral da informação, que também lançou as bases para as comunicações digitais ao escrever o livro “Teoria Matemática das Comunicações” em 1948, no qual comprovou pela primeira vez a possibilidade de usar código binário para transmitir informações.

Os primeiros computadores eram um meio de processamento de informações numéricas. Com o desenvolvimento da tecnologia informática, os PCs passaram a ser utilizados para armazenar, processar e transmitir diversos tipos de informações (informações textuais, numéricas, gráficas, sonoras e de vídeo).

Você pode armazenar informações usando um PC em discos ou fitas magnéticas, em discos laser (CD e DVD) e em dispositivos especiais de memória não volátil (memória flash, etc.). Esses métodos são constantemente aprimorados e também são inventados suportes de informação. Todas as ações com informações são realizadas pelo processador central do PC.

Objetos, processos, fenômenos do mundo material ou imaterial, se considerados do ponto de vista de suas propriedades de informação, são chamados de objetos de informação.

Um grande número de diferentes processos de informação pode ser executado com base na informação, incluindo:

  • Criação;
  • recepção;
  • combinação;
  • armazenar;
  • transmissão;
  • copiar;
  • tratamento;
  • procurar;
  • percepção;
  • formalização;
  • divisão em partes;
  • medição;
  • uso;
  • espalhando;
  • simplificação;
  • destruição;
  • memorização;
  • transformação;

Propriedades de informação

A informação, como qualquer objeto, tem propriedades, os mais importantes entre os quais, do ponto de vista da informática, são:

  • Objetividade. Informação objetiva – existindo independentemente da consciência humana, dos métodos de registrá-la, da opinião ou atitude de alguém.
  • Credibilidade. As informações que refletem a verdadeira situação são confiáveis. Informações imprecisas geralmente levam a mal-entendidos ou decisões erradas. A obsolescência da informação pode transformar informação confiável em informação não confiável, porque não refletirá mais a verdadeira situação.
  • Completude. A informação é completa se for suficiente para a compreensão e a tomada de decisões. Informações incompletas ou redundantes podem levar a atrasos na tomada de decisões ou a erros.
  • Precisão das informações – o grau de sua proximidade com o estado real de um objeto, processo, fenômeno, etc.
  • O valor da informação depende da sua importância para a tomada de decisões, resolução de problemas e posterior aplicabilidade em qualquer tipo de atividade humana.
  • Relevância. Somente o recebimento oportuno de informações pode levar ao resultado esperado.
  • Clareza. Se informações valiosas e oportunas não forem expressas com clareza, provavelmente se tornarão inúteis. A informação será compreensível quando for, no mínimo, expressa em linguagem que o destinatário possa compreender.
  • Disponibilidade. A informação deve corresponder ao nível de percepção do destinatário. Por exemplo, as mesmas questões são apresentadas de forma diferente nos livros escolares e universitários.
  • Brevidade. A informação é percebida muito melhor se não for apresentada de forma detalhada e detalhada, mas com um grau aceitável de concisão, sem detalhes desnecessários. A concisão das informações é indispensável em livros de referência, enciclopédias e instruções. Logicidade, compactação e forma conveniente de apresentação facilitam a compreensão e assimilação das informações.