Ce este informația este o scurtă definiție. Ce este informația? Concept și tipuri de informații

Cuvântul „informație” este tradus din latină ca „conștientizare”, „clarificare”, iar această definiție s-a potrivit umanității până în anii patruzeci ai secolului XX.

Acest termen a fost folosit pentru a defini concepte pur practice, cum ar fi un anumit corp de cunoștințe, informații despre un anumit subiect, fenomen sau eveniment. Astfel de informații sunt destul de specifice și în multe cazuri nu conțin o evaluare cantitativă.

De mii de ani cuvântul „informație”; a fost obișnuit, nu ieșind în evidență printre alte zeci de mii de cuvinte. În tot acest timp, omul se considera singura făptură capabilă să transmită, să primească și să creeze informații.

Situația a început să se schimbe odată cu apariția ciberneticii - știința managementului. Cybernetics de Norbert Wiener a fost publicat în 1948. Ea a deschis ochii oamenilor asupra a ceea ce toată lumea știe acum - procesele informaționale au loc în orice organism viu, începând cu amibe și viruși. Mașinile create de om funcționează și sub controlul informațiilor. Orice comunitate de ființe vii - furnici, albine, pești, păsări și, desigur, oameni nu poate exista fără fluxuri de informații care circulă în ea.

Data de naștere a „Teoriei informațiilor” este, de asemenea, considerată a fi 1948. Atunci a apărut un articol al inginerului de comunicații Claude Shannon, în vârstă de 32 de ani, „Teoria matematică a comunicațiilor” în jurnalul abstract al companiei americane de telefonie Bell System. , în care a propus o modalitate de măsurare a cantității de informații. Din acest moment, conceptul de „informație” începe să-și extindă sfera de aplicare.

Descoperirea unității proceselor în lucrurile vii și nevii, introducerea pe scară largă a computerelor, creșterea rapidă a fluxului de informații sub formă de ziare, reviste, cărți, emisiuni de televiziune și radio au dat un sens complet diferit, nou. cuvântul „informație”. În stadiul actual de dezvoltare a științei, se recunoaște că conceptul de „informație” este mult mai încăpător și, ceea ce este foarte important, există în afara percepției noastre. Cu alte cuvinte, întreaga lume din jurul nostru, atât accesibilă, cât și inaccesibilă nouă, are peste tot o structură informațională.

„Informația” a devenit un concept neobișnuit de larg și este la egalitate cu categorii filosofice precum materia, energia, spațiul și timpul. Cu toate acestea, o singură definiție general acceptată a informației încă nu există; în plus, acest concept rămâne unul dintre cele mai controversate din știința modernă.

Iată diferitele definiții ale acestui concept:

  1. Informația este desemnarea conținutului primit din lumea exterioară în procesul de adaptare la aceasta (N. Wiener).
  2. Informația este entropia negativă (negentropia) (L. Brillouin).
  3. Informația este probabilitatea de alegere (A. M. Yaglom, I. M. Yaglom).
  4. Informația este incertitudinea eliminată (K. Shannon).
  5. Informația este o măsură a complexității structurilor, o măsură a ordinii sistemelor materiale (A. Mol).
  6. Informații - indistincbilitatea eliminată, transmiterea diversității (W.R. Ashby).
  7. Informații – diversitate reflectată (A. D. Ursul).
  8. Informația este o măsură a eterogenității distribuției materiei și energiei în spațiu și timp (V. M. Glushkov).

Conform teoriilor moderne ale evoluției, procesul de dezvoltare a Universului este un proces de autoorganizare. În timpul autoorganizării cuarcilor, au apărut protoni și neutroni, în timpul autoorganizării atomilor au apărut multe molecule, în timpul autoorganizării moleculelor a apărut o celulă vie, în timpul autoorganizării celulelor - un organism, în timpul sinelui -organizarea organismelor - populatii si societati...

Creșterea complexității sistemului, dezvoltarea lui progresivă este asociată cu o creștere a cantității de informații acumulate de sistem, care se manifestă în structura sa. Astfel, conform unor studii, la trecerea de la nivel atomic la nivel molecular, cantitatea de informație crește de 10 3 ori. Cantitatea de informații referitoare la corpul uman este de aproximativ 10 11 ori mai mare decât informațiile conținute într-un organism unicelular.

Utilizarea unui model informațional de dezvoltare face posibilă clarificarea mecanismului progresului prin complicare, ordonarea și creșterea gradului de organizare a sistemelor materiale (Figura 3).

Informația este informații despre ceva

Conceptul și tipurile de informații, transmiterea și prelucrarea, căutarea și stocarea informațiilor

Informația este, definiție

Informația este orice inteligenta, primite și transmise, stocate de diverse surse. - aceasta este întreaga colecție de informații despre lumea din jurul nostru, despre tot felul de procese care au loc în ea și care pot fi percepute de organismele vii, mașinile electronice și alte sisteme informaționale.

- Acest informații semnificative despre ceva, atunci când forma prezentării sale este și informație, adică are o funcție de formatare în conformitate cu propria sa natură.

Informația este tot ceea ce poate fi completat cu cunoștințele și presupunerile noastre.

Informația este informații despre ceva, indiferent de forma de prezentare a acestuia.

Informația este mental al oricărui organism psihofizic, produs de acesta atunci când folosește orice mijloc numit mediu de informare.

Informația este informații percepute de oameni și (sau) specialiști. dispozitive ca o reflectare a faptelor lumii materiale sau spirituale în proces comunicatii.

Informația este datele organizate în așa fel încât să aibă sens pentru persoana care le manipulează.

Informația este sensul pe care o persoană îl atașează datelor pe baza convențiilor cunoscute folosite pentru a le reprezenta.

Informația este informație, explicație, prezentare.

Informația este orice date sau informații care interesează pe oricine.

Informația este informații despre obiectele și fenomenele mediului, parametrii, proprietățile și starea acestora, care sunt percepute de sistemele informaționale (organisme vii, mașini de control etc.) în proces viata si munca.

Același mesaj de informare (articol de ziar, reclamă, scrisoare, telegramă, certificat, poveste, desen, transmisie radio etc.) poate conține cantități diferite de informații pentru diferite persoane - în funcție de cunoștințele lor anterioare, de nivelul de înțelegere a acestui mesaj și interes pentru ea.

În cazurile în care se vorbește despre automatizat muncă cu informații prin orice dispozitive tehnice, sunt interesați nu de conținutul mesajului, ci de câte caractere conține acest mesaj.

Informația este

În ceea ce privește prelucrarea datelor computerizate, informația este înțeleasă ca o anumită succesiune de desemnări simbolice (litere, cifre, imagini grafice și sunete codificate etc.), purtând o încărcătură semantică și prezentate într-o formă pe care computerul îl înțeleg. Fiecare caracter nou dintr-o astfel de secvență de caractere crește volumul de informații al mesajului.

În prezent, nu există o definiție unică a informației ca termen științific. Din punctul de vedere al diferitelor domenii ale cunoașterii, acest concept este descris prin setul său specific de caracteristici. De exemplu, conceptul de „informație” este de bază într-un curs de informatică și este imposibil să-l definești prin alte concepte, mai „simple” (la fel ca în geometrie, de exemplu, este imposibil de exprimat conținutul concepte de bază „punct”, „linie”, „plan” prin concepte mai simple).

Conținutul conceptelor de bază din orice știință ar trebui explicat cu exemple sau identificat prin compararea acestora cu conținutul altor concepte. În cazul conceptului „informație”, problema definiției acestuia este și mai complexă, întrucât este un concept științific general. Acest concept este folosit în diverse științe (informatică, cibernetică, biologie, fizică etc.), iar în fiecare știință conceptul de „informație” este asociat cu diferite sisteme de concepte.

Conceptul de informare

În știința modernă, sunt luate în considerare două tipuri de informații:

Informația obiectivă (primară) este proprietatea obiectelor materiale și a fenomenelor (proceselor) de a genera o varietate de stări, care prin interacțiuni (interacțiuni fundamentale) sunt transmise altor obiecte și imprimate în structura lor.

Informația subiectivă (semantică, semantică, secundară) este conținutul semantic al informațiilor obiective despre obiectele și procesele lumii materiale, formate de conștiința umană cu ajutorul imaginilor semantice (cuvinte, imagini și senzații) și înregistrate pe un mediu material.

În sensul cotidian, informația este informații despre lumea înconjurătoare și despre procesele care au loc în ea, percepute de o persoană sau de un dispozitiv special.

În prezent, nu există o definiție unică a informației ca termen științific. Din punctul de vedere al diferitelor domenii ale cunoașterii, acest concept este descris prin setul său specific de caracteristici. Conform conceptului lui K. Shannon, informația este eliminarea incertitudinii, adică. Informații care ar trebui să înlăture, într-o măsură sau alta, incertitudinea existentă în dobânditor înainte de a le primi și să-și extindă înțelegerea obiectului cu informații utile.

Din punctul de vedere al lui Gregory Beton, unitatea elementară de informație este o „diferență neindiferență” sau diferență efectivă pentru un sistem de percepție mai mare. El numește acele diferențe care nu sunt percepute „potențiale”, iar cele care sunt percepute „eficiente”. „Informația constă din diferențe care nu sunt indiferente” (c) „Orice percepție a informațiilor este în mod necesar primirea de informații despre diferență.” Din punctul de vedere al informaticii, informatia are o serie de proprietati fundamentale: noutate, relevanta, fiabilitate, obiectivitate, completitudine, valoare etc. Stiinta logicii se ocupa in primul rand de analiza informatiilor. Cuvântul „informație” provine din cuvântul latin informatio, care înseamnă informație, explicație, introducere. Conceptul de informație a fost considerat de filozofii antici.

Informația este

Înainte de începerea Revoluției Industriale, determinarea esenței informațiilor a rămas în principal apanajul filosofilor. Apoi, noua știință a ciberneticii a început să ia în considerare problemele teoriei informațiilor.

Uneori, pentru a înțelege esența unui concept, este util să analizăm sensul cuvântului prin care este desemnat acest concept. Clarificarea formei interioare a unui cuvânt și studierea istoriei utilizării acestuia pot arunca o lumină neașteptată asupra sensului său, întunecat de utilizarea obișnuită „tehnologică” a cuvântului și de conotațiile moderne.

Cuvântul informație a intrat în limba rusă în epoca petrină. A fost consemnată pentru prima dată în „Regulamentele spirituale” din 1721 în sensul „idee, concept de ceva”. (În limbile europene a fost stabilit mai devreme - în jurul secolului al XIV-lea.)

Informația este

Pe baza acestei etimologie, informațiile pot fi considerate orice modificare semnificativă a formei sau, cu alte cuvinte, orice urme înregistrate material formate prin interacțiunea obiectelor sau forțelor și susceptibile de înțelegere. Prin urmare, informația este o formă convertită de energie. Purtătorul de informație este un semn, iar metoda existenței sale este interpretarea: identificarea semnificației unui semn sau a unei secvențe de semne.

Sensul poate fi un eveniment reconstruit dintr-un semn care a determinat apariția lui (în cazul semnelor „naturale” și involuntare, precum urme, dovezi etc.), sau un mesaj (în cazul semnelor convenționale inerente sferei). de limbaj). Este al doilea tip de semne care alcătuiește corpul culturii umane, care, conform unei definiții, este „un set de informații transmise neereditar”.

Informația este

Mesajele pot conține informații despre fapte sau interpretarea faptelor (din latinescul interpretatio, interpretation, translation).

O ființă vie primește informații prin simțuri, precum și prin reflecție sau intuiție. Schimbul de informații între subiecți este comunicare sau comunicare (din latinescul communicatio, mesaj, transfer, derivat la rândul său din latinescul communico, a face comun, a comunica, a vorbi, a conecta).

Din punct de vedere practic, informația este întotdeauna prezentată sub forma unui mesaj. Mesajul de informare este asociat cu sursa mesajului, cu destinatarul mesajului și cu canalul de comunicare.

Revenind la etimologia latină a cuvântului informație, să încercăm să răspundem la întrebarea despre ce anume este dat aici forma.

Este evident că, în primul rând, la un anumit sens, care, fiind inițial lipsit de formă și neexprimat, există doar potențial și trebuie „construit” pentru a deveni perceput și transmis.

În al doilea rând, mintea umană, care este antrenată să gândească structural și clar. În al treilea rând, unei societăți care, tocmai pentru că membrii săi împărtășesc aceste semnificații și le folosesc împreună, capătă unitate și funcționalitate.

Informația este

informația ca sens inteligent exprimat este cunoașterea care poate fi stocată, transmisă și poate fi baza pentru generarea altor cunoștințe. Formele de conservare a cunoștințelor (memoria istorică) sunt diverse: de la mituri, cronici și piramide până la biblioteci, muzee și baze de date informatice.

Informații - informații despre lumea din jurul nostru, despre procesele care au loc în ea pe care organismele vii le percep, managerii mașini și alte sisteme informaționale.

Cuvântul „informație” este latin. De-a lungul vieții sale lungi, sensul său a suferit o evoluție, fie extinzându-și, fie îngustându-și extrem de limitele. La început, cuvântul „informație” însemna: „reprezentare”, „concept”, apoi „informație”, „transmitere de mesaje”.

În ultimii ani, oamenii de știință au decis că sensul obișnuit (universal acceptat) al cuvântului „informații” este prea elastic și vag și i-au dat următorul sens: „o măsură de certitudine într-un mesaj”.

Informația este

Teoria informației a fost adusă la viață de nevoile practicii. Apariția sa este asociată cu muncă„Teoria matematică a comunicării” a lui Claude Shannon, publicată în 1946. Fundamentele teoriei informației se bazează pe rezultatele obținute de mulți oameni de știință. Până în a doua jumătate a secolului al XX-lea, globul era plin de informații transmise de-a lungul cablurilor telefonice și telegrafice și canalelor radio. Mai târziu au apărut computerele electronice - procesoare de informații. Și pentru acea vreme, sarcina principală a teoriei informațiilor a fost, în primul rând, creșterea eficienței sistemelor de comunicație. Dificultatea în proiectarea și operarea mijloacelor, sistemelor și canalelor de comunicare este că nu este suficient ca proiectantul și inginerul să rezolve problema din perspectivă fizică și energetică. Din aceste puncte de vedere, sistemul poate fi cel mai avansat și mai economic. Dar atunci când se creează sisteme de transmisie, este important să se acorde atenție câte informații vor trece prin acest sistem de transmisie. La urma urmei, informațiile pot fi măsurate cantitativ, numărate. Și în astfel de calcule ei acționează în cel mai obișnuit mod: fac abstracție de sensul mesajului, la fel cum abandonează concretețea în operațiile aritmetice care ne sunt familiare tuturor (pe măsură ce trec de la adăugarea a două mere și a trei mere la adunarea numerelor). în general: 2 + 3).

Oamenii de știință au spus că „au ignorat complet evaluarea umană a informațiilor”. De exemplu, unei serii secvențiale de 100 de litere, ei atribuie o anumită semnificație a informațiilor, fără a fi atenți dacă această informație are sens și dacă, la rândul său, are sens în aplicarea practică. Abordarea cantitativă este cea mai dezvoltată ramură a teoriei informației. După această definiție, o colecție de 100 de litere — o frază de 100 de litere dintr-un ziar, o piesă de teatru sau teorema lui Einstein — are exact aceeași cantitate de informații.

Această definiție a cantității de informații este extrem de utilă și practică. Corespunde exact sarcinii inginerului de comunicatii, care trebuie sa transmita toate informatiile cuprinse in telegrama depusa, indiferent de valoarea acestor informatii pentru destinatar. Canalul de comunicare este fără suflet. Un lucru este important pentru sistemul de transmisie: să transmită cantitatea necesară de informații într-un anumit timp. Cum se calculează cantitatea de informații dintr-un anumit mesaj?

Informația este

Estimarea cantității de informații se bazează pe legile teoriei probabilităților, mai precis, se determină prin probabilități evenimente. Acest lucru este de înțeles. Un mesaj are valoare și poartă informații numai atunci când aflăm din el despre rezultatul unui eveniment care este de natură aleatorie, când este într-o oarecare măsură neașteptat. La urma urmei, mesajul despre ceea ce este deja cunoscut nu conține nicio informație. Acestea. Dacă, de exemplu, cineva vă sună la telefon și spune: „E lumină ziua și întuneric noaptea”, atunci un astfel de mesaj vă va surprinde doar cu absurditatea de a spune ceva evident și cunoscut de toată lumea, și nu cu vestea pe care o contine. Un alt lucru, de exemplu, este rezultatul unei curse. Cine va veni primul? Rezultatul aici este greu de prezis. Cu cât un eveniment de interes pentru noi are mai multe rezultate aleatorii, cu atât mesajul despre rezultatul său este mai valoros, cu atât mai multe informații. Un mesaj despre un eveniment care are doar două rezultate la fel de posibile conține o singură unitate de informație numită bit. Alegerea unității de informare nu este întâmplătoare. Este asociat cu cel mai comun mod binar de a-l codifica în timpul transmisiei și procesării. Să încercăm, cel puțin în cea mai simplificată formă, să ne imaginăm principiul general al evaluării cantitative a informației, care este piatra de temelie a oricărei teorii a informațiilor.

Știm deja că cantitatea de informații depinde probabilități anumite rezultate ale evenimentului. Dacă un eveniment, după cum spun oamenii de știință, are două rezultate la fel de probabile, aceasta înseamnă că fiecare rezultat este egal cu 1/2. Aceasta este probabilitatea de a obține cap sau cozi atunci când aruncați o monedă. Dacă un eveniment are trei rezultate la fel de probabile, atunci probabilitatea fiecăruia este de 1/3. Rețineți că suma probabilităților tuturor rezultatelor este întotdeauna egală cu unu: la urma urmei, unul dintre toate rezultatele posibile va avea loc cu siguranță. Un eveniment, așa cum înțelegeți voi înșivă, poate avea rezultate inegal de probabile. Deci, într-un meci de fotbal între o echipă puternică și o echipă slabă, probabilitatea ca echipa puternică să câștige este mare - de exemplu, 4/5. sunt mult mai puține extrageri, de exemplu 3/20. Probabilitatea de înfrângere este foarte mică.

Se dovedește că cantitatea de informații este o măsură de reducere a incertitudinii unei anumite situații. Diverse cantități de informații sunt transmise pe canalele de comunicare, iar cantitatea de informații care trece prin canal nu poate fi mai mare decât capacitatea acestuia. Și este determinat de câte informații trec aici pe unitatea de timp. Unul dintre eroii romanului lui Jules Verne „Insula misterioasă”, a relatat jurnalistul Gideon Spillett. aparat de telefon capitol din Biblie, astfel încât concurenții săi să nu poată folosi serviciul telefonic. În acest caz, canalul a fost încărcat complet, iar cantitatea de informații a fost egală cu zero, deoarece informațiile cunoscute de el au fost transmise abonatului. Aceasta înseamnă că canalul rula inactiv, trecând un număr strict definit de impulsuri fără a le încărca cu nimic. Între timp, cu cât transportă mai multe informații dintr-un anumit număr de impulsuri, cu atât capacitatea canalului este utilizată mai mult. Prin urmare, trebuie să codificați cu înțelepciune informațiile, să găsiți un limbaj economic și de rezervă pentru a transmite mesaje.

Informațiile sunt „cernite” în cel mai amănunțit mod. În telegraf, literele care apar frecvent, combinațiile de litere, chiar și frazele întregi sunt reprezentate printr-un set mai scurt de zerouri și unu, iar cele care apar mai rar sunt reprezentate de un set mai lung. În cazul în care lungimea cuvântului cod este redusă pentru simbolurile care apar frecvent și mărită pentru cele care apar rar, acestea vorbesc despre codificarea eficientă a informațiilor. Dar, în practică, se întâmplă adesea ca codul care a apărut ca urmare a celei mai atente „cerneri”, codul este convenabil și economic, poate distorsiona mesajul din cauza interferențelor, ceea ce, din păcate, se întâmplă întotdeauna în canalele de comunicare: sunet. distorsiuni la telefon, interferențe atmosferice, distorsiuni sau întunecare a imaginii la televizor, erori de transmisie în telegraf. Această interferență sau, așa cum o numesc experții, zgomot, atacă informația. Și asta are ca rezultat cele mai incredibile și, firesc, surprize neplăcute.

Prin urmare, pentru a crește fiabilitatea în transmiterea și procesarea informațiilor, este necesar să se introducă caractere suplimentare - un fel de protecție împotriva distorsiunii. Ele - aceste simboluri suplimentare - nu poartă conținutul propriu-zis al mesajului, sunt redundante. Din punctul de vedere al teoriei informației, tot ceea ce face ca un limbaj să fie colorat, flexibil, bogat în nuanțe, multifațetat, multivaloric este redundanță. Cât de redundantă din acest punct de vedere este scrisoarea Tatyanei către Onegin! Cât exces de informații este în el pentru un mesaj scurt și de înțeles „Te iubesc”! Și cât de exacte din punct de vedere informațional sunt semnele desenate de mână, de înțeles pentru toți cei care intră astăzi în metrou, unde în loc de cuvinte și fraze de anunțuri există semne simbolice laconice care indică: „Intrare”, „Ieșire”.

În acest sens, este util să ne amintim anecdota spusă cândva de celebrul om de știință american Benjamin Franklin despre un producător de pălării care și-a invitat prietenii să discute despre un proiect de semnă. Trebuia să deseneze o pălărie pe semn și să scrie: „John Thompson , un producător de pălării, face și vinde pălării pentru bani.” Unul dintre prietenii mei a observat că cuvintele „pentru numerar” bani" sunt inutile - un astfel de memento ar fi ofensator pentru cumpărător. Un altul a găsit și cuvântul „vinde” de prisos, deoarece este de la sine înțeles că pălăriile vinde pălării și nu le dă gratuit. Al treilea a crezut că cuvintele „făcător de pălării” și „face pălării” erau o tautologie inutilă, iar ultimele cuvinte au fost aruncate. Al patrulea a sugerat că și cuvântul „facător de pălării” ar trebui aruncat - pălăria pictată spune clar cine este John Thompson. În cele din urmă, al cincilea a asigurat că pt cumpărător nu avea absolut nicio diferență dacă pălăriile se numea John Thompson sau altfel și și-a propus să renunțe la această indicație.Astfel, în cele din urmă, nu a rămas nimic pe semn în afară de pălărie. Desigur, dacă oamenii ar folosi doar acest tip de coduri, fără redundanță în mesaje, atunci toate „formularele de informații” - cărți, rapoarte, articole - ar fi extrem de scurte. Dar ar pierde în claritate și frumusețe.

Informațiile pot fi împărțite în tipuri în funcție de diferite criterii: întradevăr: adevarat si fals;

prin perceptie:

Vizual - perceput de organele vederii;

Auditiv - perceput de organele auzului;

Tactil - perceput de receptorii tactili;

Olfactiv – perceput de receptorii olfactivi;

Gustativ – perceput de papilele gustative.

conform formularului de prezentare:

Text - transmis sub formă de simboluri destinate să desemneze lexeme ale limbii;

Numerică - sub formă de numere și semne care indică operații matematice;

Grafic - sub formă de imagini, obiecte, grafice;

Sunet - transmitere orală sau înregistrată a lexemelor de limbă prin mijloace auditive.

dupa scop:

Masa - contine informatii banale si opereaza cu un set de concepte inteles de majoritatea societatii;

Special - conține un set specific de concepte; atunci când este utilizată, se transmite informații care pot să nu fie înțelese de cea mai mare parte a societății, dar sunt necesare și de înțeles în cadrul grupului social restrâns în care sunt utilizate aceste informații;

Secret - transmis unui cerc restrâns de oameni și prin canale închise (protejate);

Personal (privat) - un set de informații despre o persoană care determină statutul social și tipurile de interacțiuni sociale în cadrul populației.

dupa valoare:

Relevant - informație care este valoroasă la un moment dat în timp;

Fiabil - informații obținute fără distorsiuni;

De înțeles - informații exprimate într-o limbă pe înțelesul celor cărora le sunt destinate;

Complet - informații suficiente pentru a lua decizia sau înțelegerea corectă;

Util - utilitatea informatiei este determinata de subiectul care a primit informatia in functie de sfera posibilitatilor de utilizare a acesteia.

Valoarea informaţiei în diverse domenii ale cunoaşterii

În teoria informației, multe sisteme, metode, abordări și idei sunt dezvoltate în zilele noastre. Cu toate acestea, oamenii de știință cred că noi direcții în teoria informației se vor adăuga celor moderne și vor apărea noi idei. Ca dovadă a corectitudinii presupunerilor lor, ei citează natura „vie”, în curs de dezvoltare a științei, subliniind că teoria informației este surprinzător de rapid și ferm introdusă în cele mai diverse domenii ale cunoașterii umane. Teoria informației a pătruns în fizică, chimie, biologie, medicină, filozofie, lingvistică, pedagogie, economie, logică, științe tehnice și estetică. Potrivit experților înșiși, doctrina informației, care a apărut ca urmare a nevoilor teoriei comunicațiilor și ciberneticii, le-a depășit granițele. Și acum, poate, avem dreptul să vorbim despre informație ca despre un concept științific care pune în mâinile cercetătorilor o metodă teoretică și informațională prin care se poate pătrunde în multe științe despre natura vie și neînsuflețită, despre societate, care nu va permiteți să priviți toate problemele dintr-o nouă perspectivă, dar și să vedeți ceea ce nu a fost încă văzut. De aceea, termenul de „informație” a devenit larg răspândit în epoca noastră, devenind parte a unor concepte precum sistemul informațional, cultura informațională, chiar etica informațională.

Multe discipline științifice folosesc teoria informației pentru a evidenția noi direcții în științele vechi. Așa au apărut, de exemplu, geografia informației, economia informației și legea informației. Dar termenul de „informație” a căpătat o importanță extrem de mare în legătură cu dezvoltarea ultimei tehnologii informatice, automatizarea muncii mentale, dezvoltarea de noi mijloace de comunicare și prelucrare a informațiilor și, mai ales, cu apariția informaticii. Una dintre cele mai importante sarcini ale teoriei informației este studiul naturii și proprietăților informațiilor, crearea unor metode de prelucrare a acesteia, în special transformarea unei largi varietati de informații moderne în programe de calculator, cu ajutorul cărora automatizarea de lucru mental are loc - un fel de întărire a inteligenței și, prin urmare, dezvoltarea resurselor intelectuale ale societății.

Cuvântul „informație” provine din cuvântul latin informatio, care înseamnă informație, explicație, introducere. Conceptul de „informație” este de bază într-un curs de informatică, dar este imposibil de definit prin alte concepte, mai „simple”. Conceptul de „informație” este folosit în diverse științe, iar în fiecare știință conceptul de „ informaţia” este asociată cu diferite sisteme de concepte. Informații în biologie: Biologia studiază natura vie, iar conceptul de „informație” este asociat cu comportamentul adecvat al organismelor vii. În organismele vii, informațiile sunt transmise și stocate folosind obiecte de natură fizică diferită (starea ADN), care sunt considerate semne ale alfabetelor biologice. Informațiile genetice sunt moștenite și stocate în toate celulele organismelor vii. Abordare filosofică: informația este interacțiune, reflecție, cunoaștere. Abordare cibernetică: informația este caracteristică administrator semnal transmis pe o linie de comunicație.

Rolul informației în filosofie

Tradiționalismul subiectivului a dominat constant în definițiile timpurii ale informației ca categorie, concept, proprietate a lumii materiale. Informația există în afara conștiinței noastre și poate fi reflectată în percepția noastră doar ca rezultat al interacțiunii: reflecție, citire, primire sub formă de semnal, stimul. Informația nu este materială, ca toate proprietățile materiei. Informația stă în următoarea ordine: materie, spațiu, timp, sistematicitate, funcție etc., care sunt conceptele fundamentale ale unei reflectări formalizate a realității obiective în distribuția și variabilitatea, diversitatea și manifestările sale. Informația este o proprietate a materiei și reflectă proprietățile acesteia (starea sau capacitatea de a interacționa) și cantitatea (măsura) prin interacțiune.

Din punct de vedere material, informația este ordinea obiectelor din lumea materială. De exemplu, ordinea literelor pe o foaie de hârtie conform anumitor reguli este informație scrisă. Ordinea punctelor multicolore pe o coală de hârtie conform anumitor reguli este informație grafică. Ordinea notelor muzicale este informație muzicală. Ordinea genelor în ADN este informație ereditară. Ordinea biților într-un computer este informația computerului etc. și așa mai departe. Pentru realizarea schimbului de informații este necesară prezența condițiilor necesare și suficiente.

Informația este

Conditiile necesare:

Prezența a cel puțin două obiecte diferite ale lumii materiale sau intangibile;

Prezența unei proprietăți comune între obiecte care le permite să fie identificate ca purtători de informații;

Prezența unei proprietăți specifice în obiecte care le permite să distingă obiectele unele de altele;

Prezența unei proprietăți spațiale care vă permite să determinați ordinea obiectelor. De exemplu, aspectul informațiilor scrise pe hârtie este o proprietate specifică a hârtiei care permite aranjarea literelor de la stânga la dreapta și de sus în jos.

Există o singură condiție suficientă: prezența unui subiect capabil să recunoască informații. Aceasta este omul și societatea umană, societățile animalelor, roboții etc. Un mesaj de informare este construit prin selectarea unor copii ale obiectelor dintr-o bază și aranjarea acestor obiecte în spațiu într-o anumită ordine. Lungimea mesajului de informare este definită ca numărul de copii ale obiectelor de bază și este întotdeauna exprimată ca un număr întreg. Este necesar să se facă distincția între lungimea unui mesaj de informare, care este întotdeauna măsurată într-un număr întreg, și cantitatea de cunoștințe conținută într-un mesaj de informare, care este măsurată într-o unitate de măsură necunoscută. Din punct de vedere matematic, informația este o succesiune de numere întregi care sunt scrise într-un vector. Numerele sunt numărul obiectului din baza de informații. Vectorul se numește invariant de informație, deoarece nu depinde de natura fizică a obiectelor de bază. Același mesaj informativ poate fi exprimat în litere, cuvinte, propoziții, fișiere, imagini, note, cântece, clipuri video, orice combinație a tuturor celor de mai sus.

Informația este

Rolul informației în fizică

informația este informația despre lumea înconjurătoare (obiect, proces, fenomen, eveniment), care este obiectul transformării (inclusiv stocarea, transmiterea etc.) și este folosită pentru dezvoltarea comportamentului, pentru luarea deciziilor, pentru management sau pentru învățare.

Trăsăturile caracteristice ale informațiilor sunt următoarele:

Aceasta este cea mai importantă resursă a producției moderne: reduce nevoia de pământ, forță de muncă, capital și reduce consumul de materii prime și energie. Deci, de exemplu, dacă aveți capacitatea de a vă arhiva fișierele (adică, având astfel de informații), nu trebuie să cheltuiți bani pentru cumpărarea de noi dischete;

Informația aduce la viață noi producții. De exemplu, invenția fasciculului laser a fost motivul apariției și dezvoltării producției de discuri laser (optice);

Informația este o marfă, iar informația nu se pierde după vânzare. Așadar, dacă un student îi spune prietenului său informații despre programul cursului în timpul semestrului, nu va pierde aceste date pentru el însuși;

Informația adaugă valoare altor resurse, în special forței de muncă. Într-adevăr, un lucrător cu studii superioare este apreciat mai mult decât unul cu studii medii.

După cum rezultă din definiție, trei concepte sunt întotdeauna asociate cu informația:

Sursa informației este acel element al lumii înconjurătoare (obiect, fenomen, eveniment), informație despre care este obiectul transformării. Astfel, sursa de informare pe care o primește în prezent cititorul acestui manual este informatica ca sferă a activității umane;

Dobânditorul de informații este acel element al lumii înconjurătoare care folosește informațiile (pentru a dezvolta comportamentul, pentru a lua decizii, pentru a gestiona sau pentru a învăța). Cumpărătorul acestor informații este însuși cititorul;

Un semnal este un mediu material care înregistrează informații pentru a le transfera de la sursă la destinatar. În acest caz, semnalul este de natură electronică. Dacă un student ia acest manual din bibliotecă, atunci aceleași informații vor fi pe hârtie. După ce a fost citită și reținută de către elev, informația va dobândi un alt purtător - biologic, atunci când este „înregistrată” în memoria elevului.

Semnalul este cel mai important element din acest circuit. Formele de prezentare a acesteia, precum și caracteristicile cantitative și calitative ale informațiilor pe care le conține, care sunt importante pentru dobânditorul de informații, sunt discutate în continuare în această secțiune a manualului. Principalele caracteristici ale unui computer ca instrument principal care mapează sursa de informații într-un semnal (link 1 în figură) și „aduce” semnalul către destinatarul informațiilor (link 2 în figură) sunt prezentate în secțiunea Computer . Structura procedurilor care implementează conexiunile 1 și 2 și alcătuiesc procesul informațional este subiectul luat în considerare în partea Procesul informațional.

Obiectele lumii materiale sunt într-o stare de schimbare continuă, care se caracterizează prin schimbul de energie între obiect și mediu. O schimbare a stării unui obiect duce întotdeauna la o schimbare a stării unui alt obiect din mediu. Acest fenomen, indiferent de modul în care, ce stări și ce obiecte s-au schimbat, poate fi considerat ca fiind transmisia unui semnal de la un obiect la altul. Modificarea stării unui obiect atunci când i se transmite un semnal se numește înregistrarea semnalului.

Un semnal sau o secvență de semnale formează un mesaj care poate fi perceput de destinatar într-o formă sau alta, precum și într-unul sau altul volum. Informația în fizică este un termen care generalizează calitativ conceptele de „semnal” și „mesaj”. Dacă semnalele și mesajele pot fi cuantificate, atunci putem spune că semnalele și mesajele sunt unități de măsură ale volumului de informații. Mesajul (semnalul) este interpretat diferit de sisteme diferite. De exemplu, un bip succesiv lung și două scurte în terminologia codului Morse este litera de (sau D), în terminologia BIOS de la compania de atribuire este o defecțiune a plăcii video.

Informația este

Rolul informației în matematică

În matematică, teoria informației (teoria comunicării matematice) este o secțiune a matematicii aplicate care definește conceptul de informație, proprietățile acesteia și stabilește relații limitative pentru sistemele de transmisie a datelor. Principalele ramuri ale teoriei informației sunt codarea sursă (codificare prin compresie) și codarea canalului (rezistent la zgomot). Matematica este mai mult decât o disciplină științifică. Ea creează un limbaj unificat pentru toată Știința.

Subiectul cercetării matematicii îl reprezintă obiectele abstracte: număr, funcție, vector, mulțime și altele. Mai mult, majoritatea sunt introduse axiomatic (axiomă), adică. fără nicio legătură cu alte concepte și fără nicio definiție.

Informația este

informațiile nu sunt incluse în sfera cercetării matematicii. Cu toate acestea, cuvântul „informație” este folosit în termeni matematici - autoinformare și informare reciprocă, legat de partea abstractă (matematică) a teoriei informației. Cu toate acestea, în teoria matematică, conceptul de „informație” este asociat cu obiecte exclusiv abstracte - variabile aleatorii, în timp ce în teoria informației modernă acest concept este considerat mult mai larg - ca o proprietate a obiectelor materiale. Legătura dintre acești doi termeni identici este de netăgăduit. A fost aparatul matematic al numerelor aleatoare care a fost folosit de autorul teoriei informației, Claude Shannon. El însuși înțelege prin termenul „informație” ceva fundamental (ireductibil). Teoria lui Shannon presupune intuitiv că informația are conținut. Informația reduce incertitudinea generală și entropia informațională. Cantitatea de informații este măsurabilă. Cu toate acestea, el avertizează cercetătorii împotriva transferului mecanic de concepte din teoria sa în alte domenii ale științei.

„Căutarea modalităților de aplicare a teoriei informației în alte domenii ale științei nu se rezumă la un transfer banal de termeni dintr-un domeniu al științei în altul. Această căutare se realizează într-un proces îndelungat de prezentare a unor noi ipoteze și testarea lor experimentală. .” K. Shannon.

Informația este

Rolul informației în cibernetică

Fondatorul ciberneticii, Norbert Wiener, a vorbit despre informații ca aceasta:

informația nu este materie sau energie, informația este informație.” Dar definiția de bază a informației, pe care a dat-o în mai multe din cărțile sale, este următoarea: informația este o desemnare a conținutului primit de noi din lumea exterioară, în procesul de adaptându-ne pe noi și sentimentele noastre.

Informația este conceptul de bază al ciberneticii, la fel cum informația economică este conceptul de bază al ciberneticii economice.

Există multe definiții ale acestui termen, ele sunt complexe și contradictorii. Motivul, evident, este că cibernetica ca fenomen este studiată de diferite științe, iar cibernetica este doar cea mai tânără dintre ele. Informația este subiectul de studiu al unor științe precum știința managementului, matematica, genetica și teoria mass-media (print, radio, televiziune), informatica, care se ocupa de problemele informatiei stiintifice si tehnice etc. In sfarsit, recent filosofii au manifestat un mare interes pentru problemele informatiei: tind sa considere informatia ca una dintre principalele proprietati universale ale materiei, asociate cu conceptul de reflexie. Cu toate interpretările conceptului de informaţie, presupune existenţa a două obiecte: sursa informaţiei şi dobânditorul (destinatorul) informaţiei.Transferul de informaţie de la unul la altul are loc cu ajutorul semnalelor, care, în general, vorbesc. poate să nu aibă nicio legătură fizică cu semnificația sa: această comunicare este stabilită prin acord. De exemplu, a suna clopoțelul de veche însemna că trebuie să se adună pentru piață, dar celor care nu știau despre acest ordin, nu le-a comunicat nicio informație.

Într-o situație cu sonerie de veche, persoana care participă la acordul asupra semnificației semnalului știe că în momentul de față pot exista două alternative: întâlnirea veche va avea loc sau nu. Sau, în limbajul teoriei informației, un eveniment incert (veche) are două rezultate. Semnalul primit duce la o scădere a incertitudinii: persoana știe acum că evenimentul (seara) are un singur rezultat - va avea loc. Totuși, dacă s-a știut dinainte că întâlnirea va avea loc la așa și cutare oră, clopoțelul nu anunța nimic nou. Rezultă că, cu cât mesajul este mai puțin probabil (adică, mai neașteptat), cu atât conține mai multe informații și invers, cu atât este mai mare probabilitatea de rezultat înainte de apariția evenimentului, cu atât conține mai puține informații. Aproximativ același raționament a fost făcut în anii 40. secolul XX până la apariția unei teorii statistice sau „clasice” a informației, care definește conceptul de informație prin măsura reducerii incertitudinii cunoașterii despre producerea unui eveniment (această măsură a fost numită entropie). Originile acestei științe au fost N. Wiener, K. Shannon și oamenii de știință sovietici A. N. Kolmogorov, V. A. Kotelnikov și alții, care au reușit să obțină legile matematice pentru măsurarea cantității de informații și, prin urmare, concepte precum capacitatea canalului și capacitatea de stocare. de I. dispozitive etc., care au servit ca un stimulent puternic pentru dezvoltarea ciberneticii ca știință și tehnologie electronică de calcul ca aplicare practică a realizărilor ciberneticii.

În ceea ce privește determinarea valorii și utilității informațiilor pentru destinatar, există încă multe nerezolvate și neclare. Dacă pornim de la nevoile managementului economic și, prin urmare, ciberneticii economice, atunci informația poate fi definită ca toate acele informații, cunoștințe și mesaje care ajută la rezolvarea unei anumite probleme de management (adică la reducerea incertitudinii rezultatelor acesteia). Apoi se deschid unele oportunități de evaluare a informațiilor: este mai utilă, mai valoroasă, cu atât mai devreme sau cu mai puțin cheltuieli conduce la o rezolvare a problemei. Conceptul de informație este apropiat de conceptul de date. Cu toate acestea, există o diferență între ele: datele sunt semnale din care mai trebuie extrase informații.Prelucrarea datelor este procesul de aducere a acestora într-o formă potrivită pentru aceasta.

Procesul de transfer al acestora de la sursă la destinatar și percepția ca informație poate fi considerat ca trecând prin trei filtre:

Fizice, sau statistice (limitare pur cantitativă a capacității canalului, indiferent de conținutul datelor, adică din punct de vedere al sintacticii);

Semantică (selectarea acelor date care pot fi înțelese de către destinatar, adică corespund tezaurului cunoștințelor sale);

Pragmatică (selectarea dintre informațiile înțelese a celor care sunt utile pentru rezolvarea unei probleme date).

Acest lucru este arătat clar în diagrama luată din cartea lui E. G. Yasin despre informațiile economice. În consecință, se disting trei aspecte ale studiului problemelor lingvistice - sintactic, semantic și pragmatic.

În funcție de conținut, informațiile sunt împărțite în socio-politice, socio-economice (inclusiv informații economice), științifice și tehnice etc. În general, există multe clasificări ale informațiilor, ele se bazează pe diferite baze. De regulă, datorită proximității conceptelor, clasificările datelor sunt construite în același mod. De exemplu, informațiile sunt împărțite în statice (constante) și dinamice (variabile), iar datele sunt împărțite în constante și variabile. O altă diviziune este informația primară, derivată, de ieșire (datele sunt, de asemenea, clasificate în același mod). A treia divizie este I. controlând și informând. În al patrulea rând - redundant, util și fals. Al cincilea - complet (continuu) și selectiv. Această idee a lui Wiener oferă o indicație directă a obiectivității informațiilor, adică. existența sa în natură este independentă de conștiința umană (percepție).

Informația este

Cibernetica modernă definește informația obiectivă ca proprietatea obiectivă a obiectelor și fenomenelor materiale de a genera o varietate de stări care, prin interacțiunile fundamentale ale materiei, sunt transmise de la un obiect (proces) la altul și sunt imprimate în structura acestuia. Un sistem material în cibernetică este considerat ca un set de obiecte care ele însele se pot afla în stări diferite, dar starea fiecăruia dintre ele este determinată de stările altor obiecte ale sistemului.

Informația este

În natură, multe stări ale unui sistem reprezintă informații; stările în sine reprezintă codul primar sau codul sursă. Astfel, fiecare sistem material este o sursă de informație. Cibernetica definește informația subiectivă (semantică) ca semnificația sau conținutul unui mesaj.

Rolul informației în informatică

Subiectul științei îl reprezintă datele: metode de creare, stocare, prelucrare și transmitere a acestora. Continut (de asemenea: „conținut” (în context), „conținut site”) este un termen care înseamnă toate tipurile de informații (atât text, cât și multimedia - imagini, audio, video) care alcătuiesc conținutul (vizualizat, pentru vizitator, conținut ) a site-ului web. Este folosit pentru a separa conceptul de informație care alcătuiește structura internă a unei pagini/site (cod) de ceea ce va fi afișat în cele din urmă pe ecran.

Cuvântul „informație” provine din cuvântul latin informatio, care înseamnă informație, explicație, introducere. Conceptul de „informație” este de bază într-un curs de informatică, dar este imposibil de definit prin alte concepte, mai „simple”.

Se pot distinge următoarele abordări pentru determinarea informațiilor:

Tradițional (obișnuit) - folosit în informatică: informația este informații, cunoștințe, mesaje despre starea de lucruri pe care o persoană o percepe din lumea exterioară folosind simțurile (viziunea, auzul, gustul, mirosul, atingerea).

Probabilistică - folosită în teoria informației: informația este informații despre obiectele și fenomenele mediului, parametrii, proprietățile și starea acestora, care reduc gradul de incertitudine și incompletitudinea cunoștințelor despre acestea.

Informațiile sunt stocate, transmise și procesate sub formă simbolică (semn). Aceleași informații pot fi prezentate sub diferite forme:

Scrierea semnelor, formată din diverse semne, printre care se disting cele simbolice sub formă de text, numere, speciale. personaje; grafic; tabelar etc.;

Sub formă de gesturi sau semnale;

Forma verbală orală (conversație).

Informațiile sunt prezentate folosind limbaje ca sisteme de semne, care sunt construite pe baza unui alfabet specific și au reguli pentru efectuarea operațiunilor asupra semnelor. Limba este un sistem de semne specific pentru prezentarea informațiilor. Exista:

Limbile naturale sunt limbi vorbite în formă scrisă și vorbită. În unele cazuri, limbajul vorbit poate fi înlocuit cu limbajul expresiilor faciale și al gesturilor, limbajul semnelor speciale (de exemplu, semnele rutiere);

Limbile formale sunt limbi speciale pentru diferite domenii ale activității umane, care se caracterizează printr-un alfabet strict fixat și reguli mai stricte de gramatică și sintaxă. Acesta este limbajul muzicii (note), limbajul matematicii (numere, simboluri matematice), sisteme de numere, limbaje de programare etc. Baza oricărei limbi este alfabetul - un set de simboluri/semne. Numărul total de simboluri ale alfabetului este de obicei numit puterea alfabetului.

Mijloacele de informare sunt un mediu sau corp fizic pentru transmiterea, stocarea și reproducerea informațiilor. (Acestea sunt electrice, luminoase, termice, sonore, radio semnale, discuri magnetice și laser, publicații tipărite, fotografii etc.)

Procesele informaționale sunt procese asociate cu primirea, stocarea, procesarea și transmiterea informațiilor (adică acțiuni efectuate cu informații). Acestea. Acestea sunt procese în timpul cărora conținutul informațiilor sau forma de prezentare a acesteia se modifică.

Pentru asigurarea procesului de informare sunt necesare o sursă de informare, un canal de comunicare și un cumpărător de informații. Sursa transmite (trimite) informații, iar receptorul o primește (percepe). Informația transmisă călătorește de la sursă la receptor folosind un semnal (cod). Schimbarea semnalului vă permite să obțineți informații.

Fiind obiect de transformare și utilizare, informația se caracterizează prin următoarele proprietăți:

Sintaxa este o proprietate care determină modul în care informația este prezentată pe un mediu (într-un semnal). Astfel, aceste informații sunt prezentate pe suporturi electronice folosind un font specific. Aici puteți lua în considerare, de asemenea, parametri de prezentare a informațiilor, cum ar fi stilul și culoarea fontului, dimensiunea acestuia, distanța dintre linii etc. Selectarea parametrilor necesari ca proprietăți sintactice este determinată în mod evident de metoda de transformare prevăzută. De exemplu, pentru o persoană cu vedere slabă, dimensiunea și culoarea fontului sunt importante. Dacă intenționați să introduceți acest text într-un computer prin intermediul unui scaner, dimensiunea hârtiei este importantă;

Semantica este o proprietate care determină sensul informației ca corespondență a semnalului cu lumea reală. Astfel, semantica semnalului „informatică” se află în definiția dată mai devreme. Semantica poate fi considerată ca un acord, cunoscut de dobânditorul de informații, despre ceea ce înseamnă fiecare semnal (așa-numita regulă de interpretare). De exemplu, este semantica semnalelor pe care o studiază un automobilist începător, studiind regulile rutiere, învățând semnele rutiere (în acest caz, semnele în sine sunt semnalele). Semantica cuvintelor (semnale) este învățată de un student al unei limbi străine. Putem spune că scopul predării informaticii este de a studia semantica diferitelor semnale - esența conceptelor cheie ale acestei discipline;

Pragmatica este o proprietate care determină influența informațiilor asupra comportamentului dobânditorului. Astfel, pragmatica informațiilor primite de cititorul acestui manual reprezintă, cel puțin, promovarea cu succes a examenului de informatică. Aș dori să cred că pragmatica acestei lucrări nu se va limita la aceasta și va servi pentru educația ulterioară și activitățile profesionale ale cititorului.

Informația este

Trebuie remarcat faptul că semnalele care diferă ca sintaxă pot avea aceeași semantică. De exemplu, semnalele „computer” și „computer” înseamnă un dispozitiv electronic pentru conversia informațiilor. În acest caz, de obicei vorbim despre sinonimia semnalului. Pe de altă parte, un semnal (adică, informația cu o proprietate sintactică) poate avea pragmatică diferită pentru consumatori și semantică diferită. Astfel, un indicator rutier cunoscut sub numele de „cărămidă” și având o semantică foarte specifică („intrarea interzisă”) înseamnă pentru un automobilist o interdicție de intrare, dar nu are niciun efect asupra pietonului. În același timp, semnalul „cheie” poate avea o semantică diferită: o cheie de sol, o cheie de arc, o cheie pentru deschiderea unei încuietori, o cheie folosită în informatică pentru a codifica un semnal pentru a-l proteja de accesul neautorizat (în acest caz vorbesc despre omonimie de semnal). Există semnale - antonime care au o semantică opusă. De exemplu, „rece” și „fierbinte”, „rapid” și „lent”, etc.

Subiectul de studiu al științei informaticii este datele: metode de creare, stocare, prelucrare și transmitere a acestora. Iar informațiile în sine înregistrate în date, semnificația sa semnificativă, sunt de interes pentru utilizatorii sistemelor informaționale care sunt specialiști în diverse științe și domenii de activitate: un medic este interesat de informațiile medicale, un geolog este interesat de informațiile geologice, un om de afaceri. este interesat de informații comerciale etc. (În special, un informatician este interesat de informații despre lucrul cu date).

Semiotica - știința informației

Informația nu poate fi imaginată fără primirea, prelucrarea, transmiterea ei etc., adică în afara cadrului schimbului de informații. Toate actele de schimb de informații se realizează prin simboluri sau semne, cu ajutorul cărora un sistem influențează pe altul. Prin urmare, principala știință care studiază informația este semiotica - știința semnelor și a sistemelor de semne în natură și societate (teoria semnelor). În fiecare act de schimb de informații se pot găsi trei „participanți”, trei elemente: un semn, un obiect pe care îl desemnează și un destinatar (utilizator) al semnului.

În funcție de relațiile dintre care elementele sunt luate în considerare, semiotica este împărțită în trei secțiuni: sintactică, semantică și pragmatică. Sintactica studiază semnele și relațiile dintre ele. În același timp, face abstracție de la conținutul semnului și de la sensul său practic pentru destinatar. Semantica studiază relația dintre semne și obiectele pe care le denotă, făcând abstracție de la destinatarul semnelor și de valoarea acestora din urmă: pentru el. Este clar că studierea tiparelor de reprezentare semantică a obiectelor în semne este imposibilă fără a lua în considerare și a utiliza modelele generale de construcție a oricăror sisteme de semne studiate de sintactică. Pragmatica studiază relația dintre semne și utilizatorii lor. În cadrul pragmaticii sunt studiate toți factorii care disting un act de schimb de informații de altul, toate întrebările privind rezultatele practice ale utilizării informațiilor și valoarea acesteia pentru destinatar.

În acest caz, multe aspecte ale relațiilor semnelor între ele și cu obiectele pe care le denotă sunt inevitabil afectate. Astfel, cele trei secțiuni ale semioticii corespund trei niveluri de abstractizare (distragere a atenției) de la caracteristicile unor acte specifice de schimb de informații. Studiul informaţiei în toată diversitatea ei corespunde nivelului pragmatic. Distragerea atenției de la destinatarul informațiilor, excluzându-l de la considerație, trecem la studierea acesteia la nivel semantic. Odată cu abstracția din conținutul semnelor, analiza informațiilor este transferată la nivelul sintacticii. Această întrepătrundere a principalelor secțiuni ale semioticii, asociate cu diferite niveluri de abstractizare, poate fi reprezentată folosind diagrama „Trei secțiuni ale semioticii și interrelația lor”. Măsurarea informației se realizează în consecință în trei aspecte: sintactic, semantic și pragmatic. Necesitatea unor astfel de dimensiuni diferite de informații, așa cum va fi arătat mai jos, este dictată de practica de proiectare și companiilor operarea sistemelor informatice. Să luăm în considerare o situație tipică de producție.

La sfârșitul schimbului, planificatorul de șantier pregătește datele programului de producție. Aceste date intră în centrul de informare și calcul (ICC) al întreprinderii, unde sunt prelucrate, iar sub formă de rapoarte privind starea curentă a producției sunt emise managerilor. Pe baza datelor primite, managerul atelierului ia decizia de a schimba planul de producție cu următorul plan planificat sau de a lua orice alte măsuri organizatorice. Evident, pentru managerul magazinului, cantitatea de informații cuprinse în rezumat depinde de amploarea impactului economic primit din utilizarea acestuia în procesul decizional, de cât de utile au fost informațiile primite. Pentru planificatorul site-ului, cantitatea de informații din același mesaj este determinată de acuratețea corespondenței sale cu starea reală a lucrurilor de pe site și de gradul de surpriză al faptelor raportate. Cu cât sunt mai neașteptate, cu atât mai devreme trebuie să le raportați conducerii, cu atât mai multe informații sunt în acest mesaj. Pentru lucrătorii ICC, numărul de caractere și lungimea mesajului care transportă informații vor fi de o importanță capitală, deoarece acesta este cel care determină timpul de încărcare a echipamentelor informatice și a canalelor de comunicație. În același timp, practic nu sunt interesați nici de utilitatea informațiilor, nici de măsura cantitativă a valorii semantice a informațiilor.

Desigur, atunci când organizăm un sistem de management al producției și construim modele de selecție a deciziilor, vom folosi utilitatea informațiilor ca măsură a informativității mesajelor. La construirea unui sistem contabilitateși raportare care oferă îndrumări cu privire la progresul procesului de producție, măsura cantității de informații ar trebui luată ca noutate a informațiilor primite. Companie Aceleași proceduri pentru prelucrarea mecanică a informațiilor necesită măsurarea volumului mesajelor sub forma numărului de caractere procesate. Aceste trei abordări fundamental diferite de măsurare a informațiilor nu sunt contradictorii sau se exclud reciproc. Dimpotrivă, prin măsurarea informațiilor pe diferite scări, acestea permit o evaluare mai completă și mai cuprinzătoare a conținutului informațional al fiecărui mesaj și organizează mai eficient un sistem de management al producției. Potrivit expresiei potrivite a Prof. NU. Kobrinsky, când vine vorba de o companie rațională a fluxurilor de informații, cantitatea, noutatea și utilitatea informațiilor sunt la fel de interconectate ca și cantitatea, calitatea și costul produselor în producție.

Informații în lumea materială

informaţia este unul dintre conceptele generale asociate materiei. Informația există în orice obiect material sub forma unei varietăți de stări ale sale și este transferată de la obiect la obiect în procesul interacțiunii lor. Existența informației ca proprietate obiectivă a materiei decurge logic din proprietățile fundamentale cunoscute ale materiei - structură, schimbare continuă (mișcare) și interacțiunea obiectelor materiale.

Structura materiei se manifestă ca dezmembrarea internă a integrității, ordinea naturală de conectare a elementelor în întreg. Cu alte cuvinte, orice obiect material, din particula subatomică a Meta Universului (Big Bang) în ansamblu, este un sistem de subsisteme interconectate. Datorită mișcării continue, înțeleasă în sens larg ca mișcare în spațiu și dezvoltare în timp, obiectele materiale își schimbă stările. Stările obiectelor se schimbă și în timpul interacțiunilor cu alte obiecte. Setul de stări ale unui sistem material și ale tuturor subsistemelor sale reprezintă informații despre sistem.

Strict vorbind, din cauza incertitudinii, infinitului și proprietăților structurii, cantitatea de informații obiective din orice obiect material este infinită. Această informație se numește completă. Cu toate acestea, este posibil să se distingă nivelurile structurale cu seturi finite de stări. Informațiile care există la nivel structural cu un număr finit de stări se numesc private. Pentru informațiile private, conceptul de cantitate de informații are sens.

Din prezentarea de mai sus, este logic și simplu să selectați o unitate de măsură pentru cantitatea de informații. Să ne imaginăm un sistem care poate fi în doar două stări la fel de probabile. Să atribuim codul „1” unuia dintre ele și „0” celuilalt. Aceasta este cantitatea minimă de informații pe care o poate conține sistemul. Este o unitate de măsură a informației și se numește bit. Există și alte metode și unități, mai greu de definit, de măsurare a cantității de informații.

În funcție de forma materială a mediului, informațiile sunt de două tipuri principale - analogice și discrete. Informațiile analogice se modifică continuu în timp și preiau valori dintr-un continuum de valori. Informațiile discrete se modifică în anumite momente în timp și iau valori dintr-un anumit set de valori. Orice obiect sau proces material este sursa primară de informație. Toate stările sale posibile alcătuiesc codul sursă de informații. Valoarea instantanee a stărilor este reprezentată ca simbol („litera”) al acestui cod. Pentru ca informația să fie transmisă de la un obiect la altul ca receptor, este necesar să existe un fel de mediu material intermediar care să interacționeze cu sursa. Astfel de purtători în natură, de regulă, sunt procese de propagare rapidă ale structurii undelor - radiații cosmice, gamma și cu raze X, unde electromagnetice și sonore, potențiale (și poate unde nu au fost încă descoperite) ale câmpului gravitațional. Când radiația electromagnetică interacționează cu un obiect ca urmare a absorbției sau reflexiei, spectrul acestuia se modifică, de exemplu. se modifică intensităţile unor lungimi de undă. Armonicile vibrațiilor sonore se modifică și în timpul interacțiunilor cu obiectele. Informația este transmisă și prin interacțiune mecanică, dar interacțiunea mecanică, de regulă, duce la schimbări mari în structura obiectelor (până la distrugerea lor), iar informația este foarte distorsionată. Distorsiunea informației în timpul transmiterii acesteia se numește dezinformare.

Transferul informațiilor sursă către structura mediului se numește codificare. În acest caz, codul sursă este convertit în codul operatorului. Mediul cu codul sursă transferat sub forma unui cod purtător se numește semnal. Receptorul de semnal are propriul set de stări posibile, care se numește codul receptorului. Un semnal, care interacționează cu un obiect care primește, își schimbă starea. Procesul de conversie a unui cod de semnal într-un cod de receptor se numește decodare.Transferul de informații de la o sursă la un receptor poate fi considerat ca interacțiune informațională. Interacțiunea informațională este fundamental diferită de alte interacțiuni. În toate celelalte interacțiuni ale obiectelor materiale, are loc un schimb de materie și (sau) energie. În acest caz, unul dintre obiecte pierde materie sau energie, iar celălalt o câștigă. Această proprietate a interacțiunilor se numește simetrie. În timpul interacțiunii informaționale, receptorul primește informații, dar sursa nu o pierde. Interacțiunea informațională este asimetrică Informația obiectivă în sine nu este materială, este o proprietate a materiei, cum ar fi structura, mișcarea și există pe mediile materiale sub forma propriilor coduri.

Informații în fauna sălbatică

Fauna sălbatică este complexă și diversă. Sursele și receptorii de informații din acesta sunt organismele vii și celulele lor. Un organism are o serie de proprietăți care îl deosebesc de obiectele materiale neînsuflețite.

De bază:

Schimb continuu de materie, energie si informatii cu mediul;

Iritabilitate, capacitatea corpului de a percepe și procesa informații despre schimbările din mediul și mediul intern al corpului;

Excitabilitate, capacitatea de a răspunde la stimuli;

Auto-organizare, manifestată ca modificări ale organismului pentru a se adapta la condițiile de mediu.

Un organism, considerat ca sistem, are o structură ierarhică. Această structură relativă la organismul însuși este împărțită în niveluri interne: molecular, celular, la nivel de organ și, în sfârșit, organismul însuși. Cu toate acestea, organismul interacționează și deasupra sistemelor vii organismelor, ale căror niveluri sunt populația, ecosistemul și întreaga natură vie ca un întreg (biosfera). Între toate aceste niveluri circulă nu numai fluxuri de materie și energie, ci și informații.Interacțiunile informaționale în natura vie au loc în același mod ca și în natura neînsuflețită. În același timp, natura vie în proces de evoluție a creat o mare varietate de surse, purtători și receptori de informații.

Reacția la influențele lumii exterioare se manifestă în toate organismele, deoarece este cauzată de iritabilitate. În organismele superioare, adaptarea la mediul extern este o activitate complexă, care este eficientă numai cu informații suficient de complete și oportune despre mediu. Receptorii de informații din mediul extern sunt organele lor de simț, care includ vederea, auzul, mirosul, gustul, atingerea și aparatul vestibular. În structura internă a organismelor există numeroși receptori interni asociați cu sistemul nervos. Sistemul nervos este format din neuroni, ale căror procese (axoni și dendrite) sunt analoge canalelor de transmitere a informațiilor. Principalele organe care stochează și procesează informații la vertebrate sunt măduva spinării și creierul. În conformitate cu caracteristicile simțurilor, informațiile percepute de organism pot fi clasificate în vizuale, auditive, gustative, olfactive și tactile.

Când semnalul ajunge la retina ochiului uman, acesta excită celulele sale constitutive într-un mod special. Impulsurile nervoase de la celule sunt transmise prin axoni către creier. Creierul își amintește această senzație sub forma unei anumite combinații de stări ale neuronilor săi constitutivi. (Exemplul este continuat în secțiunea „informația în societatea umană”). Acumulând informații, creierul creează un model informațional conectat al lumii înconjurătoare pe structura sa. În natura vie, o caracteristică importantă pentru un organism care primește informații este disponibilitatea acestuia. Cantitatea de informații pe care sistemul nervos uman este capabil să o trimită către creier atunci când citește texte este de aproximativ 1 bit pe 1/16 s.

Informația este

Studiul organismelor este complicat de complexitatea lor. Abstracția structurii ca mulțime matematică, care este acceptabilă pentru obiectele neînsuflețite, este greu acceptabilă pentru un organism viu, deoarece pentru a crea un model abstract mai mult sau mai puțin adecvat al unui organism este necesar să se țină seama de toate aspectele ierarhice. nivelurile structurii sale. Prin urmare, este dificil să se introducă o măsură a cantității de informații. Este foarte dificil de determinat conexiunile dintre componentele structurii. Dacă se știe care organ este sursa de informații, atunci care este semnalul și care este receptorul?

Înainte de apariția computerelor, biologia, care se ocupă cu studiul organismelor vii, folosea doar calitative, adică. modele descriptive. Într-un model calitativ, este aproape imposibil să se ia în considerare conexiunile informaționale dintre componentele structurii. Tehnologia electronică de calcul a făcut posibilă aplicarea unor noi metode în cercetarea biologică, în special, metoda modelării mașinilor, care presupune o descriere matematică a fenomenelor și proceselor cunoscute care au loc în organism, adăugându-le ipoteze despre unele procese necunoscute și calcularea comportamentului posibil. modele ale organismului. Opțiunile rezultate sunt comparate cu comportamentul real al organismului, ceea ce face posibilă determinarea adevărului sau falsității ipotezelor prezentate. Astfel de modele pot lua în considerare și interacțiunea informațională. Procesele informaționale care asigură însăși existența vieții sunt extrem de complexe. Și deși este intuitiv clar că această proprietate este direct legată de formarea, stocarea și transmiterea de informații complete despre structura organismului, o descriere abstractă a acestui fenomen părea imposibilă de ceva timp. Cu toate acestea, procesele informaționale care asigură existența acestei proprietăți au fost parțial dezvăluite prin descifrarea codului genetic și citirea genomurilor diferitelor organisme.

Informația în societatea umană

Dezvoltarea materiei în procesul de mișcare este îndreptată spre complicarea structurii obiectelor materiale. Una dintre cele mai complexe structuri este creierul uman. Până acum, aceasta este singura structură cunoscută nouă care are o proprietate pe care omul însuși o numește conștiință. Vorbind despre informație, noi, ca ființe gânditoare, ne referim a priori că informația, pe lângă prezența ei sub formă de semnale pe care le primim, are și o anumită semnificație. Formând în mintea sa un model al lumii înconjurătoare ca un set interconectat de modele ale obiectelor și proceselor sale, o persoană folosește mai degrabă concepte semantice decât informații. Sensul este esența oricărui fenomen care nu coincide cu el însuși și îl conectează cu contextul mai larg al realității. Cuvântul însuși indică în mod direct că conținutul semantic al informației poate fi format doar de receptorii gânditori ai informațiilor. În societatea umană, nu informația în sine are o importanță decisivă, ci conținutul ei semantic.

Exemplu (continuare). După ce a experimentat o astfel de senzație, o persoană atribuie conceptul „roșie” obiectului și conceptul „culoare roșie” stării sale. În plus, conștiința lui fixează legătura: „roșie” - „roșu”. Acesta este sensul semnalului primit. (Exemplul continuă mai jos în această secțiune). Capacitatea creierului de a crea concepte semnificative și conexiuni între ele este baza conștiinței. Conștiința poate fi considerată ca un model semantic auto-dezvoltat al lumii înconjurătoare.Sensul nu este informație. Informația există doar pe un mediu tangibil. Conștiința umană este considerată imaterială. Sensul există în mintea umană sub formă de cuvinte, imagini și senzații. O persoană poate pronunța cuvinte nu numai cu voce tare, ci și „pentru sine”. El poate, de asemenea, să creeze (sau să-și amintească) imagini și senzații „în propria sa minte”. Cu toate acestea, el poate prelua informații corespunzătoare acestui sens rostind sau scriind cuvinte.

Informația este

Exemplu (continuare). Dacă cuvintele „roșie” și „roșu” sunt sensul conceptelor, atunci unde este informația? informația este conținută în creier sub forma anumitor stări ale neuronilor săi. De asemenea, este conținut în text tipărit format din aceste cuvinte, iar atunci când se codifică litere cu un cod binar de trei biți, cantitatea sa este de 120 de biți. Dacă rostiți cuvintele cu voce tare, vor exista mult mai multe informații, dar sensul va rămâne același. Imaginea vizuală transportă cea mai mare cantitate de informații. Acest lucru se reflectă chiar și în folclor - „este mai bine să vezi o dată decât să auzi de o sută de ori.” Informația restaurată în acest fel se numește informație semantică, deoarece codifică semnificația unor informații primare (semantică). După ce a auzit (sau a văzut) o frază rostită (sau scrisă) într-o limbă pe care o persoană nu o cunoaște, el primește informații, dar nu poate determina sensul acesteia. Prin urmare, pentru a transmite conținutul semantic al informației sunt necesare unele acorduri între sursă și receptor asupra conținutului semantic al semnalelor, adică. cuvinte Astfel de acorduri se poate realiza prin comunicare. Comunicarea este una dintre cele mai importante condiții pentru existența societății umane.

În lumea modernă, informația este una dintre cele mai importante resurse și, în același timp, una dintre forțele motrice ale dezvoltării societății umane. Procesele informaționale care au loc în lumea materială, natura vie și societatea umană sunt studiate (sau cel puțin luate în considerare) de toate disciplinele științifice, de la filozofie la marketing. Complexitatea tot mai mare a problemelor de cercetare științifică a condus la necesitatea atragerii unor echipe mari de oameni de știință din diferite specialități pentru a le rezolva. Prin urmare, aproape toate teoriile discutate mai jos sunt interdisciplinare. Din punct de vedere istoric, două ramuri complexe ale științei — cibernetica și informatica — sunt angajate în studiul informației în sine.

Cibernetica modernă este o multidisciplinară industrieștiință care studiază sisteme extrem de complexe, cum ar fi:

Societatea umană (cibernetică socială);

Economie (cibernetică economică);

Organism viu (cibernetică biologică);

Creierul uman și funcția sa este conștiința (inteligența artificială).

Informatica, formata ca stiinta la mijlocul secolului trecut, s-a desprins de cibernetica si este angajata in cercetare in domeniul metodelor de obtinere, stocare, transmitere si prelucrare a informatiilor semantice. Amandoua industrie folosiți mai multe teorii științifice subiacente. Acestea includ teoria informației și secțiunile acesteia - teoria codificării, teoria algoritmilor și teoria automatelor. Cercetarea conținutului semantic al informației se bazează pe un set de teorii științifice sub denumirea generală de semiotică.Teoria informației este o teorie complexă, în principal matematică, care include o descriere și evaluare a metodelor de regăsire, transmitere, stocare și clasificare a informațiilor. Consideră mediile de informare ca elemente ale unui set abstract (matematic), iar interacțiunile dintre medii ca o modalitate de aranjare a elementelor din acest set. Această abordare face posibilă descrierea formală a codului informațional, adică definirea unui cod abstract și studierea lui folosind metode matematice. Pentru aceste studii el folosește metode de teoria probabilităților, statistică matematică, algebră liniară, teoria jocurilor și alte teorii matematice.

Bazele acestei teorii au fost puse de omul de știință american E. Hartley în 1928, care a determinat măsura cantității de informații pentru anumite probleme de comunicare. Mai târziu, teoria a fost dezvoltată în mod semnificativ de omul de știință american K. Shannon, oamenii de știință ruși A.N. Kolmogorov, V.M. Glushkov și alții. Teoria modernă a informațiilor include secțiuni precum teoria codificării, teoria algoritmilor, teoria automatelor digitale (vezi mai jos) și altele. Există și teorii alternative ale informației, de exemplu „Teoria informației calitative”, propusă de polonez. om de știință M. Mazur.Fiecare persoană este familiarizată cu conceptul de algoritm, fără măcar să-l cunoască. Iată un exemplu de algoritm informal: „Tăiați roșiile în cercuri sau felii. Puneți ceapa tocată în ele, turnați ulei vegetal, apoi stropiți cu ardei capia tocate mărunt și amestecați. Inainte de a manca, se presara cu sare, se pune intr-un castron de salata si se orneaza cu patrunjel.” (Salată de roșii).

Primele reguli pentru rezolvarea problemelor aritmetice din istoria omenirii au fost dezvoltate de unul dintre celebrii oameni de știință ai antichității, Al-Khorezmi, în secolul al IX-lea d.Hr. În cinstea sa, regulile formalizate pentru atingerea oricărui scop se numesc algoritmi.Subiectul teoriei algoritmilor este găsirea unor metode de construire și evaluare a algoritmilor de calcul și de control eficienți (inclusiv universali) pentru prelucrarea informațiilor. Pentru a fundamenta astfel de metode, teoria algoritmilor folosește aparatul matematic al teoriei informațiilor Conceptul științific modern de algoritmi ca metode de procesare a informațiilor a fost introdus în lucrările lui E. Post și A. Turing în anii 20 ai secolului XX (Turing). Mașinărie). Oamenii de știință ruși A. Markov (Algoritmul normal al lui Markov) și A. Kolmogorov au adus o mare contribuție la dezvoltarea teoriei algoritmilor.Teoria automatelor este o ramură a ciberneticii teoretice care studiază modele matematice ale dispozitivelor existente sau fundamental posibile care procesează informații discrete. în momente discrete în timp.

Conceptul de automat a apărut în teoria algoritmilor. Dacă există niște algoritmi universali pentru rezolvarea problemelor de calcul, atunci trebuie să existe și dispozitive (deși abstracte) pentru implementarea unor astfel de algoritmi. De fapt, o mașină Turing abstractă, considerată în teoria algoritmilor, este în același timp un automat definit informal. Justificarea teoretică a construcției unor astfel de dispozitive face obiectul teoriei automatelor.Teoria automatelor folosește aparatul teoriilor matematice - algebră, logică matematică, analiză combinatorie, teoria grafurilor, teoria probabilității etc.Teoria automatelor, împreună cu teoria algoritmilor. , este principala bază teoretică pentru crearea calculatoarelor electronice și a sistemelor de control automatizate.Semiotica este un complex de teorii științifice care studiază proprietățile sistemelor de semne. Cele mai semnificative rezultate au fost obținute în ramura semioticii — semantică. Subiectul cercetării semantice este conținutul semantic al informației.

Un sistem de semne este considerat a fi un sistem de obiecte concrete sau abstracte (semne, cuvinte), cu fiecare dintre acestea un anumit sens asociat într-un anumit fel. În teorie, s-a dovedit că pot exista două astfel de comparații. Primul tip de corespondență determină direct obiectul material pe care acest cuvânt îl denotă și se numește denotație (sau, în unele lucrări, nominalizat). Al doilea tip de corespondență determină semnificația unui semn (cuvânt) și se numește concept. În același timp, sunt studiate proprietăți ale comparațiilor precum „sens”, „adevăr”, „definibilitate”, „urmărire”, „interpretare” etc.. Pentru cercetare se utilizează aparatul logicii matematice și al lingvisticii matematice. de semantică, conturată de G. V. Leibniz și F de Saussure în secolul al XIX-lea, formulată și dezvoltată de C. Pierce (1839-1914), C. Morris (n. 1901), R. Carnap (1891-1970), etc. Principala realizare a teoriei este crearea unui aparat de analiză semantică care să permită reprezentarea semnificației unui text într-un limbaj natural sub forma unei înregistrări într-un limbaj semantic (semantic) formalizat.Analiza semantică stă la baza creării dispozitivelor. (programe) pentru traducerea automată dintr-o limbă naturală în alta.

Informațiile sunt stocate prin transferul lor pe anumite medii fizice. Informațiile semantice înregistrate pe un mediu de stocare tangibil se numesc document. Omenirea a învățat să stocheze informații cu foarte mult timp în urmă. Cele mai vechi forme de stocare a informațiilor foloseau aranjarea obiectelor - scoici și pietre pe nisip, noduri pe o frânghie. O dezvoltare semnificativă a acestor metode a fost scrierea - reprezentarea grafică a simbolurilor pe piatră, lut, papirus și hârtie. De mare importanţă în dezvoltarea acestei direcţii a fost invenţie tipărirea cărților. De-a lungul istoriei sale, omenirea a acumulat o cantitate imensă de informații în biblioteci, arhive, periodice și alte documente scrise.

În prezent, stocarea informațiilor sub formă de secvențe de caractere binare a câștigat o importanță deosebită. Pentru a implementa aceste metode, sunt utilizate o varietate de dispozitive de stocare. Ele sunt veriga centrală a sistemelor de stocare a informațiilor. Pe lângă acestea, astfel de sisteme folosesc mijloace de căutare a informațiilor (motor de căutare), mijloace de obținere a informațiilor (sisteme de informații și de referință) și mijloace de afișare a informațiilor (dispozitiv de ieșire). Formate în funcție de scopul informațiilor, astfel de sisteme informatice formează baze de date, bănci de date și o bază de cunoștințe.

Transferul de informații semantice este procesul de transfer spațial al acesteia de la sursă la destinatar (destinatar). Omul a învățat să transmită și să primească informații chiar mai devreme decât să le stocheze. Vorbirea este o metodă de transmitere pe care strămoșii noștri îndepărtați au folosit-o în contact direct (conversație) - o folosim și acum. Pentru a transmite informații pe distanțe mari este necesar să se utilizeze procese informaționale mult mai complexe.Pentru a realiza un astfel de proces, informațiile trebuie formatate (prezentate) într-un fel. Pentru prezentarea informațiilor se folosesc diverse sisteme de semne — seturi de simboluri semantice predeterminate: obiecte, imagini, cuvinte scrise sau tipărite din limbaj natural. Informațiile semantice despre orice obiect, fenomen sau proces prezentate cu ajutorul lor se numesc mesaj.

Evident, pentru a transmite un mesaj la distanță, informațiile trebuie transferate pe un fel de mediu mobil. Transportatorii se pot deplasa prin spațiu folosind vehicule, așa cum se întâmplă cu scrisorile trimise prin poștă. Această metodă asigură fiabilitatea completă a transmiterii informațiilor, deoarece destinatarul primește mesajul original, dar necesită timp semnificativ pentru transmitere. De la mijlocul secolului al XIX-lea s-au răspândit metodele de transmitere a informației folosind un purtător de informații care se propagă natural - vibrațiile electromagnetice (vibrații electrice, unde radio, lumină). Implementarea acestor metode necesită:

Transferul preliminar al informațiilor conținute într-un mesaj către un mediu - codificare;

Asigurarea transmiterii semnalului astfel primit către destinatar printr-un canal de comunicare special;

Conversia inversă a codului de semnal într-un cod de mesaj - decodare.

Informația este

Utilizarea mediilor electromagnetice face ca livrarea unui mesaj către destinatar să fie aproape instantanee, dar necesită măsuri suplimentare pentru a asigura calitatea (fiabilitatea și acuratețea) informațiilor transmise, întrucât canalele reale de comunicare sunt supuse interferențelor naturale și artificiale. Dispozitivele care implementează procesul de transfer de date formează sisteme de comunicare. În funcție de modalitatea de prezentare a informațiilor, sistemele de comunicații pot fi împărțite în semne (, telefax), sonor (), video și sisteme combinate (televiziune). Cel mai dezvoltat sistem de comunicare din vremea noastră este Internetul.

Procesarea datelor

Întrucât informația nu este materială, prelucrarea ei implică diverse transformări. Procesele de prelucrare includ orice transfer de informații de pe un mediu pe alt mediu. Informațiile destinate procesării se numesc date. Principalul tip de procesare a informațiilor primare primite de diverse dispozitive este transformarea într-o formă care asigură perceperea acesteia de către simțurile umane. Astfel, fotografiile spațiului obținute în raze X sunt convertite în fotografii color obișnuite folosind convertoare speciale de spectru și materiale fotografice. Dispozitivele de vedere nocturnă convertesc imaginea obținută în raze infraroșii (termice) într-o imagine în domeniul vizibil. Pentru unele sarcini de comunicare și control, este necesară conversia informațiilor analogice. În acest scop, se folosesc convertoare de semnal analog-digital și digital-analogic.

Cel mai important tip de prelucrare a informațiilor semantice este determinarea sensului (conținutului) conținut într-un anumit mesaj. Spre deosebire de informația semantică primară, aceasta nu are statistic caracteristici, adică o măsură cantitativă - fie există sens, fie nu există. Și cât de mult este, dacă există, este imposibil de stabilit. Semnificația conținută în mesaj este descrisă într-un limbaj artificial care reflectă conexiunile semantice dintre cuvintele textului sursă. Un dicționar al unei astfel de limbi, numit tezaur, se află în receptorul de mesaje. Semnificația cuvintelor și expresiilor dintr-un mesaj este determinată prin atribuirea lor anumitor grupuri de cuvinte sau expresii, al căror sens a fost deja stabilit. Tezaurul, astfel, vă permite să stabiliți sensul mesajului și, în același timp, este completat cu noi concepte semantice. Tipul descris de prelucrare a informațiilor este utilizat în sistemele de recuperare a informațiilor și sistemele de traducere automată.

Unul dintre tipurile larg răspândite de procesare a informațiilor este soluționarea problemelor de calcul și a problemelor de control automat cu ajutorul computerelor. Prelucrarea informațiilor este întotdeauna efectuată într-un anumit scop. Pentru a-l realiza, trebuie cunoscută ordinea acțiunilor asupra informațiilor care conduc la un scop dat. Această procedură se numește algoritm. Pe lângă algoritmul în sine, aveți nevoie și de un dispozitiv care implementează acest algoritm. În teoriile științifice, un astfel de dispozitiv se numește automat.De remarcat că cea mai importantă caracteristică a informației este faptul că, din cauza asimetriei interacțiunii informaționale, la procesarea informațiilor apar noi informații, dar informația originală nu se pierde.

Informații analogice și digitale

Sunetul este vibrațiile undelor în orice mediu, de exemplu în aer. Când o persoană vorbește, vibrațiile ligamentelor gâtului sunt transformate în vibrații ondulate ale aerului. Dacă considerăm sunetul nu ca o undă, ci ca vibrații la un moment dat, atunci aceste vibrații pot fi reprezentate ca presiunea aerului care se schimbă în timp. Folosind un microfon, modificările de presiune pot fi detectate și transformate în tensiune electrică. Presiunea aerului este transformată în fluctuații de tensiune electrică.

O astfel de transformare se poate produce după diverse legi, cel mai adesea transformarea are loc după o lege liniară. De exemplu, așa:

U(t)=K(P(t)-P_0),

unde U(t) este tensiunea electrică, P(t) este presiunea aerului, P_0 este presiunea medie a aerului și K este factorul de conversie.

Atât tensiunea electrică, cât și presiunea aerului sunt funcții continue în timp. Funcțiile U(t) și P(t) sunt informații despre vibrațiile ligamentelor gâtului. Aceste funcții sunt continue și astfel de informații se numesc analogice Muzica este un caz special de sunet și poate fi reprezentată și ca un fel de funcție a timpului. Va fi o reprezentare analogică a muzicii. Dar muzica se scrie și sub formă de note. Fiecare notă are o durată care este un multiplu al unei durate prestabilite și o înălțime (do, re, mi, fa, salt etc.). Dacă aceste date sunt convertite în numere, obținem o reprezentare digitală a muzicii.

Vorbirea umană este, de asemenea, un caz special de sunet. Poate fi reprezentat și în formă analogică. Dar la fel cum muzica poate fi descompusă în note, vorbirea poate fi descompusă în litere. Dacă fiecărei litere i se atribuie propriul set de numere, atunci vom obține o reprezentare digitală a vorbirii.Diferența dintre informațiile analogice și cele digitale este că informația analogică este continuă, în timp ce informația digitală este discretă.Transformarea informațiilor de la un tip la altul. , în funcție de tipul de transformare, se numește diferit: pur și simplu „conversie”, precum conversia digital-analogic, sau conversia analog-digitală; transformările complexe se numesc „codare”, de exemplu, codificare delta, codificare entropică; Conversia între caracteristici precum amplitudinea, frecvența sau fază se numește „modulație”, de exemplu modulația amplitudine-frecvență, modularea lățimii impulsului.

Informația este

De obicei, conversiile analogice sunt destul de simple și pot fi gestionate cu ușurință de diverse dispozitive inventate de om. Un magnetofon transformă magnetizarea filmului în sunet, un reportofon transformă sunetul în magnetizare pe film, o cameră video transformă lumina în magnetizare pe film, un osciloscop transformă tensiunea electrică sau curentul într-o imagine etc. Convertirea informațiilor analogice în digitale este mult mai dificilă. Mașina nu poate face unele transformări sau reușește cu mare dificultate. De exemplu, conversia vorbirii în text sau conversia unei înregistrări a unui concert în partituri și chiar o reprezentare inerent digitală: textul pe hârtie este foarte dificil de convertit pentru o mașină în același text în memoria computerului.

Informația este

Atunci de ce să folosiți reprezentarea digitală a informațiilor dacă aceasta este atât de complexă? Principalul avantaj al informațiilor digitale față de informațiile analogice este imunitatea la zgomot. Adică, în procesul de copiere a informațiilor, informațiile digitale sunt copiate așa cum sunt, pot fi copiate de aproape un număr infinit de ori, în timp ce informațiile analogice devin zgomotoase în timpul procesului de copiere, iar calitatea acesteia se deteriorează. De obicei, informațiile analogice pot fi copiate de cel mult trei ori. Dacă aveți un reportofon audio cu două casete, puteți efectua următorul experiment: încercați să rescrieți aceeași melodie de mai multe ori din casetă în casetă, după doar câteva astfel de reînregistrări. veți observa cât de mult s-a deteriorat Calitatea înregistrării. Informațiile de pe casetă sunt stocate în formă analogică. Puteți rescrie muzica în format mp3 de câte ori doriți, iar calitatea muzicii nu se deteriorează. Informațiile dintr-un fișier mp3 sunt stocate digital.

Cantitatea de informații

O persoană sau alt receptor de informații, după ce a primit o informație, rezolvă o anumită incertitudine. Să luăm ca exemplu același copac. Când am văzut copacul, am rezolvat o serie de incertitudini. Am aflat înălțimea copacului, tipul de copac, densitatea frunzișului, culoarea frunzelor și, dacă era un pom fructifer, atunci am văzut fructele de pe el, cât de coapte erau etc. Înainte să ne uităm la copac, nu știam toate acestea, după ce ne-am uitat la copac, am rezolvat incertitudinea - am primit informații.

Dacă ieșim într-o poiană și ne uităm la ea, vom obține un alt tip de informații, cât de mare este pajiștea, cât de înaltă este iarba și ce culoare are iarba. Dacă un biolog merge pe aceeași pajiște, atunci, printre altele, va putea afla: ce soiuri de iarbă cresc pe pajiște, ce tip de pajiște este, va vedea ce flori au înflorit, care sunt pe cale să înflorească, dacă pajiștea este potrivită pentru pășunat vaci etc. Adică va primi mai multe informații decât noi, din moment ce a avut mai multe întrebări înainte de a se uita la pajiște, biologul va rezolva mai multe incertitudini.

Informația este

Cu cât a fost rezolvată mai multă incertitudine în procesul de obținere a informațiilor, cu atât am primit mai multe informații. Dar aceasta este o măsură subiectivă a cantității de informații și am dori să avem o măsură obiectivă. Există o formulă pentru calcularea cantității de informații. Avem o oarecare incertitudine și avem N număr de cazuri de rezolvare a incertitudinii și fiecare caz are o anumită probabilitate de rezolvare, apoi cantitatea de informații primite poate fi calculată folosind următoarea formulă pe care Shannon ne-a sugerat-o:

I = -(p_1 log_(2)p_1 + p_2 log_(2)p_2 +... +p_N log_(2)p_N), unde

I - cantitatea de informații;

N - numărul de rezultate;

p_1, p_2,..., p_N sunt probabilitățile rezultatului.

Informația este

Cantitatea de informații este măsurată în biți - o abreviere pentru cuvintele englezești Binary digiT, care înseamnă cifră binară.

Pentru evenimente la fel de probabile, formula poate fi simplificată:

I = log_(2)N, unde

I - cantitatea de informații;

N este numărul de rezultate.

Să luăm, de exemplu, o monedă și să o aruncăm pe masă. Va ateriza fie capete, fie cozi. Avem 2 evenimente la fel de probabile. După ce am aruncat moneda, am primit log_(2)2=1 bit de informații.

Să încercăm să aflăm câte informații obținem după ce aruncăm zarurile. Cubul are șase laturi - șase evenimente la fel de probabile. Obținem: log_(2)6 aproximativ 2,6. După ce am aruncat zarul pe masă, am primit aproximativ 2,6 biți de informații.

Șansele ca noi să vedem un dinozaur marțian când ieșim din casă sunt de una la zece miliarde. Câte informații vom obține despre dinozaurul marțian odată ce plecăm de acasă?

Stânga(((1 peste (10^(10)))) log_2(1 peste (10^(10))) + stânga(( 1 - (1 peste (10^(10)))) ight) log_2 stânga(( 1 - (1 peste (10^(10))) ight)) ight) aproximativ 3,4 cdot 10^(-9) biți.

Să presupunem că am aruncat 8 monede. Avem 2^8 opțiuni de aruncare a monedelor. Aceasta înseamnă că după ce aruncăm monede vom obține log_2(2^8)=8 biți de informații.

Când punem o întrebare și avem șanse egale de a primi un răspuns „da” sau „nu”, atunci după ce răspundem la întrebare primim o informație.

Este uimitor că dacă aplicăm formula lui Shannon la informații analogice, obținem o cantitate infinită de informații. De exemplu, tensiunea într-un punct dintr-un circuit electric poate lua o valoare la fel de probabilă de la zero la un volt. Numărul de rezultate pe care le avem este egal cu infinit, iar prin înlocuirea acestei valori în formula pentru evenimente la fel de probabile, obținem infinit - o cantitate infinită de informații.

Acum vă voi arăta cum să codificați „război și pace” folosind un singur semn pe orice tijă de metal. Să codificăm toate literele și caracterele găsite în " războiși pace”, folosind numere din două cifre - ar trebui să fie suficiente pentru noi. De exemplu, vom da litera „A” codul „00”, litera „B” codul „01” și așa mai departe, vom codifica semnele de punctuație, literele și cifrele latine. Hai sa recodificam" războiși lumea" folosind acest cod și obțineți un număr lung, de exemplu, 70123856383901874..., adăugați o virgulă și un zero în fața acestui număr (0,70123856383901874...). Rezultatul este un număr de la zero la unu. Sa punem risc pe o tijă de metal, astfel încât raportul dintre partea stângă a tijei și lungimea acestei tije este egal cu exact numărul nostru. Astfel, dacă dintr-o dată vrem să citim „război și pace”, pur și simplu vom măsura partea stângă a tijei la riscuriși lungimea întregii tije, împărțiți un număr la altul, obțineți un număr și recodificați-l înapoi în litere („00” în „A”, „01” în „B”, etc.).

Informația este

În realitate, nu vom putea face acest lucru, deoarece nu vom putea determina lungimile cu o precizie infinită. Unele probleme de inginerie ne împiedică să creștem acuratețea măsurătorilor, iar fizica cuantică ne arată că, după o anumită limită, legile cuantice deja vor interfera cu noi. În mod intuitiv, înțelegem că, cu cât precizia măsurării este mai mică, cu atât primim mai puține informații și, cu cât precizia măsurării este mai mare, cu atât primim mai multe informații. Formula lui Shannon nu este potrivită pentru măsurarea cantității de informații analogice, dar există și alte metode pentru aceasta, care sunt discutate în Teoria informațiilor. În tehnologia computerelor, un bit corespunde stării fizice a purtătorului de informații: magnetizat - nu magnetizat, există o gaură - fără gaură, încărcat - nu încărcat, reflectă lumina - nu reflectă lumina, potențial electric ridicat - potențial electric scăzut. În acest caz, o stare este de obicei notată cu numărul 0, iar cealaltă cu numărul 1. Orice informație poate fi codificată cu o succesiune de biți: text, imagine, sunet etc.

Împreună cu un bit, este adesea folosită o valoare numită octet; de obicei, este egală cu 8 biți. Și dacă un bit vă permite să alegeți o opțiune la fel de probabilă dintre două posibile, atunci un octet este 1 din 256 (2^8). Pentru a măsura cantitatea de informații, este, de asemenea, obișnuit să folosiți unități mai mari:

1 KB (un kilobyte) 210 octeți = 1024 octeți

1 MB (un megaoctet) 210 KB = 1024 KB

1 GB (un gigaoctet) 210 MB = 1024 MB

În realitate, prefixele SI kilo-, mega-, giga- ar trebui folosite pentru factorii 10^3, 10^6 și, respectiv, 10^9, dar istoric a existat o practică de utilizare a factorilor cu puteri de doi.

Un bit Shannon și un bit utilizate în tehnologia computerelor sunt aceleași dacă probabilitățile ca un zero sau unul să apară într-un bit de computer sunt egale. Dacă probabilitățile nu sunt egale, atunci cantitatea de informații conform lui Shannon devine mai mică, am văzut acest lucru în exemplul dinozaurului marțian. Cantitatea de informații computerizată oferă o estimare superioară a cantității de informații. Memoria volatilă, după ce i se aplică energie, este de obicei inițializată cu o anumită valoare, de exemplu, toate cele sau toate zerourile. Este clar că după ce se aplică puterea memoriei, nu există nicio informație acolo, deoarece valorile din celulele de memorie sunt strict definite, nu există nicio incertitudine. Memoria poate stoca o anumită cantitate de informații, dar după ce i se aplică energie, nu există informații în ea.

Dezinformarea este informații false în mod deliberat furnizate unui inamic sau partener de afaceri pentru o desfășurare mai eficientă a operațiunilor militare, cooperare, verificarea scurgerii de informații și direcția scurgerii acesteia, identificarea potențialilor clienți ai pieței negre. De asemenea, dezinformarea (de asemenea, dezinformată) este procesul de manipulare a informațiilor în sine, cum ar fi: inducerea în eroare pe cineva prin furnizarea de informații incomplete sau informații complete, dar care nu mai sunt necesare, denaturarea contextului, denaturarea unei părți a informațiilor.

Scopul unei astfel de influențe este întotdeauna același - adversarul trebuie să acționeze așa cum are nevoie manipulatorul. Acţiunea ţintei împotriva căreia se îndreaptă dezinformarea poate consta în luarea unei decizii de care are nevoie manipulatorul sau în refuzul de a lua o decizie care este defavorabilă manipulatorului. Dar, în orice caz, scopul final este acțiunea care va fi întreprinsă de adversar.

Deci, dezinformarea este produs activitate umană, o încercare de a crea o impresie falsă și, în consecință, de a împinge la acțiunile și/sau inacțiunea dorite.

Informația este

Tipuri de dezinformare:

Inducerea în eroare a unei anumite persoane sau a unui grup de oameni (inclusiv a unei întregi națiuni);

Manipulare (acțiunile unei persoane sau ale unui grup de persoane);

Crearea opiniei publice cu privire la o problemă sau un obiect.

Informația este

Denaturarea nu este altceva decât înșelăciune, furnizarea de informații false. Manipularea este o metodă de influență care vizează direct schimbarea direcției activității oamenilor. Se disting următoarele niveluri de manipulare:

Consolidarea valorilor (idei, atitudini) care există în mintea oamenilor și sunt benefice pentru manipulator;

Schimbarea parțială a opiniilor asupra unui anumit eveniment sau circumstanță;

O schimbare radicală în atitudinea vieții.

Crearea opiniei publice este formarea în societate a unei anumite atitudini faţă de o problemă aleasă.

Surse și link-uri

ru.wikipedia.org - enciclopedie liberă Wikipedia

youtube.com - găzduire video YouTube

images.yandex.ua - imagini Yandex

google.com.ua - Imagini Google

ru.wikibooks.org - Wikibooks

inf1.info - Planeta Informatică

old.russ.ru - Revista rusă

shkolo.ru - Director de informații

5byte.ru - site-ul informatic

ssti.ru - Tehnologii informaționale

klgtu.ru - Informatică

informatika.sch880.ru - site-ul profesorului de informatică O.V. Podvintseva

Enciclopedia Studiilor Culturale

Conceptul de bază al ciberneticii, la fel, economic I. conceptul de bază al ciberneticii economice. Există multe definiții ale acestui termen, ele sunt complexe și contradictorii. Motivul pentru aceasta, evident, este că I. se ocupă de fenomenul... ... Dicționar economic și matematic

informație- Date semnificative. [GOST R ISO 9000 2008] informații Orice tip de cunoștințe despre obiecte, fapte, concepte etc. dintr-o zonă problematică care este schimbată de utilizatorii unui sistem informațional [GOST 34.320 96] informații Informații (mesaje, date)… … Ghidul tehnic al traducătorului

informație- și, f. informație f. etaj informacyia, lat. informatia explicatie, prezentare. Mesaj, informații despre ceva. BAS 1. Pretutindeni și în orice, protejați cu toată fidelitatea interesul monarhilor, .. pentru tot ce îi dau informații directe către Shvymers... ... Dicționar istoric al galicismelor limbii ruse

informație- date, date sursa, informatii; notificare, mesaj, notificare, notificare; clasament, catamneză, știri, referință, material, raport, comunicat de presă Dicționar de sinonime ruse. informații vezi informații Dicționar de sinonime ale limbii ruse... ... Dicţionar de sinonime

INFORMAȚIE- (informații) Date disponibile persoanelor, firmelor sau guvernelor atunci când iau decizii economice. În principiu, există o cantitate infinit de mare de informații; în practică, chiar și organizații atât de mari și sofisticate ca centrale... ... Dicționar economic

- (date) Informații care sunt prelucrate, acumulate sau emise de un computer. Afaceri. Dicţionar. M.: INFRA M, Editura Ves Mir. Graham Betts, Barry Brindley, S. Williams și alții Editor general: Ph.D. Osadchaya I.M.. 1998. Informații... Dicţionar de termeni de afaceri

INFORMAȚIE- INFORMAȚII, informații, femei. (carte, oficial). 1. numai unități Acțiunea sub cap. informa. Informațiile sunt prezentate la nivelul corespunzător. 2. Un mesaj care informează despre starea de lucruri sau despre activitățile cuiva, informații despre ceva. Dă...... Dicționarul explicativ al lui Ushakov

INFORMAȚIE- (din latinescul informatio familiarizare, explicatie) concept folosit in filosofie inca din cele mai vechi timpuri si a primit recent un sens nou, mai larg datorita dezvoltarii ciberneticii, unde actioneaza ca una dintre categoriile centrale... ... Enciclopedie filosofică

INFORMAȚIE- (din lat. informatio explicație, conștientizare) orice informație și date care reflectă proprietățile obiectelor din punct de vedere natural (biologic, fizic etc.), social și tehnic. sisteme și transmise prin sunet, grafic (inclusiv scris) sau alte mijloace fără... ... Enciclopedie fizică

informație(din latină informatio, explicație, prezentare, conștientizare) - informații despre ceva, indiferent de forma de prezentare a acestuia.

În prezent, nu există o definiție unică a informației ca termen științific. Din punctul de vedere al diferitelor domenii ale cunoașterii, acest concept este descris prin setul său specific de caracteristici. De exemplu, conceptul de „informație” este de bază într-un curs de informatică și este imposibil să-l definești prin alte concepte, mai „simple” (la fel ca în geometrie, de exemplu, este imposibil de exprimat conținutul concepte de bază „punct”, „rază”, „plan” prin concepte mai simple). Conținutul conceptelor de bază din orice știință ar trebui explicat cu exemple sau identificat prin compararea acestora cu conținutul altor concepte. În cazul conceptului „informație”, problema definiției acestuia este și mai complexă, întrucât este un concept științific general. Acest concept este folosit în diverse științe (informatică, cibernetică, biologie, fizică etc.), iar în fiecare știință conceptul de „informație” este asociat cu diferite sisteme de concepte.

Istoria conceptului

Cuvântul „informație” provine din lat. informatio, care în traducere înseamnă informare, explicație, familiarizare. Conceptul de informație a fost considerat de filozofii antici.

Înainte de începerea Revoluției Industriale, determinarea esenței informațiilor a rămas în principal apanajul filosofilor. În secolul al XX-lea, cibernetica și informatica au început să se ocupe de problemele teoriei informației.

Clasificarea informațiilor

Informațiile pot fi împărțite în tipuri în funcție de diferite criterii:

De mod de percepție:

De formular de prezentare:

De scop:

De sens:

  • Relevant - informații care sunt valoroase la un moment dat.
  • Fiabil - informații obținute fără distorsiuni.
  • De înțeles - informații exprimate într-o limbă pe înțelesul celor cărora le sunt destinate.
  • Complet - informații suficiente pentru a lua o decizie sau înțelegere corectă.
  • Util - utilitatea informatiei este determinata de subiectul care a primit informatia in functie de sfera posibilitatilor de utilizare a acesteia.

De adevăr:

Sensul termenului în diverse domenii ale cunoașterii

Filozofie

Tradiționalismul subiectivului a dominat constant în definițiile filozofice timpurii ale informației ca categorie, concept, proprietate a lumii materiale. Informația există independent de conștiința noastră și poate fi reflectată în percepția noastră doar ca rezultat al interacțiunii: reflecție, citire, primire sub formă de semnal, stimul. Informația este imaterială, ca toate proprietățile materiei. Informația stă în următoarea ordine: materie, spațiu, timp, sistematicitate, funcție etc., care sunt conceptele fundamentale ale unei reflectări formalizate a realității obiective în distribuția și variabilitatea, diversitatea și manifestarea ei. Informația este o proprietate a materiei și reflectă proprietățile acesteia (starea sau capacitatea de a interacționa) și cantitatea (măsura) prin interacțiune.

Din punct de vedere material, informația este ordinea obiectelor din lumea materială. De exemplu, ordinea literelor pe o foaie de hârtie conform anumitor reguli este informație scrisă. Ordinea punctelor multicolore pe o coală de hârtie conform anumitor reguli este informație grafică. Ordinea notelor muzicale este informație muzicală. Ordinea genelor în ADN este informație ereditară. Ordinea biților într-un computer este informațiile computerului etc., etc. Pentru a efectua schimbul de informații este necesară prezența condițiilor necesare și suficiente.

Conditiile necesare:

  1. Prezența a cel puțin două obiecte diferite ale lumii materiale sau intangibile.
  2. Prezența unei proprietăți comune între obiecte care le permite să fie identificate ca purtători de informații.
  3. Prezența unei proprietăți specifice în obiecte care le permite să distingă obiectele unele de altele.
  4. Prezența unei proprietăți spațiale care vă permite să determinați ordinea obiectelor. De exemplu, aspectul informațiilor scrise pe hârtie este o proprietate specifică a hârtiei care permite aranjarea literelor de la stânga la dreapta și de sus în jos.

Există o singură condiție suficientă:

Prezența unui subiect capabil să recunoască informații. Aceasta este omul și societatea umană, societățile animalelor, roboții etc.

Diferite obiecte (litere, simboluri, imagini, sunete, cuvinte, propoziții, note etc.) luate pe rând formează baza informațiilor. Un mesaj de informare este construit prin selectarea unor copii ale obiectelor dintr-o bază și aranjarea acestor obiecte în spațiu într-o anumită ordine. Lungimea mesajului de informare este definită ca numărul de copii ale obiectelor de bază și este întotdeauna exprimată ca un număr întreg. Este necesar să se facă distincția între lungimea unui mesaj de informare, care este întotdeauna măsurată într-un număr întreg, și cantitatea de cunoștințe conținută într-un mesaj de informare, care este măsurată într-o unitate de măsură necunoscută.

Din punct de vedere matematic, informația este o succesiune de numere întregi care sunt scrise într-un vector. Numerele sunt numărul obiectului din baza de informații. Vectorul se numește invariant de informație, deoarece nu depinde de natura fizică a obiectelor de bază. Același mesaj informativ poate fi exprimat în litere, cuvinte, propoziții, fișiere, imagini, note, cântece, clipuri video, orice combinație a tuturor celor de mai sus. Indiferent cum exprimăm informațiile, se schimbă doar baza, nu invariantul.

În informatică

Subiectul de studiu al științei informaticii este datele: metode de creare, stocare, prelucrare și transmitere a acestora. Iar informațiile în sine înregistrate în date, semnificația sa semnificativă, sunt de interes pentru utilizatorii sistemelor informaționale care sunt specialiști în diverse științe și domenii de activitate: un medic este interesat de informațiile medicale, un geolog este interesat de informațiile geologice, un antreprenor. este interesat de informații comerciale etc. (inclusiv un informatician care este interesat de informații despre problemele de lucru cu date).

Sistemologie

Lucrul cu informații este asociat cu transformări și confirmă întotdeauna natura materială:

  • înregistrare - formarea structurii materiei și modularea fluxurilor prin interacțiunea unui instrument cu un mediu;
  • stocare - stabilitatea structurii (cvasi-statică) și modulare (cvasi-dinamică);
  • citire (studiu) - interacțiunea unei sonde (instrument, traductor, detector) cu un substrat sau flux de materie.

Sistemologia are în vedere informaţia prin conexiune cu alte baze: I=S/F, unde: I - informaţie; S - natura sistematică a universului; F - conexiune funcțională; M - materie; v - (v subliniat) semn de mare unire (sistematicitate, unitate de fundamente); R - spațiu; T - Timp.

În fizică

Obiectele lumii materiale sunt într-o stare de schimbare continuă, care se caracterizează prin schimbul de energie între obiect și mediu. O schimbare a stării unui obiect duce întotdeauna la o schimbare a stării unui alt obiect din mediu. Acest fenomen, indiferent de modul în care, ce stări și ce obiecte s-au schimbat, poate fi considerat ca fiind transmisia unui semnal de la un obiect la altul. Modificarea stării unui obiect atunci când i se transmite un semnal se numește înregistrarea semnalului.

Un semnal sau o secvență de semnale formează un mesaj care poate fi perceput de destinatar într-o formă sau alta, precum și într-unul sau altul volum. Informația în fizică este un termen care generalizează calitativ conceptele de „semnal” și „mesaj”. Dacă semnalele și mesajele pot fi cuantificate, atunci putem spune că semnalele și mesajele sunt unități de măsură ale volumului de informații.

Același mesaj (semnal) este interpretat diferit de sisteme diferite. De exemplu, un sunet succesiv lung și două scurte (și cu atât mai mult în codificare simbolică -..) semnale în terminologia codului Morse este litera D (sau D), în terminologia BIOS de la compania AWARD - o defecțiune a plăcii video.

În matematică

În matematică, teoria informației (teoria comunicării matematice) este o secțiune a matematicii aplicate care definește conceptul de informație, proprietățile acesteia și stabilește relații limitative pentru sistemele de transmisie a datelor. Principalele ramuri ale teoriei informației sunt codarea sursă (codificare prin compresie) și codarea canalului (rezistent la zgomot). Matematica este mai mult decât o disciplină științifică. Ea creează un limbaj unificat pentru toată Știința.

Subiectul cercetării matematicii îl reprezintă obiectele abstracte: număr, funcție, vector, mulțime și altele. Mai mult, majoritatea sunt introduse axiomatic (axioma), adică fără nicio legătură cu alte concepte și fără nicio definiție.

Informația nu face parte din studiul matematicii. Cu toate acestea, cuvântul „informație” este folosit în termeni matematici - autoinformare și informare reciprocă, legat de partea abstractă (matematică) a teoriei informației. Cu toate acestea, în teoria matematică, conceptul de „informație” este asociat cu obiecte exclusiv abstracte - variabile aleatorii, în timp ce în teoria informației modernă acest concept este considerat mult mai larg - ca o proprietate a obiectelor materiale.

Legătura dintre acești doi termeni identici este de netăgăduit. A fost aparatul matematic al numerelor aleatoare care a fost folosit de autorul teoriei informației, Claude Shannon. El însuși înțelege prin termenul „informație” ceva fundamental (ireductibil). Teoria lui Shannon presupune intuitiv că informația are conținut. Informația reduce incertitudinea generală și entropia informațională. Cantitatea de informații este măsurabilă. Cu toate acestea, el avertizează cercetătorii împotriva transferului mecanic de concepte din teoria sa în alte domenii ale științei.

„Căutarea modalităților de a aplica teoria informației în alte domenii ale științei nu se reduce la un transfer banal de termeni dintr-un domeniu al științei în altul. Această căutare este efectuată într-un proces îndelungat de prezentare a unor noi ipoteze și testare experimentală a acestora.” K. Shannon.

În jurisprudență

Definiția legală a conceptului de „informație” este dată în Legea federală din 27 iulie 2006 nr. 149-FZ „Cu privire la informații, tehnologii informaționale și protecția informațiilor” (articolul 2): ​​„informații - informații (mesaje, date) indiferent de forma de prezentare a acestora” .

Legea federală nr. 149-FZ definește și consolidează drepturile la protecția informațiilor și la securitatea informațiilor ale cetățenilor și organizațiilor în calculatoare și sisteme informatice, precum și problemele de securitate a informațiilor cetățenilor, organizațiilor, societății și statului.

În teoria controlului

În teoria controlului (cibernetică), al cărei subiect de studiu îl constituie legile de bază ale controlului, adică dezvoltarea sistemelor de control, informația se referă la mesajele primite de sistem din lumea exterioară în timpul controlului adaptiv (adaptare, autoconservare). a sistemului de control).

Fondatorul ciberneticii, Norbert Wiener, a vorbit despre informații ca aceasta:

„Informația nu este materie sau energie, informația este informație.” Dar definiția de bază a informațiilor pe care a dat-o în mai multe dintre cărțile sale este următoarea: informația este o desemnare a conținutului primit de noi din lumea exterioară în procesul de adaptare a noastră și a sentimentelor noastre la aceasta.

- N. Wiener Cibernetică, sau control și comunicare în animale și mașini; sau Cibernetica și societatea

Această gândire a lui Wiener oferă o indicație directă a obiectivității informației, adică existența acesteia în natură independentă de conștiința umană (percepție).

Cibernetica modernă definește informația obiectivă ca proprietatea obiectivă a obiectelor și fenomenelor materiale de a genera o varietate de stări care, prin interacțiunile fundamentale ale materiei, sunt transmise de la un obiect (proces) la altul și sunt imprimate în structura acestuia.

Un sistem material în cibernetică este considerat ca un set de obiecte care ele însele se pot afla în stări diferite, dar starea fiecăruia dintre ele este determinată de stările altor obiecte ale sistemului. În natură, multe stări ale unui sistem reprezintă informații; stările în sine reprezintă codul primar sau codul sursă. Astfel, fiecare sistem material este o sursă de informație.

Cibernetica definește informația subiectivă (semantică) ca semnificația sau conținutul unui mesaj. (vezi ibid.) Informația este o caracteristică a unui obiect.

Dezinformare

Dezinformarea (de asemenea, dezinformarea) este una dintre modalitățile de manipulare a informațiilor, cum ar fi inducerea în eroare pe cineva prin furnizarea de informații incomplete sau informații complete, dar care nu mai sunt necesare, sau complete, dar nu în zona cerută, denaturarea contextului, denaturarea unei părți a informațiilor.

Scopul unei astfel de influențe este întotdeauna același - adversarul trebuie să acționeze așa cum are nevoie manipulatorul. Acţiunea ţintei împotriva căreia se îndreaptă dezinformarea poate consta în luarea unei decizii de care are nevoie manipulatorul sau în refuzul de a lua o decizie care este defavorabilă manipulatorului. Dar, în orice caz, scopul final este acțiunea care va fi întreprinsă.

Termenul „informație” provine din cuvântul latin „informatio”, care înseamnă informație, explicație, prezentare. În ciuda utilizării pe scară largă a acestui termen, conceptul de informație este unul dintre cele mai controversate din știință.

În „Marele Dicționar Enciclopedic” informațiile sunt definite ca „un concept științific general care include schimbul de informații între oameni, o persoană și un automat, un automat și un automat, schimbul de semnale în lumea animală și vegetală; transferul de caracteristici de la celulă la celulă, de la organism la organism (informații genetice).În prezent, știința încearcă să găsească proprietăți și modele generale inerente conceptului multifațetat informație, dar deocamdată acest concept rămâne în mare măsură intuitiv și primește conținut semantic diferit în diferite ramuri ale activității umane:

· în viața de zi cu zi informația este orice date sau informații care interesează pe cineva. De exemplu, un mesaj despre orice evenimente, despre activitățile cuiva etc. "Informa"în acest sens înseamnă „a comunica ceva,necunoscut anterior";

· în tehnologie informația se referă la mesaje transmise sub formă de semne sau semnale;

· în cibernetică Prin informație înțelegem acea parte a cunoștințelor care este folosită pentru orientare, acțiune activă, management, i.e. pentru a păstra, îmbunătăți și dezvolta sistemul (N. Wiener).

Concept date mai general decât informatica, în ea proprietățile semantice ale mesajului par să se retragă în fundal. Când nu este nevoie să subliniem diferența dintre concepte date(întregul set de informații) și informație(informații utile noi) aceste cuvinte sunt folosite ca sinonime.

În consecință, sunt utilizate diferite unități pentru a estima cantitatea de informații.

Când transmiteți informații, este important să acordați atenție cât de multă informație va trece prin sistemul de transmitere. La urma urmei, informațiile pot fi măsurate cantitativ, numărate. Și în astfel de calcule ei acționează în cel mai obișnuit mod: fac abstracție de sensul mesajului, la fel cum abandonează concretețea în operațiile aritmetice care ne sunt familiare tuturor (pe măsură ce trec de la adăugarea a două mere și a trei mere la adunarea numerelor). în general: 2 + 3).

1.2.2 Proprietățiinformație

Cele mai importante proprietăți ale informațiilor includ:

  • completitudine;
  • valoare;
  • actualitatea (relevanța);
  • intelegere;
  • disponibilitate;
  • concizie;
  • si etc.

Adecvarea informația poate fi exprimată în trei forme: semantică, sintactică, pragmatică.

Dacă informațiile valoroase și actuale sunt exprimate într-un mod neclar, acestea pot deveni inutile.

Informația devine de inteles, dacă este exprimată în limba vorbită de cei cărora le sunt destinate aceste informații.

Informațiile trebuie prezentate într-o formă accesibilă (în funcție de nivelul de percepție). Prin urmare, aceleași întrebări sunt prezentate diferit în manualele școlare și în publicațiile științifice.

Informațiile cu privire la aceeași problemă pot fi prezentate pe scurt (concis, fără detalii neimportante) sau pe larg (detaliat, detaliat). Concizia informațiilor este necesară în cărțile de referință, enciclopedii, manuale și tot felul de instrucțiuni.

1.2.1. Informatizarea si informatizarea societatii. Resurse informaționale.

Procesele informaționale(colectarea, prelucrarea și transmiterea informațiilor) au jucat întotdeauna un rol important în viața societății. Pe parcursul evoluției umane, există o tendință constantă spre automatizarea acestor procese.

Instrumente de prelucrare a informațiilor- acestea sunt tot felul de dispozitive și sisteme create de omenire și, în primul rând, un computer este o mașină universală pentru procesarea informațiilor.

Calculatoarele procesează informații prin executarea unor algoritmi.

Organismele vii și plantele procesează informații folosind organele și sistemele lor.

Omenirea a procesat informații de mii de ani. Există opinia că lumea a cunoscut mai multe revoluții informaționale.

Primul Revoluția informațională este asociată cu inventarea și stăpânirea limbajului uman, care, sau mai degrabă vorbirea orală, l-a separat pe om de lumea animală. Acest lucru a permis unei persoane să stocheze, să transmită, să îmbunătățească și să crească informațiile dobândite.

Al doilea Revoluția informațională a fost invenția scrisului. În primul rând, capacitățile de stocare a informațiilor au crescut brusc (comparativ cu etapa anterioară). Persoana a primit memorie externă artificială. Organizarea serviciilor poștale a făcut posibilă utilizarea scrisului ca mijloc de transmitere a informațiilor. În plus, apariția scrisului a fost o condiție necesară pentru începutul dezvoltării științelor (amintiți-vă de Grecia Antică, de exemplu). Apariția conceptului este aparent asociată cu această etapă numar natural. Toate popoarele care posedau scrisul cunoșteau conceptul de număr și foloseau unul sau altul sistem numeric.

Cu toate acestea, cunoștințele înregistrate în textele scrise erau limitate și, prin urmare, nu foarte accesibile. Acesta a fost cazul înainte de inventarea tiparului.

Ce s-a justificat al treilea revoluția informațională. Aici legătura dintre informație și tehnologie este cea mai evidentă. Imprimarea poate fi numită cu ușurință prima tehnologie a informației. Reproducerea informațiilor a fost pusă în flux, pe bază industrială. Față de precedenta, această etapă nu a crescut atât de mult capacitățile de stocare (deși a existat și aici un câștig: o sursă scrisă - adesea un singur exemplar, o carte tipărită - un întreg tiraj de copii și, prin urmare, o probabilitate scăzută de pierdere. informații în timpul stocării (amintiți-vă „Povestea regimentului lui Igor”)), a crescut foarte mult disponibilitatea informațiilor și acuratețea reproducerii acesteia. Mecanismul acestei revoluții a fost tiparnița, care a făcut cărțile mai ieftine și informațiile mai accesibile.

Al patrulea revoluție transformându-se treptat în a cincea, este asociat cu crearea tehnologiilor informaționale moderne. Această etapă este asociată cu succesele științelor exacte (în primul rând matematica și fizica) și se caracterizează prin apariția unor mijloace de comunicare atât de puternice precum telegraful (1794 - primul telegraf optic, 1841 - primul telegraf electromagnetic), telefonul ( 1876) și radio (1895). ), la care s-a adăugat televiziunea la finalul etapei (1921). Pe lângă comunicații, au apărut noi oportunități de primire și stocare a informațiilor - fotografia și cinematografia. De asemenea, este foarte important să se adauge la acestea dezvoltarea metodelor de înregistrare a informațiilor pe suporturi magnetice (benzi magnetice, discuri). Dar cel mai uimitor lucru a fost crearea computerelor moderne și a telecomunicațiilor.

În prezent termenul "tehnologia de informație" utilizate în legătură cu utilizarea computerelor pentru prelucrarea informațiilor. Tehnologiile informaționale acoperă toată tehnologia de calcul și comunicații și, parțial, electronice de larg consum, televiziune și radiodifuziune.

Ei găsesc aplicații în industrie, comerț, management, sistemul bancar, educație, sănătate, medicină și știință, transport și comunicații, agricultură, sistemul de securitate socială și servesc ca ajutor persoanelor cu diverse profesii și gospodine.

Oamenii din țările dezvoltate realizează că îmbunătățirea tehnologiei informației este cea mai importantă, deși costisitoare și dificilă sarcină.

În prezent, crearea de sisteme informatice la scară largă este posibilă din punct de vedere economic, iar acest lucru duce la apariția unor programe naționale de cercetare și educație menite să stimuleze dezvoltarea acestora.

După rezolvarea problemei de prelucrare a informațiilor, rezultatul trebuie prezentat utilizatorilor finali în forma cerută. Această operațiune este implementată în timp ce se rezolvă problema emiterii informațiilor. Informațiile sunt furnizate de obicei folosind dispozitive computerizate externe sub formă de texte, tabele, grafice etc.

Miezul oricărei tehnologii informaționale este selectarea și implementarea celor mai raționale proces de informare, care poate fi definit ca un ansamblu de proceduri de transformare si prelucrare a informatiilor.

La randul lui procedura de informare Este în general acceptat să se ia în considerare un set de operații omogene care influențează informația într-un anumit fel. Principalele proceduri de informare sunt: ​​înregistrarea, colectarea, transmiterea, codificarea, stocarea și prelucrarea informațiilor.

Implementarea oricărei sarcini pentru un anumit utilizator necesită crearea unui sistem de servicii informaționale, care este mai des numit sistem informațional.

Fie A=(a1, a2, …, an) alfabetul unei limbi. A* este setul tuturor secvențelor posibile de simboluri ale acestui limbaj.

Un limbaj este un subset al lui A* care satisface două sisteme de reguli: sintactic (umbrire albastră) și semantic (umbrire Bordeaux), și numai acele construcții care satisfac reguli sintactice pot satisface reguli semantice.

Exemplu: bbse - nu satisface sintaxa limbii ruse

Petya a mâncat un tractor - toate regulile sintactice sunt respectate, dar propoziția nu satisface semantica limbii ruse

Astfel, cunoașterea unei limbi înseamnă

1. Cunoașterea alfabetului său,

2. Cunoașterea regulilor sintactice

3. Cunoașterea regulilor semantice

În acest caz, vei putea comunica și vei fi înțeles corect.

Se numește conversia construcțiilor unei limbi într-o succesiune de litere ale altui alfabet codificare.

Dacă vorbim despre codificare, atunci trebuie mai întâi să stabilim ce construcție a limbii vom considera ca simbol, adică. oarecare structură indivizibilă.

Să luăm în considerare o anumită propoziție a limbajului Q. Propoziția este formată din cuvinte, care la rândul lor constau din litere. Există 3 opțiuni posibile pentru definirea unui simbol (un construct de limbaj indivizibil):

1. simbol = literă: propoziție - o succesiune de litere ale alfabetului. Această abordare este folosită în scris.

2. simbol = cuvânt. Această reprezentare a propozițiilor este folosită în stenografie.

3. simbol = propoziție. Această situație apare atunci când traduceți dintr-o limbă în alta și acest lucru este evident mai ales atunci când traduceți proverbe, glume și proverbe.

Marele matematician german Gottfried Wilhelm Leibniz a început să studieze problema codificării; a demonstrat că numărul minim de litere necesare pentru a codifica orice alfabet este 2.

Exemplu. Limba rusă: 33 de litere*2 (majuscule, minuscule) -2(ъ,ь) + 10 semne de punctuație +10 numere = 84 de caractere. O condiție prealabilă pentru codificarea corectă este capacitatea de a converti fără ambiguitate AÛB. Câte caractere binare sunt necesare pentru a codifica un caracter rus?

scrisoare cod
A
A
b
B
V
ÎN
m
M

Să presupunem că trebuie să codificăm cuvântul mamă. Să-l codificăm: 10011 0 10010 0. Faceți conversia inversă (decodare). Problemele apar pentru că Nu este clar unde se termină o scrisoare și unde începe alta. Regula de bază a conversiei fără ambiguitate de la A la B și înapoi este încălcată, motivul este utilizarea unui cod de lungime variabilă, prin urmare este necesar să alegeți un cod de aceeași lungime predeterminată. Care?

Concluzie: cu cât sunt mai puține litere din alfabet, cu atât simbolul este mai lung. Limba rusă are 33 de litere, cuvintele constau în medie din 4-6 litere. Există aproximativ 3000 de caractere în limba japoneză, în medie 1 propoziție ~ 1 caracter.

Calculatoarele folosesc codificare binară a informațiilor de orice tip: programe, documente text, imagini grafice, clipuri video, sunete etc. În mod surprinzător, toată această bogăție de informații este codificată folosind doar două stări: pornit sau oprit (una sau zero). Formarea reprezentării informației se numește ei codificare. Într-un sens mai restrâns, sub codificare se referă la trecerea de la reprezentarea inițială a informației, convenabilă pentru percepția umană, la o reprezentare convenabilă pentru stocare, transmitere și procesare. În acest caz, se numește tranziția inversă la reprezentarea originală decodare .

În orice tip de lucrare cu informație, vorbim mereu despre reprezentarea acesteia sub forma anumitor structuri simbolice. Cele mai frecvente sunt reprezentările unidimensionale ale informațiilor, în care mesajele iau forma unei secvențe de caractere. Așa se prezintă informațiile în textele scrise, atunci când sunt transmise prin canale de comunicare, în memoria computerului. Totuși, reprezentarea multidimensională a informațiilor este, de asemenea, utilizată pe scară largă, iar prin multidimensionalitate înțelegem nu numai dispunerea elementelor informaționale pe un plan sau în spațiu sub formă de desene, diagrame, grafice, machete tridimensionale etc., ci și multitudinea de caracteristici ale simbolurilor utilizate, de exemplu, culoarea, dimensiunea, tipul fontului din text.

Conducător auto este un program intermediar între echipament și alte programe.

Astfel, textele sunt stocate pe disc sau în memorie sub formă de numere și sunt convertite programatic în imagini cu caractere de pe ecran.

1.2.5. Codificarea imaginilor

În 1756, remarcabilul om de știință rus Mihail Vasilyevich Lomonosov (1711 -1765) a exprimat pentru prima dată ideea că pentru a reproduce orice culoare în natură, este suficient să amesteci trei culori primare în anumite proporții: roșu, verde, albastru. Teoria culorii cu trei componente afirmă că în sistemul vizual uman apar trei tipuri de excitații nervoase, fiecare dintre acestea fiind independentă de celelalte.

Codarea imaginilor computerizate se bazează, de asemenea, pe această teorie. Imaginea este împărțită în dreptunghiuri mici prin linii verticale și orizontale. Matricea de dreptunghiuri rezultată se numește raster, iar elementele matricei sunt pixeli(din engleza Elementul imaginii- element imagine). Culoarea fiecărui pixel este reprezentată de un triplu al valorilor de intensitate ale celor trei culori primare. Această metodă de codificare a culorilor se numește RGB (din engleză roșu - roșu, verde - verde, albastru - albastru). Cu cât sunt alocați mai mulți biți fiecărei culori primare, cu atât este mai mare gama de culori care pot fi stocate pentru fiecare element de imagine. Standardul, numit culoare adevărată, utilizează 3 octeți pentru fiecare punct raster, 1 octet pentru fiecare culoare primară. Astfel, 256 (=2 8) niveluri de luminozitate de roșu, 256 de niveluri de luminozitate de verde și 256 de niveluri de luminozitate de albastru împreună oferă aproximativ 16,7 milioane de nuanțe de culoare diferite, ceea ce depășește capacitatea de percepție a culorii a ochiului uman.

Pentru a stoca întreaga imagine, este suficient să scrieți o matrice de valori de culoare a pixelilor într-o anumită ordine, de exemplu, de la stânga la dreapta și de sus în jos. Unele informații despre imagine se vor pierde în timpul acestei codificări. Cu cât pixelii sunt mai mici, cu atât pierderile sunt mai mici. În monitoarele de computer moderne cu o diagonală de 15 -17 inci, un compromis rezonabil între calitatea și dimensiunea elementelor de imagine de pe ecran este oferit de un raster de 768x1024 pixeli.

Conceptul de informare

În concept "informație"(din lat. informatia- informare, explicație, prezentare) are o semnificație diferită în funcție de industria în care este considerat acest concept: în știință, tehnologie, viața obișnuită etc. De obicei, informația înseamnă orice date sau informații care interesează pe cineva (un mesaj despre orice evenimente, despre activitățile cuiva etc.).

În literatură puteți găsi un număr mare de definiții ale termenului "informație", care reflectă abordări diferite ale interpretării sale:

Definiția 1

  • informație– informații (mesaje, date) indiferent de forma de prezentare a acestora („Legea Federală a Federației Ruse din 27 iulie 2006, Nr. $149$-FZ privind informațiile, tehnologiile informaționale și protecția informațiilor”);
  • informație– informații despre lumea înconjurătoare și procesele care au loc în ea, percepute de o persoană sau un dispozitiv special (Dicționarul explicativ al limbii ruse a lui Ozhegov).

Când se vorbește despre prelucrarea datelor computerizate, informația este înțeleasă ca o anumită succesiune de simboluri sau semne (litere, numere, imagini grafice și sunete codificate etc.), care poartă o încărcătură semantică și este prezentată într-o formă ușor de înțeles pentru un computer.

În informatică, următoarea definiție a acestui termen este cel mai des folosită:

Definiția 2

informație– este vorba de informații conștiente (cunoștințe exprimate în semnale, mesaje, știri, notificări etc.) despre lumea din jurul nostru, care face obiectul stocării, transformării, transmiterii și utilizării.

Același mesaj de informare (articol de revistă, reclamă, poveste, scrisoare, certificat, fotografie, program de televiziune etc.) poate transporta cantități și conținuturi diferite de informații pentru diferite persoane, în funcție de cunoștințele acumulate și de nivelul de accesibilitate al acestui mesaj și la nivelul interesului pentru acesta. De exemplu, știrile scrise în limba chineză nu transmit nicio informație unei persoane care nu cunoaște această limbă, dar pot fi utile unei persoane care cunoaște chineza. Știrile prezentate într-o limbă familiară nu vor conține informații noi dacă conținutul lor este neclar sau deja cunoscut.

Informația este considerată ca o caracteristică nu a unui mesaj, ci a relației dintre mesaj și destinatarul acestuia.

Tipuri de informații

Informațiile pot exista în diferite tipuri:

  • text, desene, desene, fotografii;
  • semnale luminoase sau sonore;
  • unde radio;
  • impulsuri electrice și nervoase;
  • înregistrări magnetice;
  • gesturi și expresii faciale;
  • senzații de miros și gust;
  • cromozomii prin care sunt moștenite caracteristicile și proprietățile organismelor etc.

Distinge principalele tipuri de informații, care sunt clasificate în funcție de forma sa de reprezentare, metodele de codificare și stocare:

  • grafic- unul dintre cele mai vechi tipuri, cu ajutorul căruia s-au stocat informații despre lumea înconjurătoare sub formă de picturi pe rocă, iar apoi sub formă de picturi, fotografii, diagrame, desene pe diverse materiale (hârtie, pânză, marmură etc. .), care prezintă imagini din lumea reală;
  • sunet(acustic) - pentru a stoca informații de sunet, un dispozitiv de înregistrare a sunetului a fost inventat în 1877 USD, iar pentru informații muzicale, a fost dezvoltată o metodă de codare folosind caractere speciale, care face posibilă stocarea acestora ca informații grafice;
  • text– codifică vorbirea unei persoane folosind simboluri speciale – litere (diferite pentru fiecare națiune); hârtia este folosită pentru depozitare (scriere în caiete, tipărire etc.);
  • numeric– codifică măsura cantitativă a obiectelor și proprietățile lor în lumea înconjurătoare folosind simboluri speciale - numere (fiecare sistem de codificare are propriul său sistem de codificare); a devenit deosebit de importantă odată cu dezvoltarea comerțului, economiei și schimburilor monetare;
  • informații video- o metodă de stocare a imaginilor „vii” ale lumii înconjurătoare, care a apărut odată cu inventarea cinematografiei.

Există, de asemenea, tipuri de informații pentru care metodele de codificare și stocare nu au fost încă inventate - informatii tactile, organoleptice si etc.

Inițial, informațiile erau transmise pe distanțe mari folosind semnale luminoase codificate, după inventarea electricității – transmiterea unui semnal codificat într-un anumit mod prin fire, iar ulterior folosind unde radio.

Nota 1

Claude Shannon este considerat fondatorul teoriei generale a informației, care a pus și bazele comunicațiilor digitale prin scrierea cărții „Teoria matematică a comunicațiilor” în 1948, în care a fundamentat pentru prima dată posibilitatea utilizării codului binar pentru a transmite informații.

Primele calculatoare au fost un mijloc de procesare a informațiilor numerice. Odată cu dezvoltarea tehnologiei informatice, PC-urile au început să fie folosite pentru stocarea, procesarea și transmiterea diferitelor tipuri de informații (informații text, numerice, grafice, sonore și video).

Puteți stoca informații folosind un computer pe discuri magnetice sau benzi, pe discuri laser (CD și DVD) și pe dispozitive speciale de memorie nevolatilă (memorie flash etc.). Aceste metode sunt în mod constant îmbunătățite, iar purtătorii de informații sunt, de asemenea, inventați. Toate acțiunile cu informații sunt efectuate de procesorul central al PC-ului.

Obiectele, procesele, fenomenele lumii materiale sau imateriale, dacă sunt luate în considerare din punctul de vedere al proprietăților lor informaționale, se numesc obiecte informaționale.

Un număr mare de procese informaționale diferite pot fi efectuate asupra informațiilor, inclusiv:

  • Creare;
  • recepţie;
  • combinaţie;
  • depozitare;
  • difuzare;
  • copierea;
  • tratament;
  • căutare;
  • percepţie;
  • formalizare;
  • împărțirea în părți;
  • măsurare;
  • utilizare;
  • răspândirea;
  • simplificare;
  • distrugere;
  • memorare;
  • transformare;

Proprietățile informațiilor

Informația, ca orice obiect, are proprietăți, cele mai importante dintre care, din punct de vedere al informaticii, sunt:

  • Obiectivitate. Informații obiective – există independent de conștiința umană, de metodele de înregistrare, de opinia sau atitudinea cuiva.
  • Credibilitate. Informațiile care reflectă adevărata stare de lucruri sunt de încredere. Informațiile inexacte duc cel mai adesea la neînțelegeri sau la decizii greșite. Învechirea informațiilor poate transforma informații de încredere în informații nesigure, deoarece nu va mai reflecta adevărata stare a lucrurilor.
  • Completitudine. Informațiile sunt complete dacă sunt suficiente pentru înțelegere și luare a deciziilor. Informațiile incomplete sau redundante pot duce la o întârziere în luarea deciziilor sau la o eroare.
  • Acuratețea informațiilor – gradul de apropiere a acestuia de starea reală a unui obiect, proces, fenomen etc.
  • Valoarea informatiei depinde de importanța sa pentru luarea deciziilor, rezolvarea problemelor și aplicabilitatea ulterioară în orice tip de activitate umană.
  • Relevanţă. Doar primirea la timp a informațiilor poate duce la rezultatul așteptat.
  • Claritate. Dacă informațiile valoroase și oportune nu sunt exprimate clar, probabil că vor deveni inutile. Informațiile vor fi de înțeles atunci când sunt, cel puțin, exprimate într-un limbaj pe care destinatarul îl poate înțelege.
  • Disponibilitate. Informațiile trebuie să corespundă nivelului de percepție al destinatarului. De exemplu, aceleași întrebări sunt prezentate diferit în manualele școlare și universitare.
  • Concizie. Informația este percepută mult mai bine dacă este prezentată nu în detaliu și verbos, ci cu un grad acceptabil de concizie, fără detalii inutile. Concizia informațiilor este indispensabilă în cărțile de referință, enciclopedii și instrucțiuni. Logicitatea, compactitatea, forma convenabilă de prezentare facilitează înțelegerea și asimilarea informațiilor.