Was bedeutet das Zeichen v in der Informatik? Was ist ein Symbol? Grundoperationen der Algebra-Logik

EIGENSCHAFTEN LOGISCHER OPERATIONEN

1. Bezeichnungen

1.1. Notation für logische Verknüpfungen (Operationen):

A) Negation(Inversion, logisches NICHT) wird mit ¬ bezeichnet (zum Beispiel ¬A);

B) Verbindung(logische Multiplikation, logisches UND) wird mit /\ bezeichnet
(zum Beispiel A /\ B) oder & (zum Beispiel A & B);

C) Disjunktion(logische Addition, logisches ODER) wird mit \/ bezeichnet
(zum Beispiel A \/ B);

D) folgende(Implikation) wird mit → bezeichnet (zum Beispiel A → B);

e) Identität bezeichnet mit ≡ (zum Beispiel A ≡ B). Der Ausdruck A ≡ B ist genau dann wahr, wenn die Werte von A und B gleich sind (entweder sind sie beide wahr oder sie sind beide falsch);

f) Symbol 1 wird verwendet, um die Wahrheit (wahre Aussage) zu bezeichnen; Symbol 0 – um eine Lüge (falsche Aussage) anzuzeigen.

1.2. Es werden zwei boolesche Ausdrücke aufgerufen, die Variablen enthalten Äquivalent (äquivalent), wenn die Werte dieser Ausdrücke für alle Werte der Variablen übereinstimmen. Somit sind die Ausdrücke A → B und (¬A) \/ B äquivalent, A /\ B und A \/ B jedoch nicht (die Bedeutungen der Ausdrücke sind unterschiedlich, zum Beispiel wenn A = 1, B = 0). ).

1.3. Prioritäten logischer Operationen: Inversion (Negation), Konjunktion (logische Multiplikation), Disjunktion (logische Addition), Implikation (Folgen), Identität. Somit bedeutet ¬A \/ B \/ C \/ D dasselbe wie

((¬A) \/ B) \/ (C \/ D).

Es ist möglich, A \/ B \/ C anstelle von (A \/ B) \/ C zu schreiben. Das Gleiche gilt für die Konjunktion: Es ist möglich, A /\ B /\ C anstelle von (A /\ B) zu schreiben ) /\ C.

2. Eigenschaften

Die folgende Liste erhebt NICHT den Anspruch auf Vollständigkeit, ist aber hoffentlich repräsentativ genug.

2.1. Allgemeine Eigenschaften

  1. Für eine Reihe von N Es gibt genau logische Variablen 2 N unterschiedliche Bedeutungen. Wahrheitstabelle für logischen Ausdruck aus N Variablen enthält n+1 Spalte und 2 N Linien.

2.2.Disjunktion

  1. Wenn mindestens einer der Unterausdrücke, auf die die Disjunktion angewendet wird, für einen Wertesatz der Variablen wahr ist, dann gilt die gesamte Disjunktion für diesen Wertesatz.
  2. Wenn alle Ausdrücke aus einer bestimmten Liste für eine bestimmte Menge von Variablenwerten wahr sind, dann ist auch die Disjunktion dieser Ausdrücke wahr.
  3. Wenn alle Ausdrücke aus einer bestimmten Liste für eine bestimmte Menge von Variablenwerten falsch sind, ist auch die Disjunktion dieser Ausdrücke falsch.
  4. Die Bedeutung einer Disjunktion hängt nicht von der Schreibreihenfolge der Unterausdrücke ab, auf die sie angewendet wird.

2.3. Verbindung

  1. Wenn mindestens einer der Unterausdrücke, auf die die Konjunktion angewendet wird, für einen Satz von Variablenwerten falsch ist, dann ist die gesamte Konjunktion für diesen Satz von Werten falsch.
  2. Wenn alle Ausdrücke aus einer bestimmten Liste für eine bestimmte Menge von Variablenwerten wahr sind, dann ist auch die Konjunktion dieser Ausdrücke wahr.
  3. Wenn alle Ausdrücke aus einer bestimmten Liste für eine bestimmte Menge von Variablenwerten falsch sind, ist auch die Konjunktion dieser Ausdrücke falsch.
  4. Die Bedeutung einer Konjunktion hängt nicht von der Schreibreihenfolge der Teilausdrücke ab, auf die sie angewendet wird.

2.4. Einfache Disjunktionen und Konjunktionen

Nennen wir (der Einfachheit halber) die Konjunktion einfach, wenn die Unterausdrücke, auf die die Konjunktion angewendet wird, unterschiedliche Variablen oder deren Negationen sind. Ebenso heißt die Disjunktion einfach, wenn die Teilausdrücke, auf die die Disjunktion angewendet wird, unterschiedliche Variablen oder deren Negationen sind.

  1. Eine einfache Konjunktion ergibt für genau einen Satz Variablenwerte 1 (wahr).
  2. Eine einfache Disjunktion ergibt für genau einen Satz Variablenwerte den Wert 0 (falsch).

2.5. Implikation

  1. Implikation AB ist äquivalent zur Disjunktion A) \/ B. Diese Disjunktion kann auch wie folgt geschrieben werden: ¬ A\/B.
  2. Implikation AB Nimmt nur dann den Wert 0 (falsch) an, wenn A=1 Und B=0. Wenn A=0, dann die Implikation AB wahr für jeden Wert B.

Logik ist eine sehr alte Wissenschaft. Es war schon in der Antike bekannt formale Logik, was Rückschlüsse auf die Richtigkeit eines Urteils nicht anhand seines eigentlichen Inhalts, sondern nur anhand der Form seiner Konstruktion zulässt. Es war zum Beispiel schon in der Antike bekannt Recht des Ausschlusses Dritter. Seine sinnvolle Interpretation lautete wie folgt: „Während seiner Wanderungen, Platon War in Ägypten ODERwar nicht Platon in Ägypten. In dieser Form wäre dieser oder jeder andere Ausdruck korrekt (dann hieß es: WAHR). Es kann nichts anderes geben: Platon war entweder in Ägypten oder war nicht – eine dritte Option gibt es nicht.
Ein weiteres Gesetz der Logik - Gesetz der Konsistenz. Wenn wir sagen: „Während seiner Wanderungen Platon War in Ägypten UNDwar nicht Platon in Ägypten“, dann wird es offensichtlich immer eine Aussage dieser Form sein FALSCH. Wenn sich aus einer Theorie zwei widersprüchliche Schlussfolgerungen ergeben, dann ist eine solche Theorie sicherlich falsch (falsch) und sollte abgelehnt werden.
Ein weiteres in der Antike bekanntes Gesetz - Gesetz der Negation:"Wenn NICHT es ist wahr, dass Platon NICHT War in Ägypten bedeutet das Platon War in Ägypten".
Formale Logik basiert auf „Aussagen“. Eine „Aussage“ ist ein Grundelement der Logik, definiert als ein Aussagesatz, von dem eindeutig gesagt werden kann, dass er eine wahre oder falsche Aussage enthält.
Zum Beispiel: Die Blätter an den Bäumen fallen im Herbst. Das Grundstück ist rechteckig.
Die erste Aussage enthält wahre Informationen, die zweite falsche. Frage-, Imperativ- und Ausrufsätze sind keine Aussagen, da in ihnen nichts bejaht oder verneint wird.
Beispielsätze, die keine Aussagen sind: Trinken Sie kein rohes Wasser! Wer möchte nicht glücklich sein?
Aussagen können auch wie folgt lauten: 2>1, H2 O+SO3 =H2 SO4. Es verwendet die Sprachen mathematischer Symbole und chemischer Formeln.
Die obigen Beispiele für Aussagen sind einfach. Aber aus einfachen Aussagen kann man etwas herausholen Komplex, indem man sie mithilfe logischer Verknüpfungen kombiniert. Logische Verknüpfungen sind Wörter, die bestimmte logische Verbindungen zwischen Aussagen implizieren. Grundlegende logische Verknüpfungen werden längst nicht nur in der Wissenschaftssprache, sondern auch in der Alltagssprache verwendet – das sind „und“, „oder“, „nicht“, „wenn... dann“, „entweder... oder“ und andere uns aus russischen Sprachkonnektiven bekannt. In den drei von uns untersuchten Gesetzen der formalen Logik wurden Konnektive „und“, „oder“, „nicht“, „wenn... dann“ verwendet, um einfache Aussagen zu komplexen zu verbinden.
Es gibt Aussagen allgemein, privat Und einzel. Die allgemeine Aussage beginnt mit den Worten: alle, alle, alle, alle, keiner. Eine private Stellungnahme beginnt mit den Worten: einige, die meisten usw. In allen anderen Fällen ist die Äußerung singulär.
Formale Logik war im mittelalterlichen Europa bekannt, sie entwickelte sich und wurde mit neuen Gesetzen und Regeln angereichert, blieb aber bis zum 19. Jahrhundert eine Verallgemeinerung spezifischer bedeutungsvoller Daten und ihre Gesetze behielten die Form von Aussagen in gesprochener Sprache.

Im Jahr 1847 entwickelte der englische Mathematiker George Boole, Lehrer an einer Provinzuniversität in der Kleinstadt Cork im Süden Englands Algebra der Logik .
Die logische Algebra ist sehr einfach, da jede Variable nur zwei Werte annehmen kann: wahr oder falsch. Die Schwierigkeit beim Studium der Algebra der Logik ergibt sich aus der Tatsache, dass die Symbole 0 und 1 zur Bezeichnung von Variablen verwendet werden, die schriftlich mit den üblichen arithmetischen Einsen und Nullen übereinstimmen. Dies ist jedoch nur ein äußerer Zufall, da sie eine völlig andere Bedeutung haben.
Logisch 1 bedeutet, dass ein Ereignis wahr ist, im Gegensatz dazu bedeutet logisch 0, dass die Aussage nicht wahr ist, d. h. FALSCH. Die Anweisung wurde durch einen logischen Ausdruck ersetzt, der aus logischen Variablen (A, B, X, ...) und logischen Operationen (Konnektiven) aufgebaut ist.
In der Algebra der Logik bezeichnen die Vorzeichen von Operationen nur drei logische Verknüpfungen ODER UND NICHT.
1.Logische ODER-Verknüpfung. Es ist üblich, eine logische Funktion in Form einer Tabelle anzugeben. Auf der linken Seite dieser Tabelle sind alle möglichen Werte aufgeführt Funktionsargumente, d.h. Eingangsgrößen, und das entsprechende ist rechts angegeben logischer Funktionswert. Für elementare Funktionen stellt sich heraus Wahrheitstabelle dieser logischen Operation. Für den Betrieb ODER Die Wahrheitstabelle sieht so aus:

Betrieb ODER auch genannt logische Ergänzung , und daher kann es mit dem „+“-Zeichen gekennzeichnet werden.
Betrachten Sie eine komplexe Einzelaussage: „Im Sommer gehe ich ins Dorf oder mache einen Touristenausflug.“ Bezeichnen wir mit A eine einfache Aussage „Im Sommer werde ich ins Dorf gehen“ und danach IN- eine einfache Aussage: „Im Sommer werde ich eine Touristenreise machen.“ Dann hat der logische Ausdruck einer komplexen Aussage die Form A+B, und sie ist nur dann falsch, wenn keine der einfachen Aussagen wahr ist.
2.Logische UND-Verknüpfung. Die Wahrheitstabelle für diese Funktion lautet:

Aus der Wahrheitstabelle folgt die Operation UND- Das logische Multiplikation , die sich nicht von der traditionell bekannten Multiplikation in der gewöhnlichen Algebra unterscheidet. Betrieb UND kann auf unterschiedliche Weise durch ein Schild angezeigt werden:

In der formalen Logik entsprechen logische Multiplikationsoperationen Konnektiven und, und, aber, obwohl.
3. Logische Operation NICHT. Diese Operation ist spezifisch für die Algebra der Logik und hat in der gewöhnlichen Algebra keine Entsprechung. Dies wird durch eine Linie über dem Wert der Variablen oder ein Präfix vor dem Wert der Variablen angezeigt:

In beiden Fällen lautet die Lesart „Nicht A“. Die Wahrheitstabelle für diese Funktion lautet:

Betrieb in der Informatik NICHT angerufen Negation oder Inversion , Betrieb ODER - Disjunktion , Betrieb UND - Verbindung . Die Menge der logischen Funktionen „AND“, „OR“, „NOT“ ist eine funktional vollständige Menge oder Basis der Algebra der Logik. Damit können Sie beliebige andere logische Funktionen ausdrücken, zum Beispiel die Operationen „strenge Disjunktion“, „Implikation“ und „Äquivalenz“ usw. Betrachten wir einige davon.
Logische Operation „strenge Disjunktion“. Diese logische Operation entspricht der logischen Verknüpfung „entweder...oder“. Die Wahrheitstabelle für diese Funktion lautet:

Die Operation „strenge Disjunktion“ wird durch die logischen Funktionen „UND“, „ODER“, „NICHT“ einer von zwei logischen Formeln ausgedrückt:

und wird ansonsten als Disparitätsoperation oder „Addition modulo 2“ bezeichnet, da bei der Addition einer geraden Anzahl von Einheiten das Ergebnis „0“ ist und bei der Addition einer ungeraden Anzahl von Einheiten das Ergebnis „1“ ist. .
Logische Operation „Implikation“. Ausdruck, der mit Wörtern beginnt wenn, wann, wenn bald und fortlaufende Worte also dann, wird eine bedingte Anweisung oder die Operation „Implikation“ genannt. Die Wahrheitstabelle für diese Funktion lautet:

Die Operation „Implikation“ kann auf verschiedene Arten ausgedrückt werden:

Diese Ausdrücke sind äquivalent und lauten gleich: „Y ist gleich der Implikation von A und B.“ Die Operation „Implikation“ wird durch die logischen Funktionen „ODER“, „NICHT“ in Form einer logischen Formel ausgedrückt

Logische Operation „Äquivalenz“ (Äquivalenz). Diese logische Operation entspricht den logischen Verknüpfungen „wenn und nur wenn“, „wenn und nur wenn“. Die Wahrheitstabelle für diese Funktion lautet:

Die Operation „Äquivalenz“ wird unterschiedlich bezeichnet. Ausdrücke

bedeuten dasselbe, und wir können sagen, dass A genau dann zu B äquivalent ist, wenn sie äquivalent sind. Die logische Operation „Äquivalenz“ wird durch die logischen Funktionen „UND“, „ODER“, „NICHT“ in Form einer logischen Formel ausgedrückt

Mit Hilfe der logischen Algebra können Sie die Gesetze der formalen Logik sehr kurz aufschreiben und mathematisch stichhaltig beweisen.

In der logischen Algebra, wie auch in der elementaren Algebra, kommutativ (Gesetz der Kommutativität), assoziativ(Gesetz der Assoziativität) und verteilend(Gesetz der Distributivität) Gesetze sowie das Axiom Idempotenz(fehlende Abschlüsse und Koeffizienten) usw., in deren Datensätzen logische Variablen verwendet werden, die nur zwei Werte annehmen – logische Null und logische Eins. Die Anwendung dieser Gesetze ermöglicht die Vereinfachung logischer Funktionen, d.h. Finden Sie Ausdrücke für sie, die die einfachste Form haben. Die wichtigsten Axiome und Gesetze der logischen Algebra sind in der Tabelle aufgeführt:

Beispiele für die Verwendung grundlegender Axiome und Gesetze:

In diesem Artikel wird die Geschichte der Informatik als Wissenschaft untersucht; wir werden auch verstehen, was sie tut und welche Hauptrichtungen sie hat.

Digitales Zeitalter

Die moderne Welt ist ohne Informationen und digitale Technologien kaum noch vorstellbar. Sie alle machen das Leben viel einfacher; dank ihnen hat die Menschheit eine Reihe bedeutender Durchbrüche in Wissenschaft und Industrie erzielt. Betrachten wir die Disziplinen der Informatik und die Geschichte ihrer Entstehung als Wissenschaft genauer.

Definition

Informatik ist eine Wissenschaft, die Methoden zum Sammeln, Verarbeiten, Speichern, Übertragen und Analysieren von Informationen mithilfe verschiedener Computer- und Digitaltechnologien sowie die Möglichkeiten ihrer Anwendung untersucht.

Es umfasst Disziplinen, die sich auf die Verarbeitung und Berechnung von Informationen mithilfe verschiedener Arten von Computern und Netzwerken beziehen. Darüber hinaus sowohl abstrakte wie die Analyse von Algorithmen als auch konkrete wie die Entwicklung neuer Datenkomprimierungsmethoden, Informationsaustauschprotokolle und Programmiersprachen.

Wie Sie sehen, ist die Informatik eine Wissenschaft, die sich durch die Breite ihrer Forschungsthemen und -richtungen auszeichnet. Als Beispiel können wir folgende Fragen und Aufgaben nennen: Was ist real und was ist in Programmen nicht umsetzbar (künstliche Intelligenz, selbstlernende Computer etc.), wie lassen sich verschiedene Arten spezifischer Informationsprobleme möglichst effizient lösen? (die sogenannte Theorie der rechnerischen Komplexität), in welcher Form Informationen gespeichert und wiederhergestellt werden sollten, wie Menschen am effektivsten mit Programmen interagieren sollten (Probleme der Benutzeroberfläche, neue Programmiersprachen usw.).

Nun betrachten wir kurz die Entwicklung der Informatik als Wissenschaft, ausgehend von ihren Ursprüngen.

Geschichte

Die Informatik ist eine junge Wissenschaft, die sich allmählich entwickelte und in der zweiten Hälfte des 20. Jahrhunderts ihre stärkste Entwicklung erlebte. Dies ist auch in unserer Zeit sehr wichtig, in der fast die ganze Welt von Computern und anderen elektronischen Computertechnologien abhängig ist.

Alles begann Mitte des 19. Jahrhunderts, als verschiedene Wissenschaftler mechanische Rechenmaschinen und „Analysemaschinen“ entwickelten. Im Jahr 1834 begann Charles Babbage mit der Entwicklung eines programmierbaren Taschenrechners, und übrigens war er es, der später viele grundlegende Merkmale und Prinzipien des modernen Computers formulierte. Er war es auch, der die Verwendung von Lochkarten vorschlug, die dann bis zum Ende der 80er Jahre des 20. Jahrhunderts im Einsatz waren.

Im Jahr 1843 entwickelte Ada Lovelace einen Algorithmus zur Berechnung der Bernoulli-Zahlen, der als erstes Computerprogramm der Geschichte gilt.

Um 1885 entwickelte Herman Hollerith einen Tabulator, ein Gerät zum Auslesen von Daten aus Lochkarten. Und 1937, fast hundert Jahre nach Babbages Ideen und Träumen, entwickelte IBM den ersten programmierbaren Taschenrechner.

In den frühen 1950er Jahren wurde jedem klar, dass der Computer in verschiedenen Bereichen der Wissenschaft und Industrie eingesetzt werden kann und nicht nur als Werkzeug für mathematische Berechnungen. Und die Informatik, die damals gerade erst im Entstehen begriffen war, ist die Wissenschaft, die die Zukunft birgt. Und wenig später erhielt es den Status einer offiziellen Wissenschaft.

Schauen wir uns nun kurz seine Struktur an.

Struktur der Informatik

Die Struktur der Informatik ist vielfältig. Als Disziplin deckt sie ein breites Themenspektrum ab. Angefangen bei der theoretischen Erforschung verschiedener Arten von Algorithmen bis hin zur praktischen Umsetzung einzelner Programme oder der Erstellung von Computern und digitalen Geräten.

Informatik ist die Wissenschaft, die...

Derzeit gibt es mehrere Hauptrichtungen, die wiederum in viele Zweige unterteilt sind. Schauen wir uns die grundlegendsten an:

  1. Theoretische Informatik. Zu ihren Aufgaben gehört das Studium sowohl der klassischen Algorithmentheorie als auch einer Reihe wichtiger Themen, die mit den abstrakteren Aspekten mathematischer Berechnungen zusammenhängen.
  2. AngewandtInformatik. Dies ist eine Wissenschaft bzw. einer ihrer Abschnitte, die darauf abzielt, bestimmte Konzepte im Bereich der Informatik zu identifizieren, die als Methoden zur Lösung einiger Standardprobleme verwendet werden können, beispielsweise zum Erstellen von Algorithmen sowie zum Speichern und Verwalten von Informationen mithilfe von Daten Strukturen. Darüber hinaus wird die angewandte Informatik in einer Reihe von industriellen, alltäglichen oder wissenschaftlichen Bereichen eingesetzt: Bioinformatik, elektronische Linguistik und andere.
  3. Natürliche Informatik. Dies ist eine Richtung, die die Prozesse verschiedener Informationsverarbeitung in der Natur untersucht, sei es das menschliche Gehirn oder die menschliche Gesellschaft. Seine Grundlagen basieren auf den klassischen Theorien der Evolution, Morphogenese und anderen. Darüber hinaus werden wissenschaftliche Bereiche wie DNA-Forschung, Gehirnaktivität, Theorie des Gruppenverhaltens usw. genutzt.

Wie Sie sehen, ist die Informatik eine Wissenschaft, die sich mit einer Reihe sehr wichtiger theoretischer Fragen befasst, beispielsweise der Schaffung künstlicher Intelligenz oder der Entwicklung von Lösungen für einige mathematische Probleme.

Es wird zur Berechnung logischer Operationen verwendet. Betrachten wir im Folgenden die grundlegendsten logischen Operationen der Informatik. Wenn Sie darüber nachdenken, sind sie schließlich diejenigen, die zur Erstellung der Logik von Computern und Geräten verwendet werden.

Negation

Bevor wir beginnen, konkrete Beispiele im Detail zu betrachten, listen wir die grundlegenden logischen Operationen in der Informatik auf:

  • Negation;
  • Zusatz;
  • Multiplikation;
  • folgend;
  • Gleichwertigkeit.

Bevor man mit dem Studium logischer Operationen beginnt, sollte man außerdem erwähnen, dass in der Informatik eine Lüge mit „0“ und die Wahrheit mit „1“ bezeichnet wird.

Für jede Aktion werden wie in der gewöhnlichen Mathematik die folgenden Zeichen logischer Operationen in der Informatik verwendet: ¬, v, &, ->.

Jede Aktion kann entweder durch Zahlen 1/0 oder einfach durch logische Ausdrücke beschrieben werden. Beginnen wir unsere Betrachtung der mathematischen Logik mit der einfachsten Operation, die nur eine Variable verwendet.

Die logische Negation ist eine Umkehroperation. Die Idee ist, dass, wenn der ursprüngliche Ausdruck wahr ist, das Ergebnis der Umkehrung falsch ist. Und umgekehrt: Wenn der ursprüngliche Ausdruck falsch ist, ist das Ergebnis der Umkehrung wahr.

Beim Schreiben dieses Ausdrucks wird die folgende Schreibweise verwendet: „¬A“.

Lassen Sie uns eine Wahrheitstabelle präsentieren – ein Diagramm, das alle möglichen Ergebnisse einer Operation für beliebige Ausgangsdaten zeigt.

Das heißt, wenn unser ursprünglicher Ausdruck wahr ist (1), dann ist seine Negation falsch (0). Und wenn der ursprüngliche Ausdruck falsch (0) ist, dann ist seine Negation wahr (1).

Zusatz

Die verbleibenden Operationen erfordern zwei Variablen. Bezeichnen wir einen Ausdruck -

A, zweitens – B. Logische Operationen in der Informatik, die die Aktion der Addition (oder Disjunktion) bezeichnen, werden beim Schreiben entweder durch das Wort „oder“ oder durch das Symbol „v“ bezeichnet. Lassen Sie uns mögliche Datenoptionen und Berechnungsergebnisse beschreiben.

  1. E=1, H=1, dann E v H = 1. Wenn beides gilt, dann ist auch ihre Disjunktion wahr.
  2. E = 0, H = 1, als Ergebnis E v H = 1. E = 1, H = 0, dann E v H = 1. Wenn mindestens einer der Ausdrücke wahr ist, dann ist das Ergebnis ihrer Addition WAHR.
  3. E=0, H=0, Ergebnis E v H = 0. Wenn beide Ausdrücke falsch sind, dann ist auch ihre Summe falsch.

Der Kürze halber erstellen wir eine Wahrheitstabelle.

Disjunktion
EXXÖÖ
NXÖXÖ
E gegen NXXXÖ

Multiplikation

Nachdem wir uns mit der Additionsoperation befasst haben, gehen wir zur Multiplikation (Konjunktion) über. Für die Addition verwenden wir die gleiche Notation wie oben. Beim Schreiben wird die logische Multiplikation durch das Symbol „&“ oder den Buchstaben „I“ angezeigt.

  1. E=1, H=1, dann E & H = 1. Wenn beides, dann ist ihre Konjunktion wahr.
  2. Wenn mindestens einer der Ausdrücke falsch ist, ist auch das Ergebnis der logischen Multiplikation falsch.
  • E=1, H=0, also E & H = 0.
  • E=0, H=1, dann E & H = 0.
  • E=0, H=0, Gesamt-E und H = 0.
Verbindung
EXX0 0
NX0 X0
E&NX0 0 0

Folge

Die logische Operation der Implikation (Implikation) ist eine der einfachsten in der mathematischen Logik. Es basiert auf einem einzigen Axiom: Eine Lüge kann nicht aus der Wahrheit folgen.

  1. E = 1, H =, also E -> H = 1. Wenn ein Paar verliebt ist, dann kann es sich küssen – stimmt.
  2. E = 0, H = 1, dann E -> H = 1. Wenn das Paar nicht verliebt ist, dann kann es sich küssen – kann auch wahr sein.
  3. E = 0, H = 0, daraus E -> H = 1. Wenn ein Paar nicht verliebt ist, dann küsst es sich nicht – das gilt auch.
  4. E = 1, H = 0, das Ergebnis ist E -> H = 0. Wenn ein Paar verliebt ist, dann küsst es sich nicht – eine Lüge.

Um die Durchführung mathematischer Operationen zu erleichtern, stellen wir auch eine Wahrheitstabelle vor.

Gleichwertigkeit

Die letzte betrachtete Operation ist die logische Identitätsgleichheit oder -äquivalenz. Im Text kann es als „...genau dann, wenn...“ bezeichnet werden. Basierend auf dieser Formulierung werden wir Beispiele für alle ursprünglichen Optionen schreiben.

  1. A=1, B=1, dann A≡B = 1. Eine Person nimmt genau dann Tabletten, wenn sie krank ist. (WAHR)
  2. A = 0, B = 0, also A≡B = 1. Eine Person nimmt genau dann keine Pillen, wenn sie nicht krank ist. (WAHR)
  3. A = 1, B = 0, also A≡B = 0. Eine Person nimmt genau dann Tabletten, wenn sie nicht krank ist. (Lüge)
  4. A = 0, B = 1, dann A≡B = 0. Eine Person nimmt genau dann keine Pillen, wenn sie krank ist. (Lüge)

Eigenschaften

Nachdem wir uns also die einfachsten in der Informatik angesehen haben, können wir beginnen, einige ihrer Eigenschaften zu untersuchen. Wie in der Mathematik haben logische Operationen ihre eigene Verarbeitungsreihenfolge. In großen booleschen Ausdrücken werden zuerst die Operationen in Klammern ausgeführt. Danach zählen wir zunächst alle Negationswerte im Beispiel. Der nächste Schritt besteht darin, die Konjunktion und dann die Disjunktion zu berechnen. Erst danach führen wir die Operation der Konsequenz und schließlich der Äquivalenz durch. Schauen wir uns zur Verdeutlichung ein kleines Beispiel an.

A v B & ¬B -> B ≡ A

Die Reihenfolge der Aktionen ist wie folgt.

  1. V&(¬V)
  2. A v(B&(¬B))
  3. (A v(B&(¬B)))->B
  4. ((A v(B&(¬B)))->B)≡A

Um dieses Beispiel zu lösen, müssen wir eine erweiterte Wahrheitstabelle erstellen. Denken Sie beim Erstellen daran, dass es besser ist, die Spalten in derselben Reihenfolge zu platzieren, in der die Aktionen ausgeführt werden.

Beispiellösung
AIN

(A v(B&(¬B)))->B

((A v(B&(¬B)))->B)≡A

XÖXÖXXX
XXÖÖXXX
ÖÖXÖÖXÖ
ÖXÖÖÖXÖ

Wie wir sehen können, wird das Ergebnis der Lösung des Beispiels die letzte Spalte sein. Die Wahrheitstabelle half bei der Lösung des Problems mit allen möglichen Eingabedaten.

Abschluss

In diesem Artikel wurden einige Konzepte der mathematischen Logik untersucht, beispielsweise Informatik, Eigenschaften logischer Operationen und auch die Frage, was logische Operationen selbst sind. Es wurden einige einfache Beispiele zur Lösung von Problemen in der mathematischen Logik und die zur Vereinfachung dieses Prozesses erforderlichen Wahrheitstabellen gegeben.

Nachricht

Nachricht– in der Kommunikationstheorie – eine Aussage, ein Text, ein Bild, ein physisches Objekt oder eine Handlung, die übertragen werden soll. Nachrichten bestehen aus verbal oder nonverbal Signale. Ein einzelnes Signal kann nicht viele Informationen enthalten, daher wird eine Reihe aufeinanderfolgender Signale zur Informationsübertragung verwendet. Die Signalfolge wird aufgerufen Nachricht.

Somit werden Informationen in Form von Nachrichten von der Quelle zum Empfänger übertragen. Wir können sagen, dass die Nachricht als materielle Hülle zur Darstellung von Informationen während der Übertragung fungiert. Daher dient die Nachricht als Informationsträger, und Informationen sind der Inhalt der Nachricht.

Die Entsprechung zwischen einer Nachricht und den darin enthaltenen Informationen nennt man Regel für die Interpretation einer Nachricht. Diese Korrespondenz kann sein eindeutig Und mehrdeutig. Im ersten Fall hat die Nachricht nur eine Interpretationsregel. Im zweiten Fall ist die Korrespondenz zwischen Nachricht und Information auf zwei Arten möglich: 1) Dieselben Informationen können durch verschiedene Nachrichten übermittelt werden (insbesondere können Nachrichten über Radio, aus einer Zeitung, per Telefon usw. empfangen werden); 2) Dieselbe Nachricht kann für verschiedene Empfänger unterschiedliche Informationen enthalten (z. B. ist ein Rückgang der Aktienkurse an der Börse für einige eine Katastrophe und für andere eine Chance zur Bereicherung).

Da es sich bei einer Signalfolge um eine Nachricht handelt, wird die Qualität der Diskontinuität-Kontinuität der Signale auf die Nachricht übertragen. Es gibt Konzepte wie kontinuierliche (analoge), diskrete, quantisierte und digitale Kommunikation. Beachten Sie, dass Informationen diese Qualität nicht haben, da Informationen eine immaterielle Kategorie sind und nicht die Eigenschaft der Diskretion oder Kontinuität haben können. Obwohl dieselben Informationen durch unterschiedliche Nachrichten dargestellt werden können, einschließlich Signalen unterschiedlicher Natur. In der Informatik werden manchmal die Begriffe „kontinuierliche Information“ und „diskrete Information“ verwendet. Sie sind das Ergebnis der Abkürzung von Begriffen wie z Informationen, die durch kontinuierliche Signale dargestellt werden, Und Informationen, die durch diskrete Signale dargestellt werden. Wenn wir also über Arten von Informationen sprechen, ist es richtiger, über die Formen ihrer Darstellung in einer Nachricht oder über die Arten von Nachrichten zu sprechen.

Bei der Bildung einer Nachricht werden neben einem Signal auch Konzepte wie Zeichen, Buchstabe und Symbol verwendet. Nachfolgend sind die Unterschiede zwischen ihnen aufgeführt.

Zeichen, Buchstabe und Symbol

Zeichen ist ein Element einer endlichen Menge von voneinander verschiedenen Entitäten. Die Art des Zeichens kann alles sein – eine Geste, eine Zeichnung, ein Buchstabe, ein Ampelsignal, ein bestimmter Ton usw. und wird sowohl durch den Träger der Nachricht als auch durch die Form der Darstellung der Informationen in der Nachricht bestimmt. Der gesamte Satz von Zeichen, die zur Darstellung diskreter Informationen verwendet werden, wird aufgerufen eine Reihe von Zeichen. Eine Menge ist eine diskrete Menge von Zeichen.

Eine Reihe von Zeichen, in der die Reihenfolge festgelegt ist, in der sie erscheinen, wird als Alphabet bezeichnet. Alphabet ist eine geordnete Sammlung von Zeichen. Die Reihenfolge der Zeichen im Alphabet wird aufgerufen lexikographisch und bietet die Möglichkeit, Beziehungen aufzubauen“ mehr weniger": für zwei G-Zeichen< Д, если порядковый номер у Г в алфавите меньше, чем у Д.

Die Zeichen, mit denen Phoneme in der gesprochenen Sprache angezeigt werden, werden aufgerufen Briefe, und ihre Gesamtheit ist das Alphabet der Sprache.

Ein Zeichen oder Buchstabe allein trägt keinen semantischen Inhalt. Solche Inhalte können ihnen jedoch zugerechnet werden, in diesem Fall wird das Zeichen genannt Symbol.

Beispielsweise wird elektrische Spannung in der Physik üblicherweise mit dem Buchstaben bezeichnet Du, und deshalb U in Formeln ist es ein Symbol für die physikalische Größe „elektrische Spannung“. Ein weiteres Beispiel für Symbole sind Piktogramme, die Objekte oder Aktionen in Computerprogrammen darstellen.

Daher können die Begriffe „Zeichen“, „Buchstabe“ und „Symbol“ nicht als identisch angesehen werden, obwohl sehr oft kein Unterschied zwischen ihnen gemacht wird; Daher gibt es in der Informatik die Konzepte „Zeichenvariable“, „Alphabet-Zeichenkodierung“, „Zeicheninformation“; in allen aufgeführten Beispielen wäre es korrekter, anstelle des Begriffs „Zeichen“ „Zeichen“ oder zu verwenden "Brief".

Es erscheint wichtig, noch einmal zu betonen, dass die Konzepte von Zeichen und Alphabet nur auf diese zurückgeführt werden können diskrete Botschaften.