Mathematische Methoden in der Linguistik. Linguistisches enzyklopädisches Wörterbuch

mathematische Disziplin, deren Gegenstand die Entwicklung eines formalen Apparats zur Beschreibung der Struktur natürlicher und einiger künstlicher Sprachen ist. Entstanden in den 1950er Jahren. 20. Jahrhundert; einer der Hauptreize für das Auftreten von M. l. diente als reifes Bedürfnis in der Linguistik, um ihre Grundkonzepte zu klären. Methoden M. l. haben viel gemeinsam mit den Methoden der mathematischen Logik – einer mathematischen Disziplin, die die Struktur des mathematischen Denkens untersucht – und insbesondere solchen Teilen davon wie der Theorie der Algorithmen und der Theorie der Automaten. Sind weit verbreitet in M. l. auch algebraische Methoden. M. l. entwickelt sich in enger Wechselwirkung mit der Linguistik. Manchmal wird der Begriff „M. Ich." wird auch verwendet, um sich auf jede linguistische Forschung zu beziehen, die eine Art mathematischen Apparat verwendet.

Die mathematische Beschreibung der Sprache basiert auf der auf F. de Saussure zurückgehenden Auffassung von Sprache als Mechanismus, dessen Funktionsweise sich in der Sprechtätigkeit seiner Sprecher manifestiert; das Ergebnis sind "korrekte Texte" - Folgen von Spracheinheiten, die bestimmten Mustern unterliegen, von denen viele eine mathematische Beschreibung zulassen. Die Entwicklung und Untersuchung von Methoden zur mathematischen Beschreibung korrekter Texte (vor allem Sätze) ist Inhalt eines der Abschnitte von M. l. - Theorie zur Beschreibung der syntaktischen Struktur. Um die Struktur eines Satzes - genauer gesagt, seine syntaktische Struktur - zu beschreiben, kann man in ihm entweder herausgreifen Bestandteile- Wortgruppen, die als integrale syntaktische Einheiten fungieren, oder für jedes Wort die Wörter angeben, die ihm direkt untergeordnet sind (falls vorhanden). In dem Satz „Der Kutscher sitzt auf der Bestrahlung“ (A. S. Puschkin) sind die Komponenten, wenn er nach der 1. Methode beschrieben wird, der gesamte Satz P, jedes seiner einzelnen Wörter und Wortgruppen A = sitzt auf der Bestrahlung und B = auf der Bestrahlung (vgl. Fig. 1, Pfeile bedeuten "sofortige Verschachtelung"); die Beschreibung nach der 2. Methode ergibt die in Abb. 1 dargestellte Schaltung. 2. Die resultierenden mathematischen Objekte werden aufgerufen System von Komponenten(1. Methode) und syntaktischer Unterordnungsbaum(2. Methode).

Genauer gesagt ist das Komponentensystem eine Menge von Segmenten eines Satzes, die als Elemente den gesamten Satz und alle Vorkommen von Wörtern in diesem Satz enthalten („Einzelwortsegmente“) und die Eigenschaft haben, dass jeweils zwei Segmente darin enthalten sind schneiden sich nicht, oder einer von ihnen ist in einem anderen enthalten; Ein syntaktischer Unterordnungsbaum oder einfach ein Unterordnungsbaum ist ein Baum, dessen Knotenmenge die Menge der Vorkommen von Wörtern in einem Satz ist. Baum In der Mathematik wird eine Menge genannt, zwischen deren Elementen sie genannt werden Knoten- eine binäre Beziehung wird hergestellt - sie wird aufgerufen Unterordnung und grafisch dargestellt durch Pfeile, die von untergeordneten Knoten zu untergeordneten gehen - so dass: 1) unter den Knoten genau einer ist - er heißt Wurzel, - keinem Knoten untergeordnet; 2) jeder der anderen Knoten ist genau einem Knoten untergeordnet; 3) Es ist unmöglich, von irgendeinem Knoten entlang der Pfeile aus zu demselben Knoten zurückzukehren. Die Knoten des Unterordnungsbaums sind die Vorkommen von Wörtern in Sätzen. Bei einer grafischen Darstellung hat das Komponentensystem (wie in Abb. 1) ebenfalls die Form eines Baums ( Komponentenbaum). Ein Unterordnungsbaum oder ein System von Komponenten, die für einen Satz gebaut wurden, wird oft als Unterordnungsbaum bezeichnet syntaktische Struktur in Form eines Unterordnungsbaums (System von Komponenten). Komponentensysteme werden hauptsächlich in Beschreibungen von Sprachen mit starrer Wortstellung verwendet, Unterordnungsbäume werden in Beschreibungen von Sprachen mit freier Wortstellung (insbesondere Russisch) verwendet, formal für jeden (nicht zu kurzen) Satz, viele Es können verschiedene syntaktische Strukturen von jedem der beiden Typen aufgebaut werden, aber unter ihnen sind nur eine oder wenige richtig. Die Wurzel des korrekten Unterordnungsbaums ist normalerweise das Prädikat. Ein Satz, der mehr als eine korrekte syntaktische Struktur (derselben Art) hat, wird aufgerufen syntaktisch homonym; in der Regel entsprechen unterschiedliche syntaktische Strukturen unterschiedlichen Bedeutungen des Satzes. Zum Beispiel erlaubt der Satz "Schulkinder aus Rzhev gingen nach Torzhok" zwei reguläre Unterordnungsbäume (Abb. 3, a, b); Der erste von ihnen entspricht der Bedeutung „Rzhev-Schulkinder gingen (nicht unbedingt von Rzhev) nach Torzhok“, der zweite - „Schulkinder (nicht unbedingt Rzhev) gingen von Rzhev nach Torzhok“.

In Russisch und einer Reihe anderer Sprachen gehorchen die Unterordnungsbäume von Sätzen im "Geschäftsstil" in der Regel das Gesetz der Projektivität, die darin besteht, dass alle Pfeile so über die Linie gezogen werden können, auf der der Satz steht, dass sich keine zwei von ihnen schneiden und die Wurzel unter keinem Pfeil liegt. In der Sprache der Fiktion, insbesondere in der Poesie, sind Abweichungen vom Gesetz der Projektivität zulässig und dienen meist der Aufgabe, eine bestimmte künstlerische Wirkung zu erzielen. So führt in dem Satz „Freunde der blutigen Antike des Volkes freuten sich auf den Krieg“ (Puschkin) die Nichtprojektivität zu einer nachdrücklichen Betonung des Wortes „Volk“ und verlangsamt gleichzeitig sozusagen die Sprache , wodurch der Eindruck einer gewissen Hochstimmung und Feierlichkeit entsteht. Es gibt andere formale Zeichen von Unterordnungsbäumen, die zur Charakterisierung des Stils verwendet werden können. Als Maß für die „syntaktische Sperrigkeit“ eines Satzes dient beispielsweise die maximale Anzahl verschachtelter Pfeile (siehe Abb. 4).

Für eine angemessenere Beschreibung der Satzstruktur werden die Komponenten normalerweise mit Symbolen grammatikalischer Kategorien („Nominalgruppe“, „transitive Verbgruppe“ usw.) und die Pfeile des Unterordnungsbaums mit syntaktischen Symbolen gekennzeichnet Relationen („prädikativ“, „attributiv“, etc. .).

Der Apparat der Unterordnungsbäume und Komponentensysteme wird auch verwendet, um die tiefe syntaktische Struktur eines Satzes darzustellen, die eine Zwischenebene zwischen der semantischen und der gewöhnlichen syntaktischen Struktur bildet (letztere wird oft als oberflächliche Syntax bezeichnet).

Eine perfektere Darstellung der syntaktischen Struktur eines Satzes (die jedoch einen komplexeren mathematischen Apparat erfordert) wird durch gegeben syntaktische Gruppensysteme, die sowohl Phrasen als auch syntaktische Verknüpfungen enthalten, und zwar nicht nur zwischen Wörtern, sondern auch zwischen Phrasen. Syntaktische Gruppensysteme ermöglichen es Ihnen, die Strenge einer formalen Beschreibung der Struktur eines Satzes mit der Flexibilität zu kombinieren, die traditionellen, informellen Beschreibungen innewohnt. Unterordnungsbäume und Komponentensysteme sind extreme Spezialfälle von syntaktischen Gruppensystemen.

Ein weiterer Abschnitt von M. l., der darin einen zentralen Platz einnimmt, ist Theorie der formalen Grammatiken, deren Anfang durch die Werke von N. Chomsky gelegt wurde. Es untersucht Möglichkeiten zur Beschreibung von Mustern, die nicht mehr einen einzelnen Text charakterisieren, sondern die Gesamtheit korrekter Texte einer bestimmten Sprache. Diese Muster werden mit beschrieben formale Grammatik- ein abstrakter "Mechanismus", der es ermöglicht, nach einem einheitlichen Verfahren die korrekten Texte einer bestimmten Sprache zusammen mit Beschreibungen ihrer Struktur zu erhalten. Die am weitesten verbreitete Art der formalen Grammatik ist Generative Grammatik, oder die Chomsky-Grammatik, die ein geordnetes System Г = ⟨ V, W, P, R ⟩ ist, wobei V und W disjunkte endliche Mengen sind, die jeweils genannt werden hauptsächlich, oder Terminal, und Hilfs-, oder nicht-terminal, Alphabete(Ihre Elemente heißen jeweils Haupt- oder Terminal und Hilfs- oder Nicht-Terminal, Symbole), P ist ein Element von W, genannt Anfangssymbol, und R ist eine endliche Menge Regeln der Form φ → ψ, wobei φ und ψ Ketten (endliche Folgen) von Haupt- und Hilfssymbolen sind. Wenn φ → ψ eine Grammatikregel G ist und ω 1 , ω 2 Ketten von Grund- und Hilfssymbolen sind, sagen sie, dass die Kette ω 1 ψω 2 ist direkt ableitbar in à von ω 1 φω 2 . Wenn ξ 0 , ξ 1 , ..., ξ n Ketten sind und für jedes i = 1, ..., n die Kette ξ i direkt von ξ i−1 ableitbar ist, sagen wir ξ n ableitbar nach à von ξ 0 . Die Menge derjenigen Ketten von Grundsymbolen, die in Г von ihrem Anfangssymbol ableitbar sind, heißt Sprache, die durch Grammatik erzeugt wirdГ, und wird mit L(Г) bezeichnet. Wenn alle Regeln à die Form η 1 Aη 2 → η 1 ωη 2 haben, dann heißt à die Grammatik der Konstituenten(oder direkt Komponenten), abgekürzt als NS- Grammatik; wenn zusätzlich in jeder Regel die Ketten η 1 und η 2 ( rechter und linker Kontext) leer sind, dann wird die Grammatik aufgerufen kontextfrei(oder kontextfrei), abgekürzt B- Grammatik(oder KS- Grammatik). In der gebräuchlichsten sprachlichen Interpretation sind die Hauptsymbole Wörter, die Hilfssymbole Symbole grammatikalischer Kategorien, das Anfangssymbol ist das Symbol der Kategorie „Satz“; die durch die Grammatik erzeugte Sprache wird als Menge aller grammatikalisch korrekten Sätze der gegebenen natürlichen Sprache interpretiert. In einer NN-Grammatik gibt die Ableitung eines Satzes einen Baum von Bestandteilen dafür an, in dem jeder Bestandteil aus Wörtern besteht, die von einem Hilfssymbol „abgeleitet“ sind, so dass für jeden Bestandteil seine grammatikalische Kategorie angegeben ist. Also, wenn die Grammatik unter anderem die Regeln P → S x, y, im, V y → V i y O, O → S x, y, Präposition, V i y → sits, S Ehemann, Singular, im → on hat , Kutscher, S Ehemann, Sing., Vorschlag. → Bestrahlung, dann hat der Satz „Der Kutscher sitzt auf der Bestrahlung“ die in Abb. 5, wo die Pfeile von den linken Teilen der angewendeten Regeln zu den Elementen der rechten Teile gehen. Das dieser Schlussfolgerung entsprechende Komponentensystem stimmt mit dem in Abb. 1. Andere Interpretationen sind ebenfalls möglich: zum Beispiel können die Hauptsymbole als Morphen interpretiert werden, Hilfssymbole - als Symbole von Typen von Morphen und akzeptablen Ketten von Morphen, das Anfangssymbol - als Symbol des Typs "Wortform" und die durch die Grammatik erzeugte Sprache - als eine Reihe regelmäßiger Wortformen (morphologische Interpretation); Morphonologische und phonologische Interpretationen sind ebenfalls üblich. Echte Beschreibungen von Sprachen verwenden in der Regel „mehrstufige“ Grammatiken, die sequentiell arbeitende syntaktische, morphologische und morphonologisch-phonologische Regeln enthalten.

Eine weitere wichtige Art der formalen Grammatik ist Dominanz Grammatik, das eine Menge von Ketten erzeugt, die normalerweise als Sätze interpretiert werden, zusammen mit ihren syntaktischen Strukturen in Form von Unterordnungsbäumen. Grammatik syntaktischer Gruppen erzeugt eine Reihe von Sätzen zusammen mit ihren syntaktischen Strukturen, die die Form von Systemen syntaktischer Gruppen haben. Es gibt auch verschiedene Konzepte Transformationsgrammatik (Baumgrammatiken), die nicht dazu dient, Sätze zu generieren, sondern Bäume zu transformieren, die als Unterordnungsbäume oder Konstituentenbäume interpretiert werden. Ein Beispiel wäre Δ- Grammatik- ein System von Baumtransformationsregeln, die als "reine" Satzunterordnungsbäume interpretiert werden, d.h. Unterordnungsbäume ohne lineare Wortstellung.

abseits stehen Montague-Grammatiken, die dazu dienen, gleichzeitig die syntaktischen und semantischen Strukturen des Satzes zu beschreiben; Sie verwenden einen komplexen mathematisch-logischen Apparat (den sog intensionale Logik).

Formale Grammatiken werden verwendet, um nicht nur natürliche, sondern auch künstliche Sprachen, insbesondere Programmiersprachen, zu beschreiben.

In M. l. auch entwickelt analytische Modelle Sprache, in der auf der Grundlage bestimmter Daten über die Sprache, die als bekannt gelten, formale Konstruktionen erstellt werden, deren Ergebnis eine Beschreibung einiger Aspekte der Struktur der Sprache ist. Diese Modelle verwenden normalerweise einen einfachen mathematischen Apparat - einfache Konzepte der Mengenlehre und Algebra; daher werden manchmal analytische Modelle der Sprache genannt mengentheoretisch. In analytischen Modellen der einfachsten Art sind die Anfangsdaten die Menge der korrekten Sätze und das System Umfeld- Sätze von "Wörtern", die zu einem Lexem gehören (zum Beispiel (Haus, Haus, Haus, Haus, Haus, Haus, Haus, Haus, Haus, Haus, Haus)). Das einfachste abgeleitete Konzept in solchen Modellen ist Substituierbarkeit: Wort a durch ein Wort ersetzt b, wenn jeder richtige Satz ein Vorkommen des Wortes enthält a, bleibt gültig, wenn dieses Vorkommen durch ein Vorkommen des Wortes ersetzt wird b. Wenn ein a ersetzbar durch b und b auf der a, Sie sagen, dass a und b austauschbar. (Zum Beispiel wird im Russischen das Wort "blau" durch das Wort "blau" ersetzt; die Wörter "blau" und "blau" sind austauschbar.) Die Klasse der Wörter, die untereinander austauschbar sind, wird aufgerufen Familie. Aus Nachbarschaften und Familien lassen sich eine Reihe weiterer sprachlich sinnvoller Wortklassifikationen ableiten, von denen eine in etwa dem traditionellen System der Wortarten entspricht. Bei einer anderen Art von analytischen Modellen wird anstelle eines Satzes korrekter Sätze eine potenzielle Unterordnungsbeziehung zwischen Wörtern verwendet, was bedeutet, dass eines von ihnen ein anderes in korrekten Sätzen unterordnen kann. In solchen Modellen kann man insbesondere formale Definitionen einer Reihe traditioneller grammatikalischer Kategorien erhalten – zum Beispiel die formale Definition des Substantivkasus, die ein Verfahren ist, das es ermöglicht, das Kasussystem der Sprache nur wissend wiederherzustellen die Beziehung potentieller Unterordnung, das Nachbarschaftssystem und die Menge der Wörter, die Substantivformen sind.

Die analytischen Modelle der Sprache verwenden einfache Konzepte der Mengenlehre und Algebra. Nahe an analytischen Sprachmodellen Entschlüsselungsmodelle- Verfahren, die es ermöglichen, unter Verwendung einer ausreichend großen Menge von Texten in einer unbekannten Sprache ohne vorherige Informationen darüber eine Reihe von Daten über ihre Struktur zu erhalten.

M. l. ist in erster Linie ein Werkzeug der theoretischen Linguistik. Gleichzeitig finden seine Methoden breite Anwendung in der angewandten Sprachforschung - automatische Textverarbeitung, automatische Übersetzung und Entwicklungen im Zusammenhang mit der sogenannten Kommunikation zwischen Mensch und Computer.

  • Kulagina O. S., Über eine Möglichkeit, grammatikalische Konzepte basierend auf der Mengentheorie zu definieren, in: Probleme der Kybernetik, c. 1, Moskau, 1958;
  • Chomsky N., Syntaktische Strukturen, in Sammlung: „Neues in der Linguistik“, v. 2, M., 1962;
  • Glatt EIN V., Melchuk I. A., Elemente der mathematischen Linguistik, M., 1969 (lit.);
  • ihre eigenen, Grammatiken der Bäume, I, II, in: Informationsfragen der Semiotik, Linguistik und automatischen Übersetzung, c. 1, 4, M., 1971-74 (lit.);
  • Markus S., Mengentheoretische Sprachmodelle, übers. aus Englisch, M., 1970 (lit.);
  • Glatt A. V., Formale Grammatiken und Sprachen, M., 1973 (lit.);
  • sein eigenes, Ein Versuch, die Begriffe Kasus und Geschlecht eines Substantivs formal zu definieren, in Sat: Problems of grammatical modeling, M., 1973 (lit.);
  • sein eigenes, Syntaktische Strukturen natürlicher Sprache in automatisierten Kommunikationssystemen, M., 1985 (lit.);
  • Suchotin BV, Optimierungsmethoden für die Sprachforschung. M., 1976 (lit.);
  • Sevbo I. P., Graphische Darstellung syntaktischer Strukturen und Stildiagnostik, K., 1981;
  • Party B. Kh., Grammatik Montagu, mentale Repräsentationen und Realität, in dem Buch: Semiotics, M., 1983;
  • Montague R., Formale Philosophie, New Haven - L., 1974(zündete.).

Zweifellos wurde der Einsatz mathematisch-logischer Methoden ("exakte Methoden") in der Linguistik maßgeblich durch die Aufgaben der angewandten Linguistik angeregt. Wenn versucht wurde, diese Methoden anzuwenden, um Probleme zu lösen, die direkt mit dem Bereich der theoretischen Linguistik zusammenhängen, beispielsweise um zwischen den Phänomenen Sprache und Sprechen zu unterscheiden * , dann würde in Zukunft (wenn auch vielleicht nicht immer klar und nah) Sie hatten immer noch die Bedürfnisse der angewandten Linguistik im Auge. Das bedeutet übrigens, dass die Auswertung der Ergebnisse solcher Operationen unter zwingender Berücksichtigung der Ziele der angewandten Linguistik erfolgen sollte.

* (Siehe: G. Herdan, Language as Choice and Chance, Groningen, 1956.)

Der Erfolg der Anwendung dieser Methoden auf einem völlig neuen Gebiet wird aus allgemeiner Sicht maßgeblich von der Beantwortung der Frage bestimmt, inwieweit es zulässig ist, eine logisch korrekte Sprache mit einer natürlichen Sprache zu identifizieren bzw eine andere Formulierung, ist es möglich, das zweite auf das erste zu reduzieren * . Die Antwort auf diese Frage wird in der Regel in praktischer Form gegeben - durch die Konstruktion statistischer, informationstheoretischer, mengentheoretischer, probabilistischer und anderer mathematischer Modelle der Sprache, die jedoch nicht immer auf bestimmte Aufgaben fokussiert sind ** . Ihre Autoren gehen bei der Konstruktion solcher Modelle oft von der (aus ihrer Sicht naheliegenden) Annahme aus, dass jede Anwendung eines formal-logischen oder mathematischen Apparats zur sprachlichen Beschreibung und Forschung automatisch zu ihrer Verbesserung beiträgt. Bei dieser Gelegenheit sagte Warren Plyat in seiner Rezension von Arbeiten zur mathematischen Linguistik: „Wenn wir Sprachmodelle als abstrakte Systeme diskreter Elemente betrachten, dann können verschiedene mathematische Konzepte und Methoden auf sie angewendet werden, die von der elementaren Idee von reichen eine Zahl bis hin zu komplexen „logischen, statistischen und mengentheoretischen Operationen. Die Vorstellung, dass die Verwendung von Zahlen und mathematischen Operationen zur Beschreibung solcher Elementesysteme Aussagen "exakter" oder "wissenschaftlicher" macht, ist jedoch völlig falsch. Zunächst muss gezeigt werden, dass das so erhaltene neue System ein zufriedenstellenderes Modell als das ursprüngliche System ist, entweder in dem Sinne, dass es einfachere und allgemeinere theoretische Aussagen über bestimmte Aspekte des modellierten Gebiets zu formulieren erlaubt, oder weil Operationen am Modell Licht auf die Ergebnisse entsprechender Operationen in dem zu modellierenden Bereich werfen zu sinnlosen und irreführenden Ergebnissen führen. Es ist daher notwendig, klar zu verstehen, dass eine Voraussetzung für die Bereicherung der Linguistik mit Hilfe der Mathematik nicht nur die Kenntnis der relevanten Bereiche der Mathematik, sondern darüber hinaus ein tiefes Verständnis des Wesens der Linguistik ist Probleme, deren Lösung auf mathematische Methoden abzielen sollte" *** .

* (Heiraten G. Currys Bemerkung: „Die Tatsache, dass es eine enge Verbindung zwischen Mathematik und Logik einerseits und Sprache andererseits gibt, ist seit langem offensichtlich, und jetzt ist diese Tatsache in den Mittelpunkt der Aufmerksamkeit gerückt ein strengerer Gedanke ...“ (N. V. Curry, Some Logical Aspects of Grammatical Structure, in Proceedings of the Symposium „Structure of Language and its Mathematical Aspects“, Providence, 1961, S. 57).)

** (In dieser Hinsicht scheint P. Garvins Bemerkung (von ihm in einer Rezension von W. Bar-Hillel, Language and Information: Selected Essays on Their Theory and Application, London, 1964) sehr aktuell zu sein: „Die meisten Arbeiten zu die Theorie der Informationsverarbeitung und Anwendungen für ihre Zwecke von Rechenmaschinen ist völlig naiv und zweifellos nicht so nützlich, wie es wünschenswert wäre. In Bezug auf die negative Position von Bar-Hillel in Bezug auf die Wirksamkeit logisch-mathematischer Methoden zur automatischen Verarbeitung von Sprachinformationen glaubt P. Garvin, dass sie immer noch positive Elemente enthält, da diese Position „zumindest einige Wissenschaftler dazu bringen wird, ihre Theorien weniger ernst zu nehmen“. (American Documentation, New York, Bd. 16, Nr. 2, 1965, S. 127).)

*** (W. Plath, Mathematische Linguistik. In: "Trends in European and American Linguistics 1930-1960", Antwerpen, 1961, S. 22-2E.)

Um die von Warren Plat aufgezeigte Gefahr möglichst zu vermeiden, bedarf es nicht nur rein empirischer Versuche zur Beantwortung der oben formulierten Frage, sondern auch des Strebens nach ihrem allgemeinen theoretischen Verständnis. Tatsächlich ist die Frage der Reduzierbarkeit einer natürlichen Sprache auf das eine oder andere logisch-mathematische Modell oder ihre Interpretation die Hauptfrage der Theorie der angewandten Linguistik, deren Notwendigkeit immer dringender empfunden wird. Bei der Betrachtung dieser Frage ist zunächst die Natur der Phänomene, die den Untersuchungsgegenstand ausmachen, einerseits Logik und Mathematik, andererseits die natürliche Sprache, und dann auch die Möglichkeiten der Methoden, mit denen sie jeweils durchgeführt werden dieser wissenschaftlichen Arbeiten, berücksichtigt werden. Bereits aus einer vergleichenden Untersuchung dieser Punkte lassen sich einige allgemeine Schlussfolgerungen ziehen, die für all jene von Nutzen sein können, die ihre Forschung zwangsläufig an der Schnittstelle der aufgeführten Wissenschaften durchführen müssen.

Diesem Ziel dient bis zu einem gewissen Grad das Symposium "The Structure of Language and Its Mathematical Aspects" der American Mathematical Society*. Aber alle betreffen, wie schon der Titel des Symposiums deutlich macht, nur einzelne und teilweise sehr spezielle Aspekte des uns interessierenden Problems. Obwohl sie in ihrer Gesamtheit hinreichend begründete Voraussetzungen für die Beantwortung der von uns betrachteten Frage schaffen, fehlt es ihnen doch an einer klaren und eindeutigen Formulierung der notwendigen Schlussfolgerungen. Die Teilnehmer des Symposiums setzen in vielerlei Hinsicht die Linie der empirischen Versuche zur Lösung des Problems fort, ohne ihre Experimente zwangsläufig den Linguisten anzubieten, in der Hoffnung, dass sie selbst herausfinden, wie die von ihnen präsentierten Hypothesen und Lösungen sein werden erweisen sich für ihre Zwecke als geeignet.

* ("Struktur der Sprache und ihre mathematischen Aspekte". Proz. der Soc. von Appl. Math., 12. Vorsehung, 1961.)

Als Ausgangspunkt für das Verständnis der Ergebnisse der Arbeit von Linguisten, Logikern und Mathematikern in dem Plan, den wir in Betracht ziehen, eignen sich daher besser zwei Artikel, die in der Sammlung "Natürliche Sprache und der Computer"* enthalten sind: M. Maron "Der Punkt aus Sicht des Logikers auf die Verarbeitung linguistischer Daten" und P. Garvin und V. Karash "Linguistik, linguistische Datenverarbeitung und Mathematik". Sie skizzieren die Arbeitsmöglichkeiten der Logik und Mathematik, ihre Beziehung zu den empirischen Wissenschaften, Methoden zur Lösung von Problemen usw. Wenden wir uns der Betrachtung der durch diese Artikel aufgeworfenen Probleme unter dem Gesichtspunkt der oben formulierten Frage zu.

* ("Natürliche Sprache und der Computer", hrsg. bv P. Garvin, New York, 1963.)

2

Es scheint, dass wir bereits eine absolut eindeutige Antwort auf unsere Frage haben. So zum Beispiel N. D. Andreev und JI. R. Zinder schreiben: „Die mathematische Darstellung (Modell) von Sprachen ist keineswegs identisch mit der Sprache selbst“ * . Ihnen folgt auch der Autor des Buches „Sprachmodelle“ I. I. Revzin, der darauf hinweist, dass durch die Modellierung nur „eine mehr oder weniger genaue Annäherung an die Daten der konkreten Realität“ ** entstehen kann. Damit ist allerdings noch nichts gesagt, denn es bleibt offen, warum dies so ist und ob man dennoch auf die Methode der mathematisch-logischen Modellierung zurückgreifen sollte, und wenn ja, in welchem ​​Umfang und zu welchem ​​Zweck.

* (N. D. Andreev, L. R. Zinder, Grundprobleme der angewandten Linguistik, "Problems of Linguistics", 1959, Nr. 4, S. 18.)

** (I. I. Revzin, Sprachmodelle, M., 1962, S. 8. Übrigens ist der Ausdruck "enge Annäherung" eine direkte Tautologie: enge Annäherung.)

Zur Lösung all dieser Fragen wird zunächst als Ausgangspunkt festgelegt, welche Wissenschaften – induktiv oder deduktiv – Linguistik, Logik und Mathematik umfassen. Was die letzten beiden Wissenschaften betrifft, so ist ihre Position klar – sie gehören zweifellos zu den deduktiven Wissenschaften, die in ihrer Forschungsmethodik auf Schlussfolgerungen beruhen. Linguistik wird traditionell als empirische Wissenschaft definiert, was impliziert, dass ihr hauptsächliches wissenschaftliches Ziel darin besteht, Fakten zu beschreiben. Das bedeutet offenbar, dass die Linguistik dem Bereich der induktiven Wissenschaften zuzuordnen ist. Das bedeutet auch, dass sie im Bestreben, den formalen Apparat der Logik und Mathematik in der Linguistik zu nutzen, versuchen, deduktive Forschungsmethoden in der induktiven Wissenschaft anzuwenden.

In den letzten Jahren ist jedoch der induktive Charakter der Sprachwissenschaft – der Linguistik – direkt oder indirekt in Zweifel gezogen worden. L. Elmslev tat dies in schärfster Form. Die von ihm verwendete Terminologie ist zwar sehr uneinheitlich und zeichnet sich insbesondere durch ein eigentümliches und sehr persönliches Verständnis der Begriffe „Deduktion“ und „Induktion“ aus (tatsächlich interpretiert er sie völlig gegensätzlich). Die von ihm dargelegten Grundlagen seiner Sprachtheorie lassen jedoch keinen Zweifel an ihrem methodischen Wesen. Daher hält er es für akzeptabel, anfängliche operationale Definitionen zu verwenden, was typisch für deduktive Wissenschaften ist. Und er selbst charakterisiert seine Theorie folgendermaßen: „1. Eine Theorie in unserem Sinne ist an sich erfahrungsunabhängig, sie ist ein sogenanntes rein deduktives System in dem Sinne, dass mit ihr allein die sich ergebenden Möglichkeiten berechnet werden können von ihren Prämissen 2. Andererseits enthält die Theorie eine Reihe von Prämissen, von denen aus früheren Erfahrungen bekannt ist, dass sie die Bedingungen für die Anwendung auf bestimmte experimentelle Daten erfüllen.Diese Prämissen sind die allgemeinsten und können daher die Bedingungen erfüllen der Anwendung auf eine große Zahl experimenteller Daten" * .

* ("Prolegomena zur Sprachtheorie". Sa. „Neues in der Linguistik“, Bd. 1, M., 1960, S. 274-275.)

Wie aus dieser Aussage hervorgeht, versucht L. Hjelmslev, die Idee der dualen methodischen Natur der Objekte der Sprachforschung zu verwirklichen, wobei der Schwerpunkt auf ihren deduktiven Merkmalen liegt. Zuzurechnen ist ihm auch jene eher zweideutige Art („auf der einen Seite … aber auf der anderen Seite …“), die für die Auseinandersetzung mit dieser Frage allgemein charakteristisch geworden ist (und die ein Einlenken ermöglicht egal welche Richtung). Die Idee der methodischen Dualität der Linguistik hat in letzter Zeit weite Verbreitung gefunden und diente sogar als theoretische Grundlage für die Formulierung der Prinzipien und der neuesten Richtung in der Sprachwissenschaft - der Linguistik der Universalien (Universalismus). Das „Memorandum on Linguistic Universals“ sagt dazu: „Das Studium der linguistischen Universalien führt zu einer ganzen Reihe von empirischen Verallgemeinerungen über sprachliches Verhalten – beide noch experimentell erforderlich und bereits etabliert. Diese Verallgemeinerungen sind potentielles Material für den Aufbau einer deduktiven Struktur der Wissenschaft Einige und vielleicht die meisten von ihnen haben jedoch immer noch nur den Status von empirischen Verallgemeinerungen, die beim gegenwärtigen Stand unseres Wissens nicht mit Verallgemeinerungen korreliert oder aus allgemeingültigeren Gesetzen deduktiv abgeleitet werden können“ * . J. Greenberg drückt sich in seinem Vorwort zu der den linguistischen Universalien gewidmeten Sammlung mit nicht weniger Bestimmtheit aus. Mit den wohlbekannten Worten von L. Bloomfield argumentierend, dass „die einzig legitimen Verallgemeinerungen über Sprache induktive Verallgemeinerungen sind“, schreibt er: „Trotzdem scheint es allgemein anerkannt zu sein, dass die wissenschaftliche Methode nicht nur induktiv, sondern auch deduktiv sein sollte. Durch induktive Untersuchung gewonnene Formulierungsverallgemeinerungen führen zu theoretischen Hypothesen, auf deren Grundlage wiederum durch Deduktion weitere Verallgemeinerungen abgeleitet werden können, die dann einer empirischen Überprüfung unterzogen werden müssen" ** .

* ("Memorandum Concerning Language Universals", "Universals of Language", hrsg. von J. Greenberg, Cambridge, Mass., 1963, p. 262-263.)

** ("Universale der Sprache", S. IX.)

Die Tatsache, dass die Geschichte der Linguistik nicht nur aus der Anhäufung von Tatsachen einer Sprache und ihrer Klassifikation besteht, sondern auch aus einer Änderung der Sichtweisen auf die Sprache selbst, die zwangsläufig eine unterschiedliche Herangehensweise an sprachliche Tatsachen und sogar deren beinhaltet unterschiedliche theoretische Interpretationen, ließen einige sowjetische Linguisten auch zu Schlussfolgerungen über die methodische Dualität ihrer Wissenschaft kommen. S. K. Shaumyan spricht jedoch lieber von der hypothetisch-deduktiven Methode und beschreibt ihre Besonderheiten wie folgt: „Die hypothetisch-deduktive Methode ist ein zyklisches Verfahren, das mit Fakten beginnt und mit Fakten endet.“ Dabei werden vier Phasen unterschieden:

  1. Feststellung erklärungsbedürftiger Tatsachen;
  2. Aufstellung von Hypothesen zur Erklärung dieser Tatsachen;
  3. Ableitung von Vorhersagen über Tatsachen aus Hypothesen, die außerhalb des Tatsachenbereichs liegen, zu dessen Erklärung Hypothesen aufgestellt wurden;
  4. Überprüfen der Fakten, die durch Hypothesen vorhergesagt werden, und Bestimmen der Wahrscheinlichkeit von Hypothesen.

Die hypothetisch-deduktive Methode unterscheidet sich grundlegend von der induktiven Methode, die in solchen Wissensgebieten wie beispielsweise der beschreibenden Botanik oder Zoologie verwendet wird "*. Die Methode von S.K. Shaumyan wiederholt tatsächlich vollständig die Methode der Linguistik der Universalien von J. Greenberg. Die Der einzige Unterschied liegt im Namen: Wenn beispielsweise J. Greenberg von einer Kombination aus induktiven und deduktiven Methoden spricht, dann nennt S. K. Shaumyan seine Methode hypothetisch-deduktiv: Die Bezeichnung ist eindeutig widersprüchlich für eine Methode, die „mit Fakten beginnt und endet mit Fakten."

* (S. K. Shaumyan, Probleme der theoretischen Phonologie, Moskau, 1962, S. 18-19. Zur hypothetisch-deduktiven Methode siehe auch den Artikel von V. S. Shvyrev „Einige Fragen der logischen und methodologischen Analyse der Beziehung zwischen dem theoretischen und dem empirischen Niveau wissenschaftlicher Erkenntnis“ in Sat. "Probleme der Logik der wissenschaftlichen Erkenntnis" (M., 1964), S. 66-75 (3. Abschnitt des Artikels).)

Die Frage, wo Linguistik zuzuordnen ist, stellt auch I. I. Revzin. „Von Natur aus“, antwortet er auf diese Frage, „muss sich die Linguistik zunächst induktiver Methoden bedienen, sie beschreibt spezifische Sprechakte bestimmter Sprachen …

Andererseits macht es das Vorhandensein einer unendlichen Menge von Sprechakten, die von einem Linguisten untersucht werden, kaum möglich, die Grundbegriffe der Sprachwissenschaft durch Verallgemeinerung durch Induktion zu formulieren.

Daraus folgt, dass Linguisten nicht nur induktive, sondern auch deduktive Forschungsmethoden benötigen, um ein System des Allgemeinwissens zu erhalten, das hilft, die Daten zu verstehen, die bei der Analyse bestimmter Sprachen gewonnen werden ...

In ihrem deduktiven Teil lässt sich die Linguistik offenbar genauso aufbauen wie die Logik oder die Mathematik, nämlich: eine bestimmte Mindestzahl von primären, undefinierten Begriffen wird herausgegriffen, und alle anderen Begriffe werden durch primäre definiert. Gleichzeitig müssen einige Hauptaussagen über den Zusammenhang dieser Begriffe untereinander (Axiome) klar formuliert und alle anderen Behauptungen bewiesen, d.h. auf einige andere Behauptungen reduziert werden" * .

* (I. I. Revzin, Sprachmodelle, M., 1962, S. 7-8.)

Hier dient die in Logik und Mathematik verkörperte Methode der Deduktion nur als Ordnungsmittel der „Menge der Sprechakte“ zum Zwecke der Schaffung eines „Systems allgemeiner Begriffe“. In direktem Widerspruch zu dieser Aufgabe steht jedoch die Darstellung der deduktiven Methode selbst, die für den Einsatz in der Linguistik empfohlen wird. Es ist sowohl aus Handlungen als auch aus Tatsachen vollständig durchdacht und benötigt für den ersten Moment der Konstruktion eines Systems allgemeiner sprachlicher Konzepte eine Reihe undefinierter und anscheinend absolut bedingter Primärbegriffe, durch die alle nachfolgenden Begriffe definiert werden.

Dieser Widerspruch ist kein Zufall, er liegt in der Natur der Wissenschaften, die wir betrachten. Es scheint, dass die Schlussfolgerung, dass eine Kombination aus induktiven und deduktiven Methoden beim Studium sprachlicher Objekte akzeptabel ist, die Tür für die Verwendung logischer und mathematischer Methoden in der Linguistik öffnet, und die spezifische Umsetzung dieser Schlussfolgerung ist die Schaffung zahlreicher formaler Methoden. logische und mathematische Modelle der Sprache. Aber wie aus dem Folgenden klar wird, kann ein solch vereinfachter Ansatz keine zufriedenstellenden Ergebnisse liefern. Wir können zustimmen, dass es in der Sprachforschung zulässig und sogar notwendig ist, deduktive und induktive Methoden zu kombinieren. Letztlich ist, wie W. Bröndal schrieb, „Induktion nichts als eine verschleierte Deduktion, und hinter den reinen Verbindungen, die zwischen den beobachteten Phänomenen hergestellt werden, wird die Realität, der spezifische Gegenstand dieser Wissenschaft, unbedingt vorausgesetzt“ * . Das bedeutet aber nicht, dass der formale Apparat der Logik und Mathematik ohne Rücksicht auf den „spezifischen Gegenstand dieser Wissenschaft“ unbedingt und mechanisch auf die Linguistik übertragen werden sollte. Wie derselbe I. I. Revzin zu Recht feststellt, „sagen die mit deduktiven Mitteln gewonnenen Beweise, egal wie tadellos sie aus logischer Sicht sein mögen, immer noch nichts über die Eigenschaften der durch das Modell beschriebenen realen Sprache aus“ ** . Und um die Wirksamkeit der Modelle zu bestimmen, empfiehlt er, sich der Praxis zuzuwenden, nämlich der maschinellen Übersetzung und "anderen praktischen Anwendungen der Linguistik".

* (B. Bröndal, Strukturelle Linguistik. Zitiert aus dem Buch: V. A. Zvegintsev, Geschichte der Linguistik im 19. und 20. Jahrhundert. in Aufsätzen und Auszügen, Teil II, Moskau, 1965, S. 95.)

** (I. I. Revzin, Sprachmodelle, M., 1962, S. 10.)

Und die Praxis der angewandten Linguistik zeigt, dass der Anwendung mathematischer und logischer Methoden beim Studium sprachlicher Phänomene sehr strenge Beschränkungen auferlegt werden.

3

Die Logik ist ein Beispiel für die konsequenteste Anwendung der deduktiven Methode. Die Mathematik folgt in dieser Hinsicht weitgehend der Logik und kann daher zusammen betrachtet werden.

Natürlich stellen sowohl Logik als auch Mathematik keine homogenen Systeme hinsichtlich ihrer Methoden und Zielinterpretation dar. So kann man beispielsweise in Bezug auf Logik von dialektischer, formaler, mathematischer Logik und im engeren Sinne von objektiver, semantischer, phänomenologischer, transzendentaler oder konstruktiver, kombinatorischer, mehrwertiger, modaler usw. Notwendigerweise wird es jedoch notwendig sein, an all diese Unterteilungen zu denken und nur von den allgemeinsten Merkmalen zu sprechen, die für Logik und Mathematik insgesamt charakteristisch sind, und hauptsächlich von denen, die die deduktive Natur der Methoden dieser Wissenschaften am deutlichsten demonstrieren.

Nachdem wir diese Position eingenommen haben, werden wir uns daher nicht der induktiven Logik zuwenden. Wir bemerken nur, dass Schlussfolgerungen in der induktiven Logik nicht durch Prämissen bestimmt werden – sie sind also nicht tautologisch. Die Schlussfolgerungen in der induktiven Logik sind direkt von den Tatsachen abhängig, und diese letzteren werden durch die Menge unseres Wissens bestimmt – sie werden also auf einer Wahrscheinlichkeitsbasis erstellt. Wahrscheinlichkeit ist das wichtigste methodische Werkzeug der induktiven Logik.

Die deduktive Logik wird am vollständigsten durch formale und mathematische Logik repräsentiert, die viel gemeinsam haben. Die deduktive Logik ist eine Wissenschaft, die das menschliche Denken oder geistige Handeln unter dem Gesichtspunkt ihrer Struktur oder Form untersucht und von ihrem spezifischen Inhalt abstrahiert. Daher versucht die deduktive Logik, Gesetze und Prinzipien zu formulieren, deren Einhaltung eine Voraussetzung für das Erreichen wahrer Ergebnisse im Prozess der Gewinnung von schlussfolgerndem Wissen ist. Das wichtigste methodische Werkzeug der deduktiven Logik ist die Implikation. Es erlangt schlussfolgerndes Wissen ohne direkten Bezug auf Erfahrung oder Praxis, indem es lediglich die Gesetze der Logik anwendet. Im Prozess der Deduktion bedingt die Prämisse die Schlussfolgerung: Wenn die Prämisse wahr ist, muss die Schlussfolgerung wahr sein. Die Schlussfolgerung liegt also bereits in der Prämisse, und der Zweck der Deduktion besteht darin, deutlich zu machen, was im latenten Zustand bereits in der Prämisse enthalten ist. Daraus folgt, dass jeder durch Deduktion gewonnene Schluss tautologisch, d. h. logisch leer ist, obwohl er unter anderen Gesichtspunkten, z. B. in Fällen, in denen der formale logische Apparat für Zwecke anderer Wissenschaften verwendet wird, neu sein kann , unerwartet und originell.

Eine ähnliche Situation findet in der Mathematik statt – die Gültigkeit der darin enthaltenen Argumente beruht ausschließlich auf Deduktion. Darüber hinaus ist in der Mathematik in der Regel jeder Ausgangspunkt, jeder Ansatz zur Lösung eines Problems akzeptabel - solange sie die Bedingungen mathematischer Deduktion erfüllen. Die Mathematik verfügt über eine Fülle solcher „Anfangsgesichtspunkte“ und „Ansätze“, die der Forscher alternativ zur Lösung seines Problems heranziehen kann. Mathematische Probleme werden oft in verschiedene äquivalente Formen übersetzt, und jede von ihnen beinhaltet die Verwendung verschiedener Bereiche der mathematischen Theorie, um das Problem zu lösen. Ein Mathematiker hat also praktisch unbegrenzte Prämissenwahlfreiheit – er wählt diejenigen aus, die aus seiner Sicht die erfolgversprechendsten Möglichkeiten für die einfachste, unbanalste, eleganteste Lösung des Problems enthalten. Sein Talent und seine Erfahrung manifestieren sich gerade in der gelungenen Auswahl von Voraussetzungen, jenen „sagen wir, dass …“ oder „wenn … dann“, die voller mathematischer Arbeiten sind. Wie in der Logik bestimmen mathematische Prämissen – Axiome oder Postulate – die Definition noch unbestimmter Einheiten.

Prämissenfreiheit in der Mathematik ist unmittelbar davon abhängig, dass sie mit immateriellen Einheiten bzw. Objekten operiert – ihre Aufmerksamkeit richtet sich auf die Beziehungen zwischen ihnen. Mathematische Objekte dienen als Symbole, die die Struktur reiner Relationen ausdrücken. Ein mathematisches System kann somit als eine Menge formaler Relationen betrachtet werden, die nur aufgrund der Aussagen dieser Relationen existieren. Natürlich können insbesondere für angewandte Zwecke Beziehungsaussagen dazu tendieren, Korrespondenzen mit der äußeren Realität zu verkörpern, aber dies berührt die Beziehungsaussagen selbst in keiner Weise – im Gegenteil. Mathematiker untersuchen nicht die "Wahrheit" ihrer Axiome, obwohl sie eine gegenseitige Vereinbarung zwischen ihnen erfordern. Untersuchen innerhalb eines mathematischen Systems ist das Untersuchen und Herstellen von Zusammenhängen, die es ermöglichen zu beweisen, dass die Tatsache der Theorie A die Tatsache der Theorie B impliziert. Daher lautet die Hauptfrage in der Mathematik nicht „Was sind A und B?“, sondern "Setzt A voraus (oder bestimmt) B?".

Ganz andere Situation in der Linguistik. Sie konzentriert sich hauptsächlich auf die erste dieser Fragen, und das gibt ihr nicht die Möglichkeit, sich von der Realität zu lösen; Daher arbeitet es nicht mit abstrakten, sondern mit konkreten Einheiten, obwohl es in einigen Fällen dazu neigt, abstrakte Objekte zu schaffen, wie z. B. das Konzept eines Phonems oder eines Morphems. Diese Situation ist nicht nur charakteristisch für die traditionelle Linguistik, sondern ebenso charakteristisch für ihre neuesten Strömungen, die unter dem Banner des Strukturalismus vereint sind. Oben wurden bereits einige Aussagen zitiert, die zwar versuchten, in der Sprachwissenschaft nicht nur induktive, sondern auch deduktive (bzw. mathematisch-logische) Methoden anzuwenden, aber nicht umhinkamen, sich auf eine reale sprachliche Tatsache zu beziehen. Darüber hinaus lässt sich noch eine weitere Sache anführen, die die hier behandelte Frage völlig klarstellt: „Linguistische Analyse“, schreibt P. Garvin in diesem Zusammenhang, „ist im Grunde ein induktiver Prozess in dem Sinne, dass er versucht, a zu etablieren Liste von Elementen oder eine Reihe von Aussagen, basierend auf den sprachlichen Reizen der Informanten oder dem Studium des Textes. Es basiert auf der Annahme, dass es in diesen beiden Informationsquellen möglich sein wird, regelmäßig vorkommende Elemente verschiedener zu erkennen Typen und Komplexitätsordnungen. Die aus der Analyse gewonnene Klassifikation dieser Typen und die Angabe ihrer Verbreitungsbedingungen bilden eine induktive Beschreibungssprache“ * .

* (P. Garvin, Eine Studie der induktiven Methode in der Syntax, "Wort", vol. 18 (1962), p. 107,)

In der Linguistik kann man natürlich auch die Methode der Voraussetzungen anwenden, auf deren Grundlage dann bestimmte Gegenstände, Tatsachen oder sprachliche Einheiten bestimmt werden. Aber hier sind wir mit zwei Merkmalen konfrontiert, die die Verwendung dieser Methode erheblich anpassen. Im Gegensatz zu Logik und Mathematik wird hier nach der „Wahrheit“ der so gewonnenen Definitionen gesucht, also nach ihrer Übereinstimmung mit den experimentellen Daten. Somit wird die gegenseitige Abhängigkeit von Prämisse und schlussfolgerndem Wissen festgestellt: Die Prämisse bestimmt die Schlussfolgerung (die Definition eines bestimmten sprachlichen Objekts in Bezug auf die Prämisse), aber wenn die Schlussfolgerung nicht den Erfahrungsdaten entspricht, dann die Prämisse selbst muss korrigiert werden. Aber solche Anpassungen der Voraussetzung haben nichts gemein mit der Übersetzbarkeit in äquivalente Formen, die, wie oben bemerkt, in der Mathematik zulässig ist, da sie nicht durch formale Erwägungen, sondern durch Erfahrungsdaten bestimmt werden. All dies gibt Anlass zu der Schlussfolgerung, dass das Konzept einer Prämisse selbst und die Freiheit, sie zu wählen, eine Besonderheit in der Sprachanalyse haben, die bei der Verwendung der deduktiven Methode in der Linguistik nicht ignoriert werden kann.

Linguisten können die „wenn“- oder „lasst uns“-Methode nicht so frei anwenden wie Mathematiker. Ihre räumliche Freiheit ist sehr stark eingeschränkt. Die Geschichte der Sprachwissenschaft kennt viele Änderungen der "Standpunkte", oder anders gesagt, der ursprünglichen Prämissen, die durch die Entdeckung neuer Tatsachen, die Verbreitung allgemeiner wissenschaftlicher Ideen auf die Linguistik oder sogar die Entstehung origineller Theorien. Aber für den Linguisten ist in all diesen Fällen die Änderung des „wenn“ oder der anfänglichen Prämisse die Änderung des gesamten wissenschaftlichen Konzepts. Daher sagt der Linguist nicht „wenn“, sondern postuliert sein Verständnis der Prämisse, also eigentlich das Verständnis des Gegenstands seiner Forschung, und gibt auf der Grundlage dieses Verständnisses eine Definition privater Einheiten der Sprache , die "Wahrheit" dieser Definitionen mit den Daten der Erfahrung zu überprüfen. Letzterer Umstand dient aufgrund der linguistischen Interdependenz von Prämisse und Konklusion als Mittel zur Überprüfung der Legitimität der Prämisse selbst, was am Anfang einer der Form nach deduktiven sprachlichen Analyse steht. Wenden wir uns also konkreten Beispielen zu, so wurde Sprache in der Vergangenheit als natürlicher Organismus (von Schleicher), als individuelle psychophysiologische Aktivität (von Neogrammatikern) usw. interpretiert. Die auf diesen Konzepten basierende Forschungspraxis hat ihre Unzulänglichkeit gezeigt. Heute ist die Ausgangsprämisse der Sprachanalyse das Postulat, dass Sprache ein System von Zeichen ist*. Es unterliegt dem gleichen Erfahrungs- und Praxistest wie jedes andere Konzept in der Sprachwissenschaft.

* (Siehe: Paul Garvin, Das Definitionsmodell der Sprache. In: "Natürliche Sprache und der Computer", hrsg. von P. L. Garvin, New York, 1964.)

Bereits diese vorläufigen und allgemeinsten Überlegungen zeigen, dass deduktive Methoden in der Linguistik keineswegs kontraindiziert sind, ihre Anwendung aber die Einhaltung bestimmter Bedingungen erfordert. Es sind diese spezifischen Bedingungen, die der mechanischen Übertragung der Methoden der Logik und Mathematik auf das Gebiet der Linguistik gewisse Beschränkungen auferlegen. Beschränken wir uns jedoch auf eine solche allgemeine Aussage, bleibt noch vieles unklar. Aus diesem Grund ist es notwendig, die von uns behandelte Frage zu vertiefen und sich zur Stärkung möglicher Schlussfolgerungen der Praxis der angewandten Linguistik zuzuwenden, in der die Legitimität der Prämissen und die Übereinstimmung der auf ihrer Grundlage gezogenen Schlussfolgerungen mit den experimentellen Daten festgestellt werden sind am deutlichsten manifestiert.

4

Die Beziehung zwischen Sprache und Logik ist sehr eigentümlich. Vertreter der empirischen Wissenschaften, zu denen auch die Linguistik gehört, untersuchen ein bestimmtes Objekt oder Phänomen, um es zu beschreiben oder zu erklären. Sie formulieren ihre Ergebnisse in einer Sprache, die Objektsprache genannt wird. Der Logiker führt Beweise, Schlüsse, Urteile usw., aber sie stehen ihm nur in sprachlicher Form zur Verfügung. Es stellt sich also heraus, dass der Logiker einen Schritt weiter von der realen Welt entfernt ist als die Vertreter der empirischen Wissenschaften. Seine Analyse richtet sich nicht direkt auf den realen Untersuchungsgegenstand der empirischen Wissenschaften, sondern auf deren Sprache*. Mit anderen Worten, er untersucht die Sprache und formuliert die gewonnenen Ergebnisse in einer Sprache, die Metasprache genannt wird.

* („Die logische Analyse wissenschaftlichen Wissens“, schreiben P. V. Tavanets und V. S. Shvyrev in diesem Zusammenhang, „ist in erster Linie und direkt eine Analyse der Sprache, in der dieses Wissen ausgedrückt wird.“ Siehe den Artikel „Die Logik der wissenschaftlichen Erkenntnis“ in Sat. "Probleme der Erkenntnislogik", M., 1964, S. 161)

Aus logischer Sicht ist die Grundeinheit der Sprache nicht ein Zeichen und nicht der damit bezeichnete Gegenstand, sondern ein Satz, da sich nur in ihm ein logischer Prozess entfalten kann. Deshalb kann nur ein Satz wahr oder falsch sein. Und Worte allein können diese Qualitäten nicht haben. Aber bevor wir feststellen können, ob ein Satz wahr ist oder nicht, müssen wir feststellen, dass er eine Bedeutung hat.

Die Begriffe Wahrheit und Bedeutung gehören in den Bereich der Semantik. Durch diese Beziehungen wird die Wahrheit oder Falschheit eines Satzes bestimmt: Wenn der Satz Objekte richtig beschreibt, ist er wahr, und wenn er falsch ist, ist er es nicht. Sprachliche Ausdrücke können aber auch andere Beziehungen eingehen als die, die zwischen den von ihnen bezeichneten Gegenständen bestehen. Darüber hinaus können Angebote mit anderen Angeboten in Beziehung treten. Die Aufgabe des Logikers besteht darin, die Art der Beziehung zwischen sprachlichen Ausdrücken und Sätzen herauszufinden und Regeln aufzustellen, anhand derer festgestellt werden kann, ob das im Einzelfall vorgeschriebene Verfahren eingehalten wird oder nicht. Bei der Lösung der letzten Frage bezieht sich der Logiker nicht auf die durch den Satz beschriebenen Objekte. Ihn interessiert die sprachliche Form, nicht deren Inhalt, was natürlich einer sinnvollen Interpretation im Ergebnis einer formalisierten Sprache nicht entgegensteht. Eine formalisierte Sprache kann als abstraktes System dargestellt werden, beispielsweise als Prädikatenkalkül.

So kann der Logiker, je nach Zielsetzung des Studiums, auf zwei Ebenen arbeiten – der Syntax (logische Syntax) und der Semantik (logische Semantik). Betrachten wir zunächst die Anwendung der ersten dieser Ebenen auf die natürliche Sprache.

Wenn ein Logiker, der mit dem Studium sprachlicher Formen und der zwischen ihnen bestehenden Beziehungen beschäftigt ist, auf der syntaktischen Ebene bleiben und mit sinnlosen Begriffen operieren kann, dann kann das der Linguist nicht. Alle Ebenen der natürlichen Sprache (mit der möglichen Ausnahme der phonemischen) sind sinnvoll und daher außerhalb der Semantik undenkbar. Außerdem existiert die natürliche Sprache nicht außerhalb der Pragmatik, die sich von ihr nicht ohne Weiteres lösen lässt, schon deshalb, weil sie im Sprechakt ständig in die Semantik transpoliert wird. Daher ist eine natürliche Sprache immer eine Interpretation, und zwar eine zweistufige, da sie sowohl mit Semantik als auch mit Pragmatik verbunden ist * . Und diese Deutung bietet sich noch keiner Formalisierung an.

* (Heiraten Niels Bohrs Bemerkungen zur mathematischen Sprache, wo "die für eine objektive Beschreibung notwendige Eindeutigkeit von Definitionen durch die Verwendung mathematischer Symbole erreicht wird, gerade weil auf diese Weise die Bezüge zum bewussten Subjekt vermieden werden, die die Alltagssprache durchdringen" (Nieles Bohr, Atomic Physics and Human Cognition, M., 1961, S. 96).)

Gehen wir nun zur zweiten Ebene über, wenn dem Kalkül mittels semantischer Regeln eine Interpretation zugeschrieben wird. Und in diesem Fall erhalten wir eine Bildung, die in keiner Weise mit der natürlichen Sprache vergleichbar ist. Es handelt sich hier zwar um sinnvolle Begriffe, aber in der logischen und natürlichen Sprache bauen sie ihr Verhältnis zur „Wahrheit“ auf ganz anderen Grundlagen auf. Wie A. Tarsky schreibt, ist "wahr", "auf jeden Fall in seiner klassischen Interpretation", insofern es "mit der Realität übereinstimmt" * . Dieses Kriterium der „Wahrheit“ gilt aber eigentlich nur für natürliche Sprachen, die sich immer an der Realität orientieren. Anders verhält es sich in der logischen Semantik. Die semantische Analyse stützt sich nur auf die logische Interpretation des Systems und beinhaltet die Aufstellung bestimmter Regeln, die die Wahrheitsbedingungen formulieren. Er schreibt eine Konsequenz dieser Regeln vor, ohne die Frage zu beantworten, inwieweit hier „Übereinstimmung mit der Realität“ stattfindet. Hinzu kommt, dass die Fokussierung auf die Realität selbst in natürlicher Sprache nicht direkt, sondern durch eine Person erfolgt, was wiederum die Hinwendung zur dritten Ebene – der pragmatischen – erforderlich macht. „Der Übergang zur semantischen Ebene“, so P. V. Tavanets und V. S. Shvyrev, „ist an sich keine Rückkehr zur lebendigen Sprache in ihrer Konkretheit, wie es auf den ersten Blick erscheinen mag, aufgrund des Wesens der Sprache als „unmittelbares“. Realität des Denkens.“ Tatsächlich gibt das ursprüngliche Schema der Semantik „Sprache-Realität“ noch kein konkretes Bild der Sprache als unmittelbare Realität des Denkens, aus dem einfachen Grund, dass die Sprache nicht von selbst in irgendeiner Mystik mit der Realität verbunden ist Weg, sondern durch eine Person, durch sein Handeln, sein Verhalten. Daher kann eine konkrete Vorstellung von Sprache als Gedankenträger tatsächlich nur auf der Ebene ihrer pragmatischen Analyse nach dem Schema "Sprache - Mensch" erreicht werden Handlungen mit Sprache und aufgrund von Sprache - Realität" **.

* (A. Tarski, Grundlegung der Wissenschaftlichen Semantik. "Actes du Congres International de Philosophie Scientique", 1936.)

* (Siehe den Artikel „Die Logik der wissenschaftlichen Erkenntnis“ in Sat. „Probleme der Erkenntnislogik“ (M., 1964, S. 16).)

Aber das ist nicht alles. V. M. Gluschkow schreibt zu diesem Thema: „Eine lebendige menschliche Sprache kann nur dann als formale Sprache betrachtet werden, wenn ein strenges System von Regeln formuliert wurde, das es ermöglicht, in der Sprache zulässige Ausdrücke von allen anderen Ausdrücken zu unterscheiden, das heißt, bedeutungsvolle Sätze aus bedeutungslosen " * . Zur Erläuterung der Schwierigkeiten, die bei der Formalisierung einer natürlichen Sprache auftreten, weist er weiter darauf hin, dass „keine feststehende formalisierte Sprache einer lebendigen menschlichen Sprache angemessen sein kann, da sich letztere im Gegensatz zur ersten ständig weiterentwickelt und verbessert jeder lebenden menschlichen Sprache ist nur ein mehr oder weniger erfolgreicher Sofortabguss davon, der seine Ähnlichkeit mit dem Original verliert, wenn sich letzteres entwickelt“ ** . Wenn alles darauf hinauslaufen würde, wäre es die halbe Miete. Die angewandte Linguistik denkt aus den Momenten der Sprachentwicklung heraus, betrachtet sie tendenziell als ein völlig stabiles System, und dennoch ist es noch nicht möglich, die Formalisierung der natürlichen Sprache zu erreichen. Dies geschieht aus einem ganz einfachen Grund. Das formale System und die natürliche Sprache basieren ihre Wirksamkeit auf polar entgegengesetzten Eigenschaften. Jedes formale System ist immer mit sich selbst identisch. Es ist diese Qualität, die es ihm ermöglicht, seine Funktionen in allen spezifischen Fällen seiner Anwendung zu erfüllen. Und die natürliche Sprache - in Bezug auf ihren Inhalt, ihre Semantik oder, wie man in diesen Fällen zu sagen pflegt, in ihren informativen Begriffen - ist niemals mit sich selbst identisch. Es ist diese Fähigkeit, die es ermöglicht, in allen spezifischen Anwendungsfällen zu funktionieren. Die gleiche Sprache bleibend, ist sie in verschiedenen Situationen immer anders. Gleichzeitig hat er weder explizite noch formative Regeln, noch die Regeln der "Wahrheit", noch Transformationsregeln, um zu bestimmen, welche der möglichen Bedeutungen oder Bedeutungsnuancen ein bestimmtes Wort in einer bestimmten Situation erhält. Darüber hinaus kann fast jedes Wort einer natürlichen Sprache eine Bedeutung erlangen, die in keiner Sprache festgelegt ist - es kann, nachdem es entstanden ist, in der Sprache Fuß fassen, aber mit dem gleichen Erfolg, wie eine schnelle Flamme, aufblitzen, sich darin verlieren den sprachlichen "Raum" und gehen aus. Und mit all diesen Qualitäten erweist sich die natürliche Sprache als ein erstaunlich perfektes Werkzeug, mit dem Sie in jeder Situation ein vollständiges gegenseitiges Verständnis für die komplexesten Konzepte erreichen können. Warum passiert dies?

* (V. M. Glushkov, Denken und Kybernetik, "Problems of Philosophy", 1963, Nr. 1, S. 37-38.)

** (V. M. Glushkov, Denken und Kybernetik, "Problems of Philosophy", 1963, Nr. 1, S. 38.)

Anscheinend sollte die Antwort auf diese Frage teilweise in einem Gedanken des Begründers der Semiotik Ch. Pierce gesucht werden, den er in vielen seiner Werke beharrlich wiederholt. Es kann so interpretiert werden. In der modernen Linguistik wird Sprache meist als Zeichensystem definiert. Dies ist die Grundvoraussetzung für jede linguistische Analyse. Wenn dem so ist, dann ist Sprache nicht nur ein System von Zeichen, sondern ein System sich gegenseitig interpretierender Zeichen, die in der Sprache existieren, sofern sie in anderen Zeichen interpretiert werden. C. Peirce formuliert es so: „Kein Zeichen kann als Zeichen fungieren, wenn es nicht in einem anderen Zeichen interpretiert wird. Daher ist es für ein Zeichen unbedingt erforderlich, dass es auf ein anderes Zeichen wirkt“ * . Und an anderer Stelle: "Der ganze Zweck eines Zeichens besteht darin, dass es in einem anderen Zeichen interpretiert wird" ** . Und vielleicht das Wichtigste: „Ein Zeichen ist kein Zeichen, es sei denn, es übersetzt sich in ein anderes Zeichen, in dem es eine vollständigere Entfaltung erhält“ ***.

* (CH. Peirce, Collected Papers, Cambridge, Mass., vol. acht, §. 225.)

** (Ebenda, §. 191.)

*** (CH. Peirce, Collected Papers, Cambridge, Mass., vol. 5, § 594.)

Folglich ist die natürliche Sprache ein System von Zeichen, die durch gegenseitige Interpretation in der Lage sind, auf alle menschlichen Bedürfnisse in semantischem Ausdruck einzugehen. Aber eine wichtige Einschränkung ist hier erforderlich. Schließlich werden alle Bedürfnisse dieser Art durch die Einstellung eines Menschen zu den Phänomenen der Außenwelt und dem sozialen Umfeld, in dem sein Leben stattfindet, bestimmt. Aufgrund dieses Umstands kann die Transformationssemantik, wenn sie überhaupt geschaffen werden könnte, nicht nur auf den Regeln der gegenseitigen Zeicheninterpretation beruhen, geschlossener und endlicher Natur sein. Es stellt sich als Ableitung einer sehr großen Zahl von Größen heraus, die sich auf jede erdenkliche Weise einer Formalisierung widersetzen * .

* (P. Jacobson stellt in diesem Zusammenhang fest: „Wir können eine rein sprachliche Semantik aufbauen, wenn wir die Position von Peirce akzeptieren, dass das wesentliche Merkmal jedes sprachlichen Zeichens darin besteht, dass es durch ein anderes sprachliches Zeichen übersetzt werden kann, entwickelter, expliziter oder auf der im Gegenteil, ein eher elliptisches Zeichen des gleichen oder eines anderen Sprachsystems.Dank dieser Übersetzbarkeit werden die semantischen Invarianten, die wir im Signifikanten suchen, offenbart.So erhalten wir die Möglichkeit, auch die semantischen Probleme der Sprache zu lösen mit Hilfe der Verteilungsanalyse“ (Vortrag auf dem 1. Internationalen Symposium „Zeichen im System der Sprache“, Erfurt, DDR, 1959). Zitiert aus dem Buch: V. A. Zvegintsev, Geschichte der Linguistik des XIX. - XX. Jahrhunderts in Aufsätzen und Auszügen, Teil 2, M., 1965, S. 398.

Im Zusammenhang mit dem Vorstehenden ist es wichtig, die Merkmale des Problemlösungsverfahrens und des Bestimmungsbegriffs in Logik und Mathematik einerseits und in der Linguistik andererseits zu betrachten.

Bevor ein Problem mathematisch gelöst werden kann, muss es präzise formuliert werden – genau diese Formulierung ist Voraussetzung für eine erfolgreiche Lösung des Problems. Dabei kann, wie bereits erwähnt, ein Mathematiker eine gegebene Problemstellung frei in eine äquivalente Version überführen – die Mathematik hat dafür die entsprechenden Mittel. Bereits auf dieser ersten Stufe der Forschungsmethodik unterscheidet sich die Linguistik deutlich von der Mathematik. Bei der Formulierung seiner Probleme verfügt der Linguist über eine gewisse Menge beobachteter empirischer Daten, die er nicht immer exakt formulieren kann, die er aber wohl oder übel zur Grundlage seiner Forschung machen muss, bereits im Prozess dieser Forschung selbst. Um nicht über Beispiele hinauszugehen, sei auf die sprachliche Bedeutung verwiesen, die allen Arbeiten im Bereich der automatischen Verarbeitung von Sprachinformationen zugrunde liegt, gleichzeitig aber sehr vage und widersprüchlich definiert ist. Dieser Umstand zwingt Forscher auf diesem Gebiet dazu, ihre Strategie ständig zu ändern.

Aber jetzt hat die Forschung begonnen und eine Lösung gefunden. Was bedeutet das in Bezug auf Logik und Mathematik und in Bezug auf die Linguistik? Die Logik ermöglicht, wie oben erwähnt, die explizite Darstellung der in der Prämisse implizit enthaltenen Schlussfolgerungen, aber sie verfügt nicht über Regeln, deren Verwendung garantieren kann, dass die gewünschte Lösung erreicht wird, da sie kein Mittel ist, um Neues zu erreichen Schlussfolgerungen, sondern nur eine Technik, um ihre Richtigkeit zu bestimmen. Sie ist nicht der magische Schlüssel zu allen Geheimnissen. Es ist ziemlich offensichtlich, dass es keine ungelösten Probleme geben würde, wenn die Logik solche Regeln hätte. Es würde genügen, bestimmte logische Regeln anzuwenden, und wir würden automatisch eine fertige Antwort auf jede Frage erhalten, die uns quält. Im Lichte des Gesagten erhält auch der Begriff der Problem- oder Aufgabenbestimmung eine besondere Bedeutung.

In Logik und Mathematik wird jedes Endergebnis als wahr anerkannt, wenn beim Beweis keine formale Regel verletzt wurde. Da hier unterschiedliche Beweiswege möglich sind, ist die Existenz unterschiedlicher Lösungen zulässig. Aber alle von ihnen können vom Standpunkt der Forderung der Logik oder Mathematik einer Überprüfung unterzogen werden. Anders sieht es in der Linguistik aus. Es verfügt nicht über einen Apparat, mit dem die Richtigkeit der gezogenen Schlussfolgerungen überprüft oder bewiesen werden könnte. Dementsprechend wird auch die Wahrheit der getroffenen Entscheidungen bestimmt - sie wird nicht durch formale Regeln, sondern durch ihre Übereinstimmung mit den Daten der Erfahrung bestimmt. Unter diesen Bedingungen würde man theoretisch eine einzige Endlösung erwarten. In der Praxis ist dies jedoch nicht der Fall, wie widersprüchliche sprachliche Definitionen sogar der Hauptkategorien der Sprache bezeugen. Dabei ist immer eine gewisse Subjektivität der Einschätzungen vorhanden, die bis zu einem gewissen Grad durch die Menge der Fakten (und natürlich deren Art) bestimmt wird, die dem Forscher zur Verfügung stehen. Daraus folgt, dass die "Wahrheit" einer Lösung in der Linguistik immer in einer Annäherung gegeben ist und nicht deterministisch, sondern probabilistisch ist.

Unter diesen Bedingungen ist es sehr wichtig, die Korrektheit sprachlicher Definitionen und Interpretationen anhand objektiver Kriterien zu prüfen. Die Möglichkeit einer solchen Überprüfung bietet ein weiter Bereich der angewandten Linguistik, in dem der natürlichen Sprache eine Maschine gegenübersteht, die in dieser Opposition die Interessen von Logik und Mathematik vertritt.

5

Ein digitaler Computer dient zur Lösung praktischer Probleme der angewandten Linguistik. Es ist in der Lage, Informationen wahrzunehmen, zu speichern, zu übermitteln, neu zu gruppieren und auszugeben. Es interpretiert und führt eine Reihe von Befehlen (Befehlsprogramm) aus und modifiziert sie auch im Prozess der Ausführung einer Aufgabe. Es ist in der Lage, sehr komplexe Probleme zu lösen, aber der gesamte Prozess des Übergangs von der Aufgabe zur Lösung muss vollständig und konsistent in Form einer Abfolge grundlegender elementarer Operationen beschrieben werden. Informationen werden unter Verwendung eines zweistelligen (binären) Codes oder einer Sprache in die Maschine eingegeben. Die Maschine arbeitet mit so codierten Wörtern, die den grundlegenden logischen Verbindungen oder Funktionen des Aussagen- oder Prädikatenkalküls entsprechen. Eine Maschine kann komplexe mathematische Probleme gerade deshalb lösen, weil es möglich ist, komplexe mathematische Operationen auf eine Folge von arithmetischen Operationen und diese wiederum auf logische Operationen zu reduzieren. Daher kann ein digitaler Computer als logische Maschine betrachtet werden.

Wie komplex die Aufgabe also auch sein mag, die Maschine löst sie mit Hilfe einer Abfolge elementarer Operationen, deren Programm absolut eindeutig (konsistent), genau, detailliert und erschöpfend formuliert sein muss. Mit anderen Worten, es sollte die Grenzen des logischen Aussagenkalküls nicht überschreiten, und wenn wir uns fragen, ob eine Maschine mit der Verarbeitung von Informationen fertig wird, die in natürlichen Sprachen enthalten sind, müssen wir zuerst herausfinden, inwieweit die logische Aussagenlogik Kalkül ist ein adäquates Modell für natürliche Sprache.

Angesichts der oben beschriebenen Besonderheiten des digitalen Computers ist das erste, was zu tun ist, damit die Maschine die Aufgabe "versteht" und mit der Verarbeitung von Sprachinformationen gemäß dieser Aufgabe beginnt, die in natürlicher Sprache enthaltenen Informationen in logische Sprache umzuformulieren. Es geht also um die Übersetzung der natürlichen Sprache in die Sprache des logischen Aussagenkalküls. Gleichzeitig muss man sich, wie Bar-Hillel gezeigt hat, solchen Schwierigkeiten stellen, die die Aussichten für eine automatische Verarbeitung in einem sehr düsteren Licht erscheinen lassen, wenn nicht die gesamte Richtung der Suche nach einer Lösung für dieses Problem geändert wird. Zumindest müssen wir mit folgenden Hindernissen rechnen, für deren Überwindung wir noch nicht die nötigen Mittel haben.

* (Y. Bar-Hillel, A Demonstration of the Nonfeasibility of Fully Automatic High Quality Translation, "Advances in Computers:", vol. 1, New York, 1960, S. 158-163.)

A. Der logische Aussagenkalkül ist zu dürftig, um auch mit einer entfernten Annäherung eine natürliche Sprache umformulieren zu können, die in ihrer semantischen Struktur unglaublich komplex ist, eine Unmenge redundanter Elemente enthält und vor allem oft durch eine solche Unbestimmtheit gekennzeichnet ist und Unbestimmtheit im Ausdruck "bedeutet", dass keine zweiwertige Logik mit der Schaffung eines künstlichen Gegenstücks einer natürlichen Sprache * fertig wird. Gewiss, die Logik befasst sich, wie gesagt, nur mit der sprachlichen Form. Aber da es sich um eine automatische Informationsverarbeitung handelt, ist es notwendig, zwischen semantischen Informationen unterscheiden zu können, und wenn dies nicht mit den uns zur Verfügung stehenden logischen Mitteln erreicht werden kann, wie können wir dann Vertrauen schaffen, dass unsere Übersetzung von natürlicher Sprache in logisch ist richtig?

* (Ch. Hocketts Artikel „Grammar for the Hearer“ gibt viele Beispiele für solche Schwierigkeiten beim „natürlichen“ Verständnis eines Satzes, die durch nachfolgende und weitreichende Analyseschritte gelöst werden (Ch, Hockett, Grammar for the Hearer, „Structure of Language and its Mathematical Aspects", Providence, 1961, S. 220-236).)

B. Die Maschine kann nicht berücksichtigen, was Bar-Hillel den "allgemeinen Hintergrund von Informationen" nennt, die tatsächlich außerhalb der Grenzen der natürlichen Sprache bleiben und daher nicht in logische Sprache übersetzt werden können. Linguisten sprechen in diesen Fällen von einem außersprachlichen Kontext (Bezugsrahmen), der für uns unauffällig, aber auf ganz entscheidende Weise alle unsere Worte korrigiert oder sogar völlig neu denkt. Schließlich erfordert selbst ein so einfacher Satz wie „Ich werde vor Einbruch der Dunkelheit zurückkehren“ für sein genaues Verständnis und die Bestimmung des darin enthaltenen vorübergehenden Hinweises zumindest vorheriges Wissen darüber, wann, wo er ausgesprochen wurde und zu welcher Jahreszeit . Allein solche Vorinformationen sind oft das einzige Mittel, um jene intraphrasalen Beziehungen aufzuklären, denen weder der Aussagenkalkül noch der Prädikatenkalkül gewachsen sind. Nehmen wir zum Beispiel zwei Sätze, die in den Zeitungen aufblitzten:

Postgraduierter Student der Universität aus der Stadt Kursk;

Verdienter Erneuerer Sibiriens, -

Wir sehen, dass jeder von ihnen auf zwei Arten interpretiert werden kann. Wenn wir uns nur an formale grammatikalische Merkmale halten, kann der erste Satz gleichermaßen gut als "Ein Doktorand einer in der Stadt Kursk ansässigen Universität" und als "Ein Doktorand einer in der Stadt Kursk ansässigen Universität (bzw aus der Stadt Kursk)". Und der zweite Satz kann sowohl als „Verehrter Erneuerer, dessen Tätigkeitsbereich Sibirien ist“ als auch als „Verehrter Erneuerer, der in Sibirien ansässig ist“ interpretiert werden. Und nur Vorkenntnisse (Vorabinformationen), die in den Sätzen in keiner Weise zum Ausdruck kommen, dass es in der Stadt Kursk keine Universität gibt und dass "Verdienter Innovator" ein Ehrentitel ist, der in der Sowjetunion von einzelnen Verwaltungsbezirken verliehen wird, ermöglicht es, diese Vorschläge richtig zu verstehen. Wenn man genau hinschaut, dann ist fast jeder Satz der gesprochenen Sprache eine sehr solide und verzweigte Vorinformation, die für einen Menschen selbstverständlich ist, aber jenseits des „Verständnisses“ einer Maschine liegt, die weder Clan noch Stamm kennt.

B. Die Maschine kann keine intertextuellen semantischen Schlussfolgerungen ziehen, die sich über mehrere Sätze erstrecken (und manchmal sogar absichtlich für eine ganze Geschichte, um ihren Charakter oder Handlungszug nicht vollständig zu enthüllen). Auf diesen Umstand machte der niederländische Linguist A. Reichling aufmerksam, der seine Idee an folgendem Beispiel illustrierte. Angenommen, wir lesen eine Geschichte, die mit dem Satz „Ich spiele mit meinem Bruder“ beginnt. Wenn wir dort aufhören, haben wir keine Daten zur Verfügung, um zu klären, wie dieser Satz zu verstehen ist, von was für einem Spiel wir hier sprechen. Schließlich können Sie um Geld (Karten usw.), auf einem Musikinstrument, im Theater oder Kino, mit Spielzeug, Fußball, zum Spaß spielen, mit einer Person und ihrem Schicksal spielen usw. Aber hier lesen wir weiter : "Das sagte ich, als Wilhelm mich eines Tages in einer Bar traf." Jetzt können wir eher den Schluss ziehen, dass es sich anscheinend um ein Spiel um Geld handelt. Aber es gibt noch andere Möglichkeiten. Es folgt: "Mein Bruder kam an den Tisch, und die Würfel wurden geworfen." Es ist nun klar, um welches Spiel es sich handelt, obwohl nirgendwo im Text ein genauer Hinweis auf die tatsächliche Bedeutung des Wortes „Spiel“ gegeben wird. Wir haben ihn durch die Gesamtheit jener äußeren Zeichen erraten, die im Text in verschiedenen Sätzen gegeben sind. Diese Zeichen folgen hier nacheinander, können aber in der schriftlichen Erzählung deutlich voneinander getrennt werden. Eine Person kann sie aus einem breiten sprachlichen Kontext auswählen (in diesem Fall haben wir es damit zu tun), vergleichen und dann die entsprechende Schlussfolgerung ziehen. Der Maschine wird diese Möglichkeit genommen.

* (Auf einem 1961 von der Stichting Studiecentrum voor Administrative Automatisering organisierten Kolloquium. Es gibt auch eine deutsche Übersetzung des Berichts: A. Reichling, Möglichkeiten und Grenzen der mechanischen Ubersetzung, aus der Sicht des Linguisten, "Beiträge zur Sprachkunde und Informationsverarbeitung", Heft 1, Wifcn, 1963.)

Aber vielleicht braucht sie es nicht? Tatsächlich gibt es bei der maschinellen Übersetzung dieser Sätze ins Deutsche oder Französische keine besonderen Schwierigkeiten (aber natürlich treten bei der Übersetzung anderer Sätze Schwierigkeiten auf). Bei der Übersetzung ins Deutsche können wir buchstäblich verwenden: Ich spile mit meinem Bruder. Ebenso können wir im Französischen beginnen: Je joue avec... Bereits bei der Übersetzung ins Englische ergeben sich grammatikalische Ordnungsschwierigkeiten, da im gegebenen Text kein Hinweis darauf steht, welche Form die Maschine wählen soll: 1. I spiele mit meinem Bruder, 2. spiele ich mit meinem Bruder oder 3. spiele ich mit meinem Bruder? Und es ist wirklich schlecht, wenn es ins Spanische übersetzt wird, da die Maschine zwischen mindestens drei Verben wählen muss: jugar, tocar oder Trabajar.

Hier ist die logische Sprache hilflos.

D. Die Maschine befasst sich tatsächlich mit Sprache (oder genauer gesagt mit Sprachsegmenten) – in ihrer schriftlichen und mündlichen Form. Jede dieser Sprachformen hat ihr eigenes System pragmatischer Elemente, die sich auch in semantische umwandeln können (und die Regeln für einen solchen Übergang sind nicht untersucht und weitgehend willkürlich). So hat zum Beispiel die mündliche Rede einen solchen suprasegmentalen Überbau wie die Intonation. Es ist nun möglich, Intonationen nach funktionalen Typen zu klassifizieren und zwischen fragenden, erzählenden und anderen Intonationen zu unterscheiden. Es ist jedoch absolut unbestreitbar, dass die Intonation nicht unabhängig von Sätzen existiert; es interagiert sicherlich mit der in ihnen enthaltenen Bedeutung. Zur Untermauerung dieser Aussage genügt es, auf eine rhetorische Frage hinzuweisen, die nur in ihrer äußeren Struktur eine Frage ist, aber keine Frage im Sinn: Sie verlangt keine Antwort von den Zuhörern. Damit entsteht eine neue Art von Schwierigkeit, mit der die logische Sprache nicht fertig wird.

E. Die Methode der automatischen Verarbeitung von Sprachinformationen (und insbesondere der maschinellen Übersetzung) basiert auf der Annahme, dass jeder Satz und die Sprache als Ganzes in eine bestimmte Anzahl elementarer semantischer Einheiten (Wörter) "zerlegt" wird. , aus der sich dann nach bestimmten Regeln vorgegebene Sätze "einsammeln" lassen. Eine Konsequenz dieser Annahme ist eine andere, wonach die Bedeutung eines Satzes die arithmetische Summe der Bedeutungen seiner konstituierenden Wörter ist. Dabei wird die Mathematik als Vorbild genommen, bei der die komplexesten Operationen, die ein Computer durchführt, letztlich auf äußerst elementare reduziert werden. Aber in der Sprache stehen wir vor einem fast völlig entgegengesetzten Bild. Der Punkt ist nicht nur, dass in verschiedenen Sprachen Sätze auf unterschiedliche Weise semantisch in Teile "verstanden" werden. Zum Beispiel:

Das Mädchen geht. Das Mädchen steht. Der Hut steht dem Mädchen. Das Mädchen geht. Das Mädchen steht. Der Hut steht dem Mädel(wörtlich: Der Hut ist das Mädchen wert).

Der Punkt ist auch, dass selbst innerhalb derselben Sprache meistens keine arithmetisch korrekte Beziehung zwischen der Bedeutung eines Satzes und den Bedeutungen (Bedeutungen) seiner konstituierenden Wörter besteht. Bei dieser Gelegenheit schreibt E. Benveniste: „Ein Satz wird durch Wörter realisiert. Aber Wörter sind nicht nur Segmente eines Satzes. Ein Satz ist ein Ganzes, nicht auf die Summe seiner Teile reduzierbar, die dem Ganzen innewohnende Bedeutung ist verteilt auf den gesamten Komponentensatz" *. Dabei geht es nicht um idiomatische Redewendungen (wie: „unachtsam tun“, „jemand an der Brille reiben“ etc.), sondern um die gängigsten Sätze. Nehmen wir ein elementares Beispiel:

Warten! - Ich gehe ins Theater.

Kann man argumentieren, dass die Bedeutung dieses Satzes die arithmetische Summe der Bedeutungen der Wörter ist: warte, geh, Theater, ich, in? Auf der Grundlage einer solchen arithmetischen Darstellung sollten wir erwarten, dass jede Kombination dieser Wörter, die in einem grammatikalisch korrekten Satz dargestellt werden, dieselbe Bedeutung behält – schließlich ändert sich die Summe der Begriffe nicht durch eine Neuordnung der Stelle der Begriffe . Aber lassen Sie uns versuchen, diesen Vorschlag leicht zu modifizieren:

Ich gehe ins Theater - warte!

Wir sehen, dass sich dieser zweite Satz in seiner Bedeutung erheblich vom ersten unterscheidet.

* (E. Benveniste, Les niveaux de G analyze linguistique, "Preprints of Papers for the Ninth International Congress of Linguists", Cambridge, Mass., 1962, p. 497)

Dies ist eines der elementarsten Beispiele, und wenn wir uns komplexeren zuwenden, dann wird die Ohnmacht jeglicher Transformationsregeln, die solche Fälle regeln sollten, besonders deutlich. Es kann nicht anders sein: Ein Satz ist schließlich eine Folge von Monosemen, und ein Monosem (siehe Abschnitt „System der semantischen Forschung“) ist als syntaktische Konfiguration mehr als ein Wort. Dieser Umstand führt dazu, dass der Satz als Folge von Monosemen eine Folge von einander bedingenden Elementen ist, die in semantischer Beziehung miteinander zu einer untrennbaren Kette verbunden sind, die sich schematisch und in stark verallgemeinerter Form wie folgt darstellen lässt * :

* (Siehe "Anhang" am Ende des Buches.)

Gerade wegen dieser Merkmale der Sätze besteht ein qualitativer Unterschied zwischen dem letzten und den Wörtern. Wenn Wörter als Zeichen definiert werden können, dann gehen Sätze zweifellos über die Zeichenebene hinaus.

Die Frage nach der „Zerlegbarkeit“ von Sprache und Sätzen beruht auf einer allgemeineren. Es gibt Strukturen, die ihre Funktionen nur in ihrer komplexen Zusammensetzung erfüllen können. Wenn Sie versuchen, sie in kleinere Teile zu zerlegen oder sie auf elementarere Strukturen zu reduzieren, lösen sie sich tatsächlich auf, hören auf, als solche zu existieren, verlieren die Qualitäten, die ihrer komplexen Zusammensetzung innewohnen. So ist die Sprache. W. Humboldt hat das verstanden (allerdings von einer etwas anderen Seite), wenn er schreibt: „Damit der Mensch wenigstens ein einziges Wort versteht, nicht nur als geistigen Impuls (d.h. reflexiv. - V . Z.), sondern als artikulierender Begriffslaut muss die ganze Sprache mit allen ihren Zusammenhängen schon in sie eingebettet sein, es gibt nichts Einzelnes in der Sprache, jedes ihrer einzelnen Elemente manifestiert sich nur als Teil des Ganzen "*. Überträgt man dieses Urteil von W. Humboldt in die Sprache der modernen Wissenschaft, so erhält man folgende von M. Taube stammende Formulierung: „... es ist leicht zu verstehen, dass die Sprache als ein System bedeutungsvoller Symbole, mündlich oder schriftlich, nicht a formales System und kann nicht darauf reduziert werden, ohne seine wahre Natur zu zerstören... Wenn eine Sprache formalisiert ist, hört sie auf, eine Sprache zu sein, und wird zu einem Code" ** .

* (W. Humboldt, Zur vergleichenden Erforschung der Sprachen in Bezug auf verschiedene Epochen ihrer Entwicklung. Zitiert aus dem Buch: V. A. Zvegintsev, Geschichte der Linguistik des XIX. - XX. Jahrhunderts in Aufsätzen und Auszügen, Teil I, M., 1964, S. 79.)

** (M. Taube, Rechenmaschinen und gesunder Menschenverstand, M. * 1964, S. 18.)

Aber auch wenn die aufgelisteten sprachlichen Schwierigkeiten bewältigt werden können, gibt es immer noch Hindernisse einer ordentlichen logischen Ordnung – in diesem Fall sprechen wir von den sogenannten „Resolution Rules“ (Entscheidungsregeln). Denn wenn wir sicher sein wollen, dass die Maschine logisch einwandfrei handelt, müssen wir ihr ein Regelwerk an die Hand geben, nach dem sie konsequent von der Quellinformation zu den geforderten Schlussfolgerungen gehen kann. In Bezug auf aussagenlogische Kalküle haben wir solche Regeln, aber für komplexere Logiken gibt es keine solchen Regeln, und außerdem gibt es Gründe zu der Annahme, dass solche Regeln nicht gefunden werden können. Wenn wir uns auf die Regeln konzentrieren, die uns bereits zur Verfügung stehen, dann wird ihre Verwendung den Auflösungsprozess so kompliziert machen (selbst mit der Verwendung verbesserter Computer), dass das Spiel die Kerze nicht wert ist * .

* (Um zu zeigen, welche Arbeit ein Schritt-für-Schritt-Computer leisten muss, wendet sich A. L. Samuel dem Beispiel eines Damespiels zu. Er schreibt: „Um einen Computer Dame spielen zu lassen, müssen wir zunächst die Stellung der Steine ​​auf dem Brett so darstellen, dass sich der Computer merken kann, und dann müssen die Konsequenzen jedes der verfügbaren Züge durch Anschauen analysiert werden in die Zukunft, wie es ein Mensch im Allgemeinen tun würde, indem er nacheinander jeden anfänglichen Zug, dann alle möglichen Vergeltungszüge des Gegners, dann für jeden von ihnen alle Gegenantworten usw. berücksichtigt, die molekulare Natur der Materie und die endliche Geschwindigkeit des Lichts, dann würde ein solcher Computer viele Jahrhunderte und vielleicht sogar länger als das Alter des Universums brauchen, um seinen ersten Zug zu machen" (A. L. Samuel, Artificial Intelligence: Progress and problems. Anhang zum Buch: M. Taube, Rechenmaschinen und gesunder Menschenverstand, Moskau, 1964* S. 140-141).)

In dieser Form wird das Problem der Anwendung logischer und mathematischer Methoden in der Sprachwissenschaft anhand der Daten der Angewandten Linguistik gezeichnet. Was sind die Schlussfolgerungen? Die Schlussfolgerungen wurden bereits oben formuliert - die logische Analyse erlaubt eine Kombination induktiver Methoden mit deduktiven, aber wenn wir über die Verwendung deduktiver Methoden in der Linguistik sprechen, sollte nicht alles auf die blinde Unterordnung der Sprachforschung unter logisch-mathematische Methoden reduziert werden . Natürliche Sprache rebelliert gegen solche Gewalt. Und die Praxis der angewandten Linguistik bestätigt diese Schlussfolgerungen, indem sie feststellt, dass es solche Unterschiede zwischen einer formalisierten logischen Sprache und einer natürlichen Sprache gibt, dass eine hinreichend vollständige (in informativen Begriffen) Übersetzung der zweiten in die erste unmöglich ist. Bedeutet dies, dass man in der Linguistik (und insbesondere in der angewandten) auf die Verwendung logisch-mathematischer Methoden verzichten sollte? Natürlich nicht. Aber man sollte ihre Fähigkeiten nicht überschätzen. Dabei sind sie recht bescheiden. Und um hier nicht unbegründet zu sein, wenden wir uns den Aussagen von Mathematikern und Logikern zu, die in der Praxis ihrer Arbeit ihr Wissen auf das Studium der natürlichen Sprache anwenden müssen.

Hier ist, was der Mathematiker sagt: „Die Hilfe der Mathematik beim Studium der natürlichen Sprache ist noch lange nicht offensichtlich ... Bevor wir darüber nachdenken können, Mathematik für Kalküle zu verwenden, ist es notwendig, die Grenzen und Funktionen sprachlicher Einheiten zu bestimmen ... Dies ist ein nicht-mathematisches Problem, es ist Teil induktiver Methoden in der Linguistik.

Es stellte sich heraus, dass die Mathematik die empirische Methodik nicht ersetzt, obwohl einige Linguisten dies anstreben. Im Gegenteil, erst wenn die Einheiten und Relationen der natürlichen Sprache durch die induktive Methode ermittelt und entsprechend bestätigt (verifiziert) wurden, werden die notwendigen Voraussetzungen für eine realistische Anwendung der Mathematik auf die natürliche Sprache geschaffen. Gleichzeitig werden Mathematiker entweder feststellen, dass sie es mit einer neuen Manifestation von im Wesentlichen bereits Vertrautem zu tun haben, oder sie werden zu mathematischem Denken einer neuen Ordnung angeregt.

* (P. Garvin und W. Karush, Linguistik - Datenverarbeitung und Mathematik, "Natural Language and the Computer", New York, 1963, S. 368-369. Siehe auch den Artikel im gleichen Buch: W. Ksrush, The Use of Mathematics in the Behavioral Sciences, S. 64-83.)

Und hier sagt der Logiker: „Die Aussichten für die automatische Verarbeitung von Sprachinformationen sind sehr gut, aber die Rolle der Logik in diesem Bereich ist begrenzt. Allerdings als Werkzeug zur sprachlichen Analyse, nicht als Regelwerk zur Ableitung von Schlussfolgerungen , es macht echte Versprechungen" * . Und er legt weiter fest, welche Forschungsstrategie vorzuziehen ist: „Probleme sollten nicht durch rigoroses Befolgen eines von einem Logiker aufgestellten Regelwerks gelöst werden, sondern durch den Einsatz heuristischer Techniken ** ... Ein empirisch induktiver Ansatz zur automatischen Verarbeitung von Sprachinformationen bevorzugt werden, mit denen grobe Regeln zur Lösung von Informationsproblemen gesucht werden. Man sollte nicht versuchen, gewöhnliche Sprache in logische Sprache zu übersetzen, um sie weiterzuverarbeiten, sondern nach heuristischen Regeln suchen, die es ermöglichen, natürliche zu beherrschen Man sollte aufhören, nach absoluter Gewissheit zu suchen, und sich Näherungsmethoden zuwenden, die mit der Anhäufung von Erfahrungen verfeinert und verbessert werden.Wir ziehen es vor, Annäherungen auf die gleiche Weise zu betrachten, wie die Theorie in der Wissenschaft betrachtet wird, wo Änderungen und Verbesserungen vorgenommen werden gemacht auf der Grundlage von Daten, die als Ergebnis des Experiments "*** erhalten wurden.

* (M. Maron, A Logician's View of Language - data Processing, zitiertes Buch, S. 144.)

** (Eine ziemlich klare Vorstellung von der heuristischen Technik gibt A. L. Samuel. Im Gegensatz zur formalen Technik des logischen Verfahrens schreibt er, dass man stattdessen eine Technik anwenden könnte, „wo eine Anzahl mehr oder weniger willkürlich ausgewählter Verfahren in einem ziemlich unvollständigen Raten untersucht wird, wir werden zu keinem befriedigenden Beweis kommen In diesen Fällen können wir manchmal in erstaunlich kurzer Zeit eine richtige oder sogar eine sehr gute Antwort finden, aber gleichzeitig gibt es keine Gewissheit, dass wir jemals eine Lösung bekommen werden, sowie die Zuversicht, dass die Die uns präsentierte Lösung ist die beste. Diese Methode der Problemlösung wurde im Gegensatz zur Anwendung eines "Algorithmus" als "heuristisches" Verfahren bezeichnet ... Heuristische Problemlösung, wenn sie erfolgreich ist, muss natürlich betrachtet werden als eine höhere geistige Aktivität als das Lösen von Problemen durch ein mehr oder weniger automatisches Verfahren. Zitiert aus der russischen Übersetzung: A. L. Samuel, Artificial Intelligence: Progress and Problems. Anhang zum Buch: M. Taube, Rechenmaschinen und gesunder Menschenverstand, M., 1964, S. 136-137.)

*** (M. Maron, op. cit., S. 143-144,)

Dies sind die allgemeinen Schlussfolgerungen. Sie sagen, dass Linguisten eine führende Rolle in der gemeinsamen Arbeit mit Logikern und Mathematikern spielen. Aufgabe der Linguisten ist es, Sprachmaterial so aufzubereiten, dass es einer Verarbeitung mit logischen und mathematischen Methoden zugänglich ist. In dieser Richtung sollte man in der Linguistik nach einer realistischen Kombination von induktiven und deduktiven Methoden suchen. Und wenn es bei der Lösung von Problemen der angewandten Linguistik um heuristische Hypothesen geht, sollten sie zunächst einmal von einem Linguisten kommen, da er der Sprache näher steht und sie in seiner Position besser kennen und verstehen muss.

Inhaltsverzeichnis
Einführung
Kapitel 1. Die Geschichte der Anwendung mathematischer Methoden in der Linguistik
1.1. Die Herausbildung der Strukturlinguistik an der Wende vom 19. zum 20. Jahrhundert
1.2. Anwendung mathematischer Methoden in der Linguistik in der zweiten Hälfte des 20. Jahrhunderts
Fazit
Literatur
Einführung
Im 20. Jahrhundert setzt sich der Trend zur Wechselwirkung und Durchdringung verschiedener Wissensgebiete fort: Die Grenzen zwischen den einzelnen Wissenschaften verschwimmen allmählich; es gibt immer mehr Zweige geistiger Tätigkeit, die "an der Schnittstelle" von humanitären, technischen und naturwissenschaftlichen Erkenntnissen stehen.
Ein weiteres offensichtliches Merkmal der Moderne ist der Wunsch, Strukturen und ihre Bestandteile zu studieren. Daher wird der Mathematik sowohl in der wissenschaftlichen Theorie als auch in der Praxis ein immer größerer Stellenwert eingeräumt. In Berührung einerseits mit Logik und Philosophie, andererseits mit Statistik (und folglich mit den Sozialwissenschaften) dringt die Mathematik immer tiefer in jene Bereiche vor, die lange Zeit als rein galten „humanitär“, erweitern ihr heuristisches Potenzial (die Antwort auf die Frage „wie viel“ hilft oft bei der Beantwortung der Fragen „was“ und „wie“). Die Linguistik stellte da keine Ausnahme dar. Der Zweck meiner Hausarbeit ist es, kurz die Verbindung zwischen der Mathematik und einem Zweig der Linguistik wie der Linguistik hervorzuheben. Seit den 1950er Jahren wird die Mathematik in der Linguistik verwendet, um einen theoretischen Apparat zur Beschreibung der Struktur von Sprachen (sowohl natürlichen als auch künstlichen) zu schaffen. Es muss jedoch gesagt werden, dass es eine solche praktische Anwendung nicht sofort für sich gefunden hat. Anfänglich wurden mathematische Methoden in der Linguistik verwendet, um die grundlegenden Konzepte der Linguistik zu klären, aber mit der Entwicklung der Computertechnologie begann eine solche theoretische Prämisse in der Praxis angewendet zu werden. Die Lösung solcher Aufgaben wie maschinelle Übersetzung, maschineller Informationsabruf, automatische Textverarbeitung erforderte eine grundlegend neue Herangehensweise an die Sprache. Vor den Linguisten hat sich eine Frage gestellt: Wie kann man lernen, sprachliche Muster in einer Form darzustellen, in der sie direkt auf die Technologie angewendet werden können? Der in unserer Zeit gebräuchliche Begriff „mathematische Linguistik“ bezeichnet jede linguistische Forschung, die sich exakter Methoden bedient (und der Begriff der exakten Methoden in den Naturwissenschaften ist immer eng mit der Mathematik verbunden). Einige Wissenschaftler der vergangenen Jahre glauben, dass der Ausdruck selbst nicht in den Rang eines Begriffs erhoben werden kann, da er keine spezielle „Linguistik“ bedeutet, sondern nur eine neue Richtung, die sich auf die Verbesserung, Erhöhung der Genauigkeit und Zuverlässigkeit von Sprachforschungsmethoden konzentriert. Die Linguistik verwendet sowohl quantitative (algebraische) als auch nicht-quantitative Methoden, was sie der mathematischen Logik und folglich der Philosophie und sogar der Psychologie näher bringt. Sogar Schlegel bemerkte die Wechselwirkung von Sprache und Bewusstsein, und der prominente Linguist des frühen zwanzigsten Jahrhunderts, Ferdinand de Saussure (über seinen Einfluss auf die Entwicklung mathematischer Methoden in der Linguistik werde ich später berichten), verband die Struktur der Sprache mit ihrer Zugehörigkeit zu den Leuten. Der moderne Forscher L. Perlovsky geht noch weiter und identifiziert die quantitativen Merkmale der Sprache (z. B. die Anzahl der Geschlechter, Fälle) mit den Besonderheiten der nationalen Mentalität (mehr dazu in Abschnitt 2. 2, "Statistische Methoden in der Linguistik").
Das Zusammenspiel von Mathematik und Linguistik ist ein vielschichtiges Thema, und ich werde in meiner Arbeit nicht auf alle, sondern vor allem auf seine angewandten Aspekte eingehen.
Kapitel I. Geschichte der Anwendung mathematischer Methoden in der Linguistik
1.1 Die Entstehung der strukturellen Linguistik an der Wende vom 19. zum 20. Jahrhundert
Die mathematische Beschreibung der Sprache basiert auf der Idee der Sprache als Mechanismus, die auf den berühmten Schweizer Linguisten des frühen zwanzigsten Jahrhunderts, Ferdinand de Saussure, zurückgeht.
Das erste Glied seines Konzepts ist die Theorie der Sprache als eines aus drei Teilen bestehenden Systems (Sprache selbst - Sprache, Rede - Parole und Sprechtätigkeit - Sprache), in der jedes Wort (Mitglied des Systems) nicht an sich betrachtet wird , aber in Verbindung mit anderen. ...

I MATHEMATISCHE ASPEKTE DER SPRACHSTRUKTUR

BEIM.Sweginzew ANWENDUNG LOGISCHER UND MATHEMATISCHER METHODEN IN DER LINGUISTIK

].

Zweifellos wurde der Einsatz mathematischer und logischer Methoden in der Linguistik maßgeblich durch die Aufgaben der angewandten Linguistik angeregt. Wenn versucht wurde, diese Methoden zur Lösung von Problemen anzuwenden, die direkt mit dem Bereich der theoretischen Linguistik zu tun haben, beispielsweise um die Phänomene Sprache und Sprache zu unterscheiden 1, dann wird in Zukunft (wenn auch vielleicht nicht immer klar und nah) Sie hatten immer noch die Bedürfnisse der angewandten Linguistik im Auge.

Der Erfolg der Anwendung dieser Methoden auf einem völlig neuen Gebiet wird aus allgemeiner Sicht maßgeblich von der Beantwortung der Frage bestimmt, inwieweit es zulässig ist, eine logisch korrekte Sprache mit einer natürlichen Sprache zu identifizieren bzw eine andere Formulierung, ist es möglich, das zweite auf das erste zu reduzieren 2 . Die Antwort auf diese Frage wird meist in praktischer Form gegeben. - durch den Aufbau statistischer, informationstheoretischer, mengentheoretischer, probabilistischer und anderer Modelle der Sprache, die jedoch nicht immer auf bestimmte Aufgaben fokussiert sind. Ihre Autoren gehen bei der Konstruktion solcher Modelle oft von der (aus ihrer Sicht naheliegenden) Annahme aus, dass jede Anwendung eines formalen logischen oder mathematischen Apparats auf die sprachliche Beschreibung und Forschung automatisch zu ihrer Verbesserung beiträgt. Von das ist gut

1 Siehe . G. Herdan, Sprache als Wahl und Zufall, Groningen, 1956.

2 Heiraten G. Currys Bemerkung: „Die Tatsache, dass es eine enge Verbindung zwischen Mathematik und Logik einerseits und Sprache gibt - andererseits ist es schon vor langer Zeit offensichtlich geworden, und jetzt ist diese Tatsache in einem strengeren Sinne in den Mittelpunkt der Aufmerksamkeit gerückt ...“ (siehe unten, S. 98).

sagte Warren Plath in seinem Rückblick auf die Arbeit der mathematischen Linguistik: „Wenn wir Sprachmodelle als abstrakte Systeme diskreter Elemente betrachten, dann können verschiedene mathematische Konzepte und Methoden auf sie angewendet werden, die von der elementaren Idee der Zahl bis zur komplexen Logik reichen , statistische und mengentheoretische Operationen. Die Vorstellung, dass die Verwendung von Zahlen und mathematischen Operationen zur Beschreibung solcher Elementesysteme Aussagen "exakter" oder "wissenschaftlicher" macht, ist jedoch völlig falsch. Zunächst muss gezeigt werden, dass das so erhaltene neue System ein zufriedenstellenderes Modell als das ursprüngliche System ist, entweder in dem Sinne, dass es einfachere und allgemeinere theoretische Aussagen über einige Aspekte des modellierten Bereichs zu formulieren erlaubt, oder weil Operationen am Modell Aufschluss über die Ergebnisse der entsprechenden Operationen im modellierten Bereich geben. Eine der größten Gefahren im Zusammenhang mit der Erstellung mathematischer Modelle einer Sprache, insbesondere quantitativer, besteht darin, dass die wahllose Verwendung des mathematischen Apparats unweigerlich zu bedeutungslosen und verwirrenden Ergebnissen führt. Daher ist es notwendig, klar zu verstehen, dass eine Voraussetzung für die Bereicherung der Linguistik mit Hilfe der Mathematik nicht nur Kenntnisse in den relevanten Bereichen der Mathematik sind, sondern darüber hinaus ein tiefes Verständnis für das Wesen sprachlicher Probleme, deren Lösung die auf mathematische Methoden gerichtet sein sollte.

Um die von Warren Plath aufgezeigte Gefahr möglichst zu vermeiden, bedarf es nicht nur rein empirischer Versuche zur Beantwortung der oben formulierten Frage, sondern auch des Strebens nach ihrem allgemeinen theoretischen Verständnis. Tatsächlich ist die Frage der Reduzierbarkeit einer natürlichen Sprache auf das eine oder andere ihrer logisch-mathematischen Modelle oder Interpretationen die Hauptfrage der Theorie der angewandten Linguistik, deren Notwendigkeit immer dringender empfunden wird. Um dieses Problem zu lösen, muss zunächst die Natur der Phänomene betrachtet werden, die den Gegenstand des Studiums bilden, einerseits Logik und Mathematik.

3 Siehe Artikel Gebühr in dieser Sammlung, S. 202.

und andererseits die natürliche Sprache, und dann auch die Möglichkeiten jener Methoden, die jede dieser Wissenschaften anwendet. Bereits aus einer vergleichenden Untersuchung dieser Punkte lassen sich einige allgemeine Schlussfolgerungen ziehen. Letzteres darf nicht nutzlos sein für all diejenigen, die zwangsläufig an der Schnittstelle dieser Wissenschaften forschen müssen.

Dieses Ziel verfolgte gewissermaßen auch das Symposium „The Structure of Language and Its Mathematical Aspects“ der American Mathematical Society. Ausgewählte Beiträge dieses Symposiums bilden den folgenden Abschnitt. Aber alle betreffen, wie schon der Titel des Symposiums deutlich macht, nur einzelne und teilweise sehr spezielle Aspekte des uns interessierenden Problems. Obwohl sie in ihrer Gesamtheit hinreichend begründete Voraussetzungen für die Beantwortung unserer Frage schaffen, fehlt es ihnen dennoch an einer klaren und eindeutigen Formulierung der notwendigen Schlussfolgerungen. Die Teilnehmer des Symposiums setzen in vielerlei Hinsicht die Linie der empirischen Versuche zur Lösung dieser Frage fort, ohne ihre Experimente zwangsläufig den Linguisten anzubieten, in der Hoffnung, dass diese selbst herausfinden, wie geeignet die aufgestellten Hypothesen und Lösungen sind ihre Entsorgung wird sich für sprachwissenschaftliche Zwecke als geeignet erweisen.

2.

Es scheint, dass wir bereits eine eindeutige Antwort auf unsere Frage haben. So schreiben N. D. Andreev und L. R. Zinder: „Die mathematische Repräsentation (Modell) von Sprachen ist keineswegs identisch mit der Sprache selbst“ 4 . Diese Idee wird auch vom Autor des Buches „Modelle der Sprache“ II Revzin entwickelt, der darauf hinweist, dass das Ergebnis der Modellierung nur „eine mehr oder weniger gute Annäherung an die Daten der konkreten Realität“ sein kann 5 . Dies zu sagen heißt jedoch, noch nichts zu sagen, denn es bleibt

4 N. D. Andreev, L. R. Zinder, Die Hauptprobleme der angewandten Linguistik, "Problems of Linguistics", 1959, Nr. 4, S. 18

5 I. I. Revzin, Sprachmodelle, Moskau, 1962, S. 8. Übrigens ist der Ausdruck „enge Annäherung“ eine direkte Tautologie: enge Annäherung.

warum das so ist und ob man trotzdem auf die Methode der mathematisch-logischen Modellierung zurückgreifen sollte, und wenn ja, in welchem ​​Umfang und zu welchem ​​Zweck.

Bevor wir uns mit diesen Fragen befassen, ist es zunächst notwendig festzustellen, welche Wissenschaften - induktiv oder deduktiv - Linguistik, Logik und Mathematik umfassen. Was die letzten beiden Wissenschaften betrifft, so ist ihre Position klar – sie gehören zweifellos zu den deduktiven Wissenschaften, die sich in ihrer Forschungsmethodik auf Schlussfolgerungen stützen. Die Linguistik wird traditionell als empirische Wissenschaft definiert, da man davon ausgeht, dass ihr hauptsächliches wissenschaftliches Ziel die Beschreibung von Tatsachen ist. Das bedeutet offenbar, dass die Linguistik dem Bereich der induktiven Wissenschaften zuzuordnen ist. Das bedeutet auch, dass sie im Bestreben, den formalen Apparat der Logik und Mathematik in der Linguistik zu nutzen, versuchen, deduktive Forschungsmethoden in der induktiven Wissenschaft anzuwenden.

In den letzten Jahren ist jedoch der induktive Charakter der Sprachwissenschaft direkt oder indirekt in Frage gestellt worden. L. Elmslev tat dies in schärfster Form. Die von ihm verwendete Terminologie ist zwar sehr uneinheitlich und zeichnet sich insbesondere durch ein eigentümliches und sehr persönliches Verständnis der Begriffe Deduktion und Induktion aus (tatsächlich interpretiert er sie im gegenteiligen Sinne). Die Grundlagen seiner Sprachtheorie lassen jedoch keinen Zweifel an ihrer methodischen Essenz. Daher hält er es für akzeptabel, anfängliche operationale Definitionen zu verwenden, was typisch für deduktive Wissenschaften ist. Und er selbst charakterisiert seine Theorie folgendermaßen: „1. Theorie in unserem Sinne ist selbst unabhängig von Erfahrung. An sich sagt es nichts über die Möglichkeit seiner Anwendung oder über die Einstellung zu experimentellen Daten aus. Es enthält nicht das Postulat der Existenz. Es ist ein sogenanntes rein deduktives System, in dem Sinne, dass es allein verwendet werden kann, um die Möglichkeiten zu berechnen, die sich aus seinen Prämissen ergeben. 2. Andererseits enthält die Theorie eine Reihe von Prämissen, die aus früheren Erfahrungen bekannt sind, um die Bedingungen für die Anwendung auf bestimmte experimentelle Daten zu erfüllen. Diese Annahmen sind die allgemeinsten und können daher die Bedingungen für die Anwendung auf eine große Anzahl experimenteller Daten erfüllen“ 6 .

Wie aus dieser Aussage hervorgeht, versucht L. Hjelmslev, die Idee der dualen methodischen Natur der Objekte der Sprachforschung mit einer vorherrschenden Betonung ihrer deduktiven Merkmale umzusetzen. Zuzurechnen ist ihm auch jene eher zweideutige Art ("einerseits ..., aber andererseits ..."), die für die Auseinandersetzung mit dieser Frage allgemein charakteristisch geworden ist (und die ein Einlenken ermöglicht egal welche Richtung). Die Idee der methodologischen Dualität der Linguistik hat sich in letzter Zeit weit verbreitet und diente sogar als theoretische Grundlage für die Formulierung der Prinzipien des neuesten Trends in der Sprachwissenschaft. - Linguistik der Universalien (Universalismus). Das „Memorandum on Linguistic Universals“ sagt dazu: „Das Studium sprachlicher Universalien führt zu einer ganzen Reihe empirischer Verallgemeinerungen über sprachliches Verhalten - beide erfordern noch Experimente und solche, die bereits etabliert sind. Diese Verallgemeinerungen sind potentielles Material für die Konstruktion der deduktiven Struktur wissenschaftlicher Gesetze. Einige und vielleicht die meisten von ihnen haben jedoch immer noch nur den Status empirischer Verallgemeinerungen, die nach heutigem Kenntnisstand nicht mit Verallgemeinerungen korreliert oder aus Gesetzen von allgemeinerer Bedeutung deduktiv abgeleitet werden können“ 7 . J. Gryanberg drückt sich in seinem Vorwort zu der Sammlung sprachlicher Universalien nicht weniger bestimmt aus. Er argumentiert mit den bekannten Worten von L. Bloomfield, dass „die einzigen legitimen Verallgemeinerungen über Sprache induktive Verallgemeinerungen sind“, und schreibt: „Dennoch scheint es allgemein anerkannt zu sein, dass die wissenschaftliche Methode nicht nur induktiv, sondern auch deduktiv sein sollte. Die Formulierung von Verallgemeinerungen, die durch induktive Forschung gewonnen werden, führt zu theoretischen Hypothesen, die auf basieren

6 L. Elmslev, Prolegomena zur Sprachtheorie, Sat. "New-in Linguistik", vol. I, M., 1960, S. 274-275.

7 Memorandum zu Sprachuniversalen, in Universalien der Sprache, hrsg. von J. Greenberg, Cambridge, Mass., 1963, S. 262 - 263.

woraus wiederum durch Deduktion weitere Verallgemeinerungen abgeleitet werden können. Letztere müssen dann einer empirischen Überprüfung unterzogen werden.

Die Tatsache, dass die Geschichte der Linguistik nicht nur aus der Anhäufung von Tatsachen einer Sprache und ihrer Klassifikation besteht, sondern auch aus einer Änderung der Sichtweisen auf die Sprache selbst, die zwangsläufig eine unterschiedliche Herangehensweise an sprachliche Tatsachen und sogar deren beinhaltet unterschiedliche theoretische Interpretationen, ließen einige sowjetische Linguisten auch zu Schlussfolgerungen über die methodische Dualität ihrer Wissenschaft kommen. S. K. Shaumyan spricht jedoch lieber von der hypothetisch-deduktiven Methode und beschreibt ihre Merkmale wie folgt: „Die hypothetisch-deduktive Methode ist ein zyklisches Verfahren, das mit Fakten beginnt und mit Fakten endet. Dieses Verfahren besteht aus vier Phasen:

1) Feststellung erklärungsbedürftiger Tatsachen;

2) Aufstellung von Hypothesen zur Erklärung dieser Tatsachen;

3) Ableitung von Vorhersagen über Tatsachen aus Hypothesen, die außerhalb des Tatsachenbereichs liegen, zu dessen Erklärung Hypothesen aufgestellt wurden;

4) Überprüfen der Fakten, die durch Hypothesen vorhergesagt werden, und Bestimmen der Wahrscheinlichkeit von Hypothesen.

Die hypothetisch-deduktive Methode unterscheidet sich grundlegend von der induktiven Methode, die in Wissensgebieten wie beispielsweise der beschreibenden Botanik oder Zoologie verwendet wird“ 9 . Die Methode von S. K. Shaumyan wiederholt vollständig die Methode der Linguistik der Universalien und J. Greenberg. Der einzige Unterschied liegt im Namen. Wenn beispielsweise J. Greenberg von einer Kombination aus induktiver und deduktiver Methode spricht, dann nennt S. K. Shaumyan seine Methode hypothetisch-deduktiv - die Bezeichnung ist eindeutig widersprüchlich für eine Methode, die „mit Fakten beginnt und mit Fakten endet“.

Die Frage, wo Linguistik zuzuordnen ist, stellt auch I. I. Revzin. „Von Natur aus

8 Universalien der Sprachen p. IX.

9 S. K-Shaumyan, Probleme der theoretischen Phonologie, M., 1962, vgl. 18-19. Zur hypothetisch-deduktiven Methode siehe auch den Artikel von V. S. Shvyreva, Einige Fragen der logischen und methodischen Analyse der Beziehung zwischen theoretischen und empirischen Ebenen wissenschaftlicher Erkenntnis, in der Sammlung „Probleme der Logik wissenschaftlicher Erkenntnis“, M. , „Die Wissenschaft“, 1964, S. 66-75 (3. Abschnitt des Artikels).

Er beantwortet diese Frage – die Linguistik muss sich zunächst induktiver Methoden bedienen, sie beschreibt spezifische Sprechakte bestimmter Sprachen …

Andererseits macht es das Vorhandensein einer unendlichen Menge von Sprechakten, die von einem Linguisten untersucht werden, kaum möglich, die Grundbegriffe der Sprachwissenschaft durch Verallgemeinerung durch Induktion zu formulieren.

Daraus folgt, dass Linguisten nicht nur induktive, sondern auch deduktive Forschungsmethoden benötigen, um ein System des Allgemeinwissens zu erhalten, das hilft, die Daten zu verstehen, die bei der Analyse bestimmter Sprachen gewonnen werden ...

In ihrem deduktiven Teil lässt sich die Linguistik offenbar genauso aufbauen wie die Logik oder die Mathematik, nämlich: eine bestimmte Mindestzahl von primären, undefinierten Begriffen wird herausgegriffen, und alle anderen Begriffe werden durch primäre definiert. Gleichzeitig müssen einige Hauptaussagen über den Zusammenhang dieser Begriffe untereinander (Axiome) klar formuliert und alle anderen Aussagen bewiesen, also auf einige andere Aussagen reduziert werden“ 10 .

Die in Logik und Mathematik verkörperte Methode der Deduktion dient hier nur als Ordnungsmittel der "Menge der Sprechakte", um ein "System allgemeiner Begriffe" zu schaffen. In direktem Widerspruch zu dieser Aufgabe steht jedoch die Darstellung der deduktiven Methode selbst, die für den Einsatz in der Linguistik empfohlen wird. Es ist sowohl aus Handlungen als auch aus Tatsachen vollständig durchdacht und benötigt für den ersten Moment der Konstruktion eines Systems allgemeiner sprachlicher Konzepte eine Reihe undefinierter und anscheinend absolut bedingter Primärbegriffe, durch die alle nachfolgenden Begriffe definiert werden.

Dieser Widerspruch ist kein Zufall, er liegt in der Natur der Wissenschaften, die wir betrachten. Es scheint, dass die Schlussfolgerung, dass eine Kombination aus induktiven und deduktiven Methoden beim Studium sprachlicher Objekte zulässig ist, die Tür für die Verwendung logischer und mathematischer Methoden in der Linguistik öffnet, und die spezifische Umsetzung dieser Schlussfolgerung ist die Schaffung zahlreicher

10 I. I. Revzin, Sprachmodelle, M., 1962, S. 7-8.

formallogische und mathematische Modelle der Sprache. Aber wie unten gezeigt wird, kann ein solcher vereinfachter Ansatz keine zufriedenstellenden Ergebnisse liefern. Wir können zustimmen, dass es in der Sprachforschung zulässig und sogar notwendig ist, deduktive und induktive Methoden zu kombinieren. Letztlich ist, wie W. Bröndal schrieb, „Induktion nichts als eine verschleierte Deduktion, und hinter den reinen Zusammenhängen, die zwischen den beobachteten Phänomenen hergestellt werden, wird unbedingt die Realität, der spezifische Gegenstand dieser Wissenschaft, vorausgesetzt“ 11 . Das bedeutet aber nicht, dass der formale Apparat der Logik und Mathematik ohne Rücksicht auf den „spezifischen Gegenstand dieser Wissenschaft“ unbedingt und mechanisch auf die Linguistik übertragen werden sollte. Wie derselbe I. I. Revzin zu Recht feststellt, „sagen die mit deduktiven Mitteln gewonnenen Beweise, so tadellos sie aus logischer Sicht auch sein mögen, noch nichts über die Eigenschaften der durch das Modell beschriebenen realen Sprache aus“ 12 . Und um die Wirksamkeit der Modelle zu bestimmen, empfiehlt er, sich der Praxis zuzuwenden, nämlich der maschinellen Übersetzung und "anderen praktischen Anwendungen, der Linguistik".

Und die Praxis der angewandten Linguistik zeigt, dass der Anwendung mathematischer und logischer Methoden beim Studium sprachlicher Phänomene sehr strenge Beschränkungen auferlegt werden.

Die Logik ist ein Beispiel für die konsequenteste Anwendung der deduktiven Methode. Die Mathematik folgt in dieser Hinsicht weitgehend der Logik und kann daher zusammen betrachtet werden.

Natürlich stellen sowohl Logik als auch Mathematik keine homogenen Systeme hinsichtlich ihrer Methoden und Zielinterpretation dar. So können wir beispielsweise in Bezug auf Logik von dialektischer, formaler, mathematischer Logik und im engeren Sinne von subjekt-, semantischer, phänomenologischer, transzendentaler oder konstruktiver, kombinatorischer, mehrwertiger,

11 W. Bröndal, Strukturelle Linguistik. Zit. An
V. A. Zvegintsevs Buch „Die Geschichte der Linguistik im 19. und 20. Jahrhundert. in der Gliederung
kah und Auszüge, Teil II, M., Uchpedgiz, 1960, S. 41-42.

12 I. I. Revzin, Sprachmodelle, M., 1962, S. 10.

entfernt usw. Notwendigerweise wird es jedoch notwendig sein, an all diese Unterteilungen zu denken und nur von den allgemeinsten Merkmalen zu sprechen, die der Logik und Mathematik als Ganzes innewohnen, und hauptsächlich von denen, die die deduktive Natur der Methoden am deutlichsten demonstrieren dieser Wissenschaften.

Nachdem wir diese Position eingenommen haben, werden wir uns daher nicht der induktiven Logik zuwenden. Wir bemerken nur, dass Schlussfolgerungen in der induktiven Logik nicht durch Prämissen bestimmt werden – sie sind also nicht tautologisch. Die Schlussfolgerungen in der induktiven Logik sind direkt von den Tatsachen abhängig, und diese letzteren werden durch die Menge unseres Wissens bestimmt – sie werden also auf einer Wahrscheinlichkeitsbasis erstellt. Wahrscheinlichkeit ist das wichtigste methodische Werkzeug der induktiven Logik.

Die deduktive Logik wird am vollständigsten durch formale und mathematische Logik repräsentiert, die viel gemeinsam haben. Die deduktive Logik ist eine Wissenschaft, die das menschliche Denken oder geistige Handeln unter dem Gesichtspunkt ihrer Struktur oder Form untersucht und von ihrem spezifischen Inhalt abstrahiert. Daher versucht die deduktive Logik, Gesetze und Prinzipien zu formulieren, deren Einhaltung eine Voraussetzung für das Erreichen wahrer Ergebnisse im Prozess der Gewinnung von schlussfolgerndem Wissen ist. Das wichtigste methodische Werkzeug der deduktiven Logik ist die Implikation. Sie erhält abgeleitetes Wissen ohne direkten Bezug auf Erfahrung oder Praxis, nur durch die Anwendung der Gesetze der Logik. Im Prozess der Deduktion bedingt die Prämisse die Konklusion: Wenn die Prämisse wahr ist, dann die Konklusion muss sein WAHR. Die Schlussfolgerung liegt also bereits in der Prämisse, und der Zweck der Deduktion besteht darin, deutlich zu machen, was im latenten Zustand bereits in der Prämisse enthalten ist. Daraus folgt, dass jeder mittels Deduktion gewonnene Schluss tautologisch, also logisch leer ist, obwohl er unter anderen Gesichtspunkten, z kann neu, unerwartet und originell sein.

Eine ähnliche Situation findet in der Mathematik statt – die Gültigkeit der darin enthaltenen Argumente beruht ausschließlich auf Deduktion. Darüber hinaus ist in der Mathematik in der Regel jeder Ausgangspunkt, jeder Ansatz zur Lösung eines Problems akzeptabel - solange sie die Bedingungen mathematischer Deduktion erfüllen. Die Mathematik verfügt über eine Fülle solcher „Anfangsgesichtspunkte“ und „Ansätze“, die der Forscher alternativ zur Lösung seines Problems heranziehen kann. Mathematische Probleme werden oft in verschiedene äquivalente Formen übersetzt, und jede von ihnen beinhaltet die Verwendung verschiedener Bereiche der mathematischen Theorie, um das Problem zu lösen. Ein Mathematiker hat also praktisch unbegrenzte Prämissenwahlfreiheit – er wählt diejenigen aus, die aus seiner Sicht die erfolgversprechendsten Möglichkeiten für die einfachste, unbanalste, eleganteste Lösung des Problems enthalten. Sein Talent und seine Erfahrung manifestieren sich gerade in der erfolgreichen Auswahl von Voraussetzungen, jenen „sagen wir, dass ...“ oder „wenn ..., dann“, die voller mathematischer Arbeiten sind. Wie in der Logik bestimmen mathematische Prämissen – Axiome oder Postulate – die Definition noch unbestimmter Einheiten.

Die Freiheit der Prämissenwahl in der Mathematik ist direkt abhängig von den nichtmateriellen Einheiten oder Objekten, mit denen sie operiert – ihre Aufmerksamkeit richtet sich auf die Beziehung zwischen ihnen. Mathematische Objekte fungieren als Symbole, die die Struktur reiner Beziehungen ausdrücken. Ein mathematisches System kann somit als eine Menge formaler Relationen betrachtet werden, die nur aufgrund der Aussage dieser Relationen existieren. Natürlich können insbesondere für angewandte Zwecke Beziehungsaussagen darauf abzielen, in ihnen eine Übereinstimmung mit der äußeren Realität zu verkörpern, was auf diese Aussagen selbst keine Auswirkungen hat, sondern im Gegenteil. Mathematiker untersuchen nicht die "Wahrheit" ihrer Axiome, obwohl sie eine gegenseitige Vereinbarung zwischen ihnen erfordern. Untersuchen innerhalb eines mathematischen Systems ist das Untersuchen und Herstellen von Zusammenhängen, die es ermöglichen zu beweisen, dass die Tatsache der Theorie A die Tatsache der Theorie B impliziert. Daher ist die Hauptfrage in der Mathematik nicht „was sind A und B“, sondern „macht A B voraussetzen (oder Bedingungen)? »

Ganz anders ist die Situation in der Linguistik – sie konzentriert sich hauptsächlich auf die erste dieser Fragen, und das gibt ihr nicht die Möglichkeit, sich von der Realität zu lösen; Daher arbeitet es nicht mit abstrakten, sondern mit konkreten Einheiten, obwohl es in einigen Fällen dazu neigt, abstrakte Objekte wie das Konzept eines Phonems oder eines Morphems zu schaffen. Diese Situation ist nicht nur charakteristisch für die traditionelle Linguistik, sondern ebenso charakteristisch für ihre neuesten Strömungen, die unter dem Banner des Strukturalismus vereint sind. Oben wurden bereits einige Aussagen zitiert, deren Verfasser bei dem Versuch, in der Sprachwissenschaft nicht nur induktive, sondern auch deduktive (bzw. mathematisch-logische) Methoden anzuwenden, nicht umhin kamen, sich auf eine reale Linguistik zu beziehen Tatsache. Zusätzlich zu ihnen kann noch eine Sache angeführt werden, die die zu behandelnde Frage vollständig klarstellt. "Sprachanalyse,- P. Garvin schreibt in diesem Zusammenhang:- im Grunde ein induktiver Prozess in dem Sinne, dass versucht wird, eine Liste von Elementen oder eine Reihe von Aussagen aus den sprachlichen Reizen der Informanten oder aus dem Studium eines Textes zu erstellen. Es basiert auf der Annahme, dass es in diesen beiden Informationsquellen möglich sein wird, regelmäßig vorkommende Elemente verschiedener Arten und Komplexitätsgrade zu erkennen. Die aus der Analyse gewonnene Klassifikation dieser Typen und die Angabe ihrer Verbreitungsbedingungen bilden eine induktive Beschreibung der Sprache“ 13 .

In der Linguistik kann man natürlich auch die Methode der Voraussetzungen anwenden, auf deren Grundlage dann bestimmte Gegenstände, Tatsachen oder sprachliche Einheiten bestimmt werden. Aber hier sind wir mit zwei Merkmalen konfrontiert, die die Verwendung dieser Methode erheblich anpassen. Im Gegensatz zu Logik und Mathematik wird hier nach der „Wahrheit“ der so gewonnenen Definitionen gesucht, also nach ihrer Entsprechung zu den Erfahrungsdaten. Somit wird die gegenseitige Abhängigkeit von Prämisse und schlussfolgerndem Wissen festgestellt: Die Prämisse bestimmt die Schlussfolgerung (die Definition eines bestimmten sprachlichen Objekts in Bezug auf die Prämisse), aber wenn die Schlussfolgerung nicht den Erfahrungsdaten entspricht, dann die Prämisse selbst muss korrigiert werden. Aber solche Anpassungen der Voraussetzung haben nichts gemein mit der Übersetzbarkeit in äquivalente Formen, die, wie oben bemerkt, in der Mathematik erlaubt ist, da sie nicht durch bedingt sind

13 P. Garvin, Eine Studie der induktiven Methode in der Syntax, "Wort", vol. 18, 1962, p. 107.

formale Überlegungen, sondern die Daten der Erfahrung. All dies gibt Anlass zu der Schlussfolgerung, dass das Konzept einer Prämisse selbst und die Freiheit, sie zu wählen, eine Besonderheit in der Sprachanalyse haben, die bei der Verwendung der deduktiven Methode in der Linguistik nicht ignoriert werden kann.

Linguisten können die „wenn“- oder „lasst uns“-Methode nicht so frei anwenden wie Mathematiker. Ihre räumliche Freiheit ist sehr stark eingeschränkt. Die Geschichte der Sprachwissenschaft kennt viele Veränderungen von "Standpunkten" oder, anders gesagt, Ausgangsvoraussetzungen, die durch die Entdeckung neuer Tatsachen, die Verbreitung allgemeiner wissenschaftlicher Ideen auf die Linguistik oder sogar die Entstehung von Originalen veranlasst wurden Theorien. Aber für den Linguisten ist in all diesen Fällen die Änderung des „wenn“ oder der anfänglichen Prämisse die Änderung des gesamten wissenschaftlichen Konzepts. Daher sagt der Linguist nicht „wenn“, sondern postuliert sein Verständnis der Voraussetzung, also tatsächlich ein Verständnis des Gegenstands seiner Forschung, und gibt auf der Grundlage dieses Verständnisses eine Definition privater Einheiten der Sprache , diese Definitionen mit Erfahrungsdaten überprüfen. Letzterer Umstand dient aufgrund der linguistischen Interdependenz von Prämisse und Konklusion als Mittel zur Überprüfung der Legitimität der Prämisse selbst, was am Anfang einer der Form nach deduktiven sprachlichen Analyse steht. Wenn wir uns also konkreten Beispielen zuwenden,inSprache wurde in der Vergangenheit als Ausdruck des geistigen Wesens des Menschen (von Humboldt), als natürlicher Organismus (von Schleicher), als individuelle psychophysiologische Aktivität (von Neogrammatikern) usw. gedeutet. Darauf aufbauende Forschungspraxis Konzepte zeigten ihre Unzulänglichkeit. Heute ist die Ausgangsprämisse der Sprachanalyse das Postulat, dass Sprache ein System von Zeichen ist. Es unterliegt dem gleichen Erfahrungs- und Praxistest wie jedes andere Konzept in der Sprachwissenschaft.

Bereits diese vorläufigen und allgemeinsten Überlegungen zeigen, dass deduktive Methoden in der Linguistik keineswegs kontraindiziert sind, ihre Anwendung aber die Einhaltung bestimmter Bedingungen erfordert. Es sind diese spezifischen Bedingungen, die der mechanischen Übertragung der Methoden der Logik und Mathematik auf das Gebiet der Linguistik gewisse Beschränkungen auferlegen. Beschränken wir uns jedoch auf eine solche allgemeine Aussage, bleibt noch vieles unklar. Aus diesem Grund ist es notwendig, das von uns betrachtete Thema zu vertiefen und sich zur Stärkung möglicher Schlussfolgerungen der Praxis der angewandten Linguistik zuzuwenden, wo die Legitimität der Prämissen und die Übereinstimmung der daraus gezogenen Schlussfolgerungen mit den experimentellen Daten Basis sind am deutlichsten manifestiert.

Die Beziehung zwischen Sprache und Logik ist sehr eigentümlich. Vertreter der empirischen Wissenschaften, zu denen auch die Linguistik gehört, untersuchen ein bestimmtes Objekt oder Phänomen, um es zu beschreiben oder zu erklären. Sie formulieren ihre Ergebnisse in einer Sprache, die Objektsprache genannt wird. Der Logiker führt Beweise, Schlüsse, Urteile usw., aber sie stehen ihm nur in sprachlicher Form zur Verfügung. Es stellt sich also heraus, dass der Logiker einen Schritt weiter von der realen Welt entfernt ist als die Vertreter der empirischen Wissenschaften. Seine Analyse richtet sich nicht direkt auf den realen Untersuchungsgegenstand der empirischen Wissenschaften, sondern auf deren Sprache 14 . Mit anderen Worten, er untersucht die Sprache und formuliert die gewonnenen Ergebnisse in einer Sprache, die Metasprache genannt wird.

Aus logischer Sicht ist die Grundeinheit der Sprache nicht ein Zeichen und nicht der damit bezeichnete Gegenstand, sondern ein Satz, da sich nur in ihm ein logischer Prozess entfalten kann. Deshalb kann nur ein Satz wahr oder falsch sein. Und Worte allein können diese Qualitäten nicht haben. Aber bevor wir feststellen können, ob ein Satz wahr ist oder nicht, müssen wir feststellen, dass er eine Bedeutung hat.

Die Begriffe Wahrheit und Bedeutung gehören zum Bereich der Semantik, die die Beziehung zwischen Sprache und den von ihr bezeichneten Objekten untersucht. Durch diese Beziehungen wird die Wahrheit oder Falschheit eines Satzes bestimmt: Wenn der Satz Objekte richtig beschreibt, ist er wahr, und wenn er falsch ist, ist er es nicht. Aber sprachliche Ausdrücke können andere Beziehungen eingehen als die, die

14 „Die logische Analyse wissenschaftlicher Erkenntnisse“, schreiben P. V. Tavanets und V. S. Shvyrev in diesem Zusammenhang, „ist vor allem und direkt eine Analyse der Sprache, in der dieses Wissen ausgedrückt wird.“ Siehe den Artikel „The Logic of Scientific Cognition“ in der Sammlung „Problems of the Logic of Scientific Cognition“, M., „Nauka“, 1964, S. 161.

existieren zwischen den Objekten, die sie bezeichnen. Darüber hinaus können Angebote mit anderen Angeboten in Beziehung treten. Die Aufgabe des Logikers besteht darin, die Art der Beziehung zwischen sprachlichen Ausdrücken und Sätzen herauszufinden und Regeln aufzustellen, anhand derer festgestellt werden kann, ob das im Einzelfall vorgeschriebene Verfahren eingehalten wird oder nicht. Bei der Lösung dieser letzten Frage bezieht sich der Logiker nicht auf die durch den Satz beschriebenen Gegenstände. Ihn interessiert die sprachliche Form, nicht deren Inhalt, was natürlich die Interpretation ihres Inhalts nicht verhindert, was zu einer formalisierten Sprache führt. Eine formalisierte Sprache kann als abstraktes System dargestellt werden, beispielsweise als Prädikatenkalkül.

So kann der Logiker, je nach Zielsetzung des Studiums, auf zwei Ebenen arbeiten – der Syntax (logische Syntax) und der Semantik (logische Semantik). Betrachten wir zunächst die Anwendung der ersten dieser Ebenen auf die natürliche Sprache.

Wenn ein Logiker, der mit dem Studium sprachlicher Formen und der zwischen ihnen bestehenden Beziehungen beschäftigt ist, auf der syntaktischen Ebene bleiben und mit bedeutungslosen Begriffen operieren kann, dann kann das der Linguist nicht. Alle Ebenen der natürlichen Sprache (mit der möglichen Ausnahme der phonemischen) sind sinnvoll und daher außerhalb der Semantik undenkbar. Außerdem existiert die natürliche Sprache nicht außerhalb der Pragmatik, die sich von ihr nicht ohne Weiteres lösen lässt, schon deshalb, weil sie im Sprechakt ständig in die Semantik transpoliert wird. Natürliche Sprache ist also immer eine Interpretation, und zwar eine zweistufige, da sie sowohl mit Semantik als auch mit Pragmatik verbunden ist 15 . Und diese Deutung bietet sich noch keiner Formalisierung an.

Gehen wir nun zur zweiten Ebene über, wenn dem Kalkül mittels semantischer Regeln eine Interpretation zugeschrieben wird. Und in diesem Fall erhalten wir eine Bildung, die in keiner Weise mit der natürlichen Sprache vergleichbar ist. Wahrheit,

15 Heiraten Niels Bohrs Bemerkungen zur mathematischen Sprache, wo "die für eine objektive Beschreibung notwendige Eindeutigkeit von Definitionen durch die Verwendung mathematischer Symbole erreicht wird, gerade weil auf diese Weise die Bezüge zum bewussten Subjekt vermieden werden, die die Alltagssprache durchdringen." (Nil Bor, Atomphysik und menschliches Wissen, M., IL, 1961, S. 96.)hier haben wir es mit bedeutungsvollen begriffen zu tun, aber in der logischen und natürlichen sprache bauen sie ihre beziehung zur "wahrheit" auf ganz anderen gründen auf. Wie A. Tarski schreibt, ist „wahr“ „jedenfalls in seiner klassischen Interpretation“ wahr, soweit es „mit der Realität übereinstimmt“ 16 . Dieses Wahrheitskriterium gilt aber eigentlich nur für natürliche Sprachen, die sich immer an der Realität orientieren. Anders verhält es sich in der logischen Semantik. Die semantische Analyse stützt sich nur auf die logische Interpretation des Systems und beinhaltet die Einrichtung An- ichbestimmte Regeln, die Wahrheitsbedingungen formulieren,ichEr schreibt die Einhaltung dieser Regeln vor, ohne die Frage zu beantworten, inwieweit hier „Zufall“ stattfindet.ichBeziehung zur Realität. Zudem erfolgt die Fokussierung auf die Realität selbst nicht direkt, sondern durch eine Person in natürlicher Sprache, was wiederum eine Hinwendung zur dritten Ebene erforderlich macht,- pragmatisch. „... Der Übergang zur semantischen Ebene,- festgestellt von P. V. Tavanets und V. S. Shvyrev,- ist an sich keine Rückkehr zur lebendigen Sprache in ihrer Konkretheit, wie es auf den ersten Blick scheinen mag, weil die semantische Funktion der Sprache gleichsam das Wesen der Sprache als „unmittelbare Realität des Denkens“ ist. Tatsächlich ist das ursprüngliche Schema der Semantik „Sprache - Realität“ gibt noch kein konkretes Bild der Sprache als unmittelbare Realität des Denkens, aus dem einfachen Grund, dass die Sprache nicht an sich auf mystische Weise mit der Realität verbunden ist, sondern durch einen Menschen, durch sein Handeln, sein Verhalten. Daher kann eine spezifische Vorstellung von Sprache als Gedankenträger tatsächlich nur auf der Ebene ihrer pragmatischen Analyse nach der „Sprache“ erreicht werden - menschliches Handeln mit und auf der Grundlage von Sprache - Wirklichkeit“ 17.

Aber das ist nicht alles. Zu diesem Thema, M. | Glushkov schreibt: „Eine lebendige menschliche Sprache kann erst dann als formale Sprache betrachtet werden, wenn ein strenges Regelsystem formuliert wurde, das dies zulässt

16A . Stichworte k i, Grundlegung der Wissenschaftlichen Semantik
(Actes du
Congrès International de Philosophie Scientifique, 1936).

17 Siehe den Artikel „Die Logik wissenschaftlicher Erkenntnis“ in der Sammlung „Pro-
Probleme der Erkenntnislogik“, M., „Nauka“,
1964, Seite 16.

in der Sprache erlaubte Ausdrücke von allen anderen Ausdrücken, also bedeutungsvollen Sätzen, zu unterscheidenAussinnlos" 18 . Er erläutert die Schwierigkeiten, die bei der Formalisierung einer natürlichen Sprache auftreten, und weist weiter darauf hin, dass „... keine feststehende formalisierte Sprache einer lebendigen menschlichen Sprache angemessen sein kann, da sich letztere im Gegensatz zu ersterer ständig weiterentwickelt und verbessert. Daher ist jede Formalisierung einer lebenden menschlichen Sprache nur eine mehr oder weniger gelungene sofortige Kopie davon, die ihre Ähnlichkeit mit dem Original verliert, wenn sich letzteres entwickelt. Wenn alles darauf hinauslaufen würde, wäre es die halbe Miete: In der angewandten Linguistik denkt man an die Momente der Entwicklung der Sprache, man strebt danach, sie als ein vollkommen stabiles System zu betrachten, und scheitert dennoch daran die Formalisierung einer natürlichen Sprache. Dies geschieht aus einem ganz einfachen Grund. Das formale System und die natürliche Sprache basieren ihre Wirksamkeit auf polar entgegengesetzten Eigenschaften. Jedes formale System ist immer mit sich selbst identisch. Es ist diese Qualität, die es ihm ermöglicht, seine Funktionen in allen spezifischen Fällen seiner Anwendung zu erfüllen. Und die natürliche Sprache - in Bezug auf ihren Inhalt, ihre Semantik oder, wie man in diesen Fällen zu sagen pflegt, in ihren informativen Begriffen - ist niemals mit sich selbst identisch. Es ist diese seine Fähigkeit, die es ihm ermöglicht, in allen spezifischen Fällen seiner Anwendung zu funktionieren. Die gleiche Sprache bleibend, ist sie in verschiedenen Situationen immer anders. Gleichzeitig hat es weder explizite noch formative Regeln, noch Wahrheitsregeln oder Transformationsregeln, um zu bestimmen, welche der möglichen Bedeutungen oder Bedeutungsnuancen ein bestimmtes Wort in einer bestimmten Situation erhält. Darüber hinaus kann fast jedes Wort einer natürlichen Sprache eine Bedeutung erlangen, die in keiner Sprache festgelegt ist - es kann, nachdem es entstanden ist, in der Sprache festgelegt werden, aber mit dem gleichen Erfolg, wie eine schnelle Flamme, aufblitzen, in der Sprache verloren gehen Sprachraum und ausgehen.

18 V. M. Glushkov, Denken und Kybernetik, „Issues of fi-
Losophy“, 1963, Nr. 1, S. 37-38

19 Ebenda, S. 38.

Und mit all diesen Qualitäten erweist sich die natürliche Sprache als ein erstaunlich perfektes Werkzeug, mit dem Sie in Bezug auf die komplexesten Konzepte und in allen Situationen ein vollständiges gegenseitiges Verständnis erreichen können. Warum passiert dies?

Anscheinend sollte die Antwort auf diese Frage teilweise in einem der Gedanken des Begründers der Semiotik, Ch. Pierce, gesucht werden, die er in vielen seiner Werke beharrlich wiederholt. Es läuft auf Folgendes hinaus. In der modernen Linguistik wird Sprache meist als Zeichensystem definiert. Dies ist die Grundvoraussetzung für jede linguistische Analyse. Wenn dem so ist, dann ist die Sprache nicht nur ein System von Zeichen, sondern ein System sich gegenseitig interpretierender Zeichen, die in ihr existieren, sofern sie in anderen Zeichen interpretiert werden. C. Pierce formuliert es so: „Kein Zeichen kann als Zeichen fungieren, wenn es nicht in einem anderen Zeichen interpretiert wird. Daher ist es für ein Zeichen unbedingt erforderlich, dass es auf ein anderes Zeichen einwirkt“ 20 . Und an anderer Stelle: „Der ganze Zweck eines Zeichens besteht darin, dass es in einem anderen Zeichen interpretiert wird“ 21 . Und schließlich das vielleicht Wichtigste: „Ein Zeichen ist kein Zeichen, es sei denn, es übersetzt sich in ein anderes Zeichen, in dem es eine vollständigere Entfaltung erfährt“ 22 .

Folglich ist die natürliche Sprache ein System von Zeichen, die durch gegenseitige Interpretation in der Lage sind, auf alle menschlichen Bedürfnisse in semantischem Ausdruck einzugehen. Aber eine wichtige Einschränkung ist hier erforderlich. Schließlich werden alle Bedürfnisse dieser Art durch die Einstellung eines Menschen zu den Phänomenen der Außenwelt und dem sozialen Umfeld, in dem sein Leben stattfindet, bestimmt. Aufgrund dieses Umstands kann sich die Transformationssemantik, wenn sie überhaupt geschaffen werden könnte, nicht nur auf die Regeln der gegenseitigen Interpretation von Zeichen stützen, dh geschlossener und endlicher Natur sein. Es stellt sich als Ableitung einer sehr großen Zahl von Größen heraus, die sich auf jede erdenkliche Weise einer Formalisierung widersetzen.

20 Ch. R e i g c e , Collected Papers, Cambridge, Mass., vol. acht,
p. 225.

21 Ebenda, Bd. 8, p. 191.

22 Ebenda, Bd. 5, p. 594.

In diesem Zusammenhang ist es wichtig, die Merkmale des Problemlösungsverfahrens und das Konzept der Lösbarkeit einerseits in Logik und Mathematik und andererseits in der Linguistik zu berücksichtigen.

Bevor ein mathematisches Problem gelöst werden kann, muss das Problem präzise formuliert werden. Gerade diese Formulierung ist Voraussetzung für eine erfolgreiche Lösung des Problems. Gleichzeitig kann, wie bereits ausgeführt wurde, ein Mathematiker eine gegebene Problemstellung frei in eine äquivalente Variante überführen, er hat auch die entsprechenden Mittel dazu. Bereits auf dieser ersten Stufe der Forschungsmethodik unterscheidet sich die Linguistik deutlich von der Mathematik. Der Linguist hat bei der Formulierung seiner Probleme eine gewisse Menge beobachteter empirischer Daten, die er nicht immer exakt formulieren kann, die er aber wohl oder übel seiner Forschung zugrunde legen muss – schon im Prozess dieser Forschung selbst werden Formulierungen geklärt, die oft das Ziel der Forschung selbst sind. Um nicht über Beispiele hinauszugehen, sei auf die sprachliche Bedeutung verwiesen, die der Forschung im Bereich der automatischen Verarbeitung von Sprachinformationen zugrunde liegt, gleichzeitig aber sehr vage und widersprüchlich definiert ist. Dieser Umstand zwingt Forscher auf diesem Gebiet dazu, ihre Strategie ständig zu ändern.

Aber jetzt hat die Forschung begonnen und eine Lösung gefunden. Was bedeutet das in Bezug auf Logik und Mathematik und in Bezug auf die Linguistik? Die Logik ermöglicht es, wie oben erwähnt, die Schlussfolgerungen, die in der Prämisse enthalten sind, explizit darzustellen. Die Logik hat jedoch keine Regeln, deren Verwendung garantieren kann, dass in diesem Fall die gewünschte Lösung erhalten wird, da sie kein Mittel ist, um zu neuen Schlussfolgerungen zu gelangen, sondern nur eine Methode, um ihre Richtigkeit zu bestimmen. Sie ist nicht der magische Schlüssel zu allen Geheimnissen. Es ist ziemlich offensichtlich, dass es keine ungelösten Probleme geben würde, wenn die Logik solche Regeln hätte. Es würde genügen, bestimmte logische Regeln anzuwenden, und wir würden automatisch eine fertige Antwort auf jede Frage erhalten, die uns quält. Im Lichte des Gesagten erhält auch der Begriff der Lösbarkeit eines Problems oder einer Aufgabe eine besondere Bedeutung.

In Logik und Mathematik wird jedes Endergebnis als wahr anerkannt, wenn beim Beweis keine formale Regel verletzt wurde. Da hier unterschiedliche Beweiswege möglich sind, ist die Existenz unterschiedlicher Lösungen zulässig. Aber alle von ihnen können vom Standpunkt der Forderung der Logik oder Mathematik einer Überprüfung unterzogen werden. Anders sieht es in der Linguistik aus. Es verfügt nicht über einen Apparat, mit dem die Richtigkeit der gezogenen Schlussfolgerungen überprüft oder bewiesen werden könnte. Dementsprechend wird auch die Wahrheit der getroffenen Entscheidungen bestimmt - sie wird nicht durch formale Regeln, sondern durch ihre Übereinstimmung mit den Daten der Erfahrung bestimmt. Unter diesen Bedingungen würde man theoretisch eine einzige Endlösung erwarten. In der Praxis ist dies jedoch nicht der Fall, wie widersprüchliche sprachliche Definitionen sogar der Hauptkategorien der Sprache bezeugen. Dabei besteht immer eine gewisse Subjektivität der Einschätzungen, die maßgeblich von der Menge der Fakten bestimmt wird, die dem Forscher zur Verfügung stehen. Daraus folgt, dass die Wahrheit einer Entscheidung in der Linguistik immer in einer Annäherung gegeben ist und nicht deterministisch, sondern probabilistisch ist.

Unter diesen Bedingungen ist es sehr wichtig, die Korrektheit sprachlicher Definitionen und Interpretationen anhand objektiver Kriterien zu prüfen. Die Möglichkeit einer solchen Überprüfung bietet ein weiter Bereich der angewandten Linguistik, wo der natürlichen Sprache eine Maschine gegenübersteht, die die Interessen von Logik und Mathematik vertritt.

Ein digitaler Computer dient zur Lösung praktischer Probleme der angewandten Linguistik. Es ist in der Lage, Informationen wahrzunehmen, zu speichern, zu übermitteln, neu zu gruppieren und auszugeben. Es interpretiert und führt eine Reihe von Befehlen (Befehlsprogramm) aus und modifiziert sie auch während der Ausführung einer Aufgabe. Es ist in der Lage, sehr komplexe Probleme zu lösen, aber der gesamte Prozess des Übergangs von der Aufgabe zur Lösung muss vollständig und konsistent in Form einer Abfolge grundlegender elementarer Operationen beschrieben werden. Informationen werden über einen zweistelligen (binären) Code oder eine Sprache in die Maschine eingegeben. Die Maschine arbeitet mit auf diese Weise codierten Wörtern, die den logischen Hauptverbindungen entsprechen . oder Funktionen des Aussagen- oder Prädikatenkalküls. Eine Maschine kann komplexe mathematische Probleme gerade deshalb lösen, weil es möglich ist, komplexe mathematische Operationen auf eine Folge von arithmetischen Operationen und diese wiederum auf logische Operationen zu reduzieren. Daher kann ein digitaler Computer genauso wie eine logische Maschine betrachtet werden.

Wie komplex die Aufgabe also auch sein mag, die Maschine löst sie mit Hilfe einer Abfolge elementarer Operationen, deren Programm absolut eindeutig (konsistent), genau, detailliert und erschöpfend formuliert sein muss. Mit anderen Worten, sie darf die Grenzen des logischen Propositionskalküls nicht überschreiten; und wenn wir uns fragen, ob eine maschine die verarbeitung von in natürlichen sprachen enthaltenen informationen bewältigen kann, müssen wir zunächst herausfinden, inwieweit der logische aussagenkalkül ein adäquates modell für natürliche sprache ist.

Angesichts der oben beschriebenen Besonderheiten des digitalen Computers ist das erste, was zu tun ist, damit die Maschine die Aufgabe „versteht“ und mit der Verarbeitung von Sprachinformationen gemäß dieser Aufgabe beginnt, die in natürlicher Sprache enthaltenen Informationen in logische Sprache umzuformulieren. Wir sprechen von der Übersetzung einer natürlichen Sprache in die Sprache des logischen Aussagenkalküls.

Gleichzeitig muss man sich, wie Bar-Hillel 23 gezeigt hat, solchen Schwierigkeiten stellen, die die Aussichten für die automatische Informationsverarbeitung in einem sehr düsteren Licht erscheinen lassen, wenn nicht die gesamte Richtung der Suche nach einer Lösung für dieses Problem geändert wird. Zumindest müssen wir mit den unten aufgeführten Hindernissen rechnen, für deren Überwindung wir noch nicht die notwendigen Mittel haben.

A. Das logische Kalkül von Sätzen ist zu schwach, um es auch nur annähernd zu können

23 Y. V a g - H ich 1 1 f 1, A Demonstration of the Non-feasibility of Fully Automatic High Quality Translation, "Advances in Computers", hrsg. von F. Alt., vol. ich, N . J., 1960, S. 158-163.

Annäherung, um eine natürliche Sprache neu zu formulieren, die in ihrer semantischen Struktur unglaublich komplex ist, eine riesige Menge redundanter Elemente enthält und vor allem oft durch eine solche Vagheit und Unbestimmtheit im Ausdruck von „Bedeutung“ gekennzeichnet ist, dass es keine zweiwertige Logik gibt in der Lage, mit der Schaffung eines künstlichen Zwillings einer natürlichen Sprache fertig zu werden 24 . Gewiss, die Logik befasst sich, wie gesagt, nur mit der sprachlichen Form. Da es sich aber um eine automatische Informationsverarbeitung handelt, ist es notwendig, zwischen semantischen Informationen unterscheiden zu können, und wenn dies mit den uns zur Verfügung stehenden logischen Mitteln nicht zu erreichen ist, wie können wir dann "die Gewissheit erlangen, dass unsere Übersetzung natürlicher Sprache in logisch ist richtig?

B. Die Maschine kann nicht berücksichtigen, was Bar-Hillel „gemeinsame vorherige Daten von Informationen“ nennt.(allgemeiner Hintergrund der Informationen),die eigentlich außerhalb der natürlichen Sprache bleiben und daher nicht in eine logische Sprache übersetzt werden können. Linguisten sprechen in diesen Fällen von einem außersprachlichen Kontext.(Bezugsrahmen), die auf subtile, aber sehr entschiedene Weise alle unsere Worte korrigiert oder sogar völlig neu denkt. Schließlich erfordert selbst ein so einfacher Satz wie „Ich werde vor Einbruch der Dunkelheit zurückkehren“ zumindest eine vorherige Kenntnis darüber, wo er ausgesprochen wurde und zu welcher Tages- und Jahreszeit, um ihn genau zu verstehen und die darin enthaltene Zeitangabe zu bestimmen. Allein solche Vorinformationen sind oft das einzige Mittel, um jene Intraphasenbeziehungen aufzuklären, denen weder der Aussagenkalkül noch der Prädikatenkalkül gewachsen sind. Nehmen wir also als Beispiel zwei Sätze, die in den Zeitungen aufblitzten:

Postgraduierter Student der Universität aus der Stadt Kursk. Verdienter Erneuerer Sibiriens,

Wir sehen, dass jeder von ihnen auf zwei Arten interpretiert werden kann. Wenn auch nur formell

24 Der in diesem Abschnitt enthaltene Artikel „Grammar for the Listener“ von Ch. Hockett gibt viele Beispiele für solche Schwierigkeiten im „natürlichen“ Verständnis des Satzes, die durch nachfolgende und weitreichende Analyseschritte behoben werden.

grammatikalischen Besonderheiten, dann kann der erste Satz gleichermaßen als "ein Doktorand einer in der Stadt Kursk ansässigen Universität" und als "ein Doktorand einer in der Stadt Kursk ansässigen (oder aus der Stadt Kursk stammenden) Universität verstanden werden )". Und der zweite Satz kann sowohl als „Verehrter Erneuerer, dessen Tätigkeitsbereich Sibirien ist“ als auch als „Verehrter Erneuerer, der in Sibirien ansässig ist“ interpretiert werden. Und nur vorläufiges und nicht in Sätzen ausgedrücktes Wissen (vorläufige Informationen), das besagt, dass es in der Stadt Kursk keine Universität gibt und dass wohlverdiente rationalistische Überlastung es in der Sowjetunion einen von einzelnen Verwaltungsbezirken verliehenen Ehrentitel gibt, ermöglichen das richtige Verständnis dieser Vorschläge. Schaut man genau hin, dann ist fast jeder Satz der gesprochenen Sprache eine sehr solide und verzweigte Vorinformation, die für einen Menschen selbstverständlich ist, aber jenseits des „Verständnisses“ einer Maschine liegt, die weder Clan noch Stamm kennt.

B. Die Maschine kann keine intertextuellen semantischen Schlussfolgerungen ziehen, die sich über mehrere Sätze erstrecken (und manchmal sogar absichtlich für eine ganze Geschichte, um ihren Charakter oder Handlungszug nicht vollständig zu enthüllen). Auf diesen Umstand machte der niederländische Linguist A. Reichling 25 aufmerksam und verdeutlichte seine Idee an folgendem Beispiel. Angenommen, wir lesen eine Geschichte, die mit dem Satz beginnt: "Ich spiele mit meinem Bruder." Wenn wir dort aufhören, haben wir keine Daten zur Verfügung, um zu klären, wie dieser Satz zu verstehen ist, von was für einem Spiel wir hier sprechen. Schließlich kann man um Geld spielen (Karten usw.), auf einem Musikinstrument, im Theater oder Kino, mit Spielzeug, Fußball, zum Spaß spielen, mit einer Person und ihrem Schicksal spielen usw. Aber hier lesen wir weiter : „Ich sagte es, als Wilhelm mich eines Tages traf

25 Beim Kolloquium Stichting Studiecentrum voor Administrative Automation,organisiert im Jahr 1961. Es gibt auch eine deutsche Übersetzung des Berichts: A. R e i c h 1 i n g, Möglichkeiten und Grenzen der mechanischen Obersetzung, aus der Sicht des Linguisten, "Beiträge zur Sprachkunde und Informationsverarbeitung", Heft I., Wien, 1963.

in der Bar". Jetzt können wir eher den Schluss ziehen, dass es sich anscheinend um ein Spiel um Geld handelt. Aber es gibt noch andere Möglichkeiten. Es folgt: "Mein Bruder kam an den Tisch und es wurde gewürfelt." Es ist nun klar, um welches Spiel es sich handelt, obwohl nirgendwo im Text ein genauer Hinweis auf die tatsächliche Bedeutung des Wortes „Spiel“ gegeben wird. Wir haben ihn durch die Gesamtheit jener äußeren Zeichen erraten, die im Text in verschiedenen Sätzen gegeben sind. Diese Zeichen folgen hier nacheinander, können aber in einer schriftlichen Erzählung deutlich voneinander getrennt werden. Eine Person kann sie aus einem breiten sprachlichen Kontext auswählen, vergleichen und dann die entsprechende Schlussfolgerung ziehen. Der Maschine wird diese Möglichkeit genommen.

Aber vielleicht ist es nicht so wichtig? Tatsächlich gibt es bei der maschinellen Übersetzung dieser Sätze ins Deutsche oder Französische keine besonderen Schwierigkeiten (aber natürlich können bei der Übersetzung anderer Sätze Schwierigkeiten auftreten). Bei der Übersetzung ins Deutsche können wir wörtlich schreiben:Ich spiele mit meinem Bruder.In ähnlicher Weise können wir auf Französisch beginnen: Je joue avec... Bei der Übersetzung ins Englische treten jedoch grammatikalische Schwierigkeiten auf, da im vorgegebenen Text kein Hinweis darauf steht, welche Form die Maschine wählen soll: 1. Ich spiele mit meinem Bruder, 2. Ich spiele mit meinem Bruder, oder 3. Ich spiele mit meinem Bruder. Und beim Übersetzen ins Spanische wird es wirklich schlimm, da die Maschine zwischen mindestens drei Verben wählen muss: Jugar, Tocar oder Trabajar.

Hier ist die logische Sprache hilflos.

D. Die Maschine befasst sich tatsächlich mit Sprache (oder genauer gesagt mit Sprachsegmenten) - in ihrer schriftlichen und mündlichen Form. Jede dieser Sprachformen hat ihr eigenes System pragmatischer Elemente, die sich auch in semantische umwandeln können (und die Regeln für einen solchen Übergang sind nicht untersucht und weitgehend willkürlich). So hat zum Beispiel die mündliche Rede einen solchen suprasegmentalen Überbau wie die Intonation. Es scheint jetzt möglich, die Intonation nach funktionalen Typen zu klassifizieren, wobei fragende, erzählende usw. Intonationen hervorgehoben werden. Es ist jedoch ziemlich klar, dass die Intonation nicht isoliert von Sätzen existiert. Sie interagiert natürlich mit der darin enthaltenen Bedeutung. Dazu genügt es, auf eine rhetorische Frage zu verweisen, die nur in ihrer äußeren Struktur, nicht aber in ihrer Bedeutung eine Frage ist. - es erfordert keine Antwort von den Zuhörern. Das sind die neuen Schwierigkeiten, denen die logische Sprache nicht gewachsen ist.

E. Aber selbst wenn es möglich ist, die aufgelisteten sprachlichen Schwierigkeiten zu bewältigen, gibt es immer noch Hindernisse für eine angemessene logische Reihenfolge. - in diesem Fall sprechen wir von den sogenannten "Regeln der Inferenzentscheidung"(Entscheidungsregeln). Denn wenn wir sicher sein wollen, dass die Maschine logisch einwandfrei handelt, müssen wir ihr ein Regelwerk an die Hand geben, nach dem sie konsequent von den ersten Informationen bis zu den notwendigen Schlussfolgerungen gehen kann. Wir haben solche Regeln für logische Aussagenkalküle, aber für komplexere Logiken gibt es keine solchen Regeln, und außerdem gibt es Grund zu der Annahme, dass solche Regeln nicht gefunden werden können. Wenn wir uns auf die Regeln konzentrieren, die uns bereits zur Verfügung stehen, dann wird ihre Verwendung den Auflösungsprozess so kompliziert machen (selbst mit fortgeschrittenen Computern), dass das Spiel die Kerze nicht wert ist.

In dieser Form wird das Problem der Anwendung logischer und mathematischer Methoden in der Sprachwissenschaft anhand der Daten der Angewandten Linguistik gezeichnet. Was sind die Schlussfolgerungen? Die Schlussfolgerungen wurden bereits oben formuliert. - Die linguistische Analyse erlaubt eine Kombination induktiver und deduktiver Methoden, aber wenn wir über den Einsatz deduktiver Methoden in der Linguistik sprechen, sollte man nicht alles auf die blinde Unterordnung der Sprachforschung unter logisch-mathematische Methoden reduzieren. Natürliche Sprache rebelliert gegen solche Gewalt. Und die Praxis der angewandten Linguistik bestätigt diese Schlussfolgerungen, indem sie feststellt, dass es solche Unterschiede zwischen einer formalisierten logischen Sprache und einer natürlichen Sprache gibt, dass eine ziemlich vollständige (in informativen Begriffen), die Übersetzung des zweiten in das erste ist unmöglich. Bedeutet dies, dass in der Linguistik und insbesondere in der angewandten Linguistik auf den Einsatz logisch-mathematischer Methoden verzichtet werden sollte? Natürlich nicht. Aber man sollte sich nicht ganz auf sie verlassen, sondern sie mit anderen kombinieren. Und um nicht unbegründet zu sein, wenden wir uns den Aussagen von Mathematikern und Logikern zu, die ihr Wissen in der Praxis auf das Studium der natürlichen Sprache anwenden müssen.

Hier ist, was der Mathematiker sagt: „Die Hilfe der Mathematik beim Studium der natürlichen Sprache ist noch lange nicht offensichtlich ... Bevor wir darüber nachdenken können, Mathematik für Kalküle zu verwenden, ist es notwendig, die Grenzen und Funktionen sprachlicher Einheiten zu definieren ... . Das - nichtmathematisches Problem, es gehört zu den induktiven Methoden der Linguistik.

Es stellte sich heraus, dass die Mathematik die empirische Methodik nicht ersetzt, obwohl einige Linguisten dies anstreben. Im Gegenteil, erst wenn die Einheiten und Relationen der natürlichen Sprache durch die induktive Methode ermittelt und entsprechend bestätigt (verifiziert) wurden, werden die notwendigen Voraussetzungen für eine realistische Anwendung der Mathematik auf die natürliche Sprache geschaffen. Gleichzeitig werden Mathematiker entweder feststellen, dass sie es mit einer neuen Manifestation von im Wesentlichen bereits Vertrautem zu tun haben, oder sie werden zu mathematischem Denken einer neuen Ordnung angeregt.

Und hier sagt der Logiker: „Die Aussichten für die automatische Verarbeitung von Sprachinformationen sind sehr gut, aber die Rolle der Logik in diesem Bereich ist begrenzt. Als Werkzeug der linguistischen Analyse, nicht als Regelwerk zur Ableitung von Schlussfolgerungen, macht es jedoch echte Versprechungen“ 27 . Und dann legt er fest, welche Forschungsstrategie in diesem Fall vorzuziehen ist: „Probleme sollten nicht gelöst werden, indem man einem von einem Logiker aufgestellten Regelwerk standhaft folgt, sondern indem man heuristische Techniken anwendet ... Für die automatische Verarbeitung von Sprachinformationen, eine empirische , ist ein induktiver Ansatz vorzuziehen, bei dem nach groben Regeln zur Lösung von Informationsproblemen gesucht wird. Man sollte nicht versuchen, gewöhnliche Sprache in logische Sprache zu übersetzen, um sie weiterzuverarbeiten, sondern eher nach heuristischen Regeln suchen, die es einem ermöglichen, mit natürlicher Sprache umzugehen. Notwendig Hör auf zu schauen

26 P. Garvin und W. C a g u s h, Linguistik, Datenprozesse-
Singen und Mathematik, "Natürliche Sprache und der Computer", N. Y.,
1963, S. 368-369.
Cm . auch im selben Buch Artikel W. K a g u s h,
Der Einsatz von Mathematik in den Verhaltenswissenschaften, S. 64-83.

27 M. Mag. o n, Die Sicht eines Logikers auf Sprachdatenprozesse-
singen,
besagtes Buch, S. 144.

absolute Gewissheit und greifen auf Näherungsmethoden zurück, die mit der Anhäufung von Erfahrungen verfeinert und verbessert werden. Wir ziehen es vor, Annäherungen so zu behandeln, wie die Theorie in der Wissenschaft behandelt wird, wo Modifikationen und Verbesserungen auf der Grundlage experimenteller Daten vorgenommen werden.

Dies sind die allgemeinen Schlussfolgerungen. Sie sagen, dass Linguisten eine führende Rolle in der gemeinsamen Arbeit mit Logikern und Mathematikern spielen. Aufgabe der Linguisten ist es, Sprachmaterial so aufzubereiten, dass es einer Verarbeitung mit logischen und mathematischen Methoden zugänglich ist. In dieser Richtung sollte man in der Linguistik nach einer realistischen Kombination von induktiven und deduktiven Methoden suchen. Und wenn es bei der Lösung von Problemen der angewandten Linguistik um heuristische Hypothesen geht, sollten sie zunächst einmal von einem Linguisten kommen, da er der Sprache näher steht und sie in seiner Position besser kennen und verstehen muss.

Unter Berücksichtigung dieser Überlegungen sollten die in diesem Abschnitt enthaltenen Artikel angegangen werden. Wie bereits erwähnt, stammen sie aus der Materialsammlung des Symposiums zur angewandten Mathematik "The Structure of Language and Its Mathematical Aspects" (das Symposium fand im April 1960 in New York statt, die Materialien des Symposiums wurden 1961 veröffentlicht) .

An dem Symposium nahmen Mathematiker, Logiker und Linguisten teil, also nur Vertreter derjenigen Wissenschaften, deren gemeinsame Arbeit oben erwähnt wurde. Das recht frei formulierte Thema des Symposiums gab seinen Teilnehmern die Möglichkeit, sowohl über sehr spezielle und spezielle Themen als auch über ziemlich allgemeine zu sprechen, ohne sich an ein einziges Verständnis der Aufgaben der behandelten Themen zu binden oder zu binden eine Einschätzung ihres Anteils am Gesamtproblem. Vielleicht war der einzige theoretische Ansatz, der die Teilnehmer des Symposiums einte, die von R. Jakobson im „Vorwort“ zu den Materialien zitierte These, wonach die Linguistik sollte

28 Ebd., S. 143-144.

versteht sich als Brücke zwischen den mathematischen und den geisteswissenschaftlichen Disziplinen. Im Übrigen handelte jeder Verfasser der Mitteilung gemäß seinen individuellen Interessen und gemäß der Ausrichtung seiner Forschungsarbeit.

Aufgrund einer bestimmten Seitenbegrenzung dieser Sammlung war es nicht möglich, alle in den Symposiumsmaterialien enthaltenen Artikel zu verwenden. Einige Beiträge mußten jedoch so ausgewählt werden, daß sie dem sowjetischen Leser Gelegenheit geben würden, sich ein ziemlich vollständiges Bild von den allgemeinen Tendenzen beim Studium des Problems zu machen, das im Titel des Symposiums steht. Alle Artikel dieser Rubrik sind in ihrer Informationsqualität sowohl für die Theorie der Linguistik als auch für die Forschungspraxis der Angewandten Linguistik von unbestreitbarem Interesse.

BEIM.Sweginzew

Die Herausbildung der Strukturlinguistik an der Wende vom 19. zum 20. Jahrhundert. Statistische Methoden beim Sprachenlernen. Anwendung mathematischer Methoden in der Linguistik in der zweiten Hälfte des 20. Jahrhunderts. Erlernen der Sprache mit Methoden der formalen Logik. Merkmale der maschinellen Übersetzung.

EINLEITUNG

Kapitel 1. Die Geschichte der Anwendung mathematischer Methoden in der Linguistik

1.1. Die Herausbildung der Strukturlinguistik an der Wende vom 19. zum 20. Jahrhundert

1.2. Anwendung mathematischer Methoden in der Linguistik in der zweiten Hälfte des 20. Jahrhunderts

Kapitel 2. Ausgewählte Beispiele für den Einsatz von Mathematik in der Linguistik

2.1. Maschinell übersetzen

2.2.Statistische Methoden beim Sprachenlernen

2.3. Lernen einer Sprache mit Methoden der formalen Logik

2.4. Perspektiven für die Anwendung mathematischer Methoden in der Linguistik

Fazit

Literatur

Anhang 1. Ronald Schleifer. Ferdinand von Saussure

Anhang 2. Ferdinand de Saussure (Übersetzung)

EINLEITUNG

Im 20. Jahrhundert setzt sich der Trend zur Interaktion und Durchdringung verschiedener Wissensgebiete fort. Die Grenzen zwischen den einzelnen Wissenschaften verschwimmen allmählich; es gibt immer mehr Zweige geistiger Tätigkeit, die "an der Schnittstelle" von humanitären, technischen und naturwissenschaftlichen Erkenntnissen stehen.

Ein weiteres offensichtliches Merkmal der Moderne ist der Wunsch, Strukturen und ihre Bestandteile zu studieren. Daher wird der Mathematik sowohl in der wissenschaftlichen Theorie als auch in der Praxis ein immer größerer Stellenwert eingeräumt. In Berührung einerseits mit Logik und Philosophie, andererseits mit Statistik (und folglich mit den Sozialwissenschaften) dringt die Mathematik immer tiefer in jene Bereiche vor, die lange Zeit als rein galten „humanitär“, erweitern ihr heuristisches Potenzial (die Antwort auf die Frage „wie viel“ hilft oft bei der Beantwortung der Fragen „was“ und „wie“). Sprachwissenschaft war keine Ausnahme.

Der Zweck meiner Kursarbeit ist es, kurz die Verbindung zwischen der Mathematik und einem Zweig der Linguistik wie der Linguistik hervorzuheben. Seit den 1950er Jahren wird die Mathematik in der Linguistik verwendet, um einen theoretischen Apparat zur Beschreibung der Struktur von Sprachen (sowohl natürlichen als auch künstlichen) zu schaffen. Gleichzeitig sollte gesagt werden, dass es eine solche praktische Anwendung nicht sofort für sich gefunden hat. Anfänglich wurden mathematische Methoden in der Linguistik verwendet, um die grundlegenden Konzepte der Linguistik zu klären, aber mit der Entwicklung der Computertechnologie begann eine solche theoretische Prämisse, Anwendung in der Praxis zu finden. Die Lösung solcher Aufgaben wie maschinelle Übersetzung, maschineller Informationsabruf, automatische Textverarbeitung erforderte eine grundlegend neue Herangehensweise an die Sprache. Die Linguisten stellten sich der Frage: Wie lernt man, sprachliche Muster so darzustellen, dass sie direkt auf die Technik übertragen werden können? Der in unserer Zeit gebräuchliche Begriff „mathematische Linguistik“ bezeichnet jede linguistische Forschung, die sich exakter Methoden bedient (und der Begriff der exakten Methoden in den Naturwissenschaften ist immer eng mit der Mathematik verbunden). Einige Wissenschaftler der Vergangenheit glauben, dass der Ausdruck selbst nicht in den Rang eines Begriffs erhoben werden kann, da er keine spezielle „Linguistik“ bedeutet, sondern nur eine neue Richtung, die sich auf die Verbesserung, Erhöhung der Genauigkeit und Zuverlässigkeit von Sprachforschungsmethoden konzentriert. Die Linguistik verwendet sowohl quantitative (algebraische) als auch nicht-quantitative Methoden, was sie der mathematischen Logik und folglich der Philosophie und sogar der Psychologie näher bringt. Sogar Schlegel bemerkte die Wechselwirkung von Sprache und Bewusstsein, und Ferdinand de Saussure, ein prominenter Linguist des frühen zwanzigsten Jahrhunderts (über seinen Einfluss auf die Entwicklung mathematischer Methoden in der Linguistik werde ich später berichten), verband die Struktur der Sprache mit ihrer Zugehörigkeit zu den Leuten. Der moderne Forscher L. Perlovsky geht noch weiter und identifiziert die quantitativen Merkmale der Sprache (z. B. Anzahl der Geschlechter, Fälle) mit den Besonderheiten der nationalen Mentalität (mehr dazu in Abschnitt 2.2, „Statistische Methoden in der Sprachwissenschaft“).

Das Zusammenspiel von Mathematik und Linguistik ist ein vielschichtiges Thema, und ich werde in meiner Arbeit nicht auf alle, sondern vor allem auf seine angewandten Aspekte eingehen.

Kapitel IAnwendungsgeschichte mathematischer Methoden in der Linguistik

1.1 Entstehung der Strukturlinguistikan der Wende vom 19. zum 20. Jahrhundert

Die mathematische Beschreibung der Sprache basiert auf der Idee der Sprache als Mechanismus, die auf den berühmten Schweizer Linguisten des frühen zwanzigsten Jahrhunderts, Ferdinand de Saussure, zurückgeht.

Ausgangspunkt seines Konzepts ist die Theorie der Sprache als eines aus drei Teilen bestehenden Systems (die Sprache selbst ist Sprache, Rede - Passwort, und Sprachaktivität - Sprache), in der jedes Wort (Mitglied des Systems) nicht für sich betrachtet wird, sondern in Verbindung mit anderen Mitgliedern. Wie ein anderer prominenter Linguist, der Däne Louis Hjelmslev, später feststellte, war Saussure „der erste, der einen strukturellen Ansatz für die Sprache forderte, das heißt eine wissenschaftliche Beschreibung der Sprache durch Aufzeichnung der Beziehungen zwischen Einheiten“.

Saussure verstand die Sprache als eine hierarchische Struktur und stellte als erster das Problem des Wertes und der Bedeutung von Spracheinheiten. Separate Phänomene und Ereignisse (zB die Entstehungsgeschichte einzelner indogermanischer Wörter) sollten nicht für sich allein untersucht werden, sondern in einem System, in dem sie mit ähnlichen Komponenten korreliert sind.

Die strukturelle Einheit der Sprache von Saussure betrachtete das Wort "Zeichen", in dem Klang und Bedeutung kombiniert wurden. Keines dieser Elemente existiert ohne das andere: Daher versteht der Muttersprachler die verschiedenen Bedeutungsnuancen eines polysemantischen Wortes als ein separates Element im strukturellen Ganzen, in der Sprache.

So kann man in der Theorie von F. de Saussure einerseits die Wechselwirkung der Linguistik mit der Soziologie und der Sozialpsychologie erkennen (man beachte, dass gleichzeitig Husserls Phänomenologie, Freuds Psychoanalyse, Einsteins Relativitätstheorie waren Entwicklung, Experimente zu Form und Inhalt in Literatur, Musik und Bildender Kunst), andererseits mit der Mathematik (der Begriff der Systemizität entspricht dem algebraischen Sprachbegriff). Ein solches Konzept veränderte das Konzept der sprachlichen Interpretation als solches: Phänomene begannen, nicht mehr in Bezug auf die Ursachen ihres Auftretens, sondern in Bezug auf Gegenwart und Zukunft interpretiert zu werden. Die Interpretation war nicht mehr unabhängig von den Absichten einer Person (trotz der Tatsache, dass Absichten unpersönlich, „unbewusst“ im Freudschen Sinne des Wortes sein können).

Das Funktionieren des sprachlichen Mechanismus manifestiert sich durch die Sprachaktivität von Muttersprachlern. Das Ergebnis der Sprache sind die sogenannten „korrekten Texte“ – Aneinanderreihungen von Spracheinheiten, die bestimmten Mustern gehorchen, von denen viele eine mathematische Beschreibung zulassen. Die Theorie der Beschreibungsweisen der syntaktischen Struktur befasst sich mit der Untersuchung von Methoden zur mathematischen Beschreibung korrekter Texte (vor allem Sätze). In einer solchen Struktur werden sprachliche Analogien nicht mit Hilfe ihrer inhärenten Qualitäten definiert, sondern mit Hilfe von Systembeziehungen („strukturellen“) Beziehungen.

Im Westen werden Saussures Ideen von den jüngeren Zeitgenossen des großen Schweizer Sprachwissenschaftlers weiterentwickelt: in Dänemark - L. Hjelmslev, der bereits von mir erwähnt wurde, der in seinem Werk "Fundamentals of Linguistic Theory" die algebraische Sprachtheorie hervorbrachte, in in den USA - E. Sapir, L. Bloomfield, C. Harris, in der Tschechischen Republik - der russische emigrierte Wissenschaftler N. Trubetskoy.

Statistische Gesetzmäßigkeiten in der Sprachwissenschaft begannen von keinem geringeren als dem Begründer der Genetik, Georg Mendel, zu behandeln. Erst 1968 entdeckten Philologen, dass ihn in seinen letzten Lebensjahren die Untersuchung sprachlicher Phänomene mit den Methoden der Mathematik faszinierte. Mendel brachte diese Methode aus der Biologie in die Linguistik; In den 1990er Jahren behaupteten nur die kühnsten Linguisten und Biologen die Machbarkeit einer solchen Analyse. Im Archiv des Klosters St. Tomasz in Brünn, dessen Abt Mendel war, wurden Blätter mit Spalten von Nachnamen gefunden, die auf „mann“, „bauer“, „mayer“ enden, und mit einigen Brüchen und Berechnungen. In dem Bemühen, die formalen Gesetzmäßigkeiten der Entstehung von Familiennamen aufzudecken, stellt Mendel komplexe Berechnungen an, bei denen er die Anzahl der Vokale und Konsonanten in der deutschen Sprache, die Gesamtzahl der von ihm betrachteten Wörter, die Anzahl der Nachnamen, etc.

In unserem Land begann sich die strukturelle Linguistik ungefähr zur gleichen Zeit wie im Westen zu entwickeln - um die Wende vom 19. zum 20. Jahrhundert. Gleichzeitig mit F. de Saussure wurde das Konzept der Sprache als System in ihren Arbeiten von Professoren der Kasaner Universität F.F. Fortunatov und I.A. Baudouin de Courténay. Letzterer korrespondierte lange Zeit mit de Saussure, bzw. die Genfer und die Kasaner Sprachschule arbeiteten zusammen. Wenn man Saussure als den Ideologen „exakter“ Methoden in der Linguistik bezeichnen kann, dann hat Baudouin de Courtenay die praktischen Grundlagen für ihre Anwendung gelegt. Er war der erste, der die Linguistik (as präzise eine Wissenschaft, die statistische Methoden und funktionale Abhängigkeit verwendet) von der Philologie (einer Gemeinschaft humanitärer Disziplinen, die spirituelle Kultur durch Sprache und Sprache studieren). Der Wissenschaftler selbst glaubte, dass "die Sprachwissenschaft in naher Zukunft nur von der Zwangsvereinigung mit Philologie und Literaturgeschichte befreit" nützlich sein kann. Die Phonologie wurde zum "Testfeld" für die Einführung mathematischer Methoden in die Linguistik - Laute als "Atome" des Sprachsystems mit einer begrenzten Anzahl leicht messbarer Eigenschaften waren das bequemste Material für formale, strenge Beschreibungsmethoden. Die Phonologie bestreitet die Existenz von Bedeutung im Klang, daher wurde der "menschliche" Faktor in den Studien eliminiert. In diesem Sinne sind Phoneme wie physikalische oder biologische Objekte.

Phoneme stellen als die kleinsten für die Wahrnehmung akzeptablen sprachlichen Elemente eine eigene Sphäre, eine eigene "phänomenologische Realität" dar. Zum Beispiel kann der Laut „t“ im Englischen unterschiedlich ausgesprochen werden, aber eine Person, die Englisch spricht, wird ihn in jedem Fall als „t“ wahrnehmen. Die Hauptsache ist, dass das Phonem seine wichtigste – sinnvolle – Funktion erfüllt. Darüber hinaus sind die Unterschiede zwischen Sprachen so, dass Varietäten eines Tons in einer Sprache unterschiedlichen Phonemen in einer anderen entsprechen können; Zum Beispiel sind "l" und "r" im Englischen unterschiedlich, während sie in anderen Sprachen Varianten desselben Phonems sind (wie das englische "t", ausgesprochen mit oder ohne Aspiration). Das riesige Vokabular jeder natürlichen Sprache besteht aus einer Reihe von Kombinationen einer viel kleineren Anzahl von Phonemen. Im Englischen werden beispielsweise nur 40 Phoneme verwendet, um etwa eine Million Wörter auszusprechen und zu schreiben.

Die Laute einer Sprache sind eine systematisch organisierte Menge von Merkmalen. In den 1920er bis 1930er Jahren, nach Saussure, hoben Jacobson und N. S. Trubetskoy die "charakteristischen Merkmale" von Phonemen hervor. Diese Merkmale basieren auf der Struktur der Sprachorgane - Zunge, Zähne, Stimmbänder. Zum Beispiel ist der Unterschied zwischen „t“ und „d“ im Englischen das Vorhandensein oder Fehlen einer „Stimme“ (die Spannung der Stimmbänder) und die Lautstärke der Stimme, die ein Phonem von einem anderen unterscheidet. So kann die Phonologie als Beispiel für die von Saussure beschriebene allgemeine Sprachregel gelten: „Es gibt nur Unterschiede in der Sprache“. Noch wichtiger ist dies nicht: Der Unterschied impliziert normalerweise die genauen Bedingungen, zwischen denen er angesiedelt ist; aber in der Sprache gibt es nur Unterschiede ohne genaue Bedingungen. Ob „Bezeichnung“ oder „Bezeichnet“ – in der Sprache gibt es weder Begriffe noch Laute, die es vor der Entwicklung des Sprachsystems gegeben hätte.

Daher wird in der Saussureschen Linguistik das untersuchte Phänomen als eine Reihe von Vergleichen und Gegensätzen der Sprache verstanden. Sprache ist sowohl Ausdruck der Bedeutung von Wörtern als auch Kommunikationsmittel, und diese beiden Funktionen fallen nie zusammen. Wir können den Wechsel von Form und Inhalt feststellen: Sprachliche Kontraste definieren seine strukturellen Einheiten, und diese Einheiten interagieren, um einen bestimmten bedeutungsvollen Inhalt zu schaffen. Da die Elemente der Sprache zufällig sind, können weder Kontrast noch Kombination die Grundlage sein. Das heißt, in einer Sprache bilden Unterscheidungsmerkmale einen phonetischen Kontrast auf einer anderen Verständnisebene, Phoneme werden zu Morphemen zusammengesetzt, Morpheme – zu Wörtern, Wörter – zu Sätzen usw. In jedem Fall kann ein ganzes Phonem, Wort, Satz usw. ist mehr als nur die Summe seiner Teile.

Saussure schlug die Idee einer neuen Wissenschaft des zwanzigsten Jahrhunderts vor, die von der Linguistik getrennt ist und die Rolle der Zeichen in der Gesellschaft untersucht. Saussure nannte diese Wissenschaft Semiologie (vom griechischen „semeion“ – ein Zeichen). Die „Wissenschaft“ der Semiotik, die sich in den 1920er und 1930er Jahren in Osteuropa und in den 1950er und 1960er Jahren in Paris entwickelte, erweiterte die Erforschung von Sprache und sprachlichen Strukturen zu literarischen Erkenntnissen, die mit Hilfe dieser Strukturen verfasst (oder formuliert) wurden. Darüber hinaus beschäftigte sich Saussure in der Abenddämmerung seiner Karriere parallel zu seinem Studium der allgemeinen Linguistik mit einer "semiotischen" Analyse spätrömischer Dichtung und versuchte, bewusst komponierte Anagramme von Eigennamen zu entdecken. Diese Methode war in ihrer Sprachanalyse in vielerlei Hinsicht das Gegenteil des Rationalismus: Es war ein Versuch, das Problem der "Wahrscheinlichkeit" in der Sprache in einem System zu untersuchen. Solche Forschung hilft, sich auf die "reale Seite" der Wahrscheinlichkeit zu konzentrieren; Das "Schlüsselwort", für das Saussure ein Anagramm sucht, ist laut Jean Starobinsky "ein Werkzeug für den Dichter, nicht die Lebensquelle für das Gedicht". Das Gedicht dient dazu, die Laute des Schlüsselworts auszutauschen. Laut Starobinsky geht Saussure in dieser Analyse „nicht auf die Suche nach verborgenen Bedeutungen ein“. Im Gegenteil, in seinen Werken ist der Wunsch spürbar, bewusstseinsbezogene Fragen zu vermeiden: „Da Poesie nicht nur in Worten ausgedrückt wird, sondern auch in dem, was diese Worte hervorrufen, entzieht sie sich der Kontrolle des Bewusstseins und hängt nur von ab die Gesetze der Sprache“ (vgl. Anhang 1).

Saussures Versuch, Eigennamen in der spätrömischen Poesie zu studieren, betont eine der Komponenten seiner Sprachanalyse – die willkürliche Natur von Zeichen sowie das formale Wesen von Saussures Linguistik, das die Möglichkeit einer Bedeutungsanalyse ausschließt. Todorov kommt zu dem Schluss, dass die Werke von Saussure heute äußerst konsequent darin zu sein scheinen, die Symbole eines Phänomens zu studieren, die eine klar definierte Bedeutung haben [Anhang 1]. Beim Erkunden von Anagrammen achtet Saussure nur auf Wiederholungen, nicht aber auf frühere Optionen. . . . Beim Studium des Nibelungenliedes definiert er die Symbole nur, um sie falschen Lesarten zuzuordnen: Wenn sie unbeabsichtigt sind, existieren die Symbole nicht. Schließlich geht er in seinen Schriften zur allgemeinen Sprachwissenschaft von der Existenz einer Semiologie aus, die nicht nur sprachliche Zeichen beschreibt; Diese Annahme wird jedoch dadurch eingeschränkt, dass die Semiologie nur zufällige, willkürliche Zeichen beschreiben kann.

Wenn dem wirklich so ist, dann nur, weil er sich „Absicht“ nicht ohne Objekt vorstellen konnte; er konnte die Kluft zwischen Form und Inhalt nicht vollständig überbrücken - in seinen Schriften wurde dies zu einer Frage. Stattdessen wandte er sich der "sprachlichen Legitimität" zu. Zwischen auf der Geschichte und subjektiven Vermutungen basierenden Konzepten des 19. Jahrhunderts einerseits und Methoden der willkürlichen Interpretation, die auf diesen Konzepten basieren, und andererseits strukturalistischen Konzepten, die den Gegensatz zwischen Form und Inhalt (Subjekt und Objekt) aufheben. , Bedeutung und Ursprünge im Strukturalismus, der Psychoanalyse und sogar der Quantenmechanik - die Schriften von Ferdinand de Saussure über Linguistik und Semiotik markieren einen Wendepunkt in der Erforschung von Bedeutungen in Sprache und Kultur.

Russische Wissenschaftler waren auch auf dem Ersten Internationalen Kongress der Linguisten 1928 in Den Haag vertreten. S. Kartsevsky, R. Yakobson und N. Trubetskoy erstellten einen Bericht, der die hierarchische Struktur der Sprache untersuchte - im Geiste der modernsten Ideen für den Beginn des letzten Jahrhunderts. Jakobson entwickelte in seinen Schriften Saussures Ideen, dass die Grundelemente einer Sprache zuallererst im Zusammenhang mit ihren Funktionen und nicht mit den Gründen für ihr Auftreten untersucht werden sollten.

Nachdem Stalin 1924 an die Macht kam, wurde die russische Linguistik leider, wie viele andere Wissenschaften, zurückgeworfen. Viele begabte Wissenschaftler mussten emigrieren, wurden des Landes verwiesen oder starben in Lagern. Erst seit Mitte der 1950er Jahre ist ein gewisser Theoriepluralismus möglich – mehr dazu in Abschnitt 1.2.

1.2 Anwendung mathematischer Methoden in der Linguistik in der zweiten Hälfte des 20. Jahrhunderts

Mitte des 20. Jahrhunderts hatten sich vier Weltsprachschulen gebildet, von denen sich jede als Vorfahr einer bestimmten „exakten“ Methode herausstellte. Leningrader Phonologische Schule(sein Vorfahre war ein Schüler von Baudouin de Courtenay L. V. Shcherba) verwendete ein psycholinguistisches Experiment, das auf der Analyse der Sprache von Muttersprachlern als Hauptkriterium für die Verallgemeinerung von Lauten in Form eines Phonems basiert.

Wissenschaftler Prager Sprachkreis, insbesondere - sein Gründer N.S. Trubetskoy, der aus Russland emigrierte, entwickelte die Theorie der Oppositionen – die semantische Struktur der Sprache wurde von ihnen als eine Reihe von gegensätzlich konstruierten semantischen Einheiten beschrieben – Sem. Diese Theorie wurde nicht nur beim Studium der Sprache, sondern auch der künstlerischen Kultur angewendet.

Ideologen Amerikanischer Deskriptivismus waren die Linguisten L. Bloomfield und E. Sapir. Sprache wurde den Deskriptivisten als eine Reihe von Sprachaussagen präsentiert, die das Hauptobjekt ihrer Studie waren. Ihr Schwerpunkt lag auf den Regeln der wissenschaftlichen Beschreibung (daher der Name) von Texten: dem Studium der Organisation, Anordnung und Klassifizierung ihrer Elemente. Die Formalisierung analytischer Verfahren auf dem Gebiet der Phonologie und Morphologie (Entwicklung von Prinzipien für das Studium der Sprache auf verschiedenen Ebenen, Verteilungsanalyse, Methode der direkten Konstituenten usw.) führte zur Formulierung allgemeiner Fragen der sprachlichen Modellierung. Die Unaufmerksamkeit gegenüber dem Plan des Inhalts der Sprache sowie der paradigmatischen Seite der Sprache erlaubte es den Deskriptivisten nicht, die Sprache als System vollständig genug zu interpretieren.

In den 1960er Jahren entwickelte sich die Theorie der formalen Grammatiken, die vor allem durch die Arbeit des amerikanischen Philosophen und Linguisten N. Chomsky entstand. Er gilt zu Recht als einer der berühmtesten modernen Wissenschaftler und Persönlichkeiten des öffentlichen Lebens, viele Artikel, Monographien und sogar ein Dokumentarfilm in voller Länge sind ihm gewidmet. Mit dem Namen einer grundlegend neuen Art, die von Chomsky erfundene syntaktische Struktur zu beschreiben – generative (generative) Grammatik – wurde die entsprechende Richtung in der Linguistik bezeichnet Generatismus.

Chomsky, ein Nachkomme von Einwanderern aus Russland, studierte seit 1945 Linguistik, Mathematik und Philosophie an der University of Pennsylvania, stark beeinflusst von seinem Lehrer Zelig Harris – wie Harris betrachtete und sieht Chomsky seine politischen Ansichten dem Anarchismus nahe (er ist immer noch bekannt als Kritiker des bestehenden politischen Systems der USA und als einer der geistigen Führer des Antiglobalismus).

Chomskys erste große wissenschaftliche Arbeit, die Magisterarbeit „Morphology of Modern Hebrew » (1951) ist unveröffentlicht geblieben. Chomsky promovierte 1955 an der University of Pennsylvania, aber ein Großteil der Forschung, die seiner Dissertation zugrunde liegt (vollständig erst 1975 unter dem Titel The Logical Structure of Linguistic Theory veröffentlicht) und seiner ersten Monographie, Syntactic Structures (1957, Rus. trans . 1962), wurde 1951-1955 an der Harvard University aufgeführt. Im gleichen Jahr 1955 wechselte der Wissenschaftler an das Massachusetts Institute of Technology, wo er 1962 Professor wurde.

Chomskys Theorie hat in ihrer Entwicklung mehrere Stadien durchlaufen.

In der ersten Monographie „Syntactic Structures“ stellte der Wissenschaftler die Sprache als einen Mechanismus zur Generierung einer unendlichen Menge von Sätzen mit endlichen grammatikalischen Mitteln vor. Um sprachliche Eigenschaften zu beschreiben, schlug er die Konzepte tiefer (der direkten Wahrnehmung verborgener und durch ein System rekursiver, d. h. wiederholt anwendbarer Regeln erzeugter) und oberflächlicher (direkt wahrnehmbarer) grammatikalischer Strukturen sowie Transformationen vor, die den Übergang beschreiben von tiefen Strukturen zu oberflächlichen. Einer Tiefenstruktur können mehrere Oberflächenstrukturen entsprechen (z. B. eine Passivstruktur). Das Dekret wird vom Präsidenten unterzeichnet abgeleitet von derselben Tiefenstruktur wie das aktive Konstrukt Der Präsident unterzeichnet das Dekret) und umgekehrt (also die Mehrdeutigkeit Mutter liebt Tochter als Ergebnis einer Koinzidenz von Oberflächenstrukturen beschrieben, die auf zwei verschiedene tiefe zurückgehen, in der einen die Mutter diejenige ist, die die Tochter liebt, und in der anderen diejenige, die von der Tochter geliebt wird).

Chomskys Standardtheorie gilt als das „Aspects“-Modell, das in Chomskys Buch „Aspects of the Theory of Syntax“ dargelegt ist. In diesem Modell wurden erstmals semantische Interpretationsregeln in die formale Theorie eingeführt, die Tiefenstrukturen Bedeutung zuschreiben. In Aspekten wird sprachliche Kompetenz dem Gebrauch von Sprache (Performance) gegenübergestellt, die sogenannte Katz-Postal-Hypothese über die Bewahrung von Bedeutung während der Transformation angenommen, in deren Zusammenhang das Konzept der optionalen Transformation ausgeschlossen wird, und ein Apparat von syntaktische Merkmale, die die lexikalische Kompatibilität beschreiben, werden eingeführt.

In den 1970er Jahren arbeitete Chomsky an der Theorie der Kontrolle und Bindung (GB-Theorie - von den Worten Regierung und Bindung) ist allgemeiner als die vorherige. Darin verzichtete der Wissenschaftler auf die spezifischen Regeln, die die syntaktischen Strukturen bestimmter Sprachen beschreiben. Alle Transformationen wurden durch eine universelle Bewegungstransformation ersetzt. Im Rahmen der GB-Theorie gibt es auch private Module, die jeweils für einen eigenen Teil der Grammatik zuständig sind.

Bereits vor kurzem, 1995, hat Chomsky ein minimalistisches Programm vorgelegt, in dem menschliche Sprache wie Maschinensprache beschrieben wird. Dies ist nur ein Programm - kein Modell oder eine Theorie. Darin identifiziert Chomsky zwei Hauptuntersysteme des menschlichen Sprachapparats: das Lexikon und das Computersystem sowie zwei Schnittstellen – phonetische und logische.

Chomskys formale Grammatiken sind zu Klassikern geworden, um nicht nur natürliche, sondern auch künstliche Sprachen – insbesondere Programmiersprachen – zu beschreiben. Die Entwicklung der strukturellen Linguistik in der zweiten Hälfte des 20. Jahrhunderts kann zu Recht als „Chomskische Revolution“ bezeichnet werden.

Moskauer Phonologische Schule, deren Vertreter A.A. Reformatsky, V.N. Sidorow, P.S. Kuznetsov, A.M. Sukhotin, R.I. Avanesov verwendete eine ähnliche Theorie, um die Phonetik zu studieren. Allmählich werden "exakte" Methoden nicht nur in Bezug auf die Phonetik, sondern auch auf die Syntax angewendet. Sowohl Linguisten als auch Mathematiker im In- und Ausland beginnen, die Struktur der Sprache zu studieren. In den 1950er und 60er Jahren begann in der UdSSR eine neue Phase in der Interaktion zwischen Mathematik und Linguistik, verbunden mit der Entwicklung von maschinellen Übersetzungssystemen.

Der Anstoß für den Beginn dieser Arbeiten in unserem Land waren die ersten Entwicklungen auf dem Gebiet der maschinellen Übersetzung in den Vereinigten Staaten (obwohl das erste maschinelle Übersetzungsgerät von P. P. Smirnov-Troyansky bereits 1933 in der UdSSR erfunden wurde, da es primitiv war , hat sich nicht verbreitet). 1947 entwickelten A. Butt und D. Britten einen Code für die Wort-für-Wort-Übersetzung mithilfe eines Computers, ein Jahr später schlug R. Richens eine Regel vor, um Wörter in Wortstämme und Endungen bei der maschinellen Übersetzung aufzuteilen. Diese Jahre waren ganz anders als heute. Dies waren sehr große und teure Maschinen, die ganze Räume einnahmen und für deren Wartung ein großes Personal an Ingenieuren, Bedienern und Programmierern erforderlich war. Grundsätzlich wurden diese Computer verwendet, um mathematische Berechnungen für die Bedürfnisse militärischer Institutionen durchzuführen - die neuen in Mathematik, Physik und Technologie dienten in erster Linie militärischen Angelegenheiten. In der Anfangsphase wurde die Entwicklung des MP aktiv vom Militär unterstützt, wobei sich (unter den Bedingungen des Kalten Krieges) die russisch-englische Richtung in den USA und die anglo-russische Richtung in der UdSSR entwickelte.

Im Januar 1954 fand an der Massachusetts Technical University das „Georgetown-Experiment“ statt – die erste öffentliche Vorführung der Übersetzung aus dem Russischen ins Englische auf der IBM-701-Maschine. Zusammenfassung der Nachricht über den erfolgreichen Abschluss des Experiments, erstellt von D.Yu. Panov, erschienen in RJ "Mathematics", 1954, Nr. 10: "Übersetzung von einer Sprache in eine andere mit einer Maschine: ein Bericht über den ersten erfolgreichen Test."

D. Yu. Panov (damals Direktor des Instituts für wissenschaftliche Information - INI, später VINITI) zog I. K. Belskaya an, der später die Gruppe für maschinelle Übersetzung am Institut für präzise Mathematik und Computertechnik der Akademie der Wissenschaften der UdSSR leitete Arbeit an maschineller Übersetzung. Ende 1955 liegen die ersten Erfahrungen mit der Übersetzung aus dem Englischen ins Russische mit Hilfe der BESM-Maschine vor. Programme für BESM wurden von N.P. Trifonov und L. N. Korolev, dessen Doktorarbeit Methoden zum Erstellen von Wörterbüchern für die maschinelle Übersetzung gewidmet war.

Parallel dazu wurden Arbeiten zur maschinellen Übersetzung in der Abteilung für Angewandte Mathematik des Mathematischen Instituts der Akademie der Wissenschaften der UdSSR (jetzt M. V. Keldysh-Institut für Angewandte Mathematik der Russischen Akademie der Wissenschaften) durchgeführt. Auf Initiative des Mathematikers A.A. Ljapunow. Er beteiligte O.S. Kulagin und ihre Schüler T.D. Wentzel und N.N. Rico. Die Ideen von Lyapunov und Kulagina über die Möglichkeit, mithilfe von Technologie von einer Sprache in eine andere zu übersetzen, wurden in der Zeitschrift Nature, 1955, Nr. 8 veröffentlicht. Ab Ende 1955 war T.N. Moloshnaya, der dann mit der unabhängigen Arbeit am Englisch-Russisch-Übersetzungsalgorithmus begann.

R. Frumkina, der sich damals mit dem Übersetzungsalgorithmus aus dem Spanischen beschäftigte, erinnert sich, dass es in dieser Phase der Arbeit schwierig war, konsequente Schritte zu unternehmen. Viel öfter musste ich der heuristischen Erfahrung folgen – meiner eigenen oder Kollegen.

Gleichzeitig war die erste Generation maschineller Übersetzungssysteme sehr unvollkommen. Alle basierten auf sequentiellen Übersetzungsalgorithmen „Wort für Wort“, „Satz für Satz“ – semantische Zusammenhänge zwischen Wörtern und Sätzen wurden in keiner Weise berücksichtigt. Die Sätze lauten zum Beispiel: John suchte nach seiner Spielzeugkiste.Endlich hat er es gefunden. Die Schachtel war im Stift.Johannes war sehr glücklich. (John suchte seine Spielzeugkiste. Endlich fand er sie. Die Kiste stand im Laufstall. John war sehr glücklich.)“ „Stift“ ist in diesem Zusammenhang kein „Stift“ (Schreibgerät), sondern ein „Laufstall“ ( Laufstall). Das Wissen um Synonyme, Antonyme und bildliche Bedeutungen ist schwer in einen Computer einzugeben. Eine vielversprechende Richtung war die Entwicklung von Computersystemen, die sich auf die Verwendung eines menschlichen Übersetzers konzentrierten.

Im Laufe der Zeit wurden direkte Übersetzungssysteme durch T-Systeme (vom englischen Wort "transfer" - Transformation) ersetzt, bei denen die Übersetzung auf der Ebene syntaktischer Strukturen durchgeführt wurde. Die Algorithmen von T-Systems verwendeten einen Mechanismus, der es ermöglichte, eine syntaktische Struktur gemäß den Grammatikregeln der Sprache des Eingabesatzes aufzubauen (ähnlich wie eine Fremdsprache in der High School gelehrt wird) und dann den Ausgabesatz zu synthetisieren indem die syntaktische Struktur transformiert und die erforderlichen Wörter aus dem Wörterbuch ersetzt werden.

Lyapunov sprach über das Übersetzen, indem er die Bedeutung des übersetzten Textes extrahierte und ihn in einer anderen Sprache präsentierte. Der Ansatz zum Aufbau von Maschinenübersetzungssystemen auf der Grundlage des Erhaltens der semantischen Darstellung des Eingabesatzes durch semantische Analyse und Synthese des Eingabesatzes gemäß der erhaltenen semantischen Darstellung wird immer noch als der vollkommenste angesehen. Solche Systeme nennt man I-Systeme (vom Wort „interlingua“). Gleichzeitig ist die in die späten 50er und frühen 60er Jahre zurückversetzte Aufgabe, sie zu schaffen, trotz der Bemühungen der International Federation of IFIP - der Weltgemeinschaft von Wissenschaftlern auf dem Gebiet der Informationsverarbeitung - bisher nicht vollständig gelöst .

Wissenschaftler dachten darüber nach, wie man Algorithmen für die Arbeit mit Texten formalisiert und baut, welche Wörterbücher in die Maschine eingegeben werden sollten, welche sprachlichen Muster in der maschinellen Übersetzung verwendet werden sollten. Solche Vorstellungen hatte die traditionelle Linguistik nicht – nicht nur semantisch, sondern auch syntaktisch. Zu dieser Zeit gab es für keine Sprache Listen syntaktischer Konstruktionen, die Bedingungen für ihre Kompatibilität und Austauschbarkeit wurden nicht untersucht, die Regeln für die Konstruktion großer Einheiten syntaktischer Struktur aus kleineren Bestandteilen wurden nicht entwickelt.

Die Notwendigkeit, die theoretischen Grundlagen der maschinellen Übersetzung zu schaffen, führte zur Entstehung und Entwicklung der mathematischen Linguistik. Die führende Rolle in dieser Angelegenheit in der UdSSR spielten die Mathematiker A.A. Ljapunow, O.S. Kulagina, V.A. Uspensky, Linguisten V.Yu. Rosenzweig, P.S. Kuznetsov, R.M. Frumkina, A.A. Reformatsky, I.A. Melchuk, V.V. Iwanow. Kulaginas Dissertation war dem Studium der formalen Theorie der Grammatik gewidmet (gleichzeitig mit N. Khomsky in den USA), Kuznetsov stellte die Aufgabe der Axiomatisierung der Linguistik, die auf die Arbeiten von F.F. Fortunatov.

Am 6. Mai 1960 wurde das Dekret des Präsidiums der Akademie der Wissenschaften der UdSSR "Über die Entwicklung struktureller und mathematischer Methoden für das Studium der Sprache" verabschiedet und entsprechende Abteilungen am Institut für Linguistik und am Institut für Sprachwissenschaft eingerichtet Russische Sprache. Seit 1960 haben die führenden humanitären Universitäten des Landes - die Fakultät für Philologie der Moskauer Staatlichen Universität, Leninrad, die Nowosibirsker Universitäten, das Moskauer Staatliche Institut für Fremdsprachen - damit begonnen, Personal im Bereich der automatischen Textverarbeitung auszubilden.

Gleichzeitig sind Arbeiten zur maschinellen Übersetzung aus dieser Zeit, die als "klassisch" bezeichnet werden, eher von theoretischem als von praktischem Interesse. Kostengünstige maschinelle Übersetzungssysteme wurden erst in den achtziger Jahren des letzten Jahrhunderts entwickelt. Darauf werde ich später in Abschnitt 2.1, Maschinelle Übersetzung, eingehen.

Die 1960er - 70er Jahre umfassen tiefgreifende theoretische Entwicklungen unter Verwendung der Methoden der Mengenlehre und der mathematischen Logik, wie z. B. der Feldtheorie und der Fuzzy-Mengentheorie.

Der Autor der Feldtheorie in der Linguistik war der sowjetische Dichter, Übersetzer und Linguist V.G. Admoni. Er entwickelte seine Theorie zunächst auf der Grundlage der deutschen Sprache. Für Admoni bezeichnet der Begriff „Feld“ eine willkürliche, nicht leere Menge sprachlicher Elemente (z. B. „lexikalisches Feld“, „semantisches Feld“).

Die Struktur des Feldes ist heterogen: Es besteht aus einem Kern, dessen Elemente einen vollständigen Satz von Merkmalen haben, die einen Satz definieren, und einer Peripherie, deren Elemente beide Merkmale eines gegebenen Satzes (nicht alle) haben können. und benachbarte. Ich werde ein Beispiel geben, das diese Aussage veranschaulicht: Im Englischen ist beispielsweise das Feld der zusammengesetzten Wörter („day-dream“ - „dream“) schwer vom Bereich der Phrasen („tear gas“ – „tear gas“) zu trennen. .

Die oben bereits erwähnte Theorie der Fuzzy-Mengen ist eng mit der Feldtheorie verwandt. In der UdSSR haben die Linguisten V.G. Admoni, I.P. Ivanova, G.G. Pochentsov jedoch war sein Vorfahre der amerikanische Mathematiker L. Zadeh, der 1965 den Artikel „Fuzzy Logic“ veröffentlichte. Zade begründete die Theorie der Fuzzy-Mengen mathematisch und betrachtete sie auf der Grundlage von sprachlichem Material.

In dieser Theorie sprechen wir nicht so sehr über die Zugehörigkeit von Elementen zu einer gegebenen Menge (Aa), sondern über den Grad dieser Zugehörigkeit (Aa), da periphere Elemente mehr oder weniger zu mehreren Feldern gehören können. Zade (Lofti-zade) stammte aus Aserbaidschan, bis zum Alter von 12 Jahren hatte er die Praxis, in vier Sprachen zu kommunizieren – Aserbaidschanisch, Russisch, Englisch und Persisch – und benutzte drei verschiedene Alphabete: Kyrillisch, Latein, Arabisch. Wenn ein Wissenschaftler gefragt wird, was die Fuzzy-Set-Theorie und die Linguistik gemeinsam haben, leugnet er diesen Zusammenhang nicht, stellt aber klar: „Ich bin mir nicht sicher, ob das Studium dieser Sprachen einen großen Einfluss auf mein Denken hatte. Wenn dem so war, dann nur unbewusst. In seiner Jugend besuchte Zadeh eine presbyterianische Schule in Teheran und wanderte nach dem Zweiten Weltkrieg in die Vereinigten Staaten aus. „Die Frage ist nicht, ob ich Amerikaner, Russe, Aserbaidschaner oder sonst jemand bin“, sagte er in einem der Gespräche, „ich bin geprägt von all diesen Kulturen und Völkern und fühle mich zwischen allen recht wohl.“ In diesen Worten steckt so etwas wie das, was die Theorie der Fuzzy-Mengen charakterisiert – eine Abkehr von eindeutigen Definitionen und scharfen Kategorien.

In unserem Land wurden in den 70er Jahren die Werke westlicher Linguisten des 20. Jahrhunderts übersetzt und studiert. I.A. Melchuk übersetzte die Werke von N. Chomsky ins Russische. AUF DER. Slyusareva verbindet in ihrem Buch „The Theory of F. de Saussure in the Light of Modern Linguistics“ die Postulate von Saussures Lehre mit den aktuellen Problemen der Linguistik der 70er Jahre. Es gibt eine Tendenz zur weiteren Mathematisierung der Linguistik. Die führenden inländischen Universitäten bilden Personal in der Fachrichtung „Mathematische (theoretische, angewandte) Linguistik“ aus. Gleichzeitig vollzieht sich im Westen ein sprunghafter Entwicklungssprung in der Computertechnik, der immer neue sprachliche Grundlagen erfordert.

In den 1980er Jahren wurde Professor des Instituts für Orientalistik der Akademie der Wissenschaften Yu.K. Während Lekomtsev die Sprache der Linguistik durch die Analyse von Schemata, Tabellen und anderen Arten von Notationen analysiert, die in linguistischen Beschreibungen verwendet werden, betrachtet er mathematische Systeme als geeignet für diese Zwecke (hauptsächlich Systeme der Matrixalgebra).

So kam es im gesamten 20. Jahrhundert zu einer Konvergenz der exakten und der Geisteswissenschaften. Das Zusammenspiel von Mathematik und Linguistik fand zunehmend praktische Anwendung. Mehr dazu im nächsten Kapitel.

Kapitel 2. Ausgewählte Beispiele für den Einsatz von Mathematik in der Linguistik

2.1 Maschinelle Übersetzung

Die Idee, mit Hilfe eines universellen Mechanismus von einer Sprache in eine andere zu übersetzen, entstand mehrere Jahrhunderte, bevor die ersten Entwicklungen auf diesem Gebiet begannen – bereits 1649 schlug Rene Descartes die Idee einer Sprache vor, in der die äquivalenten Ideen von verschiedene Sprachen würden durch ein Symbol ausgedrückt. Die ersten Versuche zur Umsetzung dieser Idee in den 1930er-40er Jahren, der Beginn theoretischer Entwicklungen in der Mitte des Jahrhunderts, die Verbesserung von Übersetzungssystemen mit Hilfe von Technologie in den 1970er-80er Jahren, die rasante Entwicklung der Übersetzungstechnologie in den letzten Jahrzehnt - das sind die Etappen in der Entwicklung der maschinellen Übersetzung als Industrie. Aus den Arbeiten zur maschinellen Übersetzung ist die Computerlinguistik als Wissenschaft gewachsen.

Mit der Entwicklung der Computertechnik in den späten 70er und frühen 80er Jahren setzten sich Forscher realistischere und kostengünstigere Ziele – die Maschine wurde nicht zur Konkurrenz (wie bisher angenommen), sondern zum Assistenten eines menschlichen Übersetzers. Die maschinelle Übersetzung dient nicht mehr ausschließlich militärischen Aufgaben (alle sowjetischen und amerikanischen Erfindungen und Forschungen, die sich hauptsächlich auf Russisch und Englisch konzentrierten, trugen auf die eine oder andere Weise zum Kalten Krieg bei). 1978 wurden Wörter in natürlicher Sprache über das Arpa-Verbundnetz übertragen, und sechs Jahre später erschienen die ersten Mikrocomputer-Übersetzungsprogramme in den Vereinigten Staaten.

In den 70er Jahren kauft die Kommission der Europäischen Gemeinschaften die Englisch-Französisch-Version des Computerübersetzers Systran und bestellt auch die Französisch-Englisch- und Italienisch-Englisch-Versionen sowie das von den US-Streitkräften verwendete Übersetzungssystem Russisch-Englisch. So wurde der Grundstein für das Projekt EUROTRA gelegt.

Über die Wiederbelebung der maschinellen Übersetzung in den 70-80er Jahren. Die folgenden Tatsachen bezeugen: Die Kommission der Europäischen Gemeinschaften (CEC) kauft die englisch-französische Version von Systran sowie das Übersetzungssystem vom Russischen ins Englische (letzteres wurde nach dem ALPAC-Bericht entwickelt und von der US Air weiter verwendet Force und NASA); Darüber hinaus ordnet die CEC die Entwicklung der französisch-englischen und italienisch-englischen Versionen an. Gleichzeitig gibt es eine rasche Ausweitung der maschinellen Übersetzungsaktivitäten in Japan; in den USA ordnet die Panamerikanische Gesundheitsorganisation (PAHO) die Entwicklung einer spanisch-englischen Richtung (SPANAM-System) an; Die US Air Force finanziert die Entwicklung eines maschinellen Übersetzungssystems am Linguistic Research Center der University of Texas in Austin; Die TAUM-Gruppe in Kanada macht bemerkenswerte Fortschritte bei der Entwicklung ihres METEO-Systems (meteorological translation). Eine Reihe von Projekten begann in den 70er und 80er Jahren. anschließend zu vollwertigen kommerziellen Systemen weiterentwickelt.

Zwischen 1978 und 1993 wurden in den USA 20 Millionen Dollar, in Europa 70 Millionen und in Japan 200 Millionen Dollar für die Forschung auf dem Gebiet der maschinellen Übersetzung ausgegeben.

Eine der neuen Entwicklungen ist die TM-Technologie (Translation Memory), die nach dem Akkumulationsprinzip arbeitet: Während des Übersetzungsprozesses werden das ursprüngliche Segment (Satz) und seine Übersetzung gespeichert, wodurch eine sprachliche Datenbank entsteht; Wenn im neu übersetzten Text ein identisches oder ähnliches Segment gefunden wird, wird es zusammen mit der Übersetzung und einer Angabe der prozentualen Übereinstimmung angezeigt. Der Übersetzer trifft dann eine Entscheidung (Ändern, Ablehnen oder Akzeptieren der Übersetzung), deren Ergebnis vom System gespeichert wird, sodass derselbe Satz nicht zweimal übersetzt werden muss. Derzeit ist der Entwickler eines wohlbekannten kommerziellen Systems, das auf TM-Technologie basiert, das TRADOS-System (gegründet 1984).

Derzeit entwickeln mehrere Dutzend Unternehmen kommerzielle maschinelle Übersetzungssysteme, darunter: Systran, IBM, L&H (Lernout & Hauspie), Transparent Language, Cross Language, Trident Software, Atril, Trados, Caterpillar Co., LingoWare; Ata-Software; Linguistica b.v. ua Jetzt können Sie die Dienste automatischer Übersetzer direkt im Web nutzen: alphaWorks; der Online-Übersetzer von PROMT, LogoMedia.net, der Übersetzungsdienst Babel Fish von AltaVista; InfiniT.com; Übersetzen des Internets.

Kommerziell wirksame Übersetzungssysteme erschienen in der zweiten Hälfte der 80er Jahre auch in unserem Land. Das eigentliche Konzept der maschinellen Übersetzung hat sich erweitert (es umfasste „die Schaffung einer Reihe automatischer und automatisierter Systeme und Geräte, die den gesamten Übersetzungszyklus oder einzelne Aufgaben im Dialog mit einer Person automatisch oder halbautomatisch ausführen“) und Die staatlichen Mittel für die Entwicklung dieser Industrie sind gestiegen.

Russisch, Englisch, Deutsch, Französisch und Japanisch wurden zu den Hauptsprachen der einheimischen Übersetzungssysteme. Das All-Union Translation Center (VTsP) entwickelte ein System zur Übersetzung aus dem Englischen und Deutschen ins Russische mit dem Computer EC-1035-ANRAP. Es bestand aus drei Wörterbüchern – Eingabe Englisch und Deutsch und Ausgabe Russisch – unter einer einzigen Software. Es gab mehrere austauschbare Fachwörterbücher - für Computertechnik, Programmierung, Funkelektronik, Maschinenbau, Landwirtschaft, Metallurgie. Das System konnte in zwei Modi arbeiten - automatisch und interaktiv, wenn der Bildschirm den Ausgangstext und die Übersetzung pro Satz anzeigte, die eine Person bearbeiten konnte. Die Übersetzungsgeschwindigkeit von Text in ANRAP (vom Beginn der Eingabe bis zum Ende des Drucks) betrug ungefähr 100 Seiten pro Stunde.

1989 wurde eine Familie kommerzieller Übersetzer vom Typ SPRINT gegründet, die mit Russisch, Englisch, Deutsch und Japanisch arbeiteten. Ihr Hauptvorteil war ihre Kompatibilität mit dem IBM-PC - so erreichten einheimische maschinelle Übersetzungssysteme das internationale Qualitätsniveau. Gleichzeitig wird ein System zur maschinellen Übersetzung aus dem Französischen ins Russische FRAP entwickelt, das 4 Stufen der Textanalyse umfasst: graphematisch, morphologisch, syntaktisch und semantisch. In LGPI ihnen. Herzen wurde an einem viersprachigen (Englisch, Französisch, Spanisch, Russisch) SILOD-MP-System gearbeitet (Englisch-Russische und Französisch-Russische Wörterbücher wurden im Industriemodus verwendet.

Für die Fachübersetzung von Texten zur Elektrotechnik existierte das ETAP-2-System. Die Analyse des darin eingegebenen Textes wurde auf zwei Ebenen durchgeführt - morphologisch und syntaktisch. Das ETAP-2-Wörterbuch enthielt etwa 4.000 Einträge; die Phase der Texttransformation - etwa 1000 Regeln (96 allgemeine, 342 private, der Rest sind Wörterbuch). All dies sorgte für eine zufriedenstellende Übersetzungsqualität (z. B. wurde der Titel des Patents "Optische Phasengitteranordnung und Kopplungsvorrichtung mit einer solchen Anordnung" mit "Eine optische Phasengittervorrichtung und eine Verbindungsvorrichtung mit einer solchen Vorrichtung" übersetzt - trotz der Tautologie, die Bedeutung bleibt erhalten).

Am Minsker Pädagogischen Institut für Fremdsprachen wurde auf der Grundlage des englisch-russischen Wörterbuchs der Wortformen und Phrasen ein System zur maschinellen Übersetzung von Titeln erfunden, am Institut für Orientalistik der Akademie der Wissenschaften ein System zum Übersetzen vom Japanischen ins Russische. Der erste automatische Vokabular- und Terminologiedienst (SLOTHERM) für Computer und Programmierung, der am Moskauer Forschungsinstitut für Automatisierungssysteme erstellt wurde, enthielt ungefähr 20.000 Begriffe in einem erklärenden Wörterbuch und speziellen Wörterbüchern für die Sprachforschung.

Maschinelle Übersetzungssysteme wurden allmählich nicht nur für ihren vorgesehenen Zweck, sondern auch als wichtiger Bestandteil automatischer Lernsysteme (zum Unterrichten von Übersetzungen, zur Überprüfung von Rechtschreibung und Grammatik) eingesetzt.

Die 90er Jahre brachten die rasante Entwicklung des PC-Marktes (vom Desktop zum Pocket) und der Informationstechnologie, die weite Verbreitung des Internets (das immer internationaler und mehrsprachig wird). All dies machte die Weiterentwicklung automatisierter Übersetzungssysteme gefragt. Seit Anfang der 1990er Jahre Auch inländische Entwickler dringen in den PC-Systemmarkt ein.

Im Juli 1990 wurde auf dem PC-Forum in Moskau das erste kommerzielle maschinelle Übersetzungssystem in Russland namens PROMT (PROgrammer's Machine Translation) vorgestellt 1991 ZAO [!!! wurde durch eine nicht-öffentliche Aktiengesellschaft ersetzt] „Proekt MT“, und bereits 1992 gewann die Firma PROMT den NASA-Wettbewerb für die Lieferung von MP-Systemen (PROMT war das einzige nicht-amerikanische Unternehmen in diesem Wettbewerb). ganze Familie von Systemen unter dem neuen Namen STYLUS zum Übersetzen aus dem Englischen, Deutschen, Französischen, Italienischen und Spanischen ins Russische und aus dem Russischen ins Englische, und 1993 wurde auf der Grundlage von STYLUS das weltweit erste maschinelle Übersetzungssystem für Windows entwickelt: STYLUS 2.0 für Windows 3.X/95/NT wurde veröffentlicht, und 1995-1996 wurde die dritte Generation von maschinellen Übersetzungssystemen, vollständig 32-Bit-STYLUS 3.0 für Windows 95/NT, eingeführt, gleichzeitig die Entwicklung eines vollständig neu, die weltweit ersten maschinellen Übersetzungssysteme Russisch-Deutsch und Russisch-Französisch.

1997 wurde mit dem französischen Unternehmen Softissimo eine Vereinbarung über die Erstellung von Übersetzungssystemen vom Französischen ins Deutsche und Englische und umgekehrt unterzeichnet, und im Dezember dieses Jahres wurde das weltweit erste deutsch-französische Übersetzungssystem veröffentlicht. Im selben Jahr veröffentlichte die Firma PROMT ein System, das mit der Giant-Technologie implementiert wurde und mehrere Sprachrichtungen in einer Shell sowie einen speziellen Übersetzer für die Arbeit im Internet WebTranSite unterstützt.

1998 wurde eine ganze Konstellation von Programmen unter dem neuen Namen PROMT 98 veröffentlicht. Ein Jahr später veröffentlichte PROMT zwei neue Produkte: ein einzigartiges Softwarepaket für die Arbeit im Internet - PROMT Internet - und einen Übersetzer für Firmen-Mail-Systeme - PROMT Mail Übersetzer. Im November 1999 wurde PROMT vom französischen Magazin PC Expert als bestes maschinelles Übersetzungssystem getestet und übertraf seine Konkurrenten um 30 Prozent. Auch für Firmenkunden wurden spezielle Serverlösungen entwickelt – der Corporate Translation Server PROMT Translation Server (PTS) und die Internetlösung PROMT Internet Translation Server (PITS). Im Jahr 2000 aktualisierte PROMT seine gesamte Softwareproduktlinie durch die Veröffentlichung einer neuen Generation von MÜ-Systemen: PROMT Translation Office 2000, PROMT Internet 2000 und Magic Gooddy 2000.

Die Online-Übersetzung mit Unterstützung des PROMT-Systems wird auf einer Reihe von in- und ausländischen Websites verwendet: PROMTs Online-Übersetzer, InfiniT.com, Translate.Ru, Lycos usw. sowie in Institutionen mit unterschiedlichen Profilen für die Übersetzung von Geschäftsdokumenten, Artikel und Briefe (es gibt Übersetzungssysteme, die direkt in Outlook Express und andere E-Mail-Clients integriert sind).

Heutzutage entstehen neue maschinelle Übersetzungstechnologien, die auf der Verwendung von Systemen der künstlichen Intelligenz und statistischen Methoden basieren. Über letzteres - im nächsten Abschnitt.

2.2 Zusatzische Methoden beim Sprachenlernen

In der modernen Linguistik wird dem Studium sprachlicher Phänomene mit den Methoden der quantitativen Mathematik große Aufmerksamkeit geschenkt. Quantitative Daten helfen oft, die untersuchten Phänomene, ihren Platz und ihre Rolle im System verwandter Phänomene besser zu verstehen. Die Antwort auf die Frage „wie viel“ hilft bei der Beantwortung der Fragen „was“, „wie“, „warum“ – das ist das heuristische Potenzial eines quantitativen Merkmals.

Statistische Methoden spielen bei der Entwicklung maschineller Übersetzungssysteme eine bedeutende Rolle (siehe Abschnitt 2.1). Beim statistischen Ansatz wird das Übersetzungsproblem in Form eines verrauschten Kanals betrachtet. Stellen Sie sich vor, wir müssen einen Satz aus dem Englischen ins Russische übersetzen. Das Noisy-Channel-Prinzip bietet uns folgende Erklärung für die Beziehung zwischen einem englischen und einem russischen Satz: Ein englischer Satz ist nichts anderes als ein russischer Satz, der durch irgendeine Art von Rauschen verzerrt ist. Um den ursprünglichen russischen Satz wiederherzustellen, müssen wir wissen, was die Leute normalerweise auf Russisch sagen und wie russische Sätze ins Englische verzerrt werden. Die Übersetzung wird durchgeführt, indem nach einem solchen russischen Satz gesucht wird, der die Produkte der unbedingten Wahrscheinlichkeit des russischen Satzes und der Wahrscheinlichkeit des englischen Satzes (Original) bei gegebenem russischen Satz maximiert. Nach dem Satz von Bayes ist dieser russische Satz die wahrscheinlichste Übersetzung aus dem Englischen:

wobei e der Übersetzungssatz und f der Originalsatz ist

Wir brauchen also ein Quellenmodell und ein Kanalmodell oder ein Sprachmodell und ein Übersetzungsmodell. Das Sprachmodell muss jedem Satz in der Zielsprache (in unserem Fall Russisch) und das Übersetzungsmodell dem ursprünglichen Satz einen Wahrscheinlichkeitswert zuweisen. (siehe Tabelle 1)

Im Allgemeinen arbeitet ein maschinelles Übersetzungssystem in zwei Modi:

1. Systemtraining: Ein Trainingskorpus von parallelen Texten wird genommen, und unter Verwendung von linearer Programmierung werden solche Werte von Ügesucht, die die Wahrscheinlichkeit maximieren, dass (zum Beispiel) der russische Teil des Korpus mit dem verfügbaren Englisch übereinstimmt zum ausgewählten Übersetzungsmodell. Ein Modell der russischen Sprache baut auf dem russischen Teil desselben Korpus auf.

2. Exploitation: Basierend auf den erhaltenen Daten für einen unbekannten englischen Satz wird ein Russisch gesucht, der das Produkt der Wahrscheinlichkeiten maximiert, die durch das Sprachmodell und das Übersetzungsmodell zugewiesen werden. Das für eine solche Suche verwendete Programm wird Decoder genannt.

Das einfachste statistische Übersetzungsmodell ist das wörtliche Übersetzungsmodell. In diesem Modell wird davon ausgegangen, dass es zum Übersetzen eines Satzes von einer Sprache in eine andere ausreicht, alle Wörter zu übersetzen (eine „Worttüte“ zu erstellen) und das Modell ihre Platzierung in der richtigen Reihenfolge bereitstellt P(a, f | e) zu P(a | e , f), d.h. Wahrscheinlichkeiten einer gegebenen Ausrichtung bei einem Satzpaar, jede Wahrscheinlichkeit P(a, f | e) wird durch die Summe der Wahrscheinlichkeiten aller Ausrichtungen eines gegebenen Satzpaares normalisiert:

Die Implementierung des zum Trainieren von Modell Nr. 1 verwendeten Viterbi-Algorithmus ist wie folgt:

1. Die gesamte Tabelle der Übersetzungskwird mit den gleichen Werten gefüllt.

2. Für alle möglichen Varianten paarweiser Wortverbindungen wird die Wahrscheinlichkeit P(a, f | e) berechnet:

3. Die Werte von P(a, f | e) werden normalisiert, um die Werte von P(a | e, f) zu erhalten.

4. Die Häufigkeit jedes Übersetzungspaares wird berechnet, gewichtet mit der Wahrscheinlichkeit jeder Ausrichtungsoption.

5. Die resultierenden gewichteten Häufigkeiten werden normalisiert und bilden eine neue Tabelle von Übersetzungsübereinstimmungswahrscheinlichkeiten

6. Der Algorithmus wird ab Schritt 2 wiederholt.

Betrachten Sie als Beispiel das Training eines ähnlichen Modells auf einem Korpus aus zwei Satzpaaren (Abb. 2):

Weißes Haus

Nach einer großen Anzahl von Iterationen erhalten wir eine Tabelle (Tabelle 2), die zeigt, dass die Übersetzung mit hoher Genauigkeit durchgeführt wird.

Auch statistische Methoden werden häufig beim Studium des Vokabulars, der Morphologie, der Syntax und des Stils verwendet. Wissenschaftler der Perm State University führten eine Studie durch, die auf der Behauptung basierte, dass stereotype Phrasen ein wichtiges „Baumaterial“ des Textes sind. Diese Phrasen bestehen aus "nuklearen" wiederholten Wörtern und abhängigen Wortbezeichnern und haben eine ausgeprägte stilistische Färbung.

Im wissenschaftlichen Stil können "nukleare" Wörter genannt werden: Forschung, Studie, Aufgabe, Problem, Frage, Phänomen, Tatsache, Beobachtung, Analyse usw. Im Journalismus werden andere Wörter „nuklear“ sein, die speziell für den Text der Zeitung einen erhöhten Wert haben: Zeit, Person, Macht, Geschäft, Handlung, Gesetz, Leben, Geschichte, Ort usw. (insgesamt 29)

Von besonderem Interesse für Linguisten ist auch die fachliche Differenzierung der Landessprache, die Besonderheiten des Wortschatzgebrauchs und der Grammatik je nach Berufsart. Es ist bekannt, dass Autofahrer in der Fachsprache die Form sch verwenden Über fer, sagen die Mediziner k Über Club statt Cocktail Ju sh - solche Beispiele können gegeben werden. Die Aufgabe der Statistik besteht darin, die Variabilität der Aussprache und die Änderung der Sprachnorm zu verfolgen.

Berufliche Unterschiede führen nicht nur zu grammatikalischen, sondern auch zu lexikalischen Unterschieden. Benannt nach der Yakut State University M.K. Ammosov wurden 50 Fragebögen mit den häufigsten Reaktionen auf bestimmte Wörter bei Ärzten und Bauarbeitern analysiert (Tabelle 3).

Bauherren

Menschlich

Patient (10), Persönlichkeit (5)

Mann (5)

gut

Hilfe (8), Hilfe (7)

böse (16)

ein Leben

Tod (10)

schön (5)

Tod

Leiche (8)

Leben (6)

das Feuer

erhitzen (8), brennen (6)

Feuer (7)

Finger

Hand (14), Panaritium (5)

groß (7), Index (6)

Augen

Sehvermögen (6), Pupille, Augenarzt (je 5)

braun (10), groß (6)

Kopf

Verstand (14), Verstand (5)

groß (9), schlau (8), schlau (6)

verlieren

Bewusstsein, Leben (je 4)

Geld (5), finden (4)

Es ist festzustellen, dass Ärzte häufiger als Bauherren Assoziationen zu ihrer beruflichen Tätigkeit äußern, da die im Fragebogen angegebenen Reizwörter eher auf ihren Beruf als auf den Beruf des Baumeisters bezogen sind.

Statistische Regelmäßigkeiten in einer Sprache werden verwendet, um Häufigkeitswörterbücher zu erstellen - Wörterbücher, die numerische Merkmale der Häufigkeit von Wörtern (Wortformen, Phrasen) einer beliebigen Sprache liefern - der Sprache des Schriftstellers, eines beliebigen Werks usw. Normalerweise die Häufigkeit des Auftretens von ein Wort wird als Merkmal für die Häufigkeit des Vorkommens eines Wortes im Text eines bestimmten Bandes verwendet

Das Modell der Sprachwahrnehmung ist ohne ein Wörterbuch als wesentlichen Bestandteil nicht möglich. Bei der Wahrnehmung von Sprache ist die grundlegende Operationseinheit das Wort. Daraus folgt insbesondere, dass jedes Wort des wahrgenommenen Textes mit der entsprechenden Einheit des internen Wortschatzes des Zuhörers (oder Lesers) identifiziert werden muss. Es ist naheliegend anzunehmen, dass die Suche von vornherein auf einige Subdomänen des Wörterbuchs beschränkt ist. Nach den meisten modernen Theorien der Sprachwahrnehmung liefert die tatsächliche phonetische Analyse des klingenden Textes in einem typischen Fall nur einige Teilinformationen über das mögliche phonologische Auftreten des Wortes, und diese Art von Informationen entspricht nicht einem, sondern einer bestimmten VIELZAHL von Wörtern des Wörterbuchs; Daher ergeben sich zwei Probleme:

(a) Auswahl des geeigneten Satzes gemäß bestimmten Parametern;

(b) innerhalb der Grenzen des umrissenen Satzes (wenn er angemessen zugeordnet ist) alle Wörter zu "eliminieren", mit Ausnahme des einzigen, das dem gegebenen Wort des erkannten Textes am besten entspricht. Eine der "Dropout"-Strategien besteht darin, niederfrequente Wörter auszuschließen. Daraus folgt, dass das Vokabular für die Sprachwahrnehmung ein Frequenzlexikon ist. Die Erstellung einer Computerversion des Frequenzwörterbuchs der russischen Sprache ist die anfängliche Aufgabe des vorgestellten Projekts.

Basierend auf dem Material der russischen Sprache gibt es 5 Häufigkeitswörterbücher (ohne Zweigwörterbücher). Halten wir nur einige allgemeine Mängel der bestehenden Wörterbücher fest.

Alle bekannten Frequenzwörterbücher der russischen Sprache basieren auf der Verarbeitung von Arrays geschriebener (gedruckter) Texte. Auch aus diesem Grund wird die Semantik nicht ausreichend berücksichtigt, wenn die Identität eines Wortes weitgehend auf formalen, grafischen Zufällen beruht. Dadurch werden auch die Frequenzcharakteristiken verschoben, verzerrt; Wenn beispielsweise der Ersteller des Häufigkeitswörterbuchs Wörter aus der Kombination „einander“ in die allgemeine Statistik der Verwendung des Wortes „Freund“ aufnimmt, ist dies kaum gerechtfertigt: Angesichts der Semantik müssen wir zugeben, dass dies bereits der Fall ist verschiedene Wörter, oder besser gesagt, dass eine unabhängige Wörterbucheinheit nur die Kombination als Ganzes ist.

Außerdem werden in allen vorhandenen Wörterbüchern Wörter nur in ihren Grundformen platziert: Substantive im Singular, Nominativ, Verben im Infinitiv usw. Einige der Wörterbücher geben Auskunft über die Häufigkeit von Wortformen, tun dies aber meist nicht konsequent genug, nicht erschöpfend. Die Häufigkeiten verschiedener Wortformen desselben Wortes stimmen offensichtlich nicht überein. Der Entwickler eines Sprachwahrnehmungsmodells muss berücksichtigen, dass bei einem realen Wahrnehmungsprozess gerade eine bestimmte Wortform in den Text „eingetaucht“ wird, der erkannt werden soll: basierend auf der Analyse des Anfangsteils des Exponenten der Wortform wird ein Satz von Wörtern mit identischem Anfang gebildet, und der Anfangsabschnitt der Wortform ist nicht notwendigerweise identisch mit dem Anfangsabschnitt der Wörterbuchform. Es ist die Wortform, die eine bestimmte rhythmische Struktur hat, die auch ein äußerst wichtiger Parameter für die wahrnehmungsbezogene Auswahl von Wörtern ist. Schließlich werden in der endgültigen Darstellung der erkannten Äußerung die Wörter wiederum durch die entsprechenden Wortformen dargestellt.

Es gibt viele Arbeiten, die die Bedeutung der Frequenz im Prozess der Sprachwahrnehmung demonstrieren. Uns sind aber keine Werke bekannt, bei denen die Häufigkeit von Wortformen verwendet würde – im Gegenteil, alle Autoren ignorieren praktisch die Häufigkeit einzelner Wortformen und beziehen sich ausschließlich auf Lexeme. Wenn die von ihnen erzielten Ergebnisse nicht als Artefakte angesehen werden, muss man davon ausgehen, dass der Muttersprachler irgendwie Zugang zu Informationen über das Verhältnis der Häufigkeiten von Wortformen und Wörterbuchformen hat, also tatsächlich Lexeme. Außerdem lässt sich ein solcher Übergang von einer Wortform zu einem Lexem natürlich nicht durch natürliches Wissen um das entsprechende Paradigma erklären, da vor der endgültigen Identifizierung des Wortes Häufigkeitsinformationen verwendet werden müssen, sonst verliert es einfach seine Bedeutung.

Gemäß den primären statistischen Merkmalen kann mit einem bestimmten relativen Fehler derjenige Teil des Wörterbuchs bestimmt werden, der Wörter mit hoher Häufigkeit enthält, unabhängig von der Textart. Durch Einführen einer schrittweisen Ordnung in das Wörterbuch ist es auch möglich, eine Reihe von Wörterbüchern zu erhalten, die die ersten 100, 1000, 5000 usw. häufiger Wörter abdecken. Die statistischen Merkmale des Wörterbuchs sind im Zusammenhang mit der semantischen Analyse des Wortschatzes von Interesse. Die Untersuchung subjektideologischer Gruppen und semantischer Felder zeigt, dass lexikalische Assoziationen durch semantische Verbindungen unterstützt werden, die sich um Lexeme mit der häufigsten Bedeutung konzentrieren. Die Beschreibung von Bedeutungen innerhalb des lexiko-semantischen Feldes kann durchgeführt werden, indem Wörter mit den abstraktesten Bedeutungslexemen identifiziert werden. Offensichtlich bilden "leere" (aus Sicht der Nominativpotenzen) Wörterbucheinheiten eine statistisch homogene Schicht.

Nicht weniger wertvoll sind Vokabeln für einzelne Genres. Die Untersuchung des Ähnlichkeitsmaßes und der Art statistischer Verteilungen wird interessante Informationen über die qualitative Schichtung des Vokabulars in Abhängigkeit von der Sphäre des Sprachgebrauchs liefern.

Die Zusammenstellung großer Frequenzwörterbücher erfordert den Einsatz von Computertechnologie. Als Experiment zur maschinellen Verarbeitung von Wörterbüchern für unterschiedliche Texte ist die Einführung einer Teilmechanisierung und -automatisierung in den Prozess der Wörterbuchbearbeitung interessant. Ein solches Wörterbuch erfordert ein strengeres System zum Verarbeiten und Sammeln von Vokabularmaterial. Im Miniaturformat ist dies ein Informationsabrufsystem, das Informationen zu verschiedenen Aspekten des Textes und des Vokabulars bereitstellen kann. Einige grundlegende Anforderungen an dieses System sind von Anfang an geplant: die Gesamtzahl der Bestandswörter, die statistischen Merkmale eines einzelnen Wortes und ganzer Wörterbücher, die Anordnung von häufigen und seltenen Zonen des Wörterbuchs usw. Die Maschinenkartei ermöglicht dies Erstellen Sie automatisch umgekehrte Wörterbücher für einzelne Genres und Quellen. Viele andere nützliche statistische Informationen über die Sprache werden aus der angesammelten Informationsreihe extrahiert. Das Computerfrequenzwörterbuch schafft eine experimentelle Grundlage für den Übergang zu einer weitergehenden Automatisierung der Wortschatzarbeit.

Die statistischen Daten von Häufigkeitswörterbüchern können auch häufig zur Lösung anderer sprachlicher Probleme verwendet werden - beispielsweise zur Analyse und Bestimmung der aktiven Mittel der Wortbildung der modernen russischen Sprache, zur Lösung von Problemen der Verbesserung von Grafik und Rechtschreibung, die mit der Aufnahme zusammenhängen Berücksichtigung statistischer Informationen über den Wortschatz (bei all dem ist es wichtig, probabilistische Merkmale von Graphemkombinationen, in Wörtern realisierte Typen von Buchstabenkombinationen zu berücksichtigen), praktische Transkription und Transliteration. Die statistischen Parameter des Wörterbuchs werden auch bei der Lösung von Problemen der automatischen Eingabe, Erkennung und des automatischen Lesens von wörtlichem Text nützlich sein.

Moderne erklärende Wörterbücher und Grammatiken der russischen Sprache basieren hauptsächlich auf literarischen und künstlerischen Texten. Es gibt Frequenzwörterbücher der Sprache von A.S. Puschkin, A.S. Griboedova, F.M. Dostojewski, V. V. Vysotsky und viele andere Autoren. Am Institut für Geschichte und Theorie der Literatur des Staates Smolensk. Die Pädagogische Hochschule arbeitet seit einigen Jahren an der Erstellung von Häufigkeitswörterbüchern zu poetischen und prosaischen Texten. Für diese Studie wurden Häufigkeitswörterbücher aller Texte von Puschkin und zwei weiteren Dichtern des goldenen Zeitalters - "Wehe aus Wit" von Griboyedov und alle Gedichte von Lermontov - ausgewählt; Pasternak und fünf weitere Dichter des Silberzeitalters - Balmont 1894-1903, "Poems about the Beautiful Lady" von Blok, "Stone" von Mandelstam, "Pillar of Fire" von Gumilyov, "Anno Domini MCMXXI" von Akhmatova und "Sisters of My Life“ von Pasternak und vier weitere Dichter der Eisenzeit – „Poems by Yuri Zhivago“, „When it clears“, der gesamte Textkorpus von M. Petrovs, „The road is far away“, „Windshield“, "Abschied vom Schnee" und "Hufeisen" von Mezhirov, "Antimirov" von Voznesensky und "Snezhnitsa » Rylenkova.

Es sei darauf hingewiesen, dass diese Wörterbücher unterschiedlicher Natur sind: Einige stellen das Vokabular eines dramatischen Werks dar, andere - Textbücher oder mehrere Bücher oder den gesamten Korpus der Gedichte des Dichters. Die in diesem Papier vorgestellten Ergebnisse der Analyse sind mit Vorsicht zu genießen, sie können nicht als absolut angesehen werden. Gleichzeitig kann mit Hilfe spezieller Maßnahmen der Unterschied in der ontologischen Natur von Texten bis zu einem gewissen Grad reduziert werden.

In den letzten Jahren ist der Gegensatz zwischen Umgangssprache und Buchsprache immer deutlicher geworden. Besonders heftig wird diese Frage unter Methodikern diskutiert, die eine Hinwendung zur gesprochenen Sprache im Unterricht fordern. Gleichzeitig bleibt die Besonderheit der Umgangssprache noch ungeklärt.

Wörterbücher wurden durch Erstellen einer Benutzeranwendung in der Umgebung des Büroprogramms EXCEL97 verarbeitet. Die Anwendung enthält vier Arbeitsblätter des EXCEL-Buches - "Titelblatt", Blatt "Wörterbücher" mit Anfangsdaten, "Entfernungen" und "Entfernungen" mit Ergebnissen sowie eine Reihe von Makros.

Auf dem Blatt „Wörterbücher“ werden die ersten Informationen eingetragen. Wörterbücher der untersuchten Texte werden in EXCEL-Zellen geschrieben, die letzte Spalte S wird aus den erhaltenen Ergebnissen gebildet und entspricht der Anzahl der in anderen Wörterbüchern gefundenen Wörter. Die Tabellen „Nähe“ und „Abstände“ enthalten berechnete Maße für Nähe M, Korrelation R und Abstand D.

Anwendungsmakros sind ereignisbasierte Programmierprozeduren, die in Visual Basic for Application (VBA) geschrieben sind. Prozeduren basieren auf VBA-Bibliotheksobjekten und ihren Verarbeitungsmethoden. Für Operationen mit Arbeitsblättern der Anwendung werden also das Schlüsselobjekt Worksheet (Arbeitsblatt) und die entsprechende Methode zum Aktivieren des Blatts Activate (activate) verwendet. Das Festlegen des Bereichs der analysierten Quelldaten auf dem Wörterbuchblatt erfolgt durch die Select-Methode des Range-Objekts (Range), und die Übertragung von Wörtern als Werte an Variablen erfolgt als Value-Eigenschaft (Wert) desselben Range Objekt.

Trotz der Tatsache, dass die Rangkorrelationsanalyse uns hinsichtlich der Abhängigkeit von Themen zwischen verschiedenen Texten vorsichtig macht, haben die meisten der häufigsten Wörter in jedem Text Übereinstimmungen in einem oder mehreren anderen Texten. Spalte S zeigt die Anzahl solcher Wörter unter den 15 häufigsten Wörtern für jeden Autor. Fettgedruckte Wörter erscheinen nur in den Worten eines Dichters in unserer Tabelle. Blok, Akhmatova und Petrovs haben überhaupt keine hervorgehobenen Wörter, sie haben S = 15. Diese drei Dichter haben die gleichen 15 häufigsten Wörter, sie unterscheiden sich nur in der Position in der Liste. Aber selbst Puschkin, dessen Vokabular das originellste ist, hat S = 8, und es gibt 7 hervorgehobene Wörter.

Die Ergebnisse zeigen, dass es eine bestimmte Ebene des Vokabulars gibt, die die Hauptthemen der Poesie konzentriert. In der Regel sind diese Wörter kurz: von der Gesamtzahl (225) einsilbiger Wortverwendungen 88, zweisilbige 127, dreisilbige 10. Oft repräsentieren diese Wörter die wichtigsten Mythologeme und können in Paare fallen: Nacht – Tag, Erde – Himmel (Sonne), Gott – Mensch (Menschen), Leben – Tod, Leib – Seele, Rom – Welt(bei Mandelstam); lassen sich zu Mythologemen höherer Ebene zusammenfassen: Himmel, Stern, Sonne, Erde; Bei einer Person fallen in der Regel Körper, Herz, Blut, Arm, Bein, Wange und Augen auf. Von den menschlichen Zuständen werden Schlaf und Liebe bevorzugt. Das Haus und die Städte gehören der menschlichen Welt - Moskau, Rom, Paris. Kreativität wird durch Lexeme repräsentiert Wort und Lied.

Griboedov und Lermontov haben fast keine Wörter, die Natur unter den häufigsten Wörtern bezeichnen. Sie haben dreimal so viele Wörter, die eine Person, Teile seines Körpers, Elemente seiner geistigen Welt bezeichnen. Puschkin und Dichter des zwanzigsten Jahrhunderts. Bezeichnungen von Mensch und Natur sind ungefähr gleich. In diesem wichtigen Aspekt des Themas können wir sagen, dass das zwanzigste Jahrhundert. folgte Puschkin.

Minimales Thema Fall unter den häufigsten Wörtern kommt es nur in Gribojedow und Puschkin vor. Lermontov und Dichter des zwanzigsten Jahrhunderts. es weicht einem minimalen Thema Wort. Das Wort schließt Taten nicht aus (die biblische Interpretation des Themas: Im Neuen Testament werden alle Lehren Jesu Christi als das Wort Gottes oder das Wort Jesu angesehen, und die Apostel nennen sich manchmal Diener des Wortes). Die heilige Bedeutung des Lexemwortes wird beispielsweise in Pasternaks Vers "Und das Bild der Welt, offenbart im Wort" überzeugend manifestiert. Die heilige Bedeutung des Lexems Wort in Verbindung mit und Kontrast zu menschlichen Angelegenheiten manifestiert es sich überzeugend in dem gleichnamigen Gedicht von Gumilyov.

Tokens, die nur in einem Text vorkommen, kennzeichnen die Originalität eines bestimmten Buches oder einer Büchersammlung. So kommt das Wort „mind“ beispielsweise in Griboedovs Komödie „Wehe aus Witz“ am häufigsten vor – es kommt aber nicht unter den häufig vorkommenden Wörtern anderer Texte vor. Das Thema des Geistes ist bei weitem das bedeutendste in der Komödie. Dieses Lexem begleitet das Bild von Chatsky, und der Name Chatsky ist der häufigste in der Komödie. So kombiniert das Werk organisch das häufigste Substantiv mit dem häufigsten Eigennamen.

Der höchste Korrelationskoeffizient verbindet die Themen der tragischen Bücher „Die Feuersäule“ von Gumilyov und „Anno Domini MCMXXI“ von Akhmatova. Unter den 15 häufigsten Substantiven gibt es 10 häufige, darunter Blut, Herz, Seele, Liebe, Wort, Himmel. Erinnern Sie sich daran, dass Achmatovas Buch eine Miniatur „Sie werden nicht am Leben sein ...“ enthielt, die zwischen der Verhaftung von Gumilyov und seiner Hinrichtung geschrieben wurde.

Die Themen der Kerze und der Menge im untersuchten Material finden sich nur in den "Gedichten von Yuri Zhivago". Das Thema der Kerze in den Versen aus dem Roman hat viele kontextbezogene Bedeutungen: Es ist mit dem Bild von Jesus Christus verbunden, mit den Themen Glaube, Unsterblichkeit, Kreativität, Liebesdatum. Die Kerze ist die wichtigste Lichtquelle in den zentralen Szenen des Romans. Das Thema der Masse entwickelt sich im Zusammenhang mit der Hauptidee des Romans, in dem das Privatleben einer Person mit seinen unerschütterlichen Werten der Unmoral des neuen Staates entgegengestellt wird, der auf den Prinzipien der Freude an der Masse aufbaut .

Die Arbeit umfasst auch die dritte Stufe, die sich auch im Programm widerspiegelt – dies ist die Berechnung der Differenz der Ordnungszahlen der Wörter, die zwei Wörterbüchern gemeinsam sind, und des durchschnittlichen Abstands zwischen denselben Wörtern zweier Wörterbücher. Diese Phase ermöglicht es, von den allgemeinen Trends in der Interaktion von Wörterbüchern, die mit Hilfe von Statistiken identifiziert wurden, auf eine Ebene zu gelangen, die sich dem Text annähert. Beispielsweise korrelieren die Bücher von Gumilyov und Akhmatova statistisch signifikant. Wir schauen uns an, welche Wörter sich für ihre Wörterbücher als üblich erwiesen haben, und wählen zunächst diejenigen aus, deren Seriennummern sich minimal unterscheiden oder gleich Null sind. Es sind diese Wörter, die die gleiche Rangnummer haben, und folglich sind diese minimalen Themen in den Köpfen der beiden Dichter gleich wichtig. Als nächstes sollten Sie sich auf die Ebene der Texte und Kontexte begeben.

Quantitative Methoden helfen auch, die Eigenschaften von Völkern - Muttersprachlern - zu untersuchen. Angenommen, es gibt 6 Fälle auf Russisch, es gibt keine Fälle auf Englisch, und in einigen Sprachen der Völker Dagestans erreicht die Zahl der Fälle 40. L. Perlovsky korreliert diese in seinem Artikel „Bewusstsein, Sprache und Kultur“. Merkmale mit der Tendenz der Völker zum Individualismus oder Kollektivismus, mit der Wahrnehmung von Dingen und Phänomenen getrennt oder in Verbindung mit anderen. Immerhin tauchten im englischsprachigen Raum (es gibt keine Fälle - das Ding wird „von selbst“ wahrgenommen) Konzepte wie individuelle Freiheit, Liberalismus und Demokratie auf (ich stelle fest, dass ich diese Konzepte nur im Zusammenhang mit dem verwende Sprache, ohne wertende Merkmale). Obwohl solche Vermutungen immer noch nur auf der Ebene kühner wissenschaftlicher Hypothesen verbleiben, helfen sie, bereits bekannte Phänomene auf neue Weise zu betrachten.

Wie wir sehen, können quantitative Merkmale in ganz unterschiedlichen Bereichen der Linguistik Anwendung finden, wodurch die Grenzen zwischen „exakten“ und „humanitären“ Methoden zunehmend verschwimmen. Die Linguistik greift zur Lösung ihrer Probleme zunehmend nicht nur auf die Hilfe der Mathematik, sondern auch der Computertechnik zurück.

2.3 Lernen ISprache mit Methoden der formalen Logik

Mit nicht-quantitativen Methoden der Mathematik, insbesondere mit Logik, interagiert die moderne Theoretische Linguistik nicht weniger fruchtbar als mit quantitativen. Die schnelle Entwicklung der Computertechnologien und das Wachstum ihrer Rolle in der modernen Welt erforderten eine Überarbeitung des Ansatzes für die Interaktion von Sprache und Logik im Allgemeinen.

Methoden der Logik werden häufig bei der Entwicklung formalisierter Sprachen verwendet, insbesondere Programmiersprachen, deren Elemente einige Symbole (ähnlich mathematischen), ausgewählt (oder aus zuvor ausgewählten Symbolen konstruiert) und auf bestimmte Weise interpretiert, bezogen sind jede "traditionelle" Verwendung, jedes Verständnis und Verständnis von Funktionen derselben Symbole in anderen Kontexten. Ein Programmierer beschäftigt sich in seiner Arbeit ständig mit Logik. Die Bedeutung des Programmierens besteht lediglich darin, dem Computer Vernunft beizubringen (im weitesten Sinne des Wortes). Dabei erweisen sich die Methoden des „Argumentierens“ als sehr unterschiedlich. Jeder Programmierer verbringt eine gewisse Zeit damit, nach Fehlern in seinen eigenen und den Programmen anderer Leute zu suchen. Das heißt, nach Fehlern in der Argumentation, in der Logik suchen. Und das hinterlässt auch seine Spuren. Es ist viel einfacher, logische Fehler in der gewöhnlichen Sprache zu erkennen. Die relative Einfachheit der von Logikern untersuchten Sprachen ermöglicht es ihnen, die Strukturen dieser Sprachen deutlicher aufzuklären, als dies Linguisten möglich ist, die ausschließlich komplexe natürliche Sprachen analysieren. Angesichts der Tatsache, dass die von Logikern untersuchten Sprachen Relationen verwenden, die von natürlichen Sprachen kopiert wurden, können Logiker wichtige Beiträge zur allgemeinen Sprachtheorie leisten. Hier verhält es sich ähnlich wie in der Physik: Der Physiker formuliert auch Sätze für ideal vereinfachte Fälle, die in der Natur gar nicht vorkommen - er formuliert Gesetze für ideale Gase, ideale Flüssigkeiten, spricht von Bewegung ohne Reibung, etc. Für diese idealisierten Fälle lassen sich einfache Gesetzmäßigkeiten aufstellen, die sehr zum Verständnis dessen beitragen würden, was wirklich passiert und was der Physik wahrscheinlich unbekannt bleiben würde, wenn sie versuchen würde, die Realität in ihrer ganzen Komplexität direkt zu betrachten.

Beim Studium natürlicher Sprachen werden logische Methoden verwendet, damit sich Sprachlerner nicht dummerweise möglichst viele Wörter „auswendig lernen“, sondern ihre Struktur besser verstehen können. L. Shcherba verwendete in seinen Vorlesungen auch ein Beispiel für einen Satz, der nach den Gesetzen der russischen Sprache aufgebaut war: „Die fehlerhafte Kusdra-Steko hat die Bokra gebokt und die Bokra gekräuselt“, und fragte dann die Studenten, was dies bedeutete. Trotz der Tatsache, dass die Bedeutung der Wörter im Satz unklar blieb (sie existieren einfach nicht auf Russisch), konnte klar geantwortet werden: „Kuzdra“ ist das Subjekt, ein weibliches Substantiv, im Singular, Nominativ „ bokr“ ist animiert usw. Die Übersetzung des Satzes lautet ungefähr so: „Etwas Weibliches hat auf einmal etwas über eine Art männliches Wesen getan und dann begonnen, etwas Langsames, Allmähliches mit seinem Jungen zu tun.“ Ein ähnliches Beispiel für einen (künstlerischen) Text aus nicht existierenden Wörtern, der ganz nach den Gesetzen der Sprache aufgebaut ist, ist Lewis Carrolls Jabberwock (in Alice im Wunderland erklärt Carroll durch den Mund seiner Figur Humpty Dumpty die Bedeutung von die Wörter, die er erfunden hat: "cooked" - acht Uhr abends, wenn es Zeit ist, das Abendessen zu kochen, "chlivky" - fadenscheinig und geschickt, "shorek" - eine Kreuzung aus Frettchen, Dachs und Korkenzieher, "dive". " - ​​springen, tauchen, drehen, "nava" - Gras unter der Sonnenuhr (erstreckt sich ein wenig nach rechts , ein wenig nach links und ein wenig nach hinten), "grunzen" - grunzen und lachen, "zelyuk" - a grüner Truthahn, "myumzik" - ein Vogel; seine Federn sind zerzaust und stehen wie ein Besen in alle Richtungen ab, "mova" - weit weg von zu Hause).

Eines der Hauptkonzepte der modernen Logik und theoretischen Linguistik, das beim Studium von Sprachen verschiedener logisch-mathematischer Kalküle, natürlicher Sprachen, verwendet wird, um die Beziehung zwischen Sprachen verschiedener "Ebenen" zu beschreiben und die Beziehung zwischen den betrachteten Sprachen und den mit ihrer Hilfe beschriebenen Sachgebieten, ist das Konzept der Metasprache. Eine Metasprache ist eine Sprache, die verwendet wird, um Urteile über eine andere Sprache, das Sprachobjekt, auszudrücken. Mit Hilfe einer Metasprache untersuchen sie die Struktur von Zeichenkombinationen (Ausdrücken) des Sprachobjekts, beweisen Sätze über seine Ausdruckseigenschaften, über seine Beziehung zu anderen Sprachen usw. Die zu untersuchende Sprache wird auch Fachsprache genannt Beziehung zu dieser Metasprache. Sowohl die Fachsprache als auch die Metasprache können gewöhnliche (natürliche) Sprachen sein. Die Metasprache kann sich von der Objektsprache unterscheiden (z. B. ist in einem englischen Lehrbuch für Russen Russisch die Metasprache und Englisch die Objektsprache), sie kann aber auch mit dieser übereinstimmen oder sich nur teilweise unterscheiden, z. B. in speziellen Terminologien (Russische Sprachterminologie ist ein Element der Metasprache zur Beschreibung der russischen Sprache, die sogenannten semantischen Faktoren sind Teil der Metasprache zur Beschreibung der Semantik natürlicher Sprachen).

Das Konzept der "Metalinguage" ist im Zusammenhang mit dem Studium formalisierter Sprachen, die im Rahmen der mathematischen Logik aufgebaut sind, sehr fruchtbar geworden. Im Gegensatz zu formalisierten Subjektsprachen ist hier die Metasprache, mit deren Hilfe die Metatheorie formuliert wird (Untersuchung der Eigenschaften der in der Subjektsprache formulierten Subjekttheorie), in der Regel eine gewöhnliche natürliche Sprache, in besonderer Weise a begrenztes Fragment einer natürlichen Sprache, das keinerlei Mehrdeutigkeit enthält, Metaphern, „metaphysische“ Konzepte usw. Elemente der gewöhnlichen Sprache, die ihre Verwendung als Werkzeug für genaue wissenschaftliche Forschung verhindern. Gleichzeitig kann die Metasprache selbst formalisiert und (ungeachtet dessen) Gegenstand der Forschung mittels der Metametasprache werden und eine solche Reihe als unendlich wachsend „gedacht“ werden.

Die Logik lehrt uns eine fruchtbare Unterscheidung zwischen dem Sprachobjekt und der Metasprache. Das Sprachobjekt ist der eigentliche Gegenstand logischer Forschung, und die Metasprache ist jene unvermeidlich künstliche Sprache, in der solche Forschung durchgeführt wird. Logisches Denken besteht nur darin, in der Sprache der Symbole (Metasprache) die Beziehungen und die Struktur einer realen Sprache (Sprachobjekt) zu formulieren.

Die Metasprache muss auf jeden Fall „nicht ärmer“ sein als ihre objektive Sprache (d. h. für jeden Ausdruck der letzteren in der Metasprache muss ihr Name „Übersetzung“ stehen) – andernfalls, wenn diese Anforderungen nicht erfüllt sind (was sicherlich erfolgt in natürlichen Sprachen, wenn besondere Vereinbarungen nichts anderes vorsehen) semantische Paradoxien (Antinomien) entstehen.

Da immer mehr neue Programmiersprachen geschaffen wurden, bestand im Zusammenhang mit dem Problem der Programmierübersetzer die dringende Notwendigkeit, Metasprachen zu erstellen. Gegenwärtig ist die Metasprache der Backus-Naur-Form (abgekürzt als BNF) die am häufigsten verwendete Metasprache zur Beschreibung der Syntax von Programmiersprachen. Es ist eine kompakte Form in Form einiger mathematischer Formeln. Für jeden Begriff der Sprache gibt es eine eindeutige Metaformel (Normalformel). Es besteht aus einem linken und einem rechten Teil. Die linke Seite spezifiziert das zu definierende Konzept, und die rechte Seite spezifiziert den Satz zulässiger Sprachkonstrukte, die in diesem Konzept kombiniert werden. Die Formel verwendet spezielle Metazeichen in Form von spitzen Klammern, die das definierte Konzept (auf der linken Seite der Formel) oder ein zuvor definiertes Konzept (auf der rechten Seite) enthalten, und die Trennung des linken und rechten Teils wird durch angezeigt das Metazeichen "::=", dessen Bedeutung den Worten "per definitionem gibt es" entspricht. Metasprachliche Formeln sind in irgendeiner Form in Übersetzer eingebettet; mit ihrer Hilfe werden die vom Programmierer verwendeten Konstrukte auf formale Übereinstimmung mit allen in dieser Sprache syntaktisch gültigen Konstrukten überprüft. Es gibt auch getrennte Metasprachen verschiedener Wissenschaften – somit existiert Wissen in Form verschiedener Metasprachen.

Logische Methoden dienten auch als Grundlage für die Schaffung von Systemen der künstlichen Intelligenz auf der Grundlage des Konzepts des Konnektionismus. Der Konnektionismus ist eine besondere Richtung in der philosophischen Wissenschaft, deren Gegenstand Wissensfragen sind. Im Rahmen dieses Trends wird versucht, die intellektuellen Fähigkeiten eines Menschen mit künstlichen neuronalen Netzen zu erklären. Neuronale Netze bestehen aus einer großen Anzahl neuronenähnlicher Struktureinheiten, wobei jedem Element eine Gewichtung zugeordnet ist, die die Stärke der Verbindung mit anderen Elementen bestimmt. Neuronale Netze sind vereinfachte Modelle des menschlichen Gehirns. Experimente mit neuronalen Netzen dieser Art haben gezeigt, dass sie lernen können, Aufgaben wie Mustererkennung, Lesen und Identifizieren einfacher grammatikalischer Strukturen auszuführen.

Philosophen begannen sich für den Konnektionismus zu interessieren, da der konnektionistische Ansatz versprach, eine Alternative zur klassischen Theorie des Geistes und der in dieser Theorie weit verbreiteten Idee zu bieten, dass die Funktionsweise des Geistes der Verarbeitung symbolischer Sprache durch ein digitales Gerät ähnelt Computer. Dieses Konzept ist sehr umstritten, hat aber in den letzten Jahren immer mehr Anhänger gefunden.

Das logische Studium der Sprache setzt Saussures Konzept der Sprache als System fort. Die Tatsache, dass sie ständig fortgesetzt wird, bestätigt einmal mehr die Kühnheit wissenschaftlicher Vermutungen zu Beginn des letzten Jahrhunderts. Den letzten Abschnitt meiner Arbeit werde ich den Perspektiven für die Entwicklung mathematischer Methoden in der Linguistik heute widmen.

2.4 Perspektiven für die Anwendung mathematischer Methoden in der Linguistik

Im Zeitalter der Computertechnik haben die Methoden der mathematischen Linguistik eine neue Entwicklungsperspektive erhalten. Die Suche nach Lösungen für die Probleme der Sprachanalyse wird nun zunehmend auf der Ebene der Informationssysteme durchgeführt. Gleichzeitig stellt die Automatisierung des Prozesses der Verarbeitung von Sprachmaterial, die dem Forscher erhebliche Möglichkeiten und Vorteile bietet, zwangsläufig neue Anforderungen und Aufgaben für ihn.

Die Kombination von „exaktem“ und „humanitärem“ Wissen ist zu einem fruchtbaren Boden für neue Entdeckungen auf dem Gebiet der Linguistik, Informatik und Philosophie geworden.

Die maschinelle Übersetzung von einer Sprache in eine andere bleibt ein schnell wachsender Zweig der Informationstechnologie. Trotz der Tatsache, dass die computergestützte Übersetzung qualitativ niemals mit menschlicher Übersetzung verglichen werden kann (insbesondere bei literarischen Texten), ist die Maschine zu einem unverzichtbaren Helfer für eine Person bei der Übersetzung großer Textmengen geworden. Es wird angenommen, dass in naher Zukunft fortschrittlichere Übersetzungssysteme geschaffen werden, die hauptsächlich auf der semantischen Analyse des Textes basieren.

Eine ebenso vielversprechende Richtung ist das Zusammenspiel von Linguistik und Logik, das als philosophische Grundlage für das Verständnis der Informationstechnologie und der sogenannten „virtuellen Realität“ dient. In naher Zukunft wird die Arbeit an der Schaffung von Systemen der künstlichen Intelligenz fortgesetzt - obwohl sie wiederum in ihren Fähigkeiten niemals dem Menschen gleichkommen werden. Ein solcher Wettbewerb ist bedeutungslos: In unserer Zeit sollte (und wird) die Maschine kein Rivale, sondern ein Assistent des Menschen werden, nicht etwas aus dem Reich der Fantasie, sondern Teil der realen Welt.

Das Studium der Sprache mit statistischen Methoden wird fortgesetzt, wodurch ihre qualitativen Eigenschaften genauer bestimmt werden können. Es ist wichtig, dass die kühnsten Hypothesen über die Sprache ihren mathematischen und damit logischen Beweis finden.

Das Wichtigste ist, dass in den letzten Jahren verschiedene Zweige der mathematischen Anwendung in der Linguistik, die zuvor ziemlich isoliert waren, miteinander in Beziehung gesetzt wurden und sich zu einem kohärenten System verbinden, in Analogie zu dem vor einem Jahrhundert von Ferdinand de Saussure entdeckten Sprachsystem und Yvan Baudouin de Courtenay. Dies ist die Kontinuität wissenschaftlicher Erkenntnisse.

Die Linguistik in der modernen Welt ist zur Grundlage für die Entwicklung der Informationstechnologie geworden. Solange die Informatik ein sich schnell entwickelnder Zweig der menschlichen Tätigkeit bleibt, wird die Vereinigung von Mathematik und Linguistik weiterhin ihre Rolle in der Entwicklung der Wissenschaft spielen.

Fazit

Im Laufe des 20. Jahrhunderts haben Computertechnologien einen langen Weg zurückgelegt - von der militärischen bis zur friedlichen Nutzung, von einem engen Zielbereich bis zum Eindringen in alle Bereiche des menschlichen Lebens. Die Mathematik als Wissenschaft hat mit der Entwicklung der Computertechnik immer neue praktische Bedeutung gefunden. Dieser Prozess dauert bis heute an.

Das bisher undenkbare „Tandem“ von „Physikern“ und „Lyrikern“ ist Realität geworden. Für das vollständige Zusammenwirken von Mathematik und Informatik mit den Geisteswissenschaften wurden qualifizierte Spezialisten auf beiden Seiten benötigt. Während Informatiker zunehmend systematisches humanitäres Wissen (sprachlich, kulturell, philosophisch) benötigen, um Veränderungen in der sie umgebenden Realität, in der Interaktion von Mensch und Technik zu begreifen, immer neue sprachliche und mentale Konzepte zu entwickeln, zu schreiben Programme, dann müssen alle "Geisteswissenschaften" unserer Zeit für ihre berufliche Weiterentwicklung zumindest die Grundlagen der Arbeit mit einem Computer beherrschen.

Die Mathematik, die eng mit der Informatik verflochten ist, entwickelt sich ständig weiter und interagiert mit den Natur- und Geisteswissenschaften. Im neuen Jahrhundert schwächt sich der Trend zur Mathematisierung der Wissenschaft nicht ab, sondern nimmt im Gegenteil zu. Auf der Grundlage quantitativer Daten werden die Gesetze der Sprachentwicklung, ihre historischen und philosophischen Merkmale verstanden.

Der mathematische Formalismus eignet sich am besten zur Beschreibung von Mustern in der Linguistik (wie auch in anderen Wissenschaften - sowohl den Geisteswissenschaften als auch den Naturwissenschaften). In der Wissenschaft entwickelt sich die Situation manchmal so, dass es ohne die Verwendung einer angemessenen mathematischen Sprache unmöglich ist, die Natur von physikalischen, chemischen usw. zu verstehen. Vorgang ist nicht möglich. Erstellen eines Planetenmodells des Atoms, des berühmten englischen Physikers des 20. Jahrhunderts. E. Rutherford hatte mathematische Schwierigkeiten. Seine Theorie wurde zunächst nicht akzeptiert: Sie klang nicht überzeugend, und der Grund dafür war Rutherfords Unkenntnis der Wahrscheinlichkeitstheorie, auf deren Grundlage nur die modellhafte Darstellung atomarer Wechselwirkungen zu verstehen war. Mit dieser Erkenntnis schrieb sich bereits damals ein herausragender Wissenschaftler, Träger des Nobelpreises, in das Seminar des Mathematikers Professor Lamb ein und besuchte zwei Jahre lang zusammen mit den Studenten einen Kurs und erarbeitete einen Workshop zur Wahrscheinlichkeitstheorie . Darauf aufbauend konnte Rutherford das Verhalten des Elektrons beschreiben und seinem Strukturmodell überzeugende Genauigkeit und Anerkennung verschaffen. Genauso verhält es sich mit der Linguistik.

Dies wirft die Frage auf, was ist so mathematisch an objektiven Phänomenen, dank derer sie in der Sprache der Mathematik, in der Sprache der quantitativen Merkmale beschrieben werden können? Dies sind räumlich und zeitlich verteilte homogene Materieeinheiten. Jene Wissenschaften, die weiter als andere zur Isolierung der Homogenität gegangen sind und sich als besser geeignet für die Anwendung der Mathematik in ihnen erweisen.

Das Internet, das sich in den 1990er Jahren rasant entwickelte, brachte Vertreter verschiedener Länder, Völker und Kulturen zusammen. Obwohl Englisch nach wie vor die Hauptsprache der internationalen Kommunikation ist, ist das Internet in unserer Zeit mehrsprachig geworden. Dies führte zur Entwicklung kommerziell erfolgreicher maschineller Übersetzungssysteme, die in verschiedenen Bereichen der menschlichen Tätigkeit weit verbreitet sind.

Computernetzwerke sind zum Gegenstand philosophischer Reflexion geworden – immer mehr neue sprachliche, logische, weltanschauliche Konzepte wurden geschaffen, die helfen, „virtuelle Realität“ zu verstehen. In vielen Kunstwerken wurden – häufiger pessimistische – Szenarien über die Dominanz der Maschinen über den Menschen und der virtuellen Realität – über die Außenwelt – geschaffen. Bei weitem nicht immer erwiesen sich solche Prognosen als bedeutungslos. Die Informationstechnologie ist nicht nur eine vielversprechende Industrie, um menschliches Wissen zu investieren, sie ist auch eine Möglichkeit, Informationen und folglich über menschliches Denken zu kontrollieren.

Dieses Phänomen hat sowohl eine negative als auch eine positive Seite. Negativ - weil die Kontrolle über Informationen dem unveräußerlichen Menschenrecht auf freien Zugang zu ihnen widerspricht. Positiv – weil das Fehlen dieser Kontrolle zu katastrophalen Folgen für die Menschheit führen kann. Es genügt, an einen der klügsten Filme des letzten Jahrzehnts zu erinnern – „When the World Ends“ von Wim Wenders, dessen Charaktere vollständig in die „virtuelle Realität“ ihrer eigenen Träume eintauchen, die auf einem Computer aufgezeichnet wurden. Gleichzeitig kann kein einziger Wissenschaftler und kein einziger Künstler eine eindeutige Antwort auf die Frage geben: Was erwartet Wissenschaft und Technik in Zukunft?

Die Konzentration auf die manchmal phantastisch erscheinende „Zukunft“ war Mitte des 20. Jahrhunderts ein charakteristisches Merkmal der Wissenschaft, als Erfinder nach perfekten Technologiemodellen suchten, die ohne menschliches Eingreifen funktionieren konnten. Die Zeit hat gezeigt, wie utopisch eine solche Forschung ist. Gleichzeitig wäre es überflüssig, Wissenschaftler dafür zu verurteilen - ohne ihren Enthusiasmus in den 1950er - 60er Jahren hätte die Informationstechnologie in den 90er Jahren keinen so gewaltigen Sprung gemacht, und wir hätten nicht das, was wir jetzt haben.

Die letzten Jahrzehnte des 20. Jahrhunderts veränderten die Prioritäten der Wissenschaft – Forschung, erfinderisches Pathos wich kommerziellem Interesse. Auch dies ist weder gut noch schlecht. Dies ist eine Realität, in der die Wissenschaft zunehmend in den Alltag integriert wird.

Das 21. Jahrhundert hat diesen Trend fortgesetzt, und Erfindungen sind in unserer Zeit nicht nur Ruhm und Anerkennung, sondern vor allem Geld. Auch deshalb ist es wichtig sicherzustellen, dass die neuesten Errungenschaften von Wissenschaft und Technik nicht in die Hände von Terrorgruppen oder diktatorischen Regimen gelangen. Die Aufgabe ist schwierig bis zur Unmöglichkeit; es so weit wie möglich zu verwirklichen, ist die Aufgabe der gesamten Weltgemeinschaft.

Information ist eine Waffe, und Waffen sind nicht weniger gefährlich als Atom- oder Chemiewaffen – nur wirken sie nicht physisch, sondern psychisch. Die Menschheit muss darüber nachdenken, was ihr in diesem Fall wichtiger ist – Freiheit oder Kontrolle.

Die neuesten philosophischen Konzepte zur Entwicklung der Informationstechnologien und der Versuch, sie zu verstehen, haben die Grenzen sowohl des naturwissenschaftlichen Materialismus, der im 19. und frühen 20. Jahrhundert dominierte, als auch des extremen Idealismus aufgezeigt, der die Bedeutung der materiellen Welt leugnet . Für das moderne Denken, insbesondere das Denken des Westens, ist es wichtig, diesen Dualismus im Denken zu überwinden, wenn die umgebende Welt klar in materiell und ideell getrennt ist. Der Weg dorthin ist ein Dialog der Kulturen, ein Vergleich unterschiedlicher Sichtweisen auf die umgebenden Phänomene.

Paradoxerweise kann die Informationstechnologie dabei eine wichtige Rolle spielen. Computernetzwerke und insbesondere das Internet sind nicht nur eine Ressource für Unterhaltung und lebhafte kommerzielle Aktivitäten, sie sind auch ein Mittel für sinnvolle, kontroverse Kommunikation zwischen Vertretern verschiedener Zivilisationen in der modernen Welt sowie für einen Dialog zwischen Vergangenheit und Vergangenheit das Geschenk. Wir können sagen, dass das Internet die räumlichen und zeitlichen Grenzen verschiebt.

Und im Dialog der Kulturen durch Informationstechnologie ist die Rolle der Sprache als ältestes universelles Kommunikationsmittel immer noch wichtig. Deshalb hat die Linguistik im Zusammenspiel mit Mathematik, Philosophie und Informatik ihre zweite Geburt erlebt und entwickelt sich bis heute weiter. Der Trend der Gegenwart setzt sich auch in Zukunft fort – „bis ans Ende der Welt“, wie es vor 15 Jahren derselbe V. Wenders vorausgesagt hat. Es ist zwar nicht bekannt, wann dieses Ende eintreten wird – aber es ist jetzt wichtig, denn die Zukunft wird früher oder später sowieso zur Gegenwart.

Anhang 1

Ferdinand von Saussure

Der Schweizer Linguist Ferdinand de Saussure (1857-1913) gilt weithin als Begründer der modernen Linguistik mit seinen Versuchen, eher die Struktur der Sprache als die Geschichte bestimmter Sprachen und Sprachformen zu beschreiben. Tatsächlich finden die Methode des Strukturalismus in der Sprach- und Literaturwissenschaft und ein bedeutender Zweig der Semiotik ihren wichtigsten Ausgangspunkt in seinem Werk um die Wende zum 20. Jahrhundert. Es wurde sogar argumentiert, dass der Komplex von Strategien und Konzepten, der als „Poststrukturalismus“ bezeichnet wird – das Werk von Jacques Derrida, Michel Foucault, Jacques Lacan, Julia Kristeva, Roland Barthes und anderen – von Saussures Werk angeregt wird in Linguistik und anagrammatischen Lesarten der späten lateinischen Poesie, literarische Moderne bis hin zur Psychoanalyse und Philosophie im frühen 20. Jahrhundert. Wie Algirdas Julien Greimas und Joseph Courtes in Semiotics and Language: An Analytic Dictionary unter der Überschrift „Interpretation“ argumentieren, entstand im frühen zwanzigsten Jahrhundert eine neue Art der Interpretation, die sie mit der Saussureschen Linguistik, der Husserlschen Phänomenologie und der Freudschen Psychoanalyse identifizieren. In diesem Modus handelt es sich bei der Interpretation „nicht mehr um die Zuweisung eines gegebenen Inhalts an eine Form, der sonst einer fehlt, sondern um eine Paraphrase, die auf andere Weise den äquivalenten Inhalt eines bezeichnenden Elements innerhalb eines gegebenen semiotischen Systems formuliert“ ( 159). in diesem Verständnis von „Interpretation“ sind Form und Inhalt nicht voneinander getrennt; vielmehr ist jede „Form“ alternativ auch ein semantischer „Inhalt“, eine „bezeichnende Form“, so dass die Interpretation eine analoge Paraphrase von etwas bietet, das bereits innerhalb eines anderen Bedeutungssystems bedeutet.

Eine solche Neuinterpretation von Form und Verständnis – die Claude Levi-Strauss in einer seiner programmatischsten Artikulationen des Begriffs des Strukturalismus, in „Structure and Form: Reflections on a Work by Vladimir Propp“ beschreibt – ist in Saussures posthumem Kurs enthalten in General Linguistics (1916, trans., 1959, 1983). Zu seinen Lebzeiten veröffentlichte Saussure relativ wenig, und sein Hauptwerk, The Course, war die Transkription mehrerer Kurse in allgemeiner Linguistik durch seine Studenten, die er 1907-11 anbot. Im Kurs forderte Saussure das "wissenschaftliche" Studium der Sprache im Gegensatz zu den Arbeiten der historischen Linguistik des 19. Jahrhunderts, die eine der großen Errungenschaften des westlichen Intellekts darstellen: bestimmte Wörter als Bausteine ​​zu nehmen Die historische (oder „diachrone“) Linguistik verfolgte den Ursprung und die Entwicklung westlicher Sprachen aus einer mutmaßlichen gemeinsamen Sprachquelle, zuerst einer „indogermanischen“ Sprache und dann einer früheren „p roto-indo-europäische" Sprache.

Genau diese Untersuchung des einzigartigen Vorkommens von Wörtern mit der damit einhergehenden Annahme, dass die grundlegende „Einheit“ der Sprache tatsächlich die positive Existenz dieser „Wortelemente“ ist, stellte Saussure in Frage. Sein Werk war ein Versuch, die von der historischen Linguistik so minutiös untersuchte Masse von Tatsachen über Sprache auf eine überschaubare Zahl von Aussagen zu reduzieren. Die „vergleichende Schule“ der Philologie des 19. Jahrhunderts, sagt Saussure im Kurs, „hat es nicht geschafft, die wahre Wissenschaft der Linguistik zu etablieren“, weil „es ihr nicht gelungen ist, die Natur ihres Studiengegenstandes zu suchen“ (3). Diese „Natur“, argumentiert er, ist nicht einfach in den „elementaren“ Wörtern zu finden, die eine Sprache umfasst – den scheinbar „positiven“ Tatsachen (oder „Substanzen“) der Sprache – sondern in den formalen Beziehungen, die diese hervorbringen "Substanzen."

Saussures systematische Überprüfung der Sprache basiert auf drei Annahmen. Die erste ist, dass das wissenschaftliche Studium der Sprache eher das System als die Geschichte sprachlicher Phänomene entwickeln und untersuchen muss. Aus diesem Grund unterscheidet er zwischen den besonderen Vorkommen von Sprache - seine besonderen „Sprachereignisse", die er als parole bezeichnet – und das eigentliche Objekt der Linguistik, das System (oder „Code"), das diese Ereignisse beherrscht, das er als langue bezeichnet. Eine solche systematische Untersuchung erfordert außerdem eine „ synchrone" Konzeption der Beziehung zwischen den Sprachelementen zu einem bestimmten Zeitpunkt und nicht die "diachrone" Untersuchung der Entwicklung der Sprache im Laufe der Geschichte.

Diese Annahme führte zu dem, was Roman Jakobson 1929 als „Strukturalismus“ bezeichnete, in dem „jede Menge von Phänomenen, die von der zeitgenössischen Wissenschaft untersucht werden, nicht als mechanische Anhäufung, sondern als strukturelles Ganzes behandelt wird, wobei die mechanische Vorstellung von Prozessen der Frage nachgibt ihrer Funktion" ("Romantic" 711). In dieser Passage artikuliert Jakobson Saussures Absicht, die Linguistik als ein wissenschaftliches System zu definieren, im Gegensatz zu einer einfachen, „mechanischen“ Erklärung historischer Zufälle. Damit einhergehend beschreibt Jakobson auch die zweite Grundannahme Saussures – wir können Nennen wir es jetzt "strukturelle" - Linguistik: dass die Grundelemente der Sprache nur in Bezug auf ihre Funktionen und nicht in Bezug auf ihre Ursachen untersucht werden können. Europäische "Wörter"), diese Ereignisse und Entitäten müssen in einen systemischen Rahmen gestellt werden in denen sie mit anderen sogenannten Ereignissen und Entitäten in Beziehung gesetzt werden. Dies ist eine radikale Neuorientierung in der Wahrnehmung von Erfahrungen und Phänomenen, deren Bedeutung der Philosoph Ernst Cassirer verglichen hat mit "der neuen Wissenschaft von Galileo, die im siebzehnten Jahrhundert unser Ganzes veränderte Konzept der physischen Welt" (zitiert in Culler, Pursuit 2 4). Diese Veränderung, wie Greimas und Courtes anmerken, begreift „Interpretation“ neu und erfindet somit Erklärung und Verstehen selbst neu. Anstatt sich auf die Ursachen eines Phänomens zu erklären, also als „Wirkung“ seinen Ursachen gewissermaßen untergeordnet zu sein, besteht die Erklärung hier darin, ein Phänomen seiner zukunftsgerichteten „Funktion“ unterzuordnen bzw "Zweck." Erklärung ist nicht mehr unabhängig von menschlichen Absichten oder Zwecken (auch wenn diese Absichten unpersönlich, gemeinschaftlich oder, in Freudschen Begriffen, „unbewusst“ sein können).

Diese Transformation vollzieht Saussure in seiner Linguistik gerade in der Neubestimmung des sprachlichen „Wortes“, das er als sprachliches „Zeichen“ bezeichnet und funktionalistisch definiert. Das Zeichen, so argumentiert er, ist die Vereinigung von „einem Konzept und einem Klangbild“, das er „Signifikat und Signifikant“ nannte (66-67; Roy Harris' Übersetzung von 1983 bietet die Begriffe „Signifikation“ und „Signal“ an). Die Natur ihrer „Kombination“ ist insofern „funktional“, als weder das Signifikat noch der Signifikant die „Ursache“ des anderen sind, sondern „jeder seine Werte vom anderen“ (8). Sprachelement, das Zeichen , relational und stellt die Grundannahme der historischen Linguistik, nämlich die Identität der elementaren Einheiten von Sprache und Bedeutung (d.h. „Wörter“), einer rigorosen Analyse zum Gegenstand, da das Wort „Baum“ nicht das „gleiche“ Wort ist Das Wort wird durch inhärente Eigenschaften definiert – es ist keine „mechanische Anhäufung“ solcher Eigenschaften – sondern weil es als Element in einem System, dem „strukturellen Ganzen“ der Sprache definiert ist.

Eine solche relationale (oder "diakritische") Definition einer Entität bestimmt die Konzeption aller Sprachelemente in der strukturellen Linguistik. Dies wird am deutlichsten in der beeindruckendsten Errungenschaft der Saussureschen Linguistik, der Entwicklung der Konzepte der "Phoneme" und "Unterscheidungsmerkmale" der Sprache. Phoneme sind die kleinsten artikulierten und bezeichnenden Einheiten einer Sprache. Es sind nicht die Klänge, die in der Sprache vorkommen, sondern die „Klangbilder“, von denen Saussure spricht, die von Sprechern als Bedeutungsträger wahrgenommen – phänomenal wahrgenommen – werden. (So ​​bezeichnet Elmar Holenstein Jakobsons Linguistik, die Saussure in wichtigen Punkten folgt, als „phänomenologischen Strukturalismus“.) Aus diesem Grund bemerkte der führende Sprecher des Strukturalismus der Prager Schule, Jan Mukarovsky, 1937, dass „Struktur . . . ist eine phänomenologische und keine empirische Realität; es ist nicht das Werk selbst, sondern eine Reihe funktionaler Zusammenhänge, die im Bewusstsein eines Kollektivs (Generation, Milieu etc.) angesiedelt sind“ (zitiert in Galan 35). Ähnlich Levi-Strauss, der führende Sprecher des französischen Strukturalismus , bemerkte 1960, dass „Struktur keinen eindeutigen Inhalt hat; es ist selbst Inhalt, und die logische Organisation, in der es festgehalten wird, wird als Eigenschaft des Realen konzipiert“ (167; siehe auch Jakobson, Fundamentals 27-28).

Phoneme, die kleinsten wahrnehmbaren Elemente der Sprache, sind also keine positiven Objekte, sondern eine „phänomenologische Realität“. Im Englischen zum Beispiel kann das Phonem /t/ auf viele verschiedene Arten ausgesprochen werden, aber ein Englischsprechender wird es in jedem Fall als ein /t/ erkennen. Ein angesaugtes t (d. h. ein t, das mit einem h-ähnlichen Hauch danach ausgesprochen wird), ein hoher oder tiefer t-Ton, ein verlängerter t-Ton und so weiter, funktionieren alle auf die gleiche Weise bei der Unterscheidung der Bedeutung von "to" und "do" auf Englisch. Darüber hinaus sind die Unterschiede zwischen Sprachen so, dass phonologische Variationen in einer Sprache unterschiedliche Phoneme in einer anderen darstellen können; Englisch unterscheidet also zwischen /l/ und /r/, während andere Sprachen so strukturiert sind, dass diese Artikulationen als Variationen desselben Phonems betrachtet werden (wie das aspirierte und nicht aspirierte t im Englischen). In jeder natürlichen Sprache ist die große Anzahl möglicher Wörter eine Kombination aus einer kleinen Anzahl von Phonemen. Englisch zum Beispiel besitzt weniger als 40 Phoneme, die zusammengenommen über eine Million verschiedene Wörter bilden.

Die Phoneme der Sprache sind selbst systematisch organisierte Merkmalsstrukturen. In den 1920er und 1930er Jahren isolierten Jakobson und N. S. Trubetzkoy, dem Beispiel von Saussure folgend, die „charakteristischen Merkmale“ von Phonemen. Diese Merkmale basieren auf der physiologischen Struktur der Sprachorgane – Zunge, Zähne, Stimmbänder und so weiter – das Saussure im Kurs erwähnt und die Harris als "physiologische Phonetik" beschreibt (39; Baskins frühere Übersetzung verwendet den Begriff "Phonologie" [(1959) 38]) - und sie kombinieren sich in "Bündeln" binärer Gegensätze, um Phoneme zu bilden. Zum Beispiel ist der Unterschied zwischen /t/ und /d/ im Englischen das Vorhandensein oder Fehlen von "Voice" (der Eingriff der Stimmbänder), und auf der Ebene des Stimmens definieren sich diese Phoneme gegenseitig. Damit ist die Phonologie ein konkretes Beispiel für eine von Saussure beschriebene allgemeine Sprachregel: In der Sprache gibt es nur Unterschiede. noch wichtiger: eine Differenz impliziert im Allgemeinen positive Terme, zwischen denen die Differenz aufgestellt wird; aber in der Sprache gibt es nur Unterschiede ohne positive Begriffe. Ob wir das Signifikat oder den Signifikanten nehmen, die Sprache hat weder Ideen noch Laute, die vor dem Sprachsystem existierten. (120)

In diesem Rahmen werden sprachliche Identitäten nicht durch inhärente Qualitäten, sondern durch systemische ("strukturelle") Beziehungen bestimmt.

Ich habe gesagt, dass die Phonologie Saussure „folgte“, denn obwohl seine Analyse der Physiologie der Sprachproduktion „heute“, wie Harris sagt, „physisch“ genannt würde, im Gegensatz zu entweder „psychologisch“ oder „funktional“. "" (Lesung 49), folglich artikulierte er im Kurs die Richtung und die Umrisse einer funktionalen Analyse der Sprache. In ähnlicher Weise war sein einziges erweitertes veröffentlichtes Werk, Memoire sur le systeme primitif des voyelles dans les langues indo-europeennes (Memoiren über das primitive System der Vokale in indogermanischen Sprachen), das 1878 erschien, vollständig in das Projekt des 19. Jahrhunderts historische Linguistik. Dennoch demonstrierte Saussure innerhalb dieser Arbeit, wie Jonathan Culler argumentiert hat, „die Fruchtbarkeit, Sprache als ein System rein relationaler Elemente zu denken, selbst wenn er an der Aufgabe der historischen Rekonstruktion arbeitet“ (Saussure 66). Durch die Analyse der systematischen strukturellen Beziehungen zwischen Phonemen, um Muster des Vokalwechsels in bestehenden indogermanischen Sprachen zu berücksichtigen, schlug Saussure vor, dass es neben mehreren verschiedenen Phonemen / a / ein weiteres Phonem gegeben haben muss, das formal beschrieben werden könnte. „Was Saussures Arbeit so beeindruckend macht“, schließt Culler, „ist die Tatsache, dass fast fünfzig Jahre später, als die Keilschrift des Hethitischen entdeckt und entziffert wurde, ein Phonem mit der Schreibweise h gefunden wurde, das sich so verhielt, wie Saussure es vorhergesagt hatte . Er hatte durch eine rein formale Analyse entdeckt, was heute als Kehlkopf der Indogermanen bekannt ist“ (66).

Diese Konzeption der relationalen oder diakritischen Bestimmung der Elemente der Bedeutung, die im Kurs sowohl implizit als auch explizit ist, legt eine dritte Annahme nahe, die die Strukturlinguistik beherrscht, was Saussure „die willkürliche Natur des Zeichens“ nennt. Damit meint er, dass die Beziehung zwischen dem Signifikanten und dem Signifikanten in der Sprache niemals notwendig (oder "motiviert") ist: Man könnte genauso gut den Lautsignifikanten arbre wie den Signifikantenbaum finden, um ihn mit dem Begriff "Baum" zu vereinen. Aber darüber hinaus bedeutet es, dass das Signifikat auch willkürlich ist: Man könnte den Begriff „Baum“ genauso gut durch seine Holzqualität (was Palmen ausschließen würde) wie durch seine Größe (was die „niedrigen Gehölze“ ausschließt) definieren Büsche nennen). Dies sollte klarstellen, dass die Nummerierung der Annahmen, die ich vorgestellt habe, keine Prioritätsreihenfolge darstellt: jede Annahme – die systemische Natur der Bedeutung (am besten erfasst durch das „synchrone“ Studium der Sprache), die relationale oder „diakritische“ Natur der Elemente der Bedeutung, die Beliebigkeit der Zeichen - bezieht ihren Wert aus den anderen.

Das heißt, die Saussuresche Linguistik untersucht die Phänomene in übergreifenden Kombinations- und Kontrastbeziehungen in der Sprache. In dieser Konzeption ist Sprache sowohl der Prozess der Artikulation von Bedeutung (Signifikation) als auch ihr Produkt (Kommunikation), und diese beiden Funktionen der Sprache sind weder identisch noch vollständig deckungsgleich (siehe Schleifer, „Dekonstruktion“). Hier zeigt sich der Wechsel zwischen Form und Inhalt, den Greimas und Courtes in modernistischer Interpretation beschreiben: Die Sprache stellt Kontraste dar, die ihre Einheiten formal definieren, und diese Einheiten verbinden sich auf aufeinanderfolgenden Ebenen, um den bezeichnenden Inhalt zu schaffen. Da die Elemente der Sprache willkürlich sind, kann darüber hinaus weder der Kontrast noch die Kombination als grundlegend bezeichnet werden. So verbinden sich in der Sprache Unterscheidungsmerkmale zu kontrastierenden Phonemen auf einer anderen Wahrnehmungsebene, Phoneme verbinden sich zu kontrastierenden Morphemen, Morpheme verbinden sich zu Wörtern, Wörter verbinden sich zu Sätzen und so weiter. In jedem Fall ist das ganze Phonem oder Wort oder Satz usw. größer als die Summe seiner Teile (so wie Wasser, H2O, in Saussures Beispiel [(1959) 103] mehr ist als die mechanische Agglomeration von Wasserstoff und Sauerstoff).

Die drei Annahmen des Kurses in Allgemeiner Linguistik veranlassten Saussure, eine neue Wissenschaft des zwanzigsten Jahrhunderts zu fordern, die über die Sprachwissenschaft hinausgehen und „das Leben der Zeichen in der Gesellschaft“ untersuchen würde. Saussure nannte diese Wissenschaft „Semiologie (von griechisch semeion „Zeichen“)“ (16). Die „Wissenschaft“ der Semiotik, wie sie in den 1920er und 1930er Jahren in Osteuropa und in den 1950er und 1960er Jahren in Paris praktiziert wurde, erweiterte das Studium der Sprache und der sprachlichen Strukturen auf literarische Artefakte, die durch diese Strukturen konstituiert (oder artikuliert) wurden. Während des gesamten späten Teils seiner Karriere, sogar während er Kurse in allgemeiner Linguistik anbot, verfolgte Saussure seine eigene "semiotische" Analyse der späten lateinischen Poesie, um absichtlich verborgene Anagramme von Eigennamen zu entdecken. Die Studienmethode war in vielerlei Hinsicht das Gegenteil des funktionalen Rationalismus seiner linguistischen Analysen: Sie versuchte, wie Saussure in einem der 99 Notizbücher erwähnt, in denen er diese Studie durchführte, das Problem des "Zufalls", das " wird zur unvermeidlichen Grundlage von allem" (zitiert in Starobinski 101). Eine solche Studie konzentriert sich, wie Saussure selbst sagt, auf "die materielle Tatsache" von Zufall und Bedeutung (zitiert 101), so dass das "Themenwort", dessen Anagramm Saussure sucht, wie Jean Starobinski argumentiert, "für den Dichter ist , ein Instrument, und kein vitaler Keim des Gedichts. Das Gedicht muss die phonetischen Materialien des Themenworts wiederverwenden“ (45). In dieser Analyse sagt Starobinski: „Saussure hat sich nicht in der Suche nach verborgenen Bedeutungen verloren.“ Stattdessen scheint sein Werk den Wunsch zu zeigen, allen Problemen, die sich aus dem Bewusstsein ergeben, auszuweichen: "Da Poesie nicht nur in Worten verwirklicht, sondern etwas ist, das aus Worten geboren wird, entzieht sie sich der willkürlichen Kontrolle des Bewusstseins, um nur auf eine Art sprachlicher Gesetzmäßigkeit angewiesen zu sein "(121).

Das heißt, Saussures Versuch, Eigennamen in der späten lateinischen Poesie zu entdecken – was Tzvetan Todorov die Reduktion eines „Wortes . . . zu ihrem Signifikanten“ (266) – betont eines der Elemente, das seine linguistische Analyse beherrschte, die willkürliche Natur des Zeichens. (Es betont auch die formale Natur der Saussureschen Linguistik – „Sprache“, behauptet er, „ist eine Form und nicht eine Substanz" - wodurch die Semantik als Hauptgegenstand der Analyse effektiv eliminiert wird.) Wie Todorov schlussfolgert, erscheint Saussures Werk heute bemerkenswert homogen in seiner Weigerung, symbolische Phänomene zu akzeptieren. . . . In seiner Forschung zu Anagrammen achtet er nur auf die Phänomene der Wiederholung, nicht auf die der Evokation. . . . In seinen Nibelungenstudien erkennt er Symbole nur, um sie auf falsche Lesarten zurückzuführen: Da sie nicht beabsichtigt sind, gibt es keine Symbole. Schließlich beschäftigt er sich in seinen Vorlesungen zur allgemeinen Sprachwissenschaft mit der Existenz von Semiologie und damit von anderen als sprachlichen Zeichen; aber diese Behauptung wird sofort durch die Tatsache begrenzt, dass die Semiologie einer einzigen Art von Zeichen gewidmet ist: denen, die willkürlich sind. (269-70)

Wenn das stimmt, dann deshalb, weil Saussure „Absicht“ nicht ohne Subjekt begreifen konnte; er konnte sich dem Gegensatz zwischen Form und Inhalt nicht ganz entziehen, den sein Werk so sehr in Frage gestellt hatte. Stattdessen griff er auf "sprachliche Legalität" zurück. Angesiedelt zwischen den Geschichtskonzepten des 19. Jahrhunderts, der Subjektivität und der von diesen Konzepten beherrschten Art der kausalen Interpretation einerseits und den „strukturalistischen“ Konzepten des 20. Jahrhunderts von dem, was Levi-Strauss den „Kantianismus ohne“ nannte ein transzendentales Subjekt" (zitiert in Connerton 23) - Konzepte, die den Gegensatz zwischen Form und Inhalt (oder Subjekt und Objekt) und die Hierarchie von Vorder- und Hintergrund im ausgewachsenen Strukturalismus, der Psychoanalyse und sogar der Quantenmechanik auslöschen - das Werk von Ferdinand de Saussure in Linguistik und Semiotik umschreibt ein Signalmoment in der Bedeutungs- und Kulturforschung.

Ronald Schleifer

Anhang 2

Ferdinand de Saussure (Übersetzung)

Der Schweizer Linguist Ferdinand de Saussure (1857–1913) gilt als Begründer der modernen Linguistik – dank seiner Versuche, eher die Struktur der Sprache als die Geschichte einzelner Sprachen und Wortformen zu beschreiben. Im Großen und Ganzen wurden in seinen Werken zu Beginn des 20. Jahrhunderts die Grundlagen der Strukturmethoden der Linguistik und Literaturkritik und zu einem großen Teil der Semiotik gelegt. Es ist erwiesen, dass die Methoden und Konzepte des sogenannten „Poststrukturalismus“, die in den Werken von Jacques Derrida, Michel Foucault, Jacques Lacan, Julia Kristeva, Roland Barthes und anderen entwickelt wurden, auf die sprachwissenschaftlichen Arbeiten von Saussure und Saussure zurückgehen Anagrammatische Lesarten spätrömischer Poesie. Es sei darauf hingewiesen, dass Saussures Arbeit zur Linguistik und Sprachinterpretation dazu beiträgt, ein breites Spektrum intellektueller Disziplinen zu verbinden - von der Physik bis zu literarischen Innovationen, Psychoanalyse und Philosophie des frühen zwanzigsten Jahrhunderts. A. J. Greimas und J. Kurte schreiben in Semiotics and Language: „Anfang des 20. Jahrhunderts erschien neben der Linguistik von Saussure, der Phänomenologie von Husserl und der Psychoanalyse ein analytisches Wörterbuch mit dem Titel „Interpretation“ als neue Art der Interpretation von Freud. In einem solchen Fall „ist Interpretation nicht die Zuschreibung eines gegebenen Inhalts auf eine sonst fehlende Form, sondern eine Paraphrase, die denselben Inhalt eines signifikanten Elements innerhalb eines gegebenen Zeichensystems auf andere Weise formuliert“ (159 ). In diesem Verständnis von "Interpretation" sind Form und Inhalt untrennbar; im Gegenteil, jede Form ist mit semantischer Bedeutung („bedeutungsvolle Form“) gefüllt, sodass die Interpretation eine neue, ähnliche Nacherzählung von etwas Bedeutungsvollem in einem anderen Zeichensystem bietet.

Ein ähnliches Form- und Inhaltsverständnis, das Claude Lévi-Strauss in einem der Schlüsselwerke des Strukturalismus („Structure and Form: Reflections on the Works of Vladimir Propp“) vorgetragen hat, findet sich in Saussures posthum erschienenem Buch „Course in Allgemeine Sprachwissenschaft" (1916, trans., 1959, 1983). Zu seinen Lebzeiten veröffentlichte Saussure wenig, "Course" - sein Hauptwerk - wurde aus den Notizen von Studenten gesammelt, die 1907-11 seine Vorlesungen über allgemeine Sprachwissenschaft besuchten. In dem Kurs forderte Saussure ein "wissenschaftliches" Studium der Sprache und kontrastierte sie mit der vergleichenden historischen Linguistik des 19. Jahrhunderts. Dieses Werk kann als eine der größten Errungenschaften des abendländischen Denkens angesehen werden: Ausgehend von einzelnen Wörtern als Strukturelementen der Sprache bewies die historische (oder „diachrone“) Linguistik die Entstehung und Entwicklung der westeuropäischen Sprachen von a gemeinsame, indogermanische Sprache - und eine frühere Proto-Indo-Europäerin.

Genau diese Untersuchung des einzigartigen Vorkommens von Wörtern mit der damit einhergehenden Annahme, dass die grundlegende "Einheit" der Sprache tatsächlich die positive Existenz dieser "Wortelemente" ist, hat Saussure in Frage gestellt. Seine Arbeit war ein Versuch, die vielen Tatsachen über Sprache, die von der vergleichenden Linguistik beiläufig untersucht wurden, auf eine kleine Anzahl von Theoremen zu reduzieren. Die vergleichende philologische Schule des 19. Jahrhunderts, schreibt Saussure, „hat es nicht geschafft, eine wirkliche Schule der Linguistik zu schaffen“, weil „sie das Wesen des Untersuchungsgegenstandes nicht verstanden hat“ (3). Dieses "Wesen", argumentiert er, liegt nicht nur in einzelnen Wörtern - den "positiven Substanzen" der Sprache -, sondern auch in den formalen Verbindungen, die diesen Substanzen zu ihrer Existenz verhelfen.

Saussures „Sprachtest“ basiert auf drei Annahmen. Erstens basiert das wissenschaftliche Verständnis von Sprache nicht auf einem historischen, sondern auf einem strukturellen Phänomen. Deshalb unterschied er zwischen einzelnen Phänomenen der Sprache – „Sprechereignissen“, die er als „parole“ definiert – und dem seiner Meinung nach eigentlichen Untersuchungsgegenstand der Linguistik, dem System (Code, Struktur), das diese Ereignisse steuert ("Sprache"). Eine solche systematische Untersuchung erfordert darüber hinaus eher eine "synchrone" Auffassung der Beziehung zwischen den Sprachelementen zu einem gegebenen Zeitpunkt als eine "diachrone" Untersuchung der Entwicklung einer Sprache durch ihre Geschichte.

Diese Hypothese war der Vorläufer dessen, was Roman Jakobson 1929 „Strukturalismus“ nannte – eine Theorie, in der „jede Reihe von Phänomenen, die von der modernen Wissenschaft untersucht werden, nicht als eine mechanische Akkumulation betrachtet wird, sondern als ein strukturelles Ganzes, in dem die konstruktive Komponente korreliert ist die Funktion" ("Romantik" 711). In dieser Passage formulierte Jakobson Saussures Idee, Sprache als Struktur zu definieren, im Gegensatz zur „mechanischen“ Aufzählung historischer Ereignisse. Darüber hinaus entwickelt Jakobson eine weitere Saussuresche Annahme, die zum Vorläufer der strukturellen Linguistik wurde: Die Grundelemente der Sprache sollten nicht so sehr im Zusammenhang mit ihren Ursachen, sondern mit ihren Funktionen untersucht werden. Separate Phänomene und Ereignisse (zB die Entstehungsgeschichte einzelner indogermanischer Wörter) sollten nicht für sich allein untersucht werden, sondern in einem System, in dem sie mit ähnlichen Komponenten korreliert sind. Dies war eine radikale Wende im Vergleich von Phänomenen mit der umgebenden Realität, deren Bedeutung vom Philosophen Ernst Cassirer mit "der Wissenschaft von Galileo, die die Ideen über die materielle Welt im siebzehnten Jahrhundert umkehrte" verglichen wurde , wie Greimas und Kurthe bemerken, ändert die Idee der "Interpretation", folglich die Erklärungen selbst. Phänomene begannen, nicht in Bezug auf die Ursachen ihres Auftretens interpretiert zu werden, sondern in Bezug auf die Wirkung, die sie in der haben können Gegenwart und Zukunft Interpretation war nicht mehr unabhängig von den Intentionen einer Person (trotz der Tatsache, dass Intentionen unpersönlich, „unbewusst“ im Sinne Freuds sein können).

Saussure zeigt in seiner Linguistik diese Wendung besonders in der Veränderung des Begriffs des Wortes in der Linguistik, das er als Zeichen definiert und in seinen Funktionen beschreibt. Ein Zeichen ist für ihn eine Kombination aus Laut und Bedeutung, „signified and designation“ (66-67; in der englischen Übersetzung von 1983 von Roy Harris – „signification“ und „signal“). Die Natur dieser Verbindung ist "funktional" (weder das eine noch das andere Element kann ohne einander existieren); außerdem „leiht man sich Qualitäten vom anderen“ (8). Damit definiert Saussure das Hauptstrukturelement der Sprache – das Zeichen – und macht die Identität von Zeichen mit Wörtern zur Grundlage der historischen Linguistik, was einer besonders strengen Analyse bedarf. Daher können wir unterschiedliche Bedeutungen beispielsweise desselben Wortes "Baum" verstehen - nicht weil das Wort nur eine Menge bestimmter Eigenschaften ist, sondern weil es als Element im Zeichensystem definiert ist, im "strukturellen Ganzen", in der Sprache.

Ein solcher relativer ("diakritischer") Einheitsbegriff liegt dem Begriff aller Sprachelemente in der Strukturlinguistik zugrunde. Dies wird besonders deutlich in der originellsten Entdeckung der Saussureschen Linguistik, in der Entwicklung des Konzepts der "Phoneme" und "Unterscheidungsmerkmale" der Sprache. Phoneme sind die kleinsten gesprochenen und bedeutungsvollen Spracheinheiten. Es sind nicht nur Laute, die in der Sprache vorkommen, sondern „Klangbilder“, stellt Saussure fest, die von Muttersprachlern als bedeutungsvoll wahrgenommen werden. (Es sei darauf hingewiesen, dass Elmar Holenstein Jakobsons Linguistik, die die Ideen und Konzepte von Saussure in ihren Hauptbestimmungen fortsetzt, „phänomenologischen Strukturalismus“ nennt). Deshalb stellte der führende Redner der Prager Schule des Strukturalismus, Jan Mukarowski, 1937 fest, dass „Struktur. . . kein empirischer, sondern ein phänomenologischer Begriff; es ist nicht das Ergebnis selbst, sondern eine Reihe signifikanter Beziehungen des kollektiven Bewusstseins (Generation, andere usw.)“. Ein ähnlicher Gedanke wurde 1960 von Lévi-Strauss, dem Führer des französischen Strukturalismus, geäußert: „Die Struktur hat keinen bestimmten Inhalt; es ist an sich bedeutungsvoll, und die logische Konstruktion, in die es eingeschlossen ist, ist der Abdruck der Wirklichkeit.

Phoneme wiederum stellen als die kleinsten für die Wahrnehmung akzeptablen sprachlichen Elemente eine separate integrale "phänomenologische Realität" dar. Zum Beispiel kann der Laut „t“ im Englischen unterschiedlich ausgesprochen werden, aber eine Person, die Englisch spricht, wird ihn in jedem Fall als „t“ wahrnehmen. Angesaugt, angehoben oder abgesenkt, ein langer „t“-Laut usw. unterscheidet gleichermaßen die Bedeutung der Wörter „to“ und „do“. Darüber hinaus sind die Unterschiede zwischen Sprachen so, dass Varietäten eines Tons in einer Sprache unterschiedlichen Phonemen in einer anderen entsprechen können; Zum Beispiel sind "l" und "r" im Englischen unterschiedlich, während sie in anderen Sprachen Varianten desselben Phonems sind (wie das englische "t", ausgesprochen mit und ohne Aspiration). Das riesige Vokabular jeder natürlichen Sprache besteht aus einer Reihe von Kombinationen einer viel kleineren Anzahl von Phonemen. Im Englischen werden beispielsweise nur 40 Phoneme verwendet, um etwa eine Million Wörter auszusprechen und zu schreiben.

Die Laute einer Sprache sind eine systematisch organisierte Menge von Merkmalen. In den 1920er bis 1930er Jahren, nach Saussure, hoben Jacobson und N. S. Trubetskoy die "charakteristischen Merkmale" von Phonemen hervor. Diese Merkmale beruhen auf dem Aufbau der Sprechorgane – Zunge, Zähne, Stimmbänder – Saussure bemerkt dies im „Course of General Linguistics“, und Harris nennt es „physiologische Phonetik“ (in Baskins früherer Übersetzung der Begriff „Phonologie“. " verwendet wird) - sie sind in "Knoten" verbunden » durg gegen einen Freund, um Geräusche zu machen. Zum Beispiel ist der Unterschied zwischen „t“ und „d“ im Englischen das Vorhandensein oder Fehlen von „voice“ (die Spannung der Stimmbänder) und die Lautstärke der Stimme, die ein Phonem von einem anderen unterscheidet. So kann die Phonologie als Beispiel für die von Saussure beschriebene allgemeine Sprachregel gelten: „Es gibt nur Unterschiede in der Sprache.“ Noch wichtiger ist dies nicht: Der Unterschied impliziert normalerweise die genauen Bedingungen, zwischen denen er angesiedelt ist; aber in der Sprache gibt es nur Unterschiede ohne genaue Bedingungen. Ob „Bezeichnung“ oder „Bezeichnet“ – in der Sprache gibt es weder Begriffe noch Laute, die es vor der Entwicklung des Sprachsystems gegeben hätte.

In einer solchen Struktur werden sprachliche Analogien nicht mit Hilfe ihrer inhärenten Qualitäten definiert, sondern mit Hilfe von Systembeziehungen („strukturellen“) Beziehungen.

Ich habe bereits erwähnt, dass sich die Phonologie in ihrer Entwicklung auf die Ideen von Saussure stützte. Obwohl seine Analyse der Sprachphysiologie in der Neuzeit, so Harris, „als ‚physisch‘ und nicht als ‚psychologisch‘ oder ‚funktional‘ bezeichnet werden würde, hat er in The Course die Richtung und die Grundprinzipien der Funktionsanalyse der Sprache klar zum Ausdruck gebracht. Sein einziges zu seinen Lebzeiten veröffentlichtes Werk, Memoire sur le systeme primitif des voyelles dans les langues indo-europeennes (Anmerkungen zum ursprünglichen Vokalsystem in den indogermanischen Sprachen), das 1878 veröffentlicht wurde, stand vollständig im Einklang mit der vergleichenden historischen Sprachwissenschaft der 19. Jahrhundert. Trotzdem habe Saussure in dieser Arbeit, so Jonathan Culler, "die Fruchtbarkeit der Idee der Sprache als eines Systems miteinander verbundener Phänomene gezeigt, selbst bei ihrer historischen Rekonstruktion". Saussure analysierte die Beziehung zwischen Phonemen und erklärte den Wechsel von Vokalen in den modernen Sprachen der indogermanischen Gruppe und schlug vor, dass es neben mehreren verschiedenen Lauten "a" auch andere Phoneme geben muss, die formal beschrieben werden. „Was in Saussures Arbeit einen besonderen Eindruck hinterlässt“, schließt Kaller, „ist, dass fast 50 Jahre später, als die hethitische Keilschrift entdeckt und entschlüsselt wurde, ein Phonem gefunden wurde, das mit „h“ gekennzeichnet war und sich so verhielt, wie Saussure es vorhergesagt hatte. Durch formale Analyse entdeckte er in den indogermanischen Sprachen das, was heute als Gutturallaut bekannt ist.

Im Konzept einer relativen (diakritischen) Definition von Zeichen, sowohl explizit als auch implizit im Kurs, gibt es eine dritte Schlüsselannahme der strukturellen Linguistik, die von Saussure die „willkürliche Natur des Zeichens“ genannt wird. Damit ist gemeint, dass die Beziehung zwischen Laut und Bedeutung in der Sprache durch nichts motiviert ist: Man kann genauso gut das Wort „arbre“ und das Wort „tree“ mit dem Begriff „tree“ verbinden. Darüber hinaus bedeutet dies, dass auch der Klang willkürlich ist: Man kann den Begriff „Baum“ durch das Vorhandensein von Rinde (außer Palmen) und durch Größe (außer „niedrige Gehölze“ – Sträucher) definieren. Daraus sollte klar sein, dass alle Annahmen, die ich vorstelle, nicht in mehr und weniger wichtige unterteilt sind: jede von ihnen - die systemische Natur von Zeichen (am verständlichsten im "synchronen" Studium der Sprache), ihre relative (diakritische) Wesen, die Willkür der Zeichen - kommt aus der Ruhe.

Daher wird in der Saussureschen Linguistik das untersuchte Phänomen als eine Reihe von Vergleichen und Gegensätzen der Sprache verstanden. Sprache ist sowohl Ausdruck der Bedeutung von Wörtern (Bezeichnung) als auch deren Ergebnis (Kommunikation) – und diese beiden Funktionen fallen nie zusammen (vgl. Shleifers „Deconstruction of Language“). Wir können den Wechsel von Form und Inhalt sehen, den Greimas und Kurte in der neuesten Version der Interpretation beschreiben: Sprachliche Kontraste definieren seine strukturellen Einheiten, und diese Einheiten interagieren auf sukzessiven Ebenen, um einen bestimmten sinnvollen Inhalt zu schaffen. Da die Elemente der Sprache zufällig sind, können weder Kontrast noch Kombination die Grundlage sein. Das bedeutet, dass in einer Sprache Unterscheidungsmerkmale auf einer anderen Verständnisebene einen phonetischen Kontrast bilden, Phoneme zu kontrastierenden Morphemen kombiniert werden, Morpheme - zu Wörtern, Wörter - zu Sätzen usw. In jedem Fall kann ein ganzes Phonem, Wort, Satz usw. ist mehr als die Summe seiner Teile (so wie Wasser in Saussures Beispiel mehr ist als die Kombination von Wasserstoff und Sauerstoff).

Drei Annahmen des "Kurses für Allgemeine Sprachwissenschaft" führten Saussure zu der Idee einer neuen Wissenschaft des zwanzigsten Jahrhunderts, getrennt von der Linguistik, die "das Leben der Zeichen in der Gesellschaft" untersucht. Saussure nannte diese Wissenschaft Semiologie (vom griechischen „semeion“ – ein Zeichen). Die „Wissenschaft“ der Semiotik, die sich in den 1920er und 1930er Jahren in Osteuropa und in den 1950er und 1960er Jahren in Paris entwickelte, erweiterte das Studium der Sprache und der sprachlichen Strukturen um literarische Funde, die im Hinblick auf diese Strukturen verfasst (oder formuliert) wurden. Darüber hinaus beschäftigte sich Saussure in der Abenddämmerung seiner Karriere parallel zu seinem Studium der allgemeinen Linguistik mit einer "semiotischen" Analyse spätrömischer Dichtung und versuchte, bewusst komponierte Anagramme von Eigennamen zu entdecken. Diese Methode war in ihrer linguistischen Analyse in vielerlei Hinsicht das Gegenteil des Rationalismus: Sie war ein Versuch, wie Saussure in einem der 99 Notizbücher schreibt, das Problem der „Wahrscheinlichkeit“ im System zu untersuchen, das „zur Grundlage von allem wird. " Eine solche Untersuchung, behauptet Saussure selbst, hilft, sich auf die "reale Seite" der Wahrscheinlichkeit zu konzentrieren; Das „Schlüsselwort“, für das Saussure ein Anagramm sucht, ist, wie Jean Starobinsky argumentiert, „ein Werkzeug für den Dichter und nicht die Quelle des Lebens des Gedichts. Das Gedicht dient dazu, die Laute des Schlüsselwortes umzukehren. Laut Starobinsky geht Saussure in dieser Analyse „nicht auf die Suche nach verborgenen Bedeutungen ein“. Im Gegenteil, in seinen Werken macht sich der Wunsch bemerkbar, bewusstseinsbezogene Fragen zu vermeiden: "Da Poesie sich nicht nur in Worten ausdrückt, sondern auch in dem, was diese Worte hervorrufen, entzieht sie sich der Kontrolle des Bewusstseins und hängt nur von ab die Gesetze der Sprache."

Saussures Versuch, Eigennamen in der spätrömischen Poesie zu studieren (Tsvetan Todorov nannte dies eine Abkürzung für "ein Wort ... erst, bevor es geschrieben wird") betont eine der Komponenten seiner sprachlichen Analyse - die willkürliche Natur von Zeichen sowie die formale Essenz der Saussureschen Linguistik ("Sprache", behauptet er, "die Essenz der Form, nicht des Phänomens"), die die Möglichkeit der Analyse der Bedeutung ausschließt. Todorov kommt zu dem Schluss, dass Saussures Schriften heute bemerkenswert konsequent in ihrer Abneigung gegen das Studium von Symbolen [Phänomene mit genau definierter Bedeutung] zu sein scheinen. . . . Beim Erkunden von Anagrammen achtet Saussure nur auf Wiederholungen, nicht aber auf frühere Optionen. . . . Beim Studium des Nibelungenliedes definiert er die Symbole nur, um sie falschen Lesarten zuzuordnen: Wenn sie unbeabsichtigt sind, existieren die Symbole nicht. Schließlich geht er in seinen Schriften zur allgemeinen Sprachwissenschaft von der Existenz einer Semiologie aus, die nicht nur sprachliche Zeichen beschreibt; Diese Annahme wird jedoch dadurch eingeschränkt, dass die Semilogie nur zufällige, willkürliche Zeichen beschreiben kann.

Wenn dem wirklich so ist, dann nur, weil er sich „Absicht“ nicht ohne Objekt vorstellen konnte; er konnte die Kluft zwischen Form und Inhalt nicht vollständig überbrücken - in seinen Schriften wurde dies zu einer Frage. Stattdessen wandte er sich der "sprachlichen Legitimität" zu. Zwischen den auf Geschichte und subjektiven Vermutungen basierenden Konzepten des 19. Jahrhunderts einerseits und den darauf basierenden Methoden der zufälligen Interpretation und andererseits den strukturalistischen Konzepten, die Lévi-Strauss „Kantianismus ohne transzendenten Akteur“ nannte, zu stehen " - die den Gegensatz zwischen Form und Inhalt (Subjekt und Objekt), Bedeutung und Ursprung in Strukturalismus, Psychoanalyse und sogar Quantenmechanik aufheben, markieren die Arbeiten von Ferlinand de Saussure über Linguistik und Semiotik einen Wendepunkt in der Erforschung von Bedeutungen in Sprache und Kultur .

Ronald Schleifer

Literatur

1. Admoni V.G. Grundlagen der Grammatiktheorie / V.G. Admoni; Akademie der Wissenschaften der UdSSR.-M.: Nauka, 1964.-104p.

3. Arapov, M. V., Herts, M. M. Mathematische Methoden in der Linguistik. M., 1974.

4. Arnold I.V. Die semantische Struktur des Wortes im modernen Englisch und die Methodik für seine Untersuchung. /I.V. Arnold-L.: Erziehung, 1966. - 187 S.

6.Bashlykov A.M. Automatisches Übersetzungssystem. / BIN. Bashlykov, A.A. Sokolov. - M.: GmbH "FIMA", 1997. - 20 p.

7. Baudouin de Courtenay: Theoretisches Erbe und Moderne: Zusammenfassungen der Berichte der internationalen wissenschaftlichen Konferenz / Ed.I.G. Kondratjew. - Kasan: KGU, 1995. - 224 p.

8. A. V. Gladkiy, Elemente der mathematischen Linguistik. / . Gladkiy A.V., Melchuk I.A. -M., 1969. - 198 S.

9. Golovin, B.N. Sprache und Statistik. /B.N. Golovin - M., 1971. - 210 p.

10. Zvegintsev, V.A. Theoretische und angewandte Linguistik. / V.A. Sweginzew - M., 1969. - 143 p.

11. Kasevich, V.B. Semantik. Syntax. Morphologie. // V.B. Kasevich - M., 1988. - 292 p.

12. Lekomtsev Yu.K. EINFÜHRUNG in die Formensprache der Linguistik / Yu.K. Lekomzew. - M.: Nauka, 1983, 204 S., mit Abb.

13. Das sprachliche Erbe von Baudouin de Courtenay am Ende des 20. Jahrhunderts: Zusammenfassungen der Internationalen Konferenz für Wissenschaft und Praxis vom 15. bis 18. März 2000. - Krasnojarsk, 2000. - 125 p.

Matveeva G.G. Versteckte grammatikalische Bedeutungen und Identifizierung der sozialen Person („Porträt“) des Sprechers / G.G. Matwejew. - Rostow, 1999. - 174 p.

14. Melchuk, I.A. Erfahrung im Aufbau sprachlicher Modelle „Bedeutung<-->Text". / I.A. Melchuk. - M., 1974. - 145 p.

15. Nelyubin L.L. Übersetzen und Angewandte Linguistik / L.L. Nelyubin. - M.: Höhere Schule, 1983. - 207 p.

16. Zu den genauen Methoden der Sprachforschung: Zur sogenannten "mathematischen Linguistik" / O.S. Akhmanova, I. A. Melchuk, E. V. Paducheva und andere - M., 1961. - 162 p.

17. Piotrowski L.G. Mathematische Linguistik: Lehrbuch / L.G. Piotrovsky, K.B. Bektaev, A.A. Piotrowskaja. - M.: Höhere Schule, 1977. - 160 p.

18. Er ist. Text, Maschine, Person. - L., 1975. - 213 p.

19. Er ist. Angewandte Linguistik / Hrsg. A. S. Gerda. - L., 1986. - 176 p.

20. Revzin, I.I. Sprachmodelle. M., 1963. Revzin, I.I. Moderne Strukturlinguistik. Probleme und Methoden. M., 1977. - 239 S.

21. Revzin, I.I., Rozentsveig, V.Yu. Grundlagen der allgemeinen und maschinellen Übersetzung / Revzin I.I., Rozentsveig, V.Yu. - M., 1964. - 401 p.

22. Slyusareva N.A. Die Theorie von F. de Saussure im Lichte der modernen Linguistik / N.A. Slyusareva. - M.: Nauka, 1975. - 156 p.

23. Eule, L.Z. Analytische Linguistik / L.Z. Eule - M., 1970. - 192 p.

24. Saussure F.de. Anmerkungen zur Allgemeinen Sprachwissenschaft / F. de Saussure; Pro. von fr. - M.: Fortschritt, 2000. - 187 p.

25. Er ist. Studiengang Allgemeine Sprachwissenschaft / Pro. von fr. - Jekaterinburg, 1999. -426 p.

26. Sprachstatistik und automatische Textanalyse / Ed. ed. R.G. Piotrowski. L., 1980. - 223 S.

27. Stoll, P. Sets. Logik. Axiomatische Theorien / R. Stoll; Pro. aus dem Englischen. - M., 1968. - 180 p.

28. Tenier, L. Grundlagen der strukturellen Syntax. M., 1988.

29. Ubin II. Automatisierung von Übersetzungsaktivitäten in der UdSSR / I.I. Ubin, L. Yu. Korostelev, B.D. Tichomirow. - M., 1989. - 28 p.

30. Faure, R., Kofman, A., Denis-Papin, M. Moderne Mathematik. M., 1966.

31. Shenk, R. Verarbeitung konzeptioneller Informationen. M., 1980.

32. Shikhanovich, Yu.A. EINFÜHRUNG in die moderne Mathematik (Anfangsbegriffe). M., 1965

33. Shcherba L.V. Russische Vokale in qualitativer und quantitativer Hinsicht / L.V. Shcherba - L.: Nauka, 1983. - 159 p.

34. Abdullah-zade F. Weltbürger // Spark - 1996. - Nr. 5. - S.13

35. V.A. Uspensky. Vorläufig für die Leser der "New Literary Review" zu den semiotischen Botschaften von Andrei Nikolaevich Kolmogorov. - Neue Literaturkritik. -1997. - Nr. 24. - S. 18-23

36. Perlovsky L. Bewusstsein, Sprache und Kultur. - Wissen ist Macht. -2000. №4 - S. 20-33

Einführung? Vorlesung Übersetzungstheorie