Sprachwissenschaftliches Lexikon. Mathematische Methoden in der Vergleichenden Sprachwissenschaft

Die Herausbildung der Strukturlinguistik an der Wende vom 19. zum 20. Jahrhundert. Statistische Methoden beim Sprachenlernen. Anwendung mathematischer Methoden in der Linguistik in der zweiten Hälfte des 20. Jahrhunderts. Erlernen der Sprache mit Methoden der formalen Logik. Merkmale der maschinellen Übersetzung.

EINLEITUNG

Kapitel 1. Die Geschichte der Anwendung mathematischer Methoden in der Linguistik

1.1. Die Herausbildung der Strukturlinguistik an der Wende vom 19. zum 20. Jahrhundert

1.2. Anwendung mathematischer Methoden in der Linguistik in der zweiten Hälfte des 20. Jahrhunderts

Kapitel 2. Ausgewählte Beispiele für den Einsatz von Mathematik in der Linguistik

2.1. Maschinell übersetzen

2.2.Statistische Methoden beim Sprachenlernen

2.3. Lernen einer Sprache mit Methoden der formalen Logik

2.4. Perspektiven für die Anwendung mathematischer Methoden in der Linguistik

Fazit

Literatur

Anhang 1. Ronald Schleifer. Ferdinand von Saussure

Anhang 2. Ferdinand de Saussure (Übersetzung)

EINLEITUNG

Im 20. Jahrhundert setzt sich der Trend zur Interaktion und Durchdringung verschiedener Wissensgebiete fort. Die Grenzen zwischen den einzelnen Wissenschaften verschwimmen allmählich; es gibt immer mehr Zweige geistiger Tätigkeit, die "an der Schnittstelle" von humanitären, technischen und naturwissenschaftlichen Erkenntnissen stehen.

Ein weiteres offensichtliches Merkmal der Moderne ist der Wunsch, Strukturen und ihre Bestandteile zu studieren. Daher wird der Mathematik sowohl in der wissenschaftlichen Theorie als auch in der Praxis ein immer größerer Stellenwert eingeräumt. In Berührung einerseits mit Logik und Philosophie, andererseits mit Statistik (und folglich mit den Sozialwissenschaften) dringt die Mathematik immer tiefer in jene Bereiche vor, die lange Zeit als rein galten „humanitär“, erweitern ihr heuristisches Potenzial (die Antwort auf die Frage „wie viel“ hilft oft bei der Beantwortung der Fragen „was“ und „wie“). Sprachwissenschaft war keine Ausnahme.

Der Zweck meiner Kursarbeit ist es, kurz die Verbindung zwischen der Mathematik und einem Zweig der Linguistik wie der Linguistik hervorzuheben. Seit den 1950er Jahren wird die Mathematik in der Linguistik verwendet, um einen theoretischen Apparat zur Beschreibung der Struktur von Sprachen (sowohl natürlichen als auch künstlichen) zu schaffen. Gleichzeitig sollte gesagt werden, dass es eine solche praktische Anwendung nicht sofort für sich gefunden hat. Anfänglich wurden mathematische Methoden in der Linguistik verwendet, um die grundlegenden Konzepte der Linguistik zu klären, aber mit der Entwicklung der Computertechnologie begann eine solche theoretische Prämisse, Anwendung in der Praxis zu finden. Die Lösung solcher Aufgaben wie maschinelle Übersetzung, maschineller Informationsabruf, automatische Textverarbeitung erforderte eine grundlegend neue Herangehensweise an die Sprache. Die Linguisten stellten sich der Frage: Wie lernt man, sprachliche Muster so darzustellen, dass sie direkt auf die Technik übertragen werden können? Der in unserer Zeit gebräuchliche Begriff „mathematische Linguistik“ bezeichnet jede linguistische Forschung, die sich exakter Methoden bedient (und der Begriff der exakten Methoden in den Naturwissenschaften ist immer eng mit der Mathematik verbunden). Einige Wissenschaftler der letzten Jahre glauben, dass der Ausdruck selbst nicht in den Rang eines Begriffs erhoben werden kann, da er keine spezielle „Linguistik“ bedeutet, sondern nur eine neue Richtung, die sich auf die Verbesserung, Erhöhung der Genauigkeit und Zuverlässigkeit von Sprachforschungsmethoden konzentriert . Die Linguistik verwendet sowohl quantitative (algebraische) als auch nicht-quantitative Methoden, was sie der mathematischen Logik und folglich der Philosophie und sogar der Psychologie näher bringt. Sogar Schlegel bemerkte die Wechselwirkung von Sprache und Bewusstsein, und Ferdinand de Saussure, ein prominenter Linguist des frühen zwanzigsten Jahrhunderts (über seinen Einfluss auf die Entwicklung mathematischer Methoden in der Linguistik werde ich später berichten), verband die Struktur der Sprache mit ihrer Zugehörigkeit zu den Leuten. Der moderne Forscher L. Perlovsky geht noch weiter und identifiziert die quantitativen Merkmale der Sprache (z. B. Anzahl der Geschlechter, Fälle) mit den Besonderheiten der nationalen Mentalität (mehr dazu in Abschnitt 2.2, „Statistische Methoden in der Sprachwissenschaft“).

Das Zusammenspiel von Mathematik und Linguistik ist ein vielschichtiges Thema, und ich werde in meiner Arbeit nicht auf alle, sondern vor allem auf seine angewandten Aspekte eingehen.

Kapitel IAnwendungsgeschichte mathematischer Methoden in der Linguistik

1.1 Entstehung der Strukturlinguistikan der Wende vom 19. zum 20. Jahrhundert

Die mathematische Beschreibung der Sprache basiert auf der Idee der Sprache als Mechanismus, die auf den berühmten Schweizer Linguisten des frühen zwanzigsten Jahrhunderts, Ferdinand de Saussure, zurückgeht.

Ausgangspunkt seines Konzepts ist die Theorie der Sprache als eines aus drei Teilen bestehenden Systems (die Sprache selbst ist Sprache, Rede - Passwort, und Sprachaktivität - Sprache), in der jedes Wort (Mitglied des Systems) nicht für sich betrachtet wird, sondern in Verbindung mit anderen Mitgliedern. Wie ein anderer prominenter Linguist, der Däne Louis Hjelmslev, später feststellte, war Saussure „der erste, der einen strukturellen Ansatz für die Sprache forderte, das heißt eine wissenschaftliche Beschreibung der Sprache durch Aufzeichnung der Beziehungen zwischen Einheiten“.

Saussure verstand die Sprache als hierarchische Struktur und stellte als erster das Problem des Wertes und der Bedeutung sprachlicher Einheiten. Separate Phänomene und Ereignisse (zB die Entstehungsgeschichte einzelner indogermanischer Wörter) sollten nicht für sich allein untersucht werden, sondern in einem System, in dem sie mit ähnlichen Komponenten korreliert sind.

Die strukturelle Einheit der Sprache von Saussure betrachtete das Wort "Zeichen", in dem Klang und Bedeutung kombiniert wurden. Keines dieser Elemente existiert ohne das andere: Daher versteht der Muttersprachler die verschiedenen Bedeutungsnuancen eines polysemantischen Wortes als ein separates Element im strukturellen Ganzen, in der Sprache.

So kann man in der Theorie von F. de Saussure einerseits die Wechselwirkung der Linguistik mit der Soziologie und der Sozialpsychologie erkennen (man beachte, dass gleichzeitig Husserls Phänomenologie, Freuds Psychoanalyse, Einsteins Relativitätstheorie waren entstehen, Experimente zu Form und Inhalt in Literatur, Musik und bildender Kunst), andererseits mit der Mathematik (dem algebraischen Sprachbegriff entspricht der Begriff der Systemizität). Ein solches Konzept veränderte das Konzept der sprachlichen Interpretation als solches: Phänomene begannen, nicht mehr in Bezug auf die Ursachen ihres Auftretens, sondern in Bezug auf Gegenwart und Zukunft interpretiert zu werden. Die Interpretation war nicht mehr unabhängig von den Absichten einer Person (trotz der Tatsache, dass Absichten unpersönlich, „unbewusst“ im Freudschen Sinne des Wortes sein können).

Das Funktionieren des sprachlichen Mechanismus manifestiert sich durch die Sprachaktivität von Muttersprachlern. Das Ergebnis der Sprache sind die sogenannten „korrekten Texte“ – Aneinanderreihungen von Spracheinheiten, die bestimmten Mustern gehorchen, von denen viele eine mathematische Beschreibung zulassen. Die Theorie der Beschreibungsweisen der syntaktischen Struktur befasst sich mit der Untersuchung von Methoden zur mathematischen Beschreibung korrekter Texte (vor allem Sätze). In einer solchen Struktur werden sprachliche Analogien nicht mit Hilfe ihrer inhärenten Qualitäten definiert, sondern mit Hilfe von Systembeziehungen („strukturellen“) Beziehungen.

Im Westen werden Saussures Ideen von den jüngeren Zeitgenossen des großen Schweizer Sprachwissenschaftlers weiterentwickelt: in Dänemark - L. Hjelmslev, der bereits von mir erwähnt wurde, der in seinem Werk "Fundamentals of Linguistic Theory" die algebraische Sprachtheorie hervorbrachte, in in den USA - E. Sapir, L. Bloomfield, C. Harris, in der Tschechischen Republik - der russische emigrierte Wissenschaftler N. Trubetskoy.

Statistische Gesetzmäßigkeiten in der Sprachwissenschaft begannen von keinem geringeren als dem Begründer der Genetik, Georg Mendel, zu behandeln. Erst 1968 entdeckten Philologen, dass ihn in seinen letzten Lebensjahren die Untersuchung sprachlicher Phänomene mit den Methoden der Mathematik faszinierte. Mendel brachte diese Methode aus der Biologie in die Linguistik; In den 1990er Jahren behaupteten nur die kühnsten Linguisten und Biologen die Machbarkeit einer solchen Analyse. Im Archiv des Klosters St. Tomasz in Brünn, dessen Abt Mendel war, wurden Blätter mit Spalten von Nachnamen gefunden, die auf „mann“, „bauer“, „mayer“ enden, und mit einigen Brüchen und Berechnungen. In dem Bemühen, die formalen Gesetzmäßigkeiten der Entstehung von Familiennamen aufzudecken, stellt Mendel komplexe Berechnungen an, bei denen er die Anzahl der Vokale und Konsonanten in der deutschen Sprache, die Gesamtzahl der von ihm betrachteten Wörter, die Anzahl der Nachnamen, etc.

In unserem Land begann sich die strukturelle Linguistik ungefähr zur gleichen Zeit wie im Westen zu entwickeln - um die Wende vom 19. zum 20. Jahrhundert. Gleichzeitig mit F. de Saussure wurde das Konzept der Sprache als System in ihren Arbeiten von Professoren der Kasaner Universität F.F. Fortunatov und I.A. Baudouin de Courténay. Letzterer korrespondierte lange Zeit mit de Saussure, beziehungsweise die Genfer und die Kasaner Sprachschule arbeiteten zusammen. Wenn man Saussure als den Ideologen „exakter“ Methoden in der Linguistik bezeichnen kann, dann hat Baudouin de Courtenay die praktischen Grundlagen für ihre Anwendung gelegt. Er war der erste, der die Linguistik (as präzise eine Wissenschaft, die statistische Methoden und funktionale Abhängigkeit verwendet) von der Philologie (einer Gemeinschaft humanitärer Disziplinen, die spirituelle Kultur durch Sprache und Sprache studieren). Der Wissenschaftler selbst glaubte, dass "die Sprachwissenschaft in naher Zukunft nur von der Zwangsvereinigung mit Philologie und Literaturgeschichte befreit" nützlich sein kann. Die Phonologie wurde zum "Testfeld" für die Einführung mathematischer Methoden in die Linguistik - Laute als "Atome" des Sprachsystems mit einer begrenzten Anzahl leicht messbarer Eigenschaften waren das bequemste Material für formale, strenge Beschreibungsmethoden. Die Phonologie bestreitet die Existenz von Bedeutung im Klang, daher wurde der "menschliche" Faktor in den Studien eliminiert. In diesem Sinne sind Phoneme wie physikalische oder biologische Objekte.

Phoneme stellen als die kleinsten für die Wahrnehmung akzeptablen sprachlichen Elemente eine eigene Sphäre, eine eigene "phänomenologische Realität" dar. Zum Beispiel kann der Laut „t“ im Englischen unterschiedlich ausgesprochen werden, aber eine Person, die Englisch spricht, wird ihn in jedem Fall als „t“ wahrnehmen. Die Hauptsache ist, dass das Phonem seine wichtigste – sinnvolle – Funktion erfüllt. Darüber hinaus sind die Unterschiede zwischen Sprachen so, dass Varietäten eines Tons in einer Sprache unterschiedlichen Phonemen in einer anderen entsprechen können; Zum Beispiel sind "l" und "r" im Englischen unterschiedlich, während sie in anderen Sprachen Varianten desselben Phonems sind (wie das englische "t", ausgesprochen mit oder ohne Aspiration). Das riesige Vokabular jeder natürlichen Sprache besteht aus einer Reihe von Kombinationen einer viel kleineren Anzahl von Phonemen. Im Englischen werden beispielsweise nur 40 Phoneme verwendet, um etwa eine Million Wörter auszusprechen und zu schreiben.

Die Laute einer Sprache sind eine systematisch organisierte Menge von Merkmalen. In den 1920er bis 1930er Jahren, nach Saussure, hoben Jacobson und N. S. Trubetskoy die "charakteristischen Merkmale" von Phonemen hervor. Diese Merkmale basieren auf der Struktur der Sprachorgane - Zunge, Zähne, Stimmbänder. Zum Beispiel ist der Unterschied zwischen „t“ und „d“ im Englischen das Vorhandensein oder Fehlen einer „Stimme“ (die Spannung der Stimmbänder) und die Lautstärke der Stimme, die ein Phonem von einem anderen unterscheidet. So kann die Phonologie als Beispiel für die von Saussure beschriebene allgemeine Sprachregel gelten: „Es gibt nur Unterschiede in der Sprache“. Noch wichtiger ist dies nicht: Der Unterschied impliziert normalerweise die genauen Bedingungen, zwischen denen er angesiedelt ist; aber in der Sprache gibt es nur Unterschiede ohne genaue Bedingungen. Ob „Bezeichnung“ oder „Bezeichnet“ – in der Sprache gibt es weder Begriffe noch Laute, die es vor der Entwicklung des Sprachsystems gegeben hätte.

Daher wird in der Saussureschen Linguistik das untersuchte Phänomen als eine Reihe von Vergleichen und Gegensätzen der Sprache verstanden. Sprache ist sowohl Ausdruck der Bedeutung von Wörtern als auch Kommunikationsmittel, und diese beiden Funktionen fallen nie zusammen. Wir können den Wechsel von Form und Inhalt feststellen: Sprachliche Kontraste definieren seine strukturellen Einheiten, und diese Einheiten interagieren, um einen bestimmten bedeutungsvollen Inhalt zu schaffen. Da die Elemente der Sprache zufällig sind, können weder Kontrast noch Kombination die Grundlage sein. Das heißt, in einer Sprache bilden Unterscheidungsmerkmale einen phonetischen Kontrast auf einer anderen Verständnisebene, Phoneme werden zu Morphemen zusammengesetzt, Morpheme – zu Wörtern, Wörter – zu Sätzen usw. In jedem Fall kann ein ganzes Phonem, Wort, Satz usw. ist mehr als nur die Summe seiner Teile.

Saussure schlug die Idee einer neuen Wissenschaft des zwanzigsten Jahrhunderts vor, die von der Linguistik getrennt ist und die Rolle der Zeichen in der Gesellschaft untersucht. Saussure nannte diese Wissenschaft Semiologie (vom griechischen „semeion“ – ein Zeichen). Die „Wissenschaft“ der Semiotik, die sich in den 1920er und 1930er Jahren in Osteuropa und in den 1950er und 1960er Jahren in Paris entwickelte, erweiterte die Erforschung von Sprache und sprachlichen Strukturen zu literarischen Erkenntnissen, die mit Hilfe dieser Strukturen verfasst (oder formuliert) wurden. Darüber hinaus beschäftigte sich Saussure in der Abenddämmerung seiner Karriere parallel zu seinem Studium der allgemeinen Linguistik mit einer "semiotischen" Analyse spätrömischer Dichtung und versuchte, bewusst komponierte Anagramme von Eigennamen zu entdecken. Diese Methode war in ihrer Sprachanalyse in vielerlei Hinsicht das Gegenteil des Rationalismus: Sie war ein Versuch, das Problem der "Wahrscheinlichkeit" in der Sprache in einem System zu untersuchen. Solche Forschung hilft, sich auf die "reale Seite" der Wahrscheinlichkeit zu konzentrieren; Das "Schlüsselwort", für das Saussure ein Anagramm sucht, ist laut Jean Starobinsky "ein Werkzeug für den Dichter, nicht die Quelle des Lebens des Gedichts". Das Gedicht dient dazu, die Laute des Schlüsselworts auszutauschen. Laut Starobinsky geht Saussure in dieser Analyse „nicht auf die Suche nach verborgenen Bedeutungen ein“. Im Gegenteil, in seinen Werken ist der Wunsch spürbar, bewusstseinsbezogene Fragen zu vermeiden: „Da Poesie nicht nur in Worten ausgedrückt wird, sondern auch in dem, was diese Worte hervorrufen, entzieht sie sich der Kontrolle des Bewusstseins und hängt nur von ab die Gesetze der Sprache“ (vgl. Anhang 1).

Saussures Versuch, Eigennamen in der spätrömischen Poesie zu studieren, betont eine der Komponenten seiner Sprachanalyse – die willkürliche Natur von Zeichen sowie das formale Wesen von Saussures Linguistik, das die Möglichkeit einer Bedeutungsanalyse ausschließt. Todorov kommt zu dem Schluss, dass die Werke von Saussure heute äußerst konsequent darin zu sein scheinen, die Symbole eines Phänomens zu studieren, die eine klar definierte Bedeutung haben [Anhang 1]. Beim Erkunden von Anagrammen achtet Saussure nur auf Wiederholungen, nicht aber auf frühere Optionen. . . . Beim Studium des Nibelungenliedes definiert er die Symbole nur, um sie falschen Lesarten zuzuordnen: Wenn sie unbeabsichtigt sind, existieren die Symbole nicht. Schließlich geht er in seinen Schriften zur allgemeinen Sprachwissenschaft von der Existenz einer Semiologie aus, die nicht nur sprachliche Zeichen beschreibt; Diese Annahme wird jedoch dadurch eingeschränkt, dass die Semiologie nur zufällige, willkürliche Zeichen beschreiben kann.

Wenn dem wirklich so ist, dann nur, weil er sich „Absicht“ nicht ohne Objekt vorstellen konnte; er konnte die Kluft zwischen Form und Inhalt nicht vollständig überbrücken - in seinen Schriften wurde dies zu einer Frage. Stattdessen wandte er sich der "sprachlichen Legitimität" zu. Zwischen auf der Geschichte und subjektiven Vermutungen basierenden Konzepten des 19. Jahrhunderts einerseits und Methoden der willkürlichen Interpretation, die auf diesen Konzepten basieren, und andererseits strukturalistischen Konzepten, die den Gegensatz zwischen Form und Inhalt (Subjekt und Objekt) aufheben. , Bedeutung und Ursprünge im Strukturalismus, der Psychoanalyse und sogar der Quantenmechanik - die Schriften von Ferdinand de Saussure über Linguistik und Semiotik markieren einen Wendepunkt in der Erforschung von Bedeutungen in Sprache und Kultur.

Russische Wissenschaftler waren auch auf dem Ersten Internationalen Kongress der Linguisten 1928 in Den Haag vertreten. S. Kartsevsky, R. Yakobson und N. Trubetskoy erstellten einen Bericht, der die hierarchische Struktur der Sprache untersuchte - im Geiste der modernsten Ideen für den Beginn des letzten Jahrhunderts. Jakobson entwickelte in seinen Schriften Saussures Ideen, dass die Grundelemente einer Sprache zuallererst im Zusammenhang mit ihren Funktionen und nicht mit den Gründen für ihr Auftreten untersucht werden sollten.

Nachdem Stalin 1924 an die Macht kam, wurde die russische Linguistik leider, wie viele andere Wissenschaften, zurückgeworfen. Viele begabte Wissenschaftler mussten emigrieren, wurden des Landes verwiesen oder starben in Lagern. Erst seit Mitte der 1950er Jahre ist ein gewisser Theoriepluralismus möglich – mehr dazu in Abschnitt 1.2.

1.2 Anwendung mathematischer Methoden in der Linguistik in der zweiten Hälfte des 20. Jahrhunderts

Mitte des 20. Jahrhunderts hatten sich vier Weltsprachschulen gebildet, von denen sich jede als Vorfahr einer bestimmten „exakten“ Methode herausstellte. Leningrader Phonologische Schule(sein Vorfahre war ein Schüler von Baudouin de Courtenay L. V. Shcherba) verwendete ein psycholinguistisches Experiment, das auf der Analyse der Sprache von Muttersprachlern als Hauptkriterium für die Verallgemeinerung von Lauten in Form eines Phonems basiert.

Wissenschaftler Prager Sprachkreis, insbesondere - sein Gründer N.S. Trubetskoy, der aus Russland emigrierte, entwickelte die Theorie der Oppositionen – die semantische Struktur der Sprache wurde von ihnen als eine Reihe von gegensätzlich aufgebauten semantischen Einheiten beschrieben – Sem. Diese Theorie wurde nicht nur beim Studium der Sprache, sondern auch der künstlerischen Kultur angewendet.

Ideologen Amerikanischer Deskriptivismus waren die Linguisten L. Bloomfield und E. Sapir. Sprache wurde den Deskriptivisten als eine Reihe von Sprachaussagen präsentiert, die das Hauptobjekt ihrer Studie waren. Ihr Schwerpunkt lag auf den Regeln der wissenschaftlichen Beschreibung (daher der Name) von Texten: dem Studium der Organisation, Anordnung und Klassifizierung ihrer Elemente. Die Formalisierung analytischer Verfahren auf dem Gebiet der Phonologie und Morphologie (Entwicklung von Prinzipien für das Studium der Sprache auf verschiedenen Ebenen, Verteilungsanalyse, Methode der direkten Konstituenten usw.) führte zur Formulierung allgemeiner Fragen der sprachlichen Modellierung. Die Unaufmerksamkeit gegenüber dem Plan des Inhalts der Sprache sowie der paradigmatischen Seite der Sprache erlaubte es den Deskriptivisten nicht, die Sprache als System vollständig genug zu interpretieren.

In den 1960er Jahren entwickelte sich die Theorie der formalen Grammatiken, die vor allem durch die Arbeit des amerikanischen Philosophen und Linguisten N. Chomsky entstand. Er gilt zu Recht als einer der berühmtesten modernen Wissenschaftler und Persönlichkeiten des öffentlichen Lebens, viele Artikel, Monographien und sogar ein Dokumentarfilm in voller Länge sind ihm gewidmet. Mit dem Namen einer grundlegend neuen Art, die von Chomsky erfundene syntaktische Struktur zu beschreiben – generative (generative) Grammatik – wurde die entsprechende Richtung in der Linguistik bezeichnet Generatismus.

Chomsky, ein Nachkomme von Einwanderern aus Russland, studierte seit 1945 Linguistik, Mathematik und Philosophie an der University of Pennsylvania, stark beeinflusst von seinem Lehrer Zelig Harris – wie Harris betrachtete und sieht Chomsky seine politischen Ansichten dem Anarchismus nahe (er ist immer noch bekannt als Kritiker des bestehenden politischen Systems der USA und als einer der geistigen Führer des Antiglobalismus).

Chomskys erste große wissenschaftliche Arbeit, die Magisterarbeit „Morphology of Modern Hebrew » (1951) ist unveröffentlicht geblieben. Chomsky promovierte 1955 an der University of Pennsylvania, aber ein Großteil der Forschung, die seiner Dissertation (vollständig erst 1975 unter dem Titel The Logical Structure of Linguistic Theory veröffentlicht) und seiner ersten Monographie, Syntactic Structures (1957, Rus. trans . 1962), wurde 1951-1955 an der Harvard University aufgeführt. Im gleichen Jahr 1955 wechselte der Wissenschaftler an das Massachusetts Institute of Technology, wo er 1962 Professor wurde.

Chomskys Theorie hat in ihrer Entwicklung mehrere Stadien durchlaufen.

In der ersten Monographie „Syntactic Structures“ stellte der Wissenschaftler die Sprache als einen Mechanismus zur Generierung einer unendlichen Menge von Sätzen mit endlichen grammatikalischen Mitteln vor. Zur Beschreibung sprachlicher Eigenschaften schlug er die Konzepte tiefer (der direkten Wahrnehmung verborgener und durch ein System rekursiver, d. h. wiederholt anwendbarer Regeln erzeugter) und oberflächlicher (direkt wahrnehmbarer) grammatikalischer Strukturen sowie Transformationen vor, die den Übergang beschreiben von tiefen Strukturen zu oberflächlichen. Einer Tiefenstruktur können mehrere Oberflächenstrukturen entsprechen (z. B. eine Passivstruktur). Das Dekret wird vom Präsidenten unterzeichnet abgeleitet von derselben Tiefenstruktur wie das aktive Konstrukt Der Präsident unterzeichnet das Dekret) und umgekehrt (also die Mehrdeutigkeit Mutter liebt Tochter beschrieben als Ergebnis einer Koinzidenz von Oberflächenstrukturen, die auf zwei unterschiedliche Tiefen zurückgehen, von denen in der einen die Mutter diejenige ist, die die Tochter liebt, und in der anderen diejenige, die von der Tochter geliebt wird).

Chomskys Standardtheorie gilt als das „Aspects“-Modell, das in Chomskys Buch „Aspects of the Theory of Syntax“ dargelegt ist. In diesem Modell wurden erstmals semantische Interpretationsregeln in die formale Theorie eingeführt, die Tiefenstrukturen Bedeutung zuschreiben. In Aspekten wird sprachliche Kompetenz dem Gebrauch von Sprache (Performance) gegenübergestellt, die sogenannte Katz-Postal-Hypothese über die Bewahrung von Bedeutung während der Transformation wird übernommen, in deren Zusammenhang das Konzept der optionalen Transformation ausgeschlossen wird, und ein Apparat von syntaktische Merkmale, die die lexikalische Kompatibilität beschreiben, werden eingeführt.

In den 1970er Jahren arbeitete Chomsky an der Theorie der Kontrolle und Bindung (GB-Theorie - von den Worten Regierung und Bindung) ist allgemeiner als die vorherige. Darin verzichtete der Wissenschaftler auf die spezifischen Regeln, die die syntaktischen Strukturen bestimmter Sprachen beschreiben. Alle Transformationen wurden durch eine universelle Bewegungstransformation ersetzt. Im Rahmen der GB-Theorie gibt es auch private Module, die jeweils für einen eigenen Teil der Grammatik zuständig sind.

Bereits vor kurzem, 1995, hat Chomsky ein minimalistisches Programm vorgelegt, in dem menschliche Sprache wie Maschinensprache beschrieben wird. Dies ist nur ein Programm - kein Modell oder eine Theorie. Darin identifiziert Chomsky zwei Hauptuntersysteme des menschlichen Sprachapparats: das Lexikon und das Computersystem sowie zwei Schnittstellen – phonetische und logische.

Chomskys formale Grammatiken sind zu Klassikern geworden, um nicht nur natürliche, sondern auch künstliche Sprachen – insbesondere Programmiersprachen – zu beschreiben. Die Entwicklung der Strukturlinguistik in der zweiten Hälfte des 20. Jahrhunderts kann zu Recht als „Chomskische Revolution“ bezeichnet werden.

Moskauer Phonologische Schule, deren Vertreter A.A. Reformatsky, V.N. Sidorow, P.S. Kuznetsov, A.M. Sukhotin, R.I. Avanesov verwendete eine ähnliche Theorie, um Phonetik zu studieren. Allmählich werden "exakte" Methoden nicht nur in Bezug auf die Phonetik, sondern auch in Bezug auf die Syntax angewendet. Sowohl Linguisten als auch Mathematiker im In- und Ausland beginnen, die Struktur der Sprache zu studieren. In den 1950er und 60er Jahren begann in der UdSSR eine neue Phase in der Interaktion zwischen Mathematik und Linguistik, verbunden mit der Entwicklung von maschinellen Übersetzungssystemen.

Der Anstoß für den Beginn dieser Arbeiten in unserem Land waren die ersten Entwicklungen auf dem Gebiet der maschinellen Übersetzung in den Vereinigten Staaten (obwohl das erste maschinelle Übersetzungsgerät von P. P. Smirnov-Troyansky bereits 1933 in der UdSSR erfunden wurde, da es primitiv war , hat sich nicht verbreitet). 1947 entwickelten A. Butt und D. Britten einen Code für die Wort-für-Wort-Übersetzung mit Hilfe eines Computers, ein Jahr später schlug R. Richens eine Regel vor, um Wörter bei der maschinellen Übersetzung in Wortstämme und Endungen aufzuteilen. Diese Jahre waren ganz anders als heute. Dies waren sehr große und teure Maschinen, die ganze Räume einnahmen und für deren Wartung ein großes Personal an Ingenieuren, Bedienern und Programmierern erforderlich war. Grundsätzlich wurden diese Computer verwendet, um mathematische Berechnungen für die Bedürfnisse militärischer Institutionen durchzuführen - die neuen in Mathematik, Physik und Technologie dienten in erster Linie militärischen Angelegenheiten. In der Anfangsphase wurde die Entwicklung des MP aktiv vom Militär unterstützt, wobei sich (unter den Bedingungen des Kalten Krieges) die russisch-englische Richtung in den USA und die anglo-russische Richtung in der UdSSR entwickelte.

Im Januar 1954 fand an der Massachusetts Technical University das „Georgetown-Experiment“ statt – die erste öffentliche Vorführung der Übersetzung aus dem Russischen ins Englische auf der IBM-701-Maschine. Zusammenfassung der Nachricht über den erfolgreichen Abschluss des Experiments, erstellt von D.Yu. Panov, erschienen in RJ "Mathematics", 1954, Nr. 10: "Übersetzung von einer Sprache in eine andere mit einer Maschine: ein Bericht über den ersten erfolgreichen Test."

D. Yu. Panov (damals Direktor des Instituts für wissenschaftliche Information - INI, später VINITI) zog I. K. Belskaya an, der später die Gruppe für maschinelle Übersetzung am Institut für präzise Mathematik und Computertechnik der Akademie der Wissenschaften der UdSSR leitete Arbeit an maschineller Übersetzung. Ende 1955 liegen die ersten Erfahrungen mit der Übersetzung aus dem Englischen ins Russische mit Hilfe der BESM-Maschine vor. Programme für BESM wurden von N.P. Trifonov und L. N. Korolev, dessen Doktorarbeit Methoden zum Erstellen von Wörterbüchern für die maschinelle Übersetzung gewidmet war.

Parallel dazu wurden Arbeiten zur maschinellen Übersetzung in der Abteilung für Angewandte Mathematik des Mathematischen Instituts der Akademie der Wissenschaften der UdSSR (jetzt M. V. Keldysh-Institut für Angewandte Mathematik der Russischen Akademie der Wissenschaften) durchgeführt. Auf Initiative des Mathematikers A.A. Ljapunow. Er beteiligte O.S. Kulagin und ihre Schüler T.D. Wentzel und N.N. Rico. Die Ideen von Lyapunov und Kulagina über die Möglichkeit, mithilfe von Technologie von einer Sprache in eine andere zu übersetzen, wurden in der Zeitschrift Nature, 1955, Nr. 8 veröffentlicht. Ab Ende 1955 war T.N. Moloshnaya, der dann mit der unabhängigen Arbeit am Englisch-Russisch-Übersetzungsalgorithmus begann.

R. Frumkina, der sich damals mit dem Übersetzungsalgorithmus aus dem Spanischen beschäftigte, erinnert sich, dass es in dieser Phase der Arbeit schwierig war, konsequente Schritte zu unternehmen. Viel öfter musste ich der heuristischen Erfahrung folgen – meiner eigenen oder Kollegen.

Gleichzeitig war die erste Generation maschineller Übersetzungssysteme sehr unvollkommen. Alle basierten auf sequentiellen Übersetzungsalgorithmen „Wort für Wort“, „Satz für Satz“ – semantische Zusammenhänge zwischen Wörtern und Sätzen wurden in keiner Weise berücksichtigt. Die Sätze lauten zum Beispiel: John suchte nach seiner Spielzeugkiste.Endlich hat er es gefunden. Die Schachtel war im Stift.Johannes war sehr glücklich. (John suchte seine Spielzeugkiste. Endlich fand er sie. Die Kiste stand im Laufstall. John war sehr glücklich.)“ „Stift“ ist in diesem Zusammenhang kein „Stift“ (Schreibgerät), sondern ein „Laufstall“ ( Laufstall). Das Wissen um Synonyme, Antonyme und bildliche Bedeutungen ist schwer in einen Computer einzugeben. Eine vielversprechende Richtung war die Entwicklung von Computersystemen, die sich auf die Verwendung eines menschlichen Übersetzers konzentrierten.

Im Laufe der Zeit wurden direkte Übersetzungssysteme durch T-Systeme (vom englischen Wort "transfer" - Transformation) ersetzt, bei denen die Übersetzung auf der Ebene syntaktischer Strukturen durchgeführt wurde. Die Algorithmen von T-Systems verwendeten einen Mechanismus, der es ermöglichte, eine syntaktische Struktur gemäß den Grammatikregeln der Sprache des Eingabesatzes aufzubauen (ähnlich wie eine Fremdsprache in der High School gelehrt wird) und dann den Ausgabesatz zu synthetisieren indem die syntaktische Struktur transformiert und die erforderlichen Wörter aus dem Wörterbuch ersetzt werden.

Lyapunov sprach über das Übersetzen, indem er die Bedeutung des übersetzten Textes extrahierte und ihn in einer anderen Sprache präsentierte. Der Ansatz zum Aufbau von Maschinenübersetzungssystemen auf der Grundlage des Erhaltens der semantischen Darstellung des Eingabesatzes durch semantische Analyse und Synthese des Eingabesatzes gemäß der erhaltenen semantischen Darstellung wird immer noch als der vollkommenste angesehen. Solche Systeme nennt man I-Systeme (vom Wort „interlingua“). Gleichzeitig ist die in die späten 50er und frühen 60er Jahre zurückversetzte Aufgabe, sie zu schaffen, trotz der Bemühungen der International Federation of IFIP - der Weltgemeinschaft von Wissenschaftlern auf dem Gebiet der Informationsverarbeitung - bisher nicht vollständig gelöst .

Wissenschaftler dachten darüber nach, wie man Algorithmen für die Arbeit mit Texten formalisiert und baut, welche Wörterbücher in die Maschine eingegeben werden sollten, welche sprachlichen Muster in der maschinellen Übersetzung verwendet werden sollten. Solche Vorstellungen hatte die traditionelle Linguistik nicht – nicht nur semantisch, sondern auch syntaktisch. Zu dieser Zeit gab es für keine Sprache Listen syntaktischer Konstruktionen, die Bedingungen für ihre Kompatibilität und Austauschbarkeit wurden nicht untersucht, die Regeln für die Konstruktion großer Einheiten syntaktischer Struktur aus kleineren Bestandteilen wurden nicht entwickelt.

Die Notwendigkeit, die theoretischen Grundlagen der maschinellen Übersetzung zu schaffen, führte zur Entstehung und Entwicklung der mathematischen Linguistik. Die führende Rolle in dieser Angelegenheit in der UdSSR spielten die Mathematiker A.A. Ljapunow, O.S. Kulagina, V.A. Uspensky, Linguisten V.Yu. Rosenzweig, P.S. Kuznetsov, R.M. Frumkina, A.A. Reformatsky, I.A. Melchuk, V.V. Iwanow. Kulaginas Dissertation war dem Studium der formalen Theorie der Grammatik gewidmet (gleichzeitig mit N. Khomsky in den USA), Kuznetsov stellte die Aufgabe der Axiomatisierung der Linguistik, die auf die Arbeiten von F.F. Fortunatov.

Am 6. Mai 1960 wurde das Dekret des Präsidiums der Akademie der Wissenschaften der UdSSR "Über die Entwicklung struktureller und mathematischer Methoden für das Studium der Sprache" verabschiedet und die entsprechenden Abteilungen am Institut für Linguistik und am Institut für eingerichtet Die russische Sprache. Seit 1960 haben die führenden humanitären Universitäten des Landes - die Philologische Fakultät der Moskauer Staatlichen Universität, Leninrad, die Nowosibirsker Universitäten, das Moskauer Staatliche Institut für Fremdsprachen - damit begonnen, Personal im Bereich der automatischen Textverarbeitung auszubilden.

Gleichzeitig sind Arbeiten zur maschinellen Übersetzung aus dieser Zeit, die als "klassisch" bezeichnet werden, eher von theoretischem als von praktischem Interesse. Kostengünstige maschinelle Übersetzungssysteme wurden erst in den achtziger Jahren des letzten Jahrhunderts entwickelt. Darauf werde ich später in Abschnitt 2.1, Maschinelle Übersetzung, eingehen.

Die 1960er - 70er Jahre umfassen tiefgreifende theoretische Entwicklungen unter Verwendung der Methoden der Mengenlehre und der mathematischen Logik, wie z. B. der Feldtheorie und der Fuzzy-Mengentheorie.

Der Autor der Feldtheorie in der Linguistik war der sowjetische Dichter, Übersetzer und Linguist V.G. Admoni. Er entwickelte seine Theorie zunächst auf der Grundlage der deutschen Sprache. Für Admoni bezeichnet der Begriff „Feld“ eine willkürliche, nicht leere Menge sprachlicher Elemente (z. B. „lexikalisches Feld“, „semantisches Feld“).

Die Struktur des Feldes ist heterogen: Es besteht aus einem Kern, dessen Elemente einen vollständigen Satz von Merkmalen haben, die einen Satz definieren, und einer Peripherie, deren Elemente beide Merkmale eines gegebenen Satzes haben können (nicht alle). und benachbarte. Ich werde ein Beispiel geben, das diese Aussage illustriert: Zum Beispiel ist im Englischen das Feld der zusammengesetzten Wörter („day-dream“ - „dream“ schwer vom Feld der Phrasen („tear gas“ – „tear gas“) zu trennen. .

Die oben bereits erwähnte Theorie der Fuzzy-Mengen ist eng mit der Feldtheorie verwandt. In der UdSSR haben die Linguisten V.G. Admoni, I.P. Ivanova, G.G. Pochentsov jedoch war sein Vorfahre der amerikanische Mathematiker L. Zadeh, der 1965 den Artikel „Fuzzy Logic“ veröffentlichte. Zade begründete die Theorie der Fuzzy-Mengen mathematisch und betrachtete sie auf der Grundlage von sprachlichem Material.

In dieser Theorie sprechen wir nicht so sehr über die Zugehörigkeit von Elementen zu einer gegebenen Menge (Aa), sondern über den Grad dieser Zugehörigkeit (Aa), da periphere Elemente mehr oder weniger zu mehreren Feldern gehören können. Zade (Lofti-zade) stammte aus Aserbaidschan, bis zum Alter von 12 Jahren hatte er die Praxis, in vier Sprachen zu kommunizieren – Aserbaidschanisch, Russisch, Englisch und Persisch – und benutzte drei verschiedene Alphabete: Kyrillisch, Latein, Arabisch. Wenn ein Wissenschaftler gefragt wird, was die Theorie der Fuzzy-Mengen und die Linguistik gemeinsam haben, verneint er diesen Zusammenhang nicht, stellt aber klar: „Ich bin mir nicht sicher, ob das Studium dieser Sprachen einen großen Einfluss auf mein Denken hatte. Wenn dem so war, dann nur unbewusst. In seiner Jugend besuchte Zadeh eine presbyterianische Schule in Teheran und wanderte nach dem Zweiten Weltkrieg in die Vereinigten Staaten aus. „Die Frage ist nicht, ob ich Amerikaner, Russe, Aserbaidschaner oder sonst jemand bin“, sagte er in einem der Gespräche, „ich bin geprägt von all diesen Kulturen und Völkern und fühle mich zwischen allen recht wohl.“ In diesen Worten steckt so etwas wie das, was die Theorie der Fuzzy-Mengen charakterisiert – eine Abkehr von eindeutigen Definitionen und scharfen Kategorien.

In unserem Land wurden in den 70er Jahren die Werke westlicher Linguisten des 20. Jahrhunderts übersetzt und studiert. I.A. Melchuk übersetzte die Werke von N. Chomsky ins Russische. AUF DER. Slyusareva verbindet in ihrem Buch „The Theory of F. de Saussure in the Light of Modern Linguistics“ die Postulate von Saussures Lehre mit den aktuellen Problemen der Linguistik der 70er Jahre. Es gibt eine Tendenz zur weiteren Mathematisierung der Linguistik. Die führenden inländischen Universitäten bilden Personal in der Fachrichtung „Mathematische (theoretische, angewandte) Linguistik“ aus. Gleichzeitig vollzieht sich im Westen ein sprunghafter Entwicklungssprung in der Computertechnik, der immer neue sprachliche Grundlagen erfordert.

In den 1980er Jahren wurde Professor des Instituts für Orientalistik der Akademie der Wissenschaften Yu.K. Während Lekomtsev die Sprache der Linguistik durch die Analyse von Schemata, Tabellen und anderen Arten von Notationen analysiert, die in linguistischen Beschreibungen verwendet werden, betrachtet er mathematische Systeme als geeignet für diese Zwecke (hauptsächlich Systeme der Matrixalgebra).

So kam es im gesamten 20. Jahrhundert zu einer Konvergenz der exakten und der Geisteswissenschaften. Das Zusammenspiel von Mathematik und Linguistik fand zunehmend praktische Anwendung. Mehr dazu im nächsten Kapitel.

Kapitel 2. Ausgewählte Beispiele für den Einsatz von Mathematik in der Linguistik

2.1 Maschinelle Übersetzung

Die Idee, mit Hilfe eines universellen Mechanismus von einer Sprache in eine andere zu übersetzen, entstand mehrere Jahrhunderte, bevor die ersten Entwicklungen auf diesem Gebiet begannen – bereits 1649 schlug Rene Descartes die Idee einer Sprache vor, in der die äquivalenten Ideen von verschiedene Sprachen würden durch ein Symbol ausgedrückt. Die ersten Versuche zur Umsetzung dieser Idee in den 1930er-40er Jahren, der Beginn theoretischer Entwicklungen in der Mitte des Jahrhunderts, die Verbesserung von Übersetzungssystemen mit Hilfe von Technologie in den 1970er-80er Jahren, die rasante Entwicklung der Übersetzungstechnologie in den letzten Jahrzehnt - das sind die Etappen in der Entwicklung der maschinellen Übersetzung als Industrie. Aus den Arbeiten zur maschinellen Übersetzung ist die Computerlinguistik als Wissenschaft gewachsen.

Mit der Entwicklung der Computertechnik in den späten 70er und frühen 80er Jahren setzten sich Forscher realistischere und kostengünstigere Ziele – die Maschine wurde nicht zur Konkurrenz (wie bisher angenommen), sondern zum Assistenten eines menschlichen Übersetzers. Die maschinelle Übersetzung dient nicht mehr ausschließlich militärischen Aufgaben (alle sowjetischen und amerikanischen Erfindungen und Forschungen, die sich hauptsächlich auf Russisch und Englisch konzentrierten, trugen auf die eine oder andere Weise zum Kalten Krieg bei). 1978 wurden Wörter in natürlicher Sprache über das Arpa-Verbundnetz übertragen, und sechs Jahre später erschienen die ersten Mikrocomputer-Übersetzungsprogramme in den Vereinigten Staaten.

In den 70er Jahren kauft die Kommission der Europäischen Gemeinschaften die Englisch-Französisch-Version des Computerübersetzers Systran und bestellt auch die Französisch-Englisch- und Italienisch-Englisch-Versionen sowie das von den US-Streitkräften verwendete Übersetzungssystem Russisch-Englisch. So wurde der Grundstein für das Projekt EUROTRA gelegt.

Über die Wiederbelebung der maschinellen Übersetzung in den 70-80er Jahren. Die folgenden Tatsachen bezeugen: Die Kommission der Europäischen Gemeinschaften (CEC) kauft die englisch-französische Version von Systran sowie das Übersetzungssystem vom Russischen ins Englische (letzteres wurde nach dem ALPAC-Bericht entwickelt und von der US Air weiter verwendet Force und NASA); Darüber hinaus ordnet die CEC die Entwicklung der französisch-englischen und italienisch-englischen Versionen an. Gleichzeitig gibt es eine rasche Ausweitung der maschinellen Übersetzungsaktivitäten in Japan; in den USA ordnet die Panamerikanische Gesundheitsorganisation (PAHO) die Entwicklung einer spanisch-englischen Richtung (SPANAM-System) an; Die US Air Force finanziert die Entwicklung eines maschinellen Übersetzungssystems am Linguistic Research Center der University of Texas in Austin; Die TAUM-Gruppe in Kanada macht bemerkenswerte Fortschritte bei der Entwicklung ihres METEO-Systems (meteorological translation). Eine Reihe von Projekten begann in den 70er und 80er Jahren. anschließend zu vollwertigen kommerziellen Systemen weiterentwickelt.

Zwischen 1978 und 1993 wurden in den USA 20 Millionen Dollar, in Europa 70 Millionen und in Japan 200 Millionen Dollar für die Forschung auf dem Gebiet der maschinellen Übersetzung ausgegeben.

Eine der neuen Entwicklungen ist die TM-Technologie (Translation Memory), die nach dem Akkumulationsprinzip arbeitet: Während des Übersetzungsprozesses werden das ursprüngliche Segment (Satz) und seine Übersetzung gespeichert, wodurch eine sprachliche Datenbank entsteht; Wenn im neu übersetzten Text ein identisches oder ähnliches Segment gefunden wird, wird es zusammen mit der Übersetzung und einer Angabe der prozentualen Übereinstimmung angezeigt. Der Übersetzer trifft dann eine Entscheidung (die Übersetzung zu bearbeiten, abzulehnen oder zu akzeptieren), deren Ergebnis vom System gespeichert wird, sodass derselbe Satz nicht zweimal übersetzt werden muss. Ein gut bekanntes kommerzielles System, das auf der TM-Technologie basiert, wird derzeit von dem TRADOS-System (gegründet 1984) entwickelt.

Derzeit entwickeln mehrere Dutzend Unternehmen kommerzielle maschinelle Übersetzungssysteme, darunter: Systran, IBM, L&H (Lernout & Hauspie), Transparent Language, Cross Language, Trident Software, Atril, Trados, Caterpillar Co., LingoWare; Ata-Software; Linguistica b.v. ua Jetzt können Sie die Dienste automatischer Übersetzer direkt im Web nutzen: alphaWorks; der Online-Übersetzer von PROMT, LogoMedia.net, der Übersetzungsdienst Babel Fish von AltaVista; InfiniT.com; Übersetzen des Internets.

Kommerziell wirksame Übersetzungssysteme erschienen in der zweiten Hälfte der 80er Jahre auch in unserem Land. Das eigentliche Konzept der maschinellen Übersetzung hat sich erweitert (es umfasste „die Schaffung einer Reihe automatischer und automatisierter Systeme und Geräte, die den gesamten Übersetzungszyklus oder einzelne Aufgaben im Dialog mit einer Person automatisch oder halbautomatisch ausführen“) und Die staatlichen Mittel für die Entwicklung dieser Industrie sind gestiegen.

Russisch, Englisch, Deutsch, Französisch und Japanisch wurden zu den Hauptsprachen der inländischen Übersetzungssysteme. Das All-Union Translation Center (VTsP) entwickelte ein System zur Übersetzung aus dem Englischen und Deutschen ins Russische auf einem Computer ES-1035-ANRAP. Es bestand aus drei Wörterbüchern – Eingabe Englisch und Deutsch und Ausgabe Russisch – unter einer einzigen Software. Es gab mehrere austauschbare Fachwörterbücher - für Computertechnik, Programmierung, Funkelektronik, Maschinenbau, Landwirtschaft, Metallurgie. Das System konnte in zwei Modi arbeiten - automatisch und interaktiv, wenn der Bildschirm den Ausgangstext und die Übersetzung pro Satz anzeigte, die eine Person bearbeiten konnte. Die Übersetzungsgeschwindigkeit von Text in ANRAP (vom Beginn der Eingabe bis zum Ende des Drucks) betrug ungefähr 100 Seiten pro Stunde.

1989 wurde eine Familie kommerzieller Übersetzer vom Typ SPRINT gegründet, die mit Russisch, Englisch, Deutsch und Japanisch arbeiteten. Ihr Hauptvorteil war ihre Kompatibilität mit dem IBM-PC - so erreichten einheimische maschinelle Übersetzungssysteme das internationale Qualitätsniveau. Gleichzeitig wird ein System zur maschinellen Übersetzung aus dem Französischen ins Russische FRAP entwickelt, das 4 Stufen der Textanalyse umfasst: graphematisch, morphologisch, syntaktisch und semantisch. In LGPI ihnen. Herzen wurde an einem viersprachigen (Englisch, Französisch, Spanisch, Russisch) SILOD-MP-System gearbeitet (Englisch-Russische und Französisch-Russische Wörterbücher wurden im Industriemodus verwendet.

Für die Fachübersetzung von Texten zur Elektrotechnik existierte das ETAP-2-System. Die Analyse des darin eingegebenen Textes wurde auf zwei Ebenen durchgeführt - morphologisch und syntaktisch. Das ETAP-2-Wörterbuch enthielt etwa 4.000 Einträge; die Phase der Texttransformation - etwa 1000 Regeln (96 allgemeine, 342 private, der Rest sind Wörterbuch). All dies sorgte für eine zufriedenstellende Übersetzungsqualität (z. B. wurde der Titel des Patents "Optische Phasengitteranordnung und Kopplungsvorrichtung mit einer solchen Anordnung" mit "Eine optische Phasengittervorrichtung und eine Verbindungsvorrichtung mit einer solchen Vorrichtung" übersetzt - trotz der Tautologie, die Bedeutung bleibt erhalten).

Am Minsker Pädagogischen Institut für Fremdsprachen wurde auf der Grundlage des englisch-russischen Wörterbuchs der Wortformen und Phrasen ein System zur maschinellen Übersetzung von Titeln erfunden, am Institut für Orientalistik der Akademie der Wissenschaften ein System zum Übersetzen vom Japanischen ins Russische. Der erste automatische Vokabular- und Terminologiedienst (SLOTHERM) für Computer und Programmierung, der am Moskauer Forschungsinstitut für Automatisierungssysteme erstellt wurde, enthielt ungefähr 20.000 Begriffe in einem erklärenden Wörterbuch und speziellen Wörterbüchern für die Sprachforschung.

Maschinelle Übersetzungssysteme wurden allmählich nicht nur für ihren vorgesehenen Zweck, sondern auch als wichtiger Bestandteil automatischer Lernsysteme (zum Unterrichten von Übersetzungen, zur Überprüfung von Rechtschreibung und Grammatik) eingesetzt.

Die 90er Jahre brachten die rasante Entwicklung des PC-Marktes (vom Desktop zum Pocket) und der Informationstechnologie, die weite Verbreitung des Internets (das immer internationaler und mehrsprachig wird). All dies machte die Weiterentwicklung automatisierter Übersetzungssysteme gefragt. Seit Anfang der 1990er Jahre Auch inländische Entwickler dringen in den PC-Systemmarkt ein.

Im Juli 1990 wurde auf dem PC-Forum in Moskau das erste kommerzielle maschinelle Übersetzungssystem in Russland namens PROMT (PROgrammer's Machine Translation) vorgestellt 1991 ZAO [!!! wurde durch eine nicht-öffentliche Aktiengesellschaft ersetzt] "Project MT", und bereits 1992 gewann die Firma PROMT den NASA-Wettbewerb für die Lieferung von MP-Systemen (PROMT war die einzige nicht-amerikanische Firma in diesem Wettbewerb). ganze Familie von Systemen unter dem neuen Namen STYLUS zum Übersetzen aus dem Englischen, Deutschen, Französischen, Italienischen und Spanischen ins Russische und aus dem Russischen ins Englische, und 1993 wurde auf der Grundlage von STYLUS das weltweit erste maschinelle Übersetzungssystem für Windows entwickelt: STYLUS 2.0 für Windows 3.X/95/NT wurde veröffentlicht, und 1995-1996 wurde die dritte Generation von maschinellen Übersetzungssystemen, vollständig 32-Bit-STYLUS 3.0 für Windows 95/NT, eingeführt, gleichzeitig die Entwicklung eines vollständig neu, die weltweit ersten maschinellen Übersetzungssysteme Russisch-Deutsch und Russisch-Französisch.

1997 wurde mit dem französischen Unternehmen Softissimo eine Vereinbarung über die Erstellung von Übersetzungssystemen vom Französischen ins Deutsche und Englische und umgekehrt unterzeichnet, und im Dezember dieses Jahres wurde das weltweit erste Deutsch-Französisch-Übersetzungssystem veröffentlicht. Im selben Jahr veröffentlichte die Firma PROMT ein System, das mit der Gigant-Technologie implementiert wurde und mehrere Sprachrichtungen in einer Shell sowie einen speziellen Übersetzer für die Arbeit im Internet WebTranSite unterstützt.

1998 wurde eine ganze Reihe von Programmen unter dem neuen Namen PROMT 98 veröffentlicht. Ein Jahr später veröffentlichte PROMT zwei neue Produkte: ein einzigartiges Softwarepaket für die Arbeit im Internet - PROMT Internet - und einen Übersetzer für Firmen-Mail-Systeme - PROMT Mail Übersetzer. Im November 1999 wurde PROMT vom französischen Magazin PC Expert als bestes maschinelles Übersetzungssystem getestet und übertraf seine Konkurrenten um 30 Prozent. Auch für Firmenkunden wurden spezielle Serverlösungen entwickelt – der Corporate Translation Server PROMT Translation Server (PTS) und die Internetlösung PROMT Internet Translation Server (PITS). Im Jahr 2000 aktualisierte PROMT seine gesamte Softwareproduktlinie durch die Veröffentlichung einer neuen Generation von MÜ-Systemen: PROMT Translation Office 2000, PROMT Internet 2000 und Magic Gooddy 2000.

Die Online-Übersetzung mit Unterstützung des PROMT-Systems wird auf einer Reihe von in- und ausländischen Websites verwendet: PROMTs Online-Übersetzer, InfiniT.com, Translate.Ru, Lycos usw. sowie in Institutionen mit unterschiedlichen Profilen für die Übersetzung von Geschäftsdokumenten, Artikel und Briefe (es gibt Übersetzungssysteme, die direkt in Outlook Express und andere E-Mail-Clients integriert sind).

Heutzutage entstehen neue maschinelle Übersetzungstechnologien, die auf der Verwendung von Systemen der künstlichen Intelligenz und statistischen Methoden basieren. Über letzteres - im nächsten Abschnitt.

2.2 Zusatzische Methoden beim Sprachenlernen

In der modernen Linguistik wird dem Studium sprachlicher Phänomene mit den Methoden der quantitativen Mathematik große Aufmerksamkeit geschenkt. Quantitative Daten helfen oft, die untersuchten Phänomene, ihren Platz und ihre Rolle im System verwandter Phänomene besser zu verstehen. Die Antwort auf die Frage „wie viel“ hilft bei der Beantwortung der Fragen „was“, „wie“, „warum“ – das ist das heuristische Potenzial eines quantitativen Merkmals.

Statistische Methoden spielen bei der Entwicklung maschineller Übersetzungssysteme eine bedeutende Rolle (siehe Abschnitt 2.1). Beim statistischen Ansatz wird das Übersetzungsproblem in Form eines verrauschten Kanals betrachtet. Stellen Sie sich vor, wir müssen einen Satz aus dem Englischen ins Russische übersetzen. Das Noisy-Channel-Prinzip bietet uns folgende Erklärung für die Beziehung zwischen einem englischen und einem russischen Satz: Ein englischer Satz ist nichts anderes als ein durch irgendein Rauschen verzerrter russischer Satz. Um den ursprünglichen russischen Satz wiederherzustellen, müssen wir wissen, was die Leute normalerweise auf Russisch sagen und wie russische Sätze ins Englische verzerrt werden. Die Übersetzung wird durchgeführt, indem nach einem solchen russischen Satz gesucht wird, der die Produkte der unbedingten Wahrscheinlichkeit des russischen Satzes und der Wahrscheinlichkeit des englischen Satzes (Original) bei gegebenem russischen Satz maximiert. Nach dem Satz von Bayes ist dieser russische Satz die wahrscheinlichste Übersetzung aus dem Englischen:

wobei e der Übersetzungssatz und f der Originalsatz ist

Wir brauchen also ein Quellenmodell und ein Kanalmodell oder ein Sprachmodell und ein Übersetzungsmodell. Das Sprachmodell muss jedem Satz in der Zielsprache (in unserem Fall Russisch) und das Übersetzungsmodell dem ursprünglichen Satz einen Wahrscheinlichkeitswert zuweisen. (siehe Tabelle 1)

Im Allgemeinen arbeitet ein maschinelles Übersetzungssystem in zwei Modi:

1. Systemtraining: Ein Trainingskorpus von parallelen Texten wird genommen, und unter Verwendung von linearer Programmierung werden solche Werte von Ügesucht, die die Wahrscheinlichkeit maximieren, dass (zum Beispiel) der russische Teil des Korpus mit dem verfügbaren Englisch übereinstimmt zum ausgewählten Übersetzungsmodell. Ein Modell der russischen Sprache baut auf dem russischen Teil desselben Korpus auf.

2. Ausbeutung: Basierend auf den für einen unbekannten englischen Satz erhaltenen Daten wird ein Russisch gesucht, der das Produkt der Wahrscheinlichkeiten, die durch das Sprachmodell und das Übersetzungsmodell zugewiesen werden, maximiert. Das für eine solche Suche verwendete Programm wird Decoder genannt.

Das einfachste statistische Übersetzungsmodell ist das wörtliche Übersetzungsmodell. In diesem Modell wird davon ausgegangen, dass es zum Übersetzen eines Satzes von einer Sprache in eine andere ausreicht, alle Wörter zu übersetzen (einen „Wortbeutel“ zu erstellen), und das Modell wird ihre Platzierung in der richtigen Reihenfolge bereitstellen P(a, f | e) zu P(a | e , f), d.h. Wahrscheinlichkeiten einer gegebenen Ausrichtung bei einem Satzpaar, jede Wahrscheinlichkeit P(a, f | e) wird durch die Summe der Wahrscheinlichkeiten aller Ausrichtungen eines gegebenen Satzpaares normalisiert:

Die Implementierung des zum Trainieren von Modell Nr. 1 verwendeten Viterbi-Algorithmus ist wie folgt:

1. Die gesamte Tabelle der Übersetzungskwird mit den gleichen Werten gefüllt.

2. Für alle möglichen Varianten paarweiser Wortverbindungen wird die Wahrscheinlichkeit P(a, f | e) berechnet:

3. Die Werte von P(a, f | e) werden normalisiert, um die Werte von P(a | e, f) zu erhalten.

4. Die Häufigkeit jedes Übersetzungspaares wird berechnet, gewichtet mit der Wahrscheinlichkeit jeder Ausrichtungsoption.

5. Die resultierenden gewichteten Häufigkeiten werden normalisiert und bilden eine neue Tabelle von Übersetzungsübereinstimmungswahrscheinlichkeiten

6. Der Algorithmus wird ab Schritt 2 wiederholt.

Betrachten Sie als Beispiel das Training eines ähnlichen Modells auf einem Korpus aus zwei Satzpaaren (Abb. 2):

Weißes Haus

Nach einer großen Anzahl von Iterationen erhalten wir eine Tabelle (Tabelle 2), die zeigt, dass die Übersetzung mit hoher Genauigkeit durchgeführt wird.

Auch statistische Methoden werden häufig beim Studium des Vokabulars, der Morphologie, der Syntax und des Stils verwendet. Wissenschaftler der Perm State University führten eine Studie durch, die auf der Behauptung basierte, dass stereotype Phrasen ein wichtiges „Baumaterial“ des Textes sind. Diese Phrasen bestehen aus "nuklearen" wiederholten Wörtern und abhängigen Wortbezeichnern und haben eine ausgeprägte stilistische Färbung.

Im wissenschaftlichen Stil können "nukleare" Wörter genannt werden: Forschung, Studie, Aufgabe, Problem, Frage, Phänomen, Tatsache, Beobachtung, Analyse usw. Im Journalismus werden andere Wörter „nuklear“ sein, die speziell für den Text der Zeitung einen erhöhten Wert haben: Zeit, Person, Macht, Geschäft, Handlung, Gesetz, Leben, Geschichte, Ort usw. (insgesamt 29)

Von besonderem Interesse für Linguisten ist auch die fachliche Differenzierung der Landessprache, die Originalität des Wortschatzgebrauchs und der Grammatik je nach Berufsart. Es ist bekannt, dass Autofahrer in der Berufssprache die Form w verwenden Über fer, sagen die Mediziner k Über Club statt Cocktail Ju sh - solche Beispiele können gegeben werden. Die Aufgabe der Statistik besteht darin, die Variabilität der Aussprache und die Änderung der Sprachnorm zu verfolgen.

Berufliche Unterschiede führen nicht nur zu grammatikalischen, sondern auch zu lexikalischen Unterschieden. Benannt nach der Yakut State University M.K. Ammosov wurden 50 Fragebögen mit den häufigsten Reaktionen auf bestimmte Wörter bei Ärzten und Bauarbeitern analysiert (Tabelle 3).

Bauherren

Menschlich

Patient (10), Persönlichkeit (5)

Mann (5)

gut

Hilfe (8), Hilfe (7)

böse (16)

ein Leben

Tod (10)

schön (5)

Tod

Leiche (8)

Leben (6)

das Feuer

erhitzen (8), brennen (6)

Feuer (7)

Finger

Hand (14), Panaritium (5)

groß (7), Index (6)

Augen

Sehvermögen (6), Pupille, Augenarzt (je 5)

braun (10), groß (6)

Kopf

Verstand (14), Verstand (5)

groß (9), schlau (8), schlau (6)

verlieren

Bewusstsein, Leben (je 4)

Geld (5), finden (4)

Es ist festzustellen, dass Ärzte häufiger als Bauherren Assoziationen zu ihrer beruflichen Tätigkeit angeben, da die im Fragebogen angegebenen Reizwörter mehr mit ihrem Beruf zu tun haben als mit dem Beruf eines Baumeisters.

Statistische Regelmäßigkeiten in einer Sprache werden verwendet, um Häufigkeitswörterbücher zu erstellen - Wörterbücher, die numerische Merkmale der Häufigkeit von Wörtern (Wortformen, Phrasen) einer beliebigen Sprache angeben - der Sprache des Schriftstellers, eines beliebigen Werks usw. Normalerweise die Häufigkeit des Auftretens von ein Wort wird als Merkmal für die Häufigkeit des Vorkommens eines Wortes im Text eines bestimmten Bandes verwendet

Das Modell der Sprachwahrnehmung ist ohne ein Wörterbuch als wesentlichen Bestandteil nicht möglich. Bei der Wahrnehmung von Sprache ist die grundlegende Operationseinheit das Wort. Daraus folgt insbesondere, dass jedes Wort des wahrgenommenen Textes mit der entsprechenden Einheit des internen Wortschatzes des Zuhörers (oder Lesers) identifiziert werden muss. Es ist naheliegend anzunehmen, dass die Suche von vornherein auf einige Subdomänen des Wörterbuchs beschränkt ist. Nach den meisten modernen Theorien der Sprachwahrnehmung liefert die tatsächliche phonetische Analyse des klingenden Textes in einem typischen Fall nur einige Teilinformationen über das mögliche phonologische Aussehen des Wortes, und diese Art von Informationen entspricht nicht einem, sondern einer bestimmten VIELZAHL von Wörtern des Wörterbuchs; Daher treten zwei Probleme auf:

(a) Auswahl des geeigneten Satzes gemäß bestimmten Parametern;

(b) innerhalb der Grenzen des umrissenen Satzes (wenn er angemessen zugeordnet ist) alle Wörter zu "eliminieren", mit Ausnahme des einzigen, das dem gegebenen Wort des erkannten Textes am besten entspricht. Eine der "Dropout"-Strategien besteht darin, niederfrequente Wörter auszuschließen. Daraus folgt, dass das Vokabular für die Sprachwahrnehmung ein Frequenzlexikon ist. Die Erstellung einer Computerversion des Frequenzwörterbuchs der russischen Sprache ist die anfängliche Aufgabe des vorgestellten Projekts.

Basierend auf dem Material der russischen Sprache gibt es 5 Häufigkeitswörterbücher (ohne Zweigwörterbücher). Halten wir nur einige allgemeine Mängel der bestehenden Wörterbücher fest.

Alle bekannten Frequenzwörterbücher der russischen Sprache basieren auf der Verarbeitung von Arrays geschriebener (gedruckter) Texte. Auch aus diesem Grund wird, wenn die Identität eines Wortes weitgehend auf formalen, grafischen Zufällen beruht, die Semantik nicht ausreichend berücksichtigt. Dadurch werden auch die Frequenzcharakteristiken verschoben, verzerrt; Wenn beispielsweise der Ersteller des Häufigkeitswörterbuchs Wörter aus der Kombination "einander" in die allgemeine Statistik der Verwendung des Wortes "Freund" aufnimmt, ist dies kaum gerechtfertigt: Angesichts der Semantik müssen wir zugeben, dass dies bereits der Fall ist verschiedene Wörter, oder besser gesagt, dass eine unabhängige Wörterbucheinheit nur die Kombination als Ganzes ist.

Außerdem werden in allen vorhandenen Wörterbüchern Wörter nur in ihren Grundformen platziert: Substantive im Singular, Nominativ, Verben im Infinitiv usw. Einige der Wörterbücher geben Auskunft über die Häufigkeit von Wortformen, tun dies aber meist nicht konsequent genug, nicht erschöpfend. Die Häufigkeiten verschiedener Wortformen desselben Wortes stimmen offensichtlich nicht überein. Der Entwickler eines Sprachwahrnehmungsmodells muss berücksichtigen, dass bei einem realen Wahrnehmungsprozess gerade eine bestimmte Wortform in den Text „eingetaucht“ wird, der erkannt werden soll: basierend auf der Analyse des Anfangsteils des Exponenten der Wortform wird ein Satz von Wörtern mit identischem Anfang gebildet, und der Anfangsabschnitt der Wortform ist nicht notwendigerweise identisch mit dem Anfangsabschnitt der Wörterbuchform. Es ist die Wortform, die eine bestimmte rhythmische Struktur hat, die auch ein äußerst wichtiger Parameter für die wahrnehmungsbezogene Auswahl von Wörtern ist. Schließlich werden in der endgültigen Darstellung der erkannten Äußerung die Wörter wiederum durch die entsprechenden Wortformen dargestellt.

Es gibt viele Arbeiten, die die Bedeutung der Frequenz im Prozess der Sprachwahrnehmung demonstrieren. Aber uns sind keine Werke bekannt, in denen die Häufigkeit von Wortformen verwendet würde – im Gegenteil, alle Autoren ignorieren praktisch die Häufigkeit einzelner Wortformen und beziehen sich ausschließlich auf Lexeme. Wenn die von ihnen erzielten Ergebnisse nicht als Artefakte angesehen werden, muss man davon ausgehen, dass der Muttersprachler irgendwie Zugang zu Informationen über das Verhältnis der Häufigkeiten von Wortformen und Wörterbuchformen hat, also tatsächlich Lexeme. Außerdem lässt sich ein solcher Übergang von einer Wortform zu einem Lexem natürlich nicht durch natürliches Wissen um das entsprechende Paradigma erklären, da vor der endgültigen Identifizierung des Wortes Häufigkeitsinformationen verwendet werden müssen, sonst verliert es einfach seine Bedeutung.

Gemäß den primären statistischen Merkmalen kann unabhängig von der Textart mit einem bestimmten relativen Fehler derjenige Teil des Vokabulars bestimmt werden, der Wörter mit hoher Häufigkeit enthält. Durch Einführen einer schrittweisen Ordnung in das Wörterbuch ist es auch möglich, eine Reihe von Wörterbüchern zu erhalten, die die ersten 100, 1000, 5000 usw. häufiger Wörter abdecken. Die statistischen Merkmale des Wörterbuchs sind im Zusammenhang mit der semantischen Analyse des Wortschatzes von Interesse. Die Untersuchung subjektideologischer Gruppen und semantischer Felder zeigt, dass lexikalische Assoziationen durch semantische Verbindungen unterstützt werden, die sich um Lexeme mit der häufigsten Bedeutung konzentrieren. Die Beschreibung von Bedeutungen innerhalb des lexiko-semantischen Feldes kann durchgeführt werden, indem Wörter mit den abstraktesten Bedeutungslexemen identifiziert werden. Offensichtlich bilden "leere" (aus Sicht der Nominativpotenzen) Wörterbucheinheiten eine statistisch homogene Schicht.

Nicht weniger wertvoll sind Vokabeln für einzelne Genres. Die Untersuchung des Ähnlichkeitsmaßes und der Art statistischer Verteilungen wird interessante Informationen über die qualitative Schichtung des Vokabulars in Abhängigkeit von der Sphäre des Sprachgebrauchs liefern.

Die Zusammenstellung großer Frequenzwörterbücher erfordert den Einsatz von Computertechnologie. Als Experiment zur maschinellen Verarbeitung von Wörterbüchern für unterschiedliche Texte ist die Einführung einer Teilmechanisierung und -automatisierung in den Prozess der Wörterbuchbearbeitung interessant. Ein solches Wörterbuch erfordert ein strengeres System zum Verarbeiten und Sammeln von Vokabularmaterial. Im Miniaturformat ist dies ein Informationsabrufsystem, das Informationen zu verschiedenen Aspekten des Textes und des Vokabulars bereitstellen kann. Einige grundlegende Anforderungen an dieses System sind von Anfang an geplant: die Gesamtzahl der Bestandswörter, die statistischen Merkmale eines einzelnen Wortes und ganzer Wörterbücher, die Anordnung von häufigen und seltenen Zonen des Wörterbuchs usw. Die Maschinenkartei ermöglicht es Ihnen zum automatischen Erstellen von Reverse-Wörterbüchern für einzelne Genres und Quellen. Viele andere nützliche statistische Informationen über die Sprache werden aus der angesammelten Informationsreihe extrahiert. Das Computerfrequenzwörterbuch schafft eine experimentelle Grundlage für den Übergang zu einer weitergehenden Automatisierung der Wortschatzarbeit.

Die statistischen Daten von Häufigkeitswörterbüchern können auch häufig zur Lösung anderer sprachlicher Probleme verwendet werden - beispielsweise zur Analyse und Bestimmung der aktiven Mittel der Wortbildung der modernen russischen Sprache, zur Lösung von Problemen der Verbesserung von Grafik und Rechtschreibung, die mit der Aufnahme zusammenhängen Berücksichtigung statistischer Informationen über den Wortschatz (bei all dem ist es wichtig, probabilistische Merkmale von Graphemkombinationen, Arten von in Wörtern realisierten Buchstabenkombinationen zu berücksichtigen), praktische Transkription und Transliteration. Die statistischen Parameter des Wörterbuchs werden auch bei der Lösung von Problemen der automatischen Eingabe, Erkennung und des automatischen Lesens von wörtlichem Text nützlich sein.

Moderne erklärende Wörterbücher und Grammatiken der russischen Sprache basieren hauptsächlich auf literarischen und künstlerischen Texten. Es gibt Frequenzwörterbücher der Sprache von A.S. Puschkin, A.S. Griboedova, F.M. Dostojewski, V. V. Vysotsky und viele andere Autoren. Am Institut für Geschichte und Theorie der Literatur des Staates Smolensk. Die Pädagogische Hochschule arbeitet seit einigen Jahren an der Erstellung von Häufigkeitswörterbüchern zu poetischen und prosaischen Texten. Für diese Studie wurden Häufigkeitswörterbücher aller Texte von Puschkin und zwei weiteren Dichtern des goldenen Zeitalters - "Wehe aus Wit" von Griboyedov und alle Gedichte von Lermontov - ausgewählt; Pasternak und fünf weitere Dichter des Silberzeitalters - Balmont 1894-1903, "Poems about the Beautiful Lady" von Blok, "Stone" von Mandelstam, "Pillar of Fire" von Gumilyov, "Anno Domini MCMXXI" von Akhmatova und "Sisters of My Life“ von Pasternak und vier weitere Dichter der Eisenzeit – „Poems by Yuri Zhivago“, „When it clears“, der gesamte Textkorpus von M. Petrovs, „The road is far away“, „Windscreen“, "Abschied vom Schnee" und "Hufeisen" von Mezhirov, "Antimirov" von Voznesensky und "Snowballs » Rylenkova.

Es sei darauf hingewiesen, dass diese Wörterbücher unterschiedlicher Natur sind: Einige stellen das Vokabular eines dramatischen Werks dar, andere - Textbücher oder mehrere Bücher oder den gesamten Korpus der Gedichte des Dichters. Die in diesem Papier vorgestellten Ergebnisse der Analyse sind mit Vorsicht zu genießen, sie können nicht als absolut angesehen werden. Gleichzeitig kann mit Hilfe spezieller Maßnahmen der Unterschied in der ontologischen Natur von Texten bis zu einem gewissen Grad reduziert werden.

In den letzten Jahren ist der Gegensatz zwischen Umgangssprache und Buchsprache immer deutlicher geworden. Besonders heftig wird diese Frage unter Methodikern diskutiert, die eine Hinwendung zur gesprochenen Sprache im Unterricht fordern. Gleichzeitig bleibt die Besonderheit der Umgangssprache noch ungeklärt.

Wörterbücher wurden durch Erstellen einer Benutzeranwendung in der Umgebung des Büroprogramms EXCEL97 verarbeitet. Die Anwendung enthält vier Arbeitsblätter des EXCEL-Buches - "Titelblatt", Blatt "Wörterbücher" mit Anfangsdaten, "Entfernungen" und "Entfernungen" mit Ergebnissen sowie eine Reihe von Makros.

Auf dem Blatt „Wörterbücher“ werden die ersten Informationen eingetragen. Wörterbücher der untersuchten Texte werden in EXCEL-Zellen geschrieben, die letzte Spalte S wird aus den erhaltenen Ergebnissen gebildet und entspricht der Anzahl der in anderen Wörterbüchern gefundenen Wörter. Die Tabellen „Nähe“ und „Abstände“ enthalten berechnete Maße für Nähe M, Korrelation R und Abstand D.

Anwendungsmakros sind ereignisbasierte Programmierprozeduren, die in Visual Basic for Application (VBA) geschrieben sind. Prozeduren basieren auf VBA-Bibliotheksobjekten und ihren Verarbeitungsmethoden. Für Operationen mit Arbeitsblättern der Anwendung werden also das Schlüsselobjekt Worksheet (Arbeitsblatt) und die entsprechende Methode zum Aktivieren des Blatts Activate (activate) verwendet. Das Festlegen des Bereichs der analysierten Quelldaten auf dem Wörterbuchblatt erfolgt durch die Select-Methode des Range-Objekts (Range), und die Übertragung von Wörtern als Werte an Variablen erfolgt als Value-Eigenschaft (Wert) desselben Range Objekt.

Trotz der Tatsache, dass die Rangkorrelationsanalyse uns hinsichtlich der Abhängigkeit von Themen zwischen verschiedenen Texten vorsichtig macht, haben die meisten der häufigsten Wörter in jedem Text Übereinstimmungen in einem oder mehreren anderen Texten. Spalte S zeigt die Anzahl solcher Wörter unter den 15 häufigsten Wörtern für jeden Autor. Fettgedruckte Wörter erscheinen nur in den Worten eines Dichters in unserer Tabelle. Blok, Akhmatova und Petrovs haben überhaupt keine hervorgehobenen Wörter, sie haben S = 15. Diese drei Dichter haben die gleichen 15 häufigsten Wörter, sie unterscheiden sich nur in der Position in der Liste. Aber selbst Puschkin, dessen Vokabular das originellste ist, hat S = 8, und es gibt 7 hervorgehobene Wörter.

Die Ergebnisse zeigen, dass es eine bestimmte Ebene des Vokabulars gibt, die die Hauptthemen der Poesie konzentriert. In der Regel sind diese Wörter kurz: von der Gesamtzahl (225) der Wortverwendungen von einsilbig 88, zweisilbig 127, dreisilbig 10. Oft repräsentieren diese Wörter die wichtigsten Mythologeme und können in Paare fallen: Nacht – Tag, Erde – Himmel (Sonne), Gott – Mensch (Menschen), Leben – Tod, Leib – Seele, Rom – Welt(bei Mandelstam); lassen sich zu Mythologemen höherer Ebene zusammenfassen: Himmel, Stern, Sonne, Erde; Bei einer Person fallen in der Regel Körper, Herz, Blut, Arm, Bein, Wange und Augen auf. Von den menschlichen Zuständen werden Schlaf und Liebe bevorzugt. Das Haus und die Städte gehören der menschlichen Welt - Moskau, Rom, Paris. Kreativität wird durch Lexeme repräsentiert Wort und Lied.

Griboedov und Lermontov haben fast keine Wörter, die Natur unter den häufigsten Wörtern bezeichnen. Sie haben dreimal so viele Wörter, die eine Person, Teile seines Körpers, Elemente seiner geistigen Welt bezeichnen. Puschkin und Dichter des zwanzigsten Jahrhunderts. Bezeichnungen von Mensch und Natur sind ungefähr gleich. In diesem wichtigen Aspekt des Themas können wir sagen, dass das zwanzigste Jahrhundert. folgte Puschkin.

Minimales Thema Fall unter den häufigsten Wörtern kommt es nur in Gribojedow und Puschkin vor. Lermontov und Dichter des zwanzigsten Jahrhunderts. es weicht einem minimalen Thema Wort. Das Wort schließt Taten nicht aus (die biblische Interpretation des Themas: Im Neuen Testament werden alle Lehren Jesu Christi als das Wort Gottes oder das Wort Jesu angesehen, und die Apostel nennen sich manchmal Diener des Wortes). Die heilige Bedeutung des Lexemwortes wird beispielsweise in Pasternaks Vers "Und das Bild der Welt, offenbart im Wort" überzeugend manifestiert. Die heilige Bedeutung des Lexems Wort in Verbindung mit und Kontrast zu menschlichen Angelegenheiten manifestiert es sich überzeugend in dem gleichnamigen Gedicht von Gumilyov.

Tokens, die nur in einem Text vorkommen, kennzeichnen die Originalität eines bestimmten Buches oder einer Büchersammlung. So kommt das Wort „mind“ beispielsweise in Gribojedovs Komödie „Woe from Wit“ am häufigsten vor – es kommt aber nicht unter den häufig vorkommenden Wörtern anderer Texte vor. Das Thema des Geistes ist bei weitem das bedeutendste in der Komödie. Dieses Lexem begleitet das Bild von Chatsky, und der Name Chatsky ist der häufigste in der Komödie. So kombiniert das Werk organisch das häufigste Substantiv mit dem häufigsten Eigennamen.

Der höchste Korrelationskoeffizient verbindet die Themen der tragischen Bücher von Gumilyov "The Pillar of Fire" und Achmatovas "Anno Domini MCMXXI". Unter den 15 häufigsten Substantiven gibt es 10 häufige, darunter Blut, Herz, Seele, Liebe, Wort, Himmel. Erinnern Sie sich daran, dass Achmatovas Buch eine Miniatur „Sie werden nicht am Leben sein ...“ enthielt, die zwischen der Verhaftung von Gumilyov und seiner Hinrichtung geschrieben wurde.

Die Themen der Kerze und der Menge im untersuchten Material finden sich nur in den "Gedichten von Yuri Zhivago". Das Thema der Kerze in den Versen aus dem Roman hat viele kontextbezogene Bedeutungen: Es ist mit dem Bild von Jesus Christus verbunden, mit den Themen Glaube, Unsterblichkeit, Kreativität, Liebesdatum. Die Kerze ist die wichtigste Lichtquelle in den zentralen Szenen des Romans. Das Thema der Masse entwickelt sich im Zusammenhang mit der Hauptidee des Romans, in dem das Privatleben einer Person mit seinen unerschütterlichen Werten der Unmoral des neuen Staates entgegengestellt wird, der auf den Prinzipien der Freude an der Masse aufbaut .

Die Arbeit umfasst auch die dritte Phase, die sich auch im Programm widerspiegelt – dies ist die Berechnung der Differenz der Ordnungszahlen der Wörter, die zwei Wörterbüchern gemeinsam sind, und des durchschnittlichen Abstands zwischen denselben Wörtern zweier Wörterbücher. Diese Phase ermöglicht es, von den allgemeinen Trends in der Interaktion von Wörterbüchern, die mit Hilfe von Statistiken identifiziert wurden, auf eine Ebene zu gelangen, die sich dem Text annähert. Beispielsweise korrelieren die Bücher von Gumilyov und Akhmatova statistisch signifikant. Wir schauen uns an, welche Wörter sich für ihre Wörterbücher als üblich erwiesen haben, und wählen zunächst diejenigen aus, deren Seriennummern sich minimal unterscheiden oder gleich Null sind. Es sind diese Wörter, die die gleiche Rangnummer haben, und daher sind diese minimalen Themen in den Köpfen der beiden Dichter gleich wichtig. Als nächstes sollten Sie sich auf die Ebene der Texte und Kontexte begeben.

Quantitative Methoden helfen auch, die Eigenschaften von Völkern - Muttersprachlern - zu untersuchen. Angenommen, es gibt 6 Fälle auf Russisch, es gibt keine Fälle auf Englisch, und in einigen Sprachen der Völker Dagestans erreicht die Zahl der Fälle 40. L. Perlovsky korreliert diese in seinem Artikel „Bewusstsein, Sprache und Kultur“. Merkmale mit der Tendenz der Völker zum Individualismus oder Kollektivismus, mit der Wahrnehmung von Dingen und Phänomenen getrennt oder in Verbindung mit anderen. Immerhin tauchten im englischsprachigen Raum (es gibt keine Fälle - das Ding wird „von selbst“ wahrgenommen) Konzepte wie individuelle Freiheit, Liberalismus und Demokratie auf (ich stelle fest, dass ich diese Konzepte nur im Zusammenhang mit dem verwende Sprache, ohne wertende Merkmale). Obwohl solche Vermutungen immer noch nur auf der Ebene kühner wissenschaftlicher Hypothesen verbleiben, helfen sie, bereits bekannte Phänomene auf neue Weise zu betrachten.

Wie wir sehen, können quantitative Merkmale in ganz unterschiedlichen Bereichen der Linguistik Anwendung finden, wodurch die Grenzen zwischen „exakten“ und „humanitären“ Methoden zunehmend verschwimmen. Die Linguistik greift zur Lösung ihrer Probleme zunehmend nicht nur auf die Hilfe der Mathematik, sondern auch der Computertechnik zurück.

2.3 Lernen ISprache mit Methoden der formalen Logik

Mit nicht-quantitativen Methoden der Mathematik, insbesondere mit Logik, interagiert die moderne Theoretische Linguistik nicht weniger fruchtbar als mit quantitativen. Die schnelle Entwicklung der Computertechnologien und das Wachstum ihrer Rolle in der modernen Welt erforderten eine Überarbeitung des Ansatzes für die Interaktion von Sprache und Logik im Allgemeinen.

Die Methoden der Logik sind weit verbreitet bei der Entwicklung formalisierter Sprachen, insbesondere Programmiersprachen, deren Elemente einige Symbole (ähnlich mathematischen), ausgewählt (oder aus zuvor ausgewählten Symbolen konstruiert) und auf bestimmte Weise interpretiert, verwandt sind zu jeder "traditionellen" Verwendung, zum Verständnis und zum Verständnis der Funktionen derselben Symbole in anderen Kontexten. Ein Programmierer beschäftigt sich in seiner Arbeit ständig mit Logik. Die Bedeutung des Programmierens besteht lediglich darin, dem Computer Vernunft beizubringen (im weitesten Sinne des Wortes). Dabei erweisen sich die Methoden des „Argumentierens“ als sehr unterschiedlich. Jeder Programmierer verbringt eine gewisse Zeit damit, nach Fehlern in seinen eigenen und den Programmen anderer Leute zu suchen. Das heißt, nach Fehlern in der Argumentation, in der Logik suchen. Und das hinterlässt auch seine Spuren. Es ist viel einfacher, logische Fehler in der gewöhnlichen Sprache zu erkennen. Die relative Einfachheit der von Logikern untersuchten Sprachen ermöglicht es ihnen, die Strukturen dieser Sprachen deutlicher aufzuklären, als dies Linguisten möglich ist, die ausschließlich komplexe natürliche Sprachen analysieren. Angesichts der Tatsache, dass die von Logikern untersuchten Sprachen Relationen verwenden, die von natürlichen Sprachen kopiert wurden, können Logiker wichtige Beiträge zur allgemeinen Sprachtheorie leisten. Hier verhält es sich ähnlich wie in der Physik: Der Physiker formuliert auch Sätze für ideal vereinfachte Fälle, die in der Natur gar nicht vorkommen - er formuliert Gesetze für ideale Gase, ideale Flüssigkeiten, spricht von Bewegung ohne Reibung, etc. Für diese idealisierten Fälle lassen sich einfache Gesetzmäßigkeiten aufstellen, die sehr zum Verständnis dessen beitragen würden, was wirklich passiert und was der Physik wahrscheinlich unbekannt bleiben würde, wenn sie versuchen würde, die Realität in ihrer ganzen Komplexität direkt zu betrachten.

Beim Studium natürlicher Sprachen werden logische Methoden verwendet, damit sich Sprachlerner nicht dummerweise möglichst viele Wörter „auswendig lernen“, sondern ihre Struktur besser verstehen können. L. Shcherba verwendete in seinen Vorlesungen auch ein Beispiel für einen Satz, der nach den Gesetzen der russischen Sprache aufgebaut war: „Die fehlerhafte Kusdra-Steko hat die Bokra gebokt und die Bokra gekräuselt“, und fragte dann die Studenten, was dies bedeutete. Trotz der Tatsache, dass die Bedeutung der Wörter im Satz unklar blieb (sie existieren einfach nicht auf Russisch), konnte klar geantwortet werden: „Kuzdra“ ist das Subjekt, ein weibliches Substantiv, im Singular, Nominativ „ bokr“ ist animiert usw. Die Übersetzung des Satzes lautet ungefähr so: „Etwas Weibliches hat auf einmal etwas über eine Art männliches Wesen getan und dann begonnen, etwas Langsames, Allmähliches mit seinem Jungen zu tun.“ Ein ähnliches Beispiel für einen (künstlerischen) Text aus nicht existierenden Wörtern, der ganz nach den Gesetzen der Sprache aufgebaut ist, ist Lewis Carrolls Jabberwock (in Alice im Wunderland erklärt Carroll durch den Mund seiner Figur Humpty Dumpty die Bedeutung von die Wörter, die er erfunden hat: "cooked" - acht Uhr abends, wenn es Zeit ist, das Abendessen zu kochen, "chlivky" - fadenscheinig und geschickt, "shorek" - eine Kreuzung aus Frettchen, Dachs und Korkenzieher, "dive". " - springen, tauchen, drehen, "nava" - Gras unter der Sonnenuhr (erstreckt sich ein wenig nach rechts , ein wenig nach links und ein wenig nach hinten), "grunzen" - grunzen und lachen, "zelyuk" - a grüner Truthahn, „myumzik“ - ein Vogel; seine Federn sind zerzaust und stehen wie ein Besen in alle Richtungen ab, „mova“ - weit weg von zu Hause).

Eines der Hauptkonzepte der modernen Logik und theoretischen Linguistik, das beim Studium von Sprachen verschiedener logisch-mathematischer Kalküle, natürlicher Sprachen, verwendet wird, um die Beziehung zwischen Sprachen verschiedener "Ebenen" zu beschreiben und die Beziehung zwischen den betrachteten Sprachen und den mit ihrer Hilfe beschriebenen Sachgebieten, ist das Konzept der Metasprache. Eine Metasprache ist eine Sprache, die verwendet wird, um Urteile über eine andere Sprache, das Sprachobjekt, auszudrücken. Mit Hilfe einer Metasprache untersuchen sie die Struktur von Zeichenkombinationen (Ausdrücken) des Sprachobjekts, beweisen Sätze über seine Ausdruckseigenschaften, über seine Beziehung zu anderen Sprachen usw. Die zu untersuchende Sprache wird auch Fachsprache genannt Beziehung zu dieser Metasprache. Sowohl die Fachsprache als auch die Metasprache können gewöhnliche (natürliche) Sprachen sein. Die Metasprache kann sich von der Objektsprache unterscheiden (z. B. in einem englischen Lehrbuch für Russen ist Russisch eine Metasprache und Englisch eine Objektsprache), sie kann aber auch mit dieser übereinstimmen oder sich nur teilweise unterscheiden, z. B. in speziellen Terminologien (Russische Sprachterminologie ist ein Element der Metasprache zur Beschreibung der russischen Sprache, die sogenannten semantischen Faktoren sind Teil der Metasprache zur Beschreibung der Semantik natürlicher Sprachen).

Das Konzept der "Metalinguage" ist im Zusammenhang mit dem Studium formalisierter Sprachen, die im Rahmen der mathematischen Logik aufgebaut sind, sehr fruchtbar geworden. Im Gegensatz zu formalisierten Subjektsprachen ist hier die Metasprache, mit deren Hilfe die Metatheorie formuliert wird (Untersuchung der Eigenschaften der in der Subjektsprache formulierten Subjekttheorie), in der Regel eine gewöhnliche natürliche Sprache, in besonderer Weise a begrenztes Fragment einer natürlichen Sprache, das keinerlei Mehrdeutigkeit enthält, Metaphern, „metaphysische“ Konzepte usw. Elemente der gewöhnlichen Sprache, die ihre Verwendung als Werkzeug für genaue wissenschaftliche Forschung verhindern. Gleichzeitig kann die Metasprache selbst formalisiert und (ungeachtet dessen) Gegenstand der Forschung mittels der Metametasprache werden und eine solche Reihe als unendlich wachsend „gedacht“ werden.

Die Logik lehrt uns eine fruchtbare Unterscheidung zwischen dem Sprachobjekt und der Metasprache. Das Sprachobjekt ist der eigentliche Gegenstand logischer Forschung, und die Metasprache ist jene unvermeidlich künstliche Sprache, in der solche Forschung durchgeführt wird. Logisches Denken besteht nur darin, die Beziehungen und Strukturen einer realen Sprache (Objektsprache) in der Symbolsprache (Metasprache) zu formulieren.

Die Metasprache muss auf jeden Fall „nicht ärmer“ sein als ihre objektive Sprache (d. h. für jeden Ausdruck der letzteren in der Metasprache muss ihr Name „Übersetzung“ stehen) – andernfalls, wenn diese Anforderungen nicht erfüllt sind (was sicherlich erfolgt in natürlichen Sprachen, wenn besondere Vereinbarungen nichts anderes vorsehen) semantische Paradoxien (Antinomien) entstehen.

Da immer mehr neue Programmiersprachen geschaffen wurden, bestand im Zusammenhang mit dem Problem der Programmierübersetzer die dringende Notwendigkeit, Metasprachen zu erstellen. Gegenwärtig ist die Metasprache der Backus-Naur-Form (abgekürzt als BNF) die am häufigsten verwendete Metasprache zur Beschreibung der Syntax von Programmiersprachen. Es ist eine kompakte Form in Form einiger mathematischer Formeln. Für jeden Begriff der Sprache gibt es eine eindeutige Metaformel (Normalformel). Es besteht aus einem linken und einem rechten Teil. Die linke Seite spezifiziert das zu definierende Konzept, und die rechte Seite spezifiziert den Satz zulässiger Sprachkonstrukte, die in diesem Konzept kombiniert werden. Die Formel verwendet spezielle Metazeichen in Form von spitzen Klammern, die das definierte Konzept (auf der linken Seite der Formel) oder ein zuvor definiertes Konzept (auf der rechten Seite) enthalten, und die Trennung des linken und rechten Teils wird durch angezeigt das Metazeichen "::=", dessen Bedeutung den Worten "per definitionem gibt es" entspricht. Metasprachliche Formeln sind in irgendeiner Form in Übersetzer eingebettet; mit ihrer Hilfe werden die vom Programmierer verwendeten Konstrukte auf formale Übereinstimmung mit allen in dieser Sprache syntaktisch gültigen Konstrukten überprüft. Es gibt auch getrennte Metasprachen verschiedener Wissenschaften – somit existiert Wissen in Form verschiedener Metasprachen.

Logische Methoden dienten auch als Grundlage für die Schaffung von Systemen der künstlichen Intelligenz auf der Grundlage des Konzepts des Konnektionismus. Der Konnektionismus ist eine besondere Richtung in der philosophischen Wissenschaft, deren Gegenstand Wissensfragen sind. Im Rahmen dieses Trends wird versucht, die intellektuellen Fähigkeiten eines Menschen mit künstlichen neuronalen Netzen zu erklären. Neuronale Netze bestehen aus einer großen Anzahl neuronenähnlicher Struktureinheiten, wobei jedem Element eine Gewichtung zugeordnet ist, die die Stärke der Verbindung mit anderen Elementen bestimmt. Neuronale Netze sind vereinfachte Modelle des menschlichen Gehirns. Experimente mit neuronalen Netzen dieser Art haben gezeigt, dass sie lernen können, Aufgaben wie Mustererkennung, Lesen und Identifizieren einfacher grammatikalischer Strukturen auszuführen.

Philosophen begannen sich für den Konnektionismus zu interessieren, da der konnektionistische Ansatz versprach, eine Alternative zur klassischen Theorie des Geistes und der in dieser Theorie weit verbreiteten Idee zu bieten, dass die Funktionsweise des Geistes der Verarbeitung symbolischer Sprache durch ein digitales Gerät ähnelt Computer. Dieses Konzept ist sehr umstritten, hat aber in den letzten Jahren immer mehr Anhänger gefunden.

Das logische Studium der Sprache setzt Saussures Konzept der Sprache als System fort. Die Tatsache, dass sie ständig fortgesetzt wird, bestätigt einmal mehr die Kühnheit wissenschaftlicher Vermutungen zu Beginn des letzten Jahrhunderts. Den letzten Abschnitt meiner Arbeit werde ich den Perspektiven für die Entwicklung mathematischer Methoden in der Linguistik heute widmen.

2.4 Perspektiven für die Anwendung mathematischer Methoden in der Linguistik

Im Zeitalter der Computertechnik haben die Methoden der mathematischen Linguistik eine neue Entwicklungsperspektive erhalten. Die Suche nach Lösungen für die Probleme der Sprachanalyse wird nun zunehmend auf der Ebene der Informationssysteme durchgeführt. Gleichzeitig stellt die Automatisierung des Prozesses der Verarbeitung von Sprachmaterial, die dem Forscher erhebliche Möglichkeiten und Vorteile bietet, zwangsläufig neue Anforderungen und Aufgaben für ihn.

Die Kombination von „exaktem“ und „humanitärem“ Wissen ist zu einem fruchtbaren Boden für neue Entdeckungen auf dem Gebiet der Linguistik, Informatik und Philosophie geworden.

Die maschinelle Übersetzung von einer Sprache in eine andere bleibt ein schnell wachsender Zweig der Informationstechnologie. Trotz der Tatsache, dass die computergestützte Übersetzung qualitativ niemals mit menschlicher Übersetzung verglichen werden kann (insbesondere bei literarischen Texten), ist die Maschine zu einem unverzichtbaren Helfer für eine Person bei der Übersetzung großer Textmengen geworden. Es wird angenommen, dass in naher Zukunft fortschrittlichere Übersetzungssysteme geschaffen werden, die hauptsächlich auf der semantischen Analyse des Textes basieren.

Eine ebenso vielversprechende Richtung ist das Zusammenspiel von Linguistik und Logik, das als philosophische Grundlage für das Verständnis der Informationstechnologie und der sogenannten „virtuellen Realität“ dient. In naher Zukunft wird die Arbeit an der Schaffung von Systemen der künstlichen Intelligenz fortgesetzt - obwohl sie wiederum in ihren Fähigkeiten niemals dem Menschen gleichkommen werden. Ein solcher Wettbewerb ist bedeutungslos: In unserer Zeit sollte (und wird) die Maschine kein Rivale, sondern ein Assistent des Menschen werden, nicht etwas aus dem Reich der Fantasie, sondern Teil der realen Welt.

Das Studium der Sprache mit statistischen Methoden wird fortgesetzt, wodurch ihre qualitativen Eigenschaften genauer bestimmt werden können. Es ist wichtig, dass die kühnsten Hypothesen über die Sprache ihren mathematischen und damit logischen Beweis finden.

Das Wichtigste ist, dass in den letzten Jahren verschiedene Zweige der mathematischen Anwendung in der Linguistik, die zuvor ziemlich isoliert waren, miteinander in Beziehung gesetzt wurden und sich zu einem kohärenten System verbinden, in Analogie zu dem vor einem Jahrhundert von Ferdinand de Saussure entdeckten Sprachsystem und Yvan Baudouin de Courtenay. Dies ist die Kontinuität wissenschaftlicher Erkenntnisse.

Die Linguistik in der modernen Welt ist zur Grundlage für die Entwicklung der Informationstechnologie geworden. Solange die Informatik ein sich schnell entwickelnder Zweig der menschlichen Tätigkeit bleibt, wird die Vereinigung von Mathematik und Linguistik weiterhin ihre Rolle in der Entwicklung der Wissenschaft spielen.

Fazit

Im Laufe des 20. Jahrhunderts haben Computertechnologien einen langen Weg zurückgelegt - von der militärischen bis zur friedlichen Nutzung, von einem engen Zielbereich bis zum Eindringen in alle Bereiche des menschlichen Lebens. Die Mathematik als Wissenschaft hat mit der Entwicklung der Computertechnik immer neue praktische Bedeutung gefunden. Dieser Prozess dauert bis heute an.

Das bisher undenkbare „Tandem“ von „Physikern“ und „Lyrikern“ ist Realität geworden. Für das vollständige Zusammenwirken von Mathematik und Informatik mit den Geisteswissenschaften wurden qualifizierte Spezialisten auf beiden Seiten benötigt. Während Informatiker zunehmend systematisches humanitäres Wissen (sprachlich, kulturell, philosophisch) benötigen, um Veränderungen in der sie umgebenden Realität, in der Interaktion von Mensch und Technik zu begreifen, immer neue sprachliche und mentale Konzepte zu entwickeln, zu schreiben Programme, dann müssen alle "Geisteswissenschaften" unserer Zeit für ihre berufliche Weiterentwicklung zumindest die Grundlagen der Arbeit mit einem Computer beherrschen.

Die Mathematik, die eng mit der Informatik verflochten ist, entwickelt sich ständig weiter und interagiert mit den Natur- und Geisteswissenschaften. Im neuen Jahrhundert schwächt sich der Trend zur Mathematisierung der Wissenschaft nicht ab, sondern nimmt im Gegenteil zu. Auf der Grundlage quantitativer Daten werden die Gesetze der Sprachentwicklung, ihre historischen und philosophischen Merkmale verstanden.

Der mathematische Formalismus eignet sich am besten zur Beschreibung von Mustern in der Linguistik (wie auch in anderen Wissenschaften - sowohl den Geisteswissenschaften als auch den Naturwissenschaften). In der Wissenschaft entwickelt sich die Situation manchmal so, dass es ohne die Verwendung einer angemessenen mathematischen Sprache unmöglich ist, die Natur von physikalischen, chemischen usw. zu verstehen. Vorgang ist nicht möglich. Erstellen eines Planetenmodells des Atoms, des berühmten englischen Physikers des 20. Jahrhunderts. E. Rutherford hatte mathematische Schwierigkeiten. Seine Theorie wurde zunächst nicht akzeptiert: Sie klang nicht überzeugend, und der Grund dafür war Rutherfords Unkenntnis der Wahrscheinlichkeitstheorie, auf deren Grundlage nur die modellhafte Darstellung atomarer Wechselwirkungen zu verstehen war. Mit dieser Erkenntnis schrieb sich bereits damals ein herausragender Wissenschaftler, der Träger des Nobelpreises, in das Seminar des Mathematikers Professor Lamb ein und besuchte zwei Jahre lang zusammen mit den Studenten einen Kurs und erarbeitete einen Workshop zur Wahrscheinlichkeitstheorie . Darauf aufbauend konnte Rutherford das Verhalten des Elektrons beschreiben und seinem Strukturmodell überzeugende Genauigkeit und Anerkennung verschaffen. Genauso verhält es sich mit der Linguistik.

Dies wirft die Frage auf, was ist so mathematisch an objektiven Phänomenen, dank derer sie in der Sprache der Mathematik, in der Sprache der quantitativen Merkmale beschrieben werden können? Dies sind räumlich und zeitlich verteilte homogene Materieeinheiten. Jene Wissenschaften, die weiter als andere zur Isolierung der Homogenität gegangen sind und sich als besser geeignet für die Anwendung der Mathematik in ihnen erweisen.

Das Internet, das sich in den 1990er Jahren rasant entwickelte, brachte Vertreter verschiedener Länder, Völker und Kulturen zusammen. Obwohl Englisch nach wie vor die Hauptsprache der internationalen Kommunikation ist, ist das Internet in unserer Zeit mehrsprachig geworden. Dies führte zur Entwicklung kommerziell erfolgreicher maschineller Übersetzungssysteme, die in verschiedenen Bereichen der menschlichen Tätigkeit weit verbreitet sind.

Computernetzwerke sind zum Gegenstand philosophischer Reflexion geworden – immer mehr neue sprachliche, logische, weltanschauliche Konzepte wurden geschaffen, die helfen, „virtuelle Realität“ zu verstehen. In vielen Kunstwerken wurden – häufiger pessimistische – Szenarien über die Dominanz der Maschinen über den Menschen und der virtuellen Realität – über die Außenwelt – geschaffen. Bei weitem nicht immer erwiesen sich solche Prognosen als bedeutungslos. Die Informationstechnologie ist nicht nur eine vielversprechende Industrie, um menschliches Wissen zu investieren, sie ist auch eine Möglichkeit, Informationen und folglich über menschliches Denken zu kontrollieren.

Dieses Phänomen hat sowohl eine negative als auch eine positive Seite. Negativ – weil die Kontrolle über Informationen dem unveräußerlichen Menschenrecht auf freien Zugang zu ihnen widerspricht. Positiv – weil das Fehlen dieser Kontrolle zu katastrophalen Folgen für die Menschheit führen kann. Es genügt, an einen der klügsten Filme des letzten Jahrzehnts zu erinnern – „When the World Ends“ von Wim Wenders, dessen Charaktere vollständig in die „virtuelle Realität“ ihrer eigenen Träume eintauchen, die auf einem Computer aufgezeichnet wurden. Gleichzeitig kann kein einziger Wissenschaftler und kein einziger Künstler eine eindeutige Antwort auf die Frage geben: Was erwartet Wissenschaft und Technik in Zukunft?

Die Konzentration auf die manchmal phantastisch erscheinende „Zukunft“ war Mitte des 20. Jahrhunderts ein charakteristisches Merkmal der Wissenschaft, als Erfinder danach strebten, perfekte Technologiemodelle zu schaffen, die ohne menschliches Eingreifen funktionieren konnten. Die Zeit hat gezeigt, wie utopisch eine solche Forschung ist. Gleichzeitig wäre es überflüssig, die Wissenschaftler dafür zu verurteilen - ohne ihren Enthusiasmus in den 1950er - 60er Jahren hätte die Informationstechnologie in den 90er Jahren keinen so gewaltigen Sprung gemacht, und wir hätten nicht das, was wir jetzt haben.

Die letzten Jahrzehnte des zwanzigsten Jahrhunderts veränderten die Prioritäten der Wissenschaft – Forschung, erfinderisches Pathos wich kommerziellem Interesse. Auch dies ist weder gut noch schlecht. Dies ist eine Realität, in der die Wissenschaft zunehmend in den Alltag integriert wird.

Das 21. Jahrhundert hat diesen Trend fortgesetzt, und Erfindungen sind in unserer Zeit nicht nur Ruhm und Anerkennung, sondern vor allem Geld. Auch deshalb ist es wichtig sicherzustellen, dass die neuesten Errungenschaften von Wissenschaft und Technik nicht in die Hände von Terrorgruppen oder diktatorischen Regimen gelangen. Die Aufgabe ist schwierig bis zur Unmöglichkeit; sie so weit wie möglich zu verwirklichen, ist die Aufgabe der gesamten Weltgemeinschaft.

Information ist eine Waffe, und Waffen sind nicht weniger gefährlich als Atom- oder Chemiewaffen – nur wirken sie nicht physisch, sondern psychisch. Die Menschheit muss darüber nachdenken, was ihr in diesem Fall wichtiger ist – Freiheit oder Kontrolle.

Die neuesten philosophischen Konzepte zur Entwicklung der Informationstechnologien und der Versuch, sie zu verstehen, haben die Grenzen sowohl des naturwissenschaftlichen Materialismus, der im 19. und frühen 20. Jahrhundert dominierte, als auch des extremen Idealismus aufgezeigt, der die Bedeutung der materiellen Welt leugnet . Für das moderne Denken, insbesondere das Denken des Westens, ist es wichtig, diesen Dualismus im Denken zu überwinden, wenn die umgebende Welt klar in materiell und ideell getrennt ist. Der Weg dorthin ist ein Dialog der Kulturen, ein Vergleich unterschiedlicher Sichtweisen auf die umgebenden Phänomene.

Paradoxerweise kann die Informationstechnologie dabei eine wichtige Rolle spielen. Computernetzwerke und insbesondere das Internet sind nicht nur eine Ressource für Unterhaltung und lebhafte kommerzielle Aktivitäten, sie sind auch ein Mittel für sinnvolle, kontroverse Kommunikation zwischen Vertretern verschiedener Zivilisationen in der modernen Welt sowie für einen Dialog zwischen Vergangenheit und Vergangenheit das Geschenk. Wir können sagen, dass das Internet die räumlichen und zeitlichen Grenzen verschiebt.

Und im Dialog der Kulturen durch Informationstechnologie ist die Rolle der Sprache als ältestes universelles Kommunikationsmittel immer noch wichtig. Deshalb hat die Linguistik im Zusammenspiel mit Mathematik, Philosophie und Informatik ihre zweite Geburt erlebt und entwickelt sich bis heute weiter. Der Trend der Gegenwart setzt sich auch in Zukunft fort – „bis ans Ende der Welt“, wie es vor 15 Jahren derselbe V. Wenders voraussagte. Es ist zwar nicht bekannt, wann dieses Ende eintreten wird – aber spielt es jetzt eine Rolle, denn die Zukunft wird früher oder später ohnehin zur Gegenwart.

Anhang 1

Ferdinand von Saussure

Der Schweizer Linguist Ferdinand de Saussure (1857-1913) gilt weithin als Begründer der modernen Linguistik mit seinen Versuchen, eher die Struktur der Sprache als die Geschichte bestimmter Sprachen und Sprachformen zu beschreiben. Tatsächlich finden die Methode des Strukturalismus in der Sprach- und Literaturwissenschaft und ein bedeutender Zweig der Semiotik ihren wichtigsten Ausgangspunkt in seinem Werk um die Wende zum 20. Jahrhundert. Es wurde sogar argumentiert, dass der Komplex von Strategien und Konzepten, der als „Poststrukturalismus“ bezeichnet wird – das Werk von Jacques Derrida, Michel Foucault, Jacques Lacan, Julia Kristeva, Roland Barthes und anderen – von Saussures Werk angeregt wird in Linguistik und anagrammatischen Lesarten der späten lateinischen Poesie, literarische Moderne bis hin zur Psychoanalyse und Philosophie im frühen 20. Jahrhundert. Wie Algirdas Julien Greimas und Joseph Courtes in Semiotics and Language: An Analytic Dictionary unter der Überschrift „Interpretation“ argumentieren, entstand im frühen zwanzigsten Jahrhundert eine neue Art der Interpretation, die sie mit der Saussureschen Linguistik, der Husserlschen Phänomenologie und der Freudschen Psychoanalyse identifizieren. In diesem Modus handelt es sich bei der Interpretation „nicht mehr um die Zuweisung eines gegebenen Inhalts an eine Form, der sonst einer fehlt, sondern um eine Paraphrase, die auf andere Weise den äquivalenten Inhalt eines bezeichnenden Elements innerhalb eines gegebenen semiotischen Systems formuliert“ ( 159). in diesem Verständnis von „Interpretation“ sind Form und Inhalt nicht voneinander getrennt; vielmehr ist jede „Form“ alternativ auch ein semantischer „Inhalt“, eine „bezeichnende Form“, so dass die Interpretation eine analoge Paraphrase von etwas bietet, das bereits innerhalb eines anderen Bedeutungssystems bedeutet.

Eine solche Neuinterpretation von Form und Verständnis – die Claude Levi-Strauss in einer seiner programmatischsten Artikulationen des Begriffs des Strukturalismus, in „Structure and Form: Reflections on a Work by Vladimir Propp“ beschreibt – ist in Saussures posthumem Kurs enthalten in General Linguistics (1916, trans., 1959, 1983). Zu seinen Lebzeiten veröffentlichte Saussure relativ wenig, und sein Hauptwerk, The Course, war die Transkription mehrerer Kurse in allgemeiner Linguistik durch seine Studenten, die er 1907-11 anbot. Im Kurs forderte Saussure das "wissenschaftliche" Studium der Sprache im Gegensatz zu den Arbeiten der historischen Linguistik des 19. Jahrhunderts, die eine der großen Errungenschaften des westlichen Intellekts darstellen: bestimmte Wörter als Bausteine ​​zu nehmen Die historische (oder „diachrone“) Linguistik verfolgte den Ursprung und die Entwicklung westlicher Sprachen aus einer mutmaßlichen gemeinsamen Sprachquelle, zuerst einer „indogermanischen“ Sprache und dann einer früheren „p roto-indo-europäische" Sprache.

Genau diese Untersuchung des einzigartigen Vorkommens von Wörtern mit der damit einhergehenden Annahme, dass die grundlegende „Einheit“ der Sprache tatsächlich die positive Existenz dieser „Wortelemente“ ist, stellte Saussure in Frage. Sein Werk war ein Versuch, die von der historischen Linguistik so minutiös untersuchte Masse von Tatsachen über Sprache auf eine überschaubare Zahl von Aussagen zu reduzieren. Die „vergleichende Schule“ der Philologie des 19. Jahrhunderts, sagt Saussure im Kurs, „hat es nicht geschafft, die wahre Wissenschaft der Linguistik zu etablieren“, weil „es ihr nicht gelungen ist, die Natur ihres Studiengegenstandes zu suchen“ (3). Diese „Natur“, argumentiert er, ist nicht einfach in den „elementaren“ Wörtern zu finden, die eine Sprache umfasst – die scheinbar „positiven“ Tatsachen (oder „Substanzen“) der Sprache – sondern in den formalen Beziehungen, die diese hervorbringen "Substanzen."

Saussures systematische Überprüfung der Sprache basiert auf drei Annahmen. Die erste ist, dass die wissenschaftliche Erforschung der Sprache eher das System als die Geschichte sprachlicher Phänomene entwickeln und untersuchen muss. Aus diesem Grund unterscheidet er zwischen den besonderen Vorkommen von Sprache - seine besonderen „Sprachereignisse", die er als parole bezeichnet – und das eigentliche Objekt der Linguistik, das System (oder „Code"), das diese Ereignisse beherrscht, das er als langue bezeichnet. Eine solche systematische Untersuchung erfordert außerdem eine „ synchrone" Konzeption der Beziehung zwischen den Sprachelementen zu einem bestimmten Zeitpunkt und nicht die "diachrone" Untersuchung der Entwicklung der Sprache im Laufe der Geschichte.

Diese Annahme führte zu dem, was Roman Jakobson 1929 als „Strukturalismus“ bezeichnete, in dem „jede Menge von Phänomenen, die von der zeitgenössischen Wissenschaft untersucht werden, nicht als mechanische Anhäufung, sondern als strukturelles Ganzes behandelt wird, wobei die mechanische Vorstellung von Prozessen der Frage nachgibt ihrer Funktion" ("Romantic" 711). In dieser Passage artikuliert Jakobson Saussures Absicht, die Linguistik als ein wissenschaftliches System zu definieren, im Gegensatz zu einer einfachen, „mechanischen“ Erklärung historischer Zufälle. Damit einhergehend beschreibt Jakobson auch die zweite Grundannahme Saussures – wir können Nennen wir es jetzt "strukturelle" - Linguistik: dass die Grundelemente der Sprache nur in Bezug auf ihre Funktionen und nicht in Bezug auf ihre Ursachen untersucht werden können. Europäische "Wörter"), diese Ereignisse und Entitäten müssen in einen systemischen Rahmen gestellt werden in denen sie mit anderen sogenannten Ereignissen und Entitäten in Beziehung gesetzt werden. Dies ist eine radikale Neuorientierung in der Wahrnehmung von Erfahrungen und Phänomenen, deren Bedeutung der Philosoph Ernst Cassirer verglichen hat mit "der neuen Wissenschaft von Galileo, die im siebzehnten Jahrhundert unser Ganzes veränderte Konzept der physischen Welt" (zitiert in Culler, Pursuit 2 4). Diese Veränderung, wie Greimas und Courtes anmerken, begreift „Interpretation“ neu und erfindet somit Erklärung und Verstehen selbst neu. Anstatt sich auf die Ursachen eines Phänomens zu erklären, also als „Wirkung“ seinen Ursachen gewissermaßen untergeordnet zu sein, besteht die Erklärung hier darin, ein Phänomen seiner zukunftsgerichteten „Funktion“ unterzuordnen bzw "Zweck." Erklärung ist nicht mehr unabhängig von menschlichen Absichten oder Zwecken (auch wenn diese Absichten unpersönlich, gemeinschaftlich oder, in Freudschen Begriffen, „unbewusst“ sein können).

Diese Transformation vollzieht Saussure in seiner Linguistik gerade in der Neudefinition des sprachlichen „Wortes“, das er als sprachliches „Zeichen“ bezeichnet und funktionalistisch definiert. Das Zeichen, so argumentiert er, ist die Vereinigung von „einem Konzept und einem Klangbild“, das er „Signifikat und Signifikant“ nannte (66-67; Roy Harris' Übersetzung von 1983 bietet die Begriffe „Signifikation“ und „Signal“ an). Die Natur ihrer „Kombination“ ist insofern „funktional“, als weder das Signifikat noch der Signifikant die „Ursache“ des anderen sind, sondern „jeder seine Werte vom anderen“ (8). Sprachelement, das Zeichen , relational und stellt die Grundannahme der historischen Linguistik, nämlich die Identität der elementaren Einheiten von Sprache und Bedeutung (d.h. „Wörter“), einer rigorosen Analyse zum Gegenstand, da das Wort „Baum“ nicht das „gleiche“ Wort ist das Wort wird durch innewohnende Qualitäten definiert – es ist keine „mechanische Anhäufung“ solcher Qualitäten – sondern weil es als Element in einem System, dem „strukturellen Ganzen“ der Sprache definiert ist.

Eine solche relationale (oder "diakritische") Definition einer Entität bestimmt die Konzeption aller Sprachelemente in der strukturellen Linguistik. Dies wird am deutlichsten in der beeindruckendsten Errungenschaft der Saussureschen Linguistik, der Entwicklung der Konzepte der "Phoneme" und "Unterscheidungsmerkmale" der Sprache. Phoneme sind die kleinsten artikulierten und bezeichnenden Einheiten einer Sprache. Es sind nicht die Klänge, die in der Sprache vorkommen, sondern die von Saussure erwähnten "Klangbilder", die von Sprechern als Bedeutungsträger wahrgenommen - phänomenal wahrgenommen - werden. (So ​​bezeichnet Elmar Holenstein Jakobsons Linguistik, die Saussure in wichtigen Punkten folgt, als „phänomenologischen Strukturalismus“.) Aus diesem Grund bemerkte der führende Sprecher des Strukturalismus der Prager Schule, Jan Mukarovsky, 1937, dass „Struktur . . . ist eine phänomenologische und keine empirische Realität; es ist nicht das Werk selbst, sondern eine Reihe funktionaler Zusammenhänge, die im Bewusstsein eines Kollektivs (Generation, Milieu etc.) angesiedelt sind“ (zitiert in Galan 35). Ähnlich Levi-Strauss, der führende Sprecher des französischen Strukturalismus , bemerkte 1960, dass „Struktur keinen eindeutigen Inhalt hat; es ist selbst Inhalt, und die logische Organisation, in der es festgehalten wird, wird als Eigenschaft des Realen konzipiert“ (167; siehe auch Jakobson, Fundamentals 27-28).

Phoneme, die kleinsten wahrnehmbaren Elemente der Sprache, sind also keine positiven Objekte, sondern eine „phänomenologische Realität“. Im Englischen zum Beispiel kann das Phonem /t/ auf viele verschiedene Arten ausgesprochen werden, aber ein Englischsprecher wird es in jedem Fall als ein /t/ erkennen. Ein angesaugtes t (d. h. ein t, das mit einem h-ähnlichen Hauch danach ausgesprochen wird), ein hoher oder tiefer t-Ton, ein verlängerter t-Ton und so weiter, funktionieren alle auf die gleiche Weise bei der Unterscheidung der Bedeutung von "to" und "do" auf Englisch. Darüber hinaus sind die Unterschiede zwischen Sprachen derart, dass phonologische Variationen in einer Sprache unterschiedliche Phoneme in einer anderen darstellen können; Englisch unterscheidet also zwischen /l/ und /r/, während andere Sprachen so strukturiert sind, dass diese Artikulationen als Variationen desselben Phonems betrachtet werden (wie das aspirierte und nicht aspirierte t im Englischen). In jeder natürlichen Sprache ist die große Anzahl möglicher Wörter eine Kombination aus einer kleinen Anzahl von Phonemen. Englisch zum Beispiel besitzt weniger als 40 Phoneme, die zusammengenommen über eine Million verschiedene Wörter bilden.

Die Phoneme der Sprache sind selbst systematisch organisierte Merkmalsstrukturen. In den 1920er und 1930er Jahren isolierten Jakobson und N. S. Trubetzkoy, dem Beispiel von Saussure folgend, die „charakteristischen Merkmale“ von Phonemen. Diese Merkmale basieren auf der physiologischen Struktur der Sprachorgane – Zunge, Zähne, Stimmbänder und so weiter – das Saussure im Kurs erwähnt und die Harris als "physiologische Phonetik" beschreibt (39; Baskins frühere Übersetzung verwendet den Begriff "Phonologie" [(1959) 38]) - und sie kombinieren sich in "Bündeln" binärer Gegensätze, um Phoneme zu bilden. Zum Beispiel ist der Unterschied zwischen /t/ und /d/ im Englischen das Vorhandensein oder Fehlen von „Voice“ (das Engagement der Stimmbänder), und auf der Ebene des Stimmens definieren sich diese Phoneme gegenseitig. Damit ist die Phonologie ein konkretes Beispiel für eine von Saussure beschriebene allgemeine Sprachregel: In der Sprache gibt es nur Unterschiede. noch wichtiger: eine Differenz impliziert im Allgemeinen positive Terme, zwischen denen die Differenz aufgestellt wird; aber in der Sprache gibt es nur Unterschiede ohne positive Begriffe. Ob wir das Signifikat oder den Signifikanten nehmen, die Sprache hat weder Ideen noch Laute, die vor dem Sprachsystem existierten. (120)

In diesem Rahmen werden sprachliche Identitäten nicht durch inhärente Qualitäten, sondern durch systemische ("strukturelle") Beziehungen bestimmt.

Ich habe gesagt, dass die Phonologie Saussure „folgte“, denn obwohl seine Analyse der Physiologie der Sprachproduktion „heute“, wie Harris sagt, „physisch“ genannt würde, im Gegensatz zu entweder „psychologisch“ oder „funktional“. "" (Lesung 49), folglich artikulierte er im Kurs die Richtung und die Umrisse einer funktionalen Analyse der Sprache. In ähnlicher Weise war sein einziges erweitertes veröffentlichtes Werk, Memoire sur le systeme primitif des voyelles dans les langues indo-europeennes (Memoiren über das primitive System der Vokale in indogermanischen Sprachen), das 1878 erschien, vollständig in das Projekt des 19. Jahrhunderts historische Linguistik. Dennoch demonstrierte Saussure innerhalb dieser Arbeit, wie Jonathan Culler argumentiert hat, "die Fruchtbarkeit, Sprache als ein System rein relationaler Elemente zu denken, selbst wenn er an der Aufgabe der historischen Rekonstruktion arbeitet" (Saussure 66). Durch die Analyse der systematischen strukturellen Beziehungen zwischen Phonemen, um Muster des Vokalwechsels in bestehenden indogermanischen Sprachen zu berücksichtigen, schlug Saussure vor, dass es neben mehreren verschiedenen Phonemen / a / ein weiteres Phonem gegeben haben muss, das formal beschrieben werden könnte. „Was Saussures Arbeit so beeindruckend macht“, schließt Culler, „ist die Tatsache, dass fast fünfzig Jahre später, als die Keilschrift des Hethitischen entdeckt und entschlüsselt wurde, ein Phonem mit der Schreibweise h gefunden wurde, das sich so verhielt, wie Saussure es vorhergesagt hatte . Er hatte durch eine rein formale Analyse entdeckt, was heute als Kehlkopf der Indogermanen bekannt ist“ (66).

Diese Konzeption der relationalen oder diakritischen Bestimmung der Elemente der Bedeutung, die im Kurs sowohl implizit als auch explizit ist, legt eine dritte Annahme nahe, die die Strukturlinguistik beherrscht, was Saussure „die willkürliche Natur des Zeichens“ nennt. Damit meint er, dass die Beziehung zwischen dem Signifikanten und dem Signifikanten in der Sprache niemals notwendig (oder "motiviert") ist: Man könnte genauso gut den Lautsignifikanten arbre wie den Signifikantenbaum finden, um ihn mit dem Begriff "Baum" zu vereinen. Aber darüber hinaus bedeutet es, dass das Signifikat auch willkürlich ist: Man könnte den Begriff „Baum“ genauso gut durch seine Holzqualität (was Palmen ausschließen würde) wie durch seine Größe (was die „niedrigen Gehölze“ ausschließt) definieren Büsche nennen). Dies sollte klarstellen, dass die Nummerierung der Annahmen, die ich vorgestellt habe, keine Prioritätsreihenfolge darstellt: jede Annahme – die systemische Natur der Bedeutung (am besten erfasst durch das „synchrone“ Studium der Sprache), die relationale oder „diakritische“ Natur der Elemente der Bedeutung, die Beliebigkeit der Zeichen - bezieht ihren Wert aus den anderen.

Das heißt, die Saussuresche Linguistik untersucht die Phänomene in übergreifenden Kombinations- und Kontrastbeziehungen in der Sprache. In dieser Konzeption ist Sprache sowohl der Prozess der Artikulation von Bedeutung (Signifikation) als auch ihr Produkt (Kommunikation), und diese beiden Funktionen der Sprache sind weder identisch noch vollständig deckungsgleich (siehe Schleifer, „Dekonstruktion“). Hier zeigt sich der Wechsel zwischen Form und Inhalt, den Greimas und Courtes in modernistischer Interpretation beschreiben: Die Sprache präsentiert Kontraste, die ihre Einheiten formal definieren, und diese Einheiten verbinden sich auf aufeinanderfolgenden Ebenen, um den bezeichnenden Inhalt zu schaffen. Da die Elemente der Sprache willkürlich sind, kann darüber hinaus weder der Kontrast noch die Kombination als grundlegend bezeichnet werden. So verbinden sich in der Sprache Unterscheidungsmerkmale zu kontrastierenden Phonemen auf einer anderen Wahrnehmungsebene, Phoneme verbinden sich zu kontrastierenden Morphemen, Morpheme verbinden sich zu Wörtern, Wörter verbinden sich zu Sätzen und so weiter. In jedem Fall ist das ganze Phonem oder Wort oder Satz usw. größer als die Summe seiner Teile (so wie Wasser, H2O, in Saussures Beispiel [(1959) 103] mehr ist als die mechanische Agglomeration von Wasserstoff und Sauerstoff).

Die drei Annahmen des Kurses in Allgemeiner Linguistik veranlassten Saussure, eine neue Wissenschaft des zwanzigsten Jahrhunderts zu fordern, die über die Sprachwissenschaft hinausgehen und „das Leben der Zeichen in der Gesellschaft“ untersuchen würde. Saussure nannte diese Wissenschaft „Semiologie (von griechisch semeion „Zeichen“)“ (16). Die „Wissenschaft“ der Semiotik, wie sie in den 1920er und 1930er Jahren in Osteuropa und in den 1950er und 1960er Jahren in Paris praktiziert wurde, erweiterte das Studium der Sprache und der sprachlichen Strukturen auf literarische Artefakte, die durch diese Strukturen konstituiert (oder artikuliert) wurden. Darüber hinaus verfolgte Saussure während des gesamten späten Teils seiner Karriere, sogar während er Kurse in allgemeiner Linguistik anbot, seine eigene "semiotische" Analyse der späten lateinischen Poesie, um absichtlich verborgene Anagramme von Eigennamen zu entdecken. Die Untersuchungsmethode war in vielerlei Hinsicht das Gegenteil des funktionalen Rationalismus seiner linguistischen Analysen: Sie versuchte, wie Saussure in einem der 99 Notizbücher erwähnt, in denen er diese Studie durchführte, das Problem des "Zufalls", das " wird zur unvermeidlichen Grundlage von allem" (zitiert in Starobinski 101). Eine solche Studie konzentriert sich, wie Saussure selbst sagt, auf "die materielle Tatsache" von Zufall und Bedeutung (zitiert 101), so dass das "Themenwort", dessen Anagramm Saussure sucht, wie Jean Starobinski argumentiert, "für den Dichter ist , ein Instrument, und kein vitaler Keim des Gedichts. Das Gedicht muss die phonetischen Materialien des Themenworts wiederverwenden“ (45). In dieser Analyse sagt Starobinski: „Saussure hat sich nicht in der Suche nach verborgenen Bedeutungen verloren.“ Stattdessen scheint sein Werk den Wunsch zu zeigen, allen Problemen, die sich aus dem Bewusstsein ergeben, auszuweichen: "Da Poesie nicht nur in Worten verwirklicht, sondern etwas ist, das aus Worten geboren wird, entzieht sie sich der willkürlichen Kontrolle des Bewusstseins, um nur auf eine Art sprachlicher Gesetzmäßigkeit angewiesen zu sein "(121).

Das heißt, Saussures Versuch, Eigennamen in der späten lateinischen Poesie zu entdecken – was Tzvetan Todorov die Reduktion eines „Wortes . . . zu ihrem Signifikanten“ (266) – betont eines der Elemente, die seine linguistische Analyse beherrschten, die willkürliche Natur des Zeichens. (Es betont auch die formale Natur der Saussureschen Linguistik – „Sprache“, behauptet er, „ist eine Form und nicht eine Substanz" - wodurch die Semantik als Hauptgegenstand der Analyse effektiv eliminiert wird.) Wie Todorov schlussfolgert, erscheint Saussures Werk heute bemerkenswert homogen in seiner Weigerung, symbolische Phänomene zu akzeptieren. . . . In seiner Forschung zu Anagrammen achtet er nur auf die Phänomene der Wiederholung, nicht auf die der Evokation. . . . In seinen Nibelungenstudien erkennt er Symbole nur, um sie falschen Lesarten zuzuschreiben: Da sie nicht gewollt sind, gibt es keine Symbole. Schließlich beschäftigt er sich in seinen Vorlesungen zur allgemeinen Sprachwissenschaft mit der Existenz von Semiologie und damit von anderen als sprachlichen Zeichen; aber diese Behauptung wird sofort durch die Tatsache begrenzt, dass die Semiologie einer einzigen Art von Zeichen gewidmet ist: denen, die willkürlich sind. (269-70)

Wenn das stimmt, dann deshalb, weil Saussure „Absicht“ nicht ohne ein Subjekt begreifen konnte; er konnte sich dem Gegensatz zwischen Form und Inhalt nicht ganz entziehen, den sein Werk so sehr in Frage gestellt hatte. Stattdessen griff er auf "sprachliche Legalität" zurück. Angesiedelt zwischen den Geschichtskonzepten des 19. Jahrhunderts, der Subjektivität und der von diesen Konzepten beherrschten Art der kausalen Interpretation einerseits und den „strukturalistischen“ Konzepten des 20. Jahrhunderts von dem, was Levi-Strauss den „Kantianismus ohne“ nannte ein transzendentales Subjekt" (zitiert in Connerton 23) - Konzepte, die den Gegensatz zwischen Form und Inhalt (oder Subjekt und Objekt) und die Hierarchie von Vorder- und Hintergrund im ausgewachsenen Strukturalismus, der Psychoanalyse und sogar der Quantenmechanik auslöschen - das Werk von Ferdinand de Saussure in Linguistik und Semiotik umschreibt ein Signalmoment in der Bedeutungs- und Kulturforschung.

Ronald Schleifer

Anhang 2

Ferdinand de Saussure (Übersetzung)

Der Schweizer Linguist Ferdinand de Saussure (1857–1913) gilt als Begründer der modernen Linguistik – dank seiner Versuche, die Struktur der Sprache zu beschreiben, und nicht die Geschichte einzelner Sprachen und Wortformen. Im Großen und Ganzen wurden in seinen Werken zu Beginn des 20. Jahrhunderts die Grundlagen der Strukturmethoden der Linguistik und Literaturkritik und zu einem großen Teil der Semiotik gelegt. Es ist erwiesen, dass die Methoden und Konzepte des sogenannten „Poststrukturalismus“, die in den Werken von Jacques Derrida, Michel Foucault, Jacques Lacan, Julia Kristeva, Roland Barthes und anderen entwickelt wurden, auf die sprachwissenschaftlichen Arbeiten von Saussure und Saussure zurückgehen Anagrammatische Lesarten spätrömischer Poesie. Es sei darauf hingewiesen, dass Saussures Arbeit zur Linguistik und Sprachinterpretation dazu beiträgt, ein breites Spektrum intellektueller Disziplinen zu verbinden - von der Physik bis zu literarischen Innovationen, der Psychoanalyse und der Philosophie des frühen zwanzigsten Jahrhunderts. A. J. Greimas und J. Kurte schreiben in Semiotics and Language: „Anfang des 20. Jahrhunderts erschien neben der Linguistik von Saussure, der Phänomenologie von Husserl und der Psychoanalyse ein analytisches Wörterbuch mit dem Titel „Interpretation“ als neue Art der Interpretation von Freud. In einem solchen Fall ist „Interpretation nicht die Zuschreibung eines gegebenen Inhalts auf eine sonst fehlende Form, sondern eine Paraphrase, die denselben Inhalt eines signifikanten Elements innerhalb eines gegebenen semiotischen Systems auf andere Weise formuliert“ (159 ). In diesem Verständnis von "Interpretation" sind Form und Inhalt untrennbar; im Gegenteil, jede Form ist mit semantischer Bedeutung („bedeutungsvolle Form“) gefüllt, sodass die Interpretation eine neue, ähnliche Nacherzählung von etwas Bedeutungsvollem in einem anderen Zeichensystem bietet.

Ein ähnliches Verständnis von Form und Inhalt, das Claude Lévi-Strauss in einem der programmatischen Werke des Strukturalismus („Structure and Form: Reflections on the Works of Vladimir Propp“) präsentiert hat, findet sich in Saussures posthum erschienenem Buch A Course in Allgemeine Sprachwissenschaft (1916, trans., 1959, 1983). Zu seinen Lebzeiten veröffentlichte Saussure wenig, "Course" - sein Hauptwerk - wurde aus den Notizen von Studenten gesammelt, die 1907-11 seine Vorlesungen über allgemeine Sprachwissenschaft besuchten. In dem Kurs forderte Saussure ein "wissenschaftliches" Studium der Sprache und kontrastierte sie mit der vergleichenden historischen Linguistik des 19. Jahrhunderts. Dieses Werk kann als eine der größten Errungenschaften des abendländischen Denkens angesehen werden: Ausgehend von einzelnen Wörtern als Strukturelementen der Sprache bewies die historische (oder „diachrone“) Linguistik die Entstehung und Entwicklung der westeuropäischen Sprachen von a gemeinsame, indogermanische Sprache - und eine frühere Proto-Indo-Europäerin.

Genau diese Untersuchung des einzigartigen Vorkommens von Wörtern mit der damit einhergehenden Annahme, dass die grundlegende "Einheit" der Sprache tatsächlich die positive Existenz dieser "Wortelemente" ist, hat Saussure in Frage gestellt. Seine Arbeit war ein Versuch, die vielen Tatsachen über Sprache, die von der vergleichenden Linguistik beiläufig untersucht wurden, auf eine kleine Anzahl von Theoremen zu reduzieren. Die vergleichende philologische Schule des 19. Jahrhunderts, schreibt Saussure, „hat es nicht geschafft, eine wirkliche Schule der Linguistik zu schaffen“, weil „sie das Wesen des Untersuchungsgegenstandes nicht verstanden hat“ (3). Dieses "Wesen", argumentiert er, liegt nicht nur in einzelnen Wörtern - den "positiven Substanzen" der Sprache -, sondern auch in den formalen Verbindungen, die diesen Substanzen zu ihrer Existenz verhelfen.

Saussures „Sprachtest“ basiert auf drei Annahmen. Erstens basiert das wissenschaftliche Verständnis von Sprache nicht auf einem historischen, sondern auf einem strukturellen Phänomen. Deshalb unterschied er zwischen einzelnen Phänomenen der Sprache – „Sprechereignissen“, die er als „parole“ definiert – und dem seiner Meinung nach eigentlichen Untersuchungsgegenstand der Linguistik, dem System (Code, Struktur), das diese Ereignisse steuert ("Sprache"). Eine solche systematische Untersuchung erfordert darüber hinaus eher eine "synchrone" Auffassung der Beziehung zwischen den Sprachelementen zu einem gegebenen Zeitpunkt als eine "diachrone" Untersuchung der Entwicklung einer Sprache durch ihre Geschichte.

Diese Hypothese war der Vorläufer dessen, was Roman Jakobson 1929 „Strukturalismus“ nannte – eine Theorie, in der „jede Reihe von Phänomenen, die von der modernen Wissenschaft untersucht werden, nicht als eine mechanische Akkumulation betrachtet wird, sondern als ein strukturelles Ganzes, in dem die konstruktive Komponente korreliert ist die Funktion" ("Romantik" 711). In dieser Passage formulierte Jakobson Saussures Idee, Sprache als Struktur zu definieren, im Gegensatz zur „mechanischen“ Aufzählung historischer Ereignisse. Darüber hinaus entwickelt Jakobson eine weitere Saussuresche Annahme, die zum Vorläufer der strukturellen Linguistik wurde: Die Grundelemente der Sprache sollten nicht so sehr im Zusammenhang mit ihren Ursachen, sondern mit ihren Funktionen untersucht werden. Separate Phänomene und Ereignisse (zB die Entstehungsgeschichte einzelner indogermanischer Wörter) sollten nicht für sich allein untersucht werden, sondern in einem System, in dem sie mit ähnlichen Komponenten korreliert sind. Dies war eine radikale Wende im Vergleich von Phänomenen mit der umgebenden Realität, deren Bedeutung vom Philosophen Ernst Cassirer mit "der Wissenschaft von Galileo, die die Ideen über die materielle Welt im siebzehnten Jahrhundert umkehrte" verglichen wurde , wie Greimas und Kurthe bemerken, ändert die Idee der "Interpretation", folglich die Erklärungen selbst. Phänomene begannen, nicht in Bezug auf die Ursachen ihres Auftretens interpretiert zu werden, sondern in Bezug auf die Wirkung, die sie in der haben können Gegenwart und Zukunft Interpretation war nicht mehr unabhängig von den Intentionen einer Person (trotz der Tatsache, dass Intentionen unpersönlich, „unbewusst“ im Sinne Freuds sein können).

Saussure zeigt in seiner Linguistik diese Wendung vor allem in der Veränderung des Begriffs des Wortes in der Linguistik, das er als Zeichen definiert und in seinen Funktionen beschreibt. Ein Zeichen ist für ihn eine Kombination aus Laut und Bedeutung, „signified and designation“ (66-67; in der englischen Übersetzung von 1983 von Roy Harris – „signification“ und „signal“). Die Natur dieser Verbindung ist "funktional" (weder das eine noch das andere Element kann ohne einander existieren); außerdem „leiht man sich Qualitäten vom anderen“ (8). Damit definiert Saussure das Hauptstrukturelement der Sprache – das Zeichen – und macht die Identität von Zeichen mit Wörtern zur Grundlage der historischen Linguistik, was einer besonders strengen Analyse bedarf. Daher können wir beispielsweise von demselben Wort "Baum" unterschiedliche Bedeutungen verstehen - nicht weil das Wort nur eine Menge bestimmter Eigenschaften ist, sondern weil es als Element im Zeichensystem definiert ist, im "strukturellen Ganzen", in der Sprache.

Ein solcher relativer ("diakritischer") Einheitsbegriff liegt dem Begriff aller Sprachelemente in der Strukturlinguistik zugrunde. Dies wird besonders deutlich in der originellsten Entdeckung der Saussureschen Linguistik, in der Entwicklung des Konzepts der "Phoneme" und "Unterscheidungsmerkmale" der Sprache. Phoneme sind die kleinsten gesprochenen und bedeutungsvollen Spracheinheiten. Es sind nicht nur Laute, die in der Sprache vorkommen, sondern „Klangbilder“, stellt Saussure fest, die von Muttersprachlern als bedeutungsvoll wahrgenommen werden. (Es sei darauf hingewiesen, dass Elmar Holenstein Jakobsons Linguistik, die die Ideen und Konzepte von Saussure in ihren Hauptbestimmungen fortsetzt, „phänomenologischen Strukturalismus“ nennt). Deshalb stellte der führende Redner der Prager Schule des Strukturalismus, Jan Mukarowski, 1937 fest, dass „Struktur. . . kein empirischer, sondern ein phänomenologischer Begriff; es ist nicht das Ergebnis selbst, sondern eine Reihe signifikanter Beziehungen des kollektiven Bewusstseins (Generation, andere usw.)“. Ein ähnlicher Gedanke wurde 1960 von Lévi-Strauss, dem Führer des französischen Strukturalismus, geäußert: „Die Struktur hat keinen bestimmten Inhalt; es ist an sich bedeutungsvoll, und die logische Konstruktion, in die es eingeschlossen ist, ist der Abdruck der Wirklichkeit.

Phoneme wiederum stellen als die kleinsten für die Wahrnehmung akzeptablen sprachlichen Elemente eine separate integrale "phänomenologische Realität" dar. Zum Beispiel kann der Laut „t“ im Englischen unterschiedlich ausgesprochen werden, aber eine Person, die Englisch spricht, wird ihn in jedem Fall als „t“ wahrnehmen. Angesaugt, angehoben oder abgesenkt, ein langer „t“-Laut usw. unterscheidet gleichermaßen die Bedeutung der Wörter „to“ und „do“. Darüber hinaus sind die Unterschiede zwischen Sprachen so, dass Varietäten eines Tons in einer Sprache unterschiedlichen Phonemen in einer anderen entsprechen können; Zum Beispiel sind "l" und "r" im Englischen unterschiedlich, während sie in anderen Sprachen Varianten desselben Phonems sind (wie das englische "t", ausgesprochen mit und ohne Aspiration). Das riesige Vokabular jeder natürlichen Sprache besteht aus einer Reihe von Kombinationen einer viel kleineren Anzahl von Phonemen. Im Englischen werden beispielsweise nur 40 Phoneme verwendet, um etwa eine Million Wörter auszusprechen und zu schreiben.

Die Laute einer Sprache sind eine systematisch organisierte Menge von Merkmalen. In den 1920er bis 1930er Jahren, nach Saussure, hoben Jacobson und N. S. Trubetskoy die "charakteristischen Merkmale" von Phonemen hervor. Diese Merkmale beruhen auf dem Aufbau der Sprechorgane – Zunge, Zähne, Stimmbänder – Saussure bemerkt dies im „Course of General Linguistics“, und Harris nennt es „physiologische Phonetik“ (in Baskins früherer Übersetzung der Begriff „Phonologie“. " verwendet wird) - sie sind in "Knoten" verbunden » durg gegen einen Freund, um Geräusche zu machen. Zum Beispiel ist der Unterschied zwischen „t“ und „d“ im Englischen das Vorhandensein oder Fehlen einer „Stimme“ (die Spannung der Stimmbänder) und die Lautstärke der Stimme, die ein Phonem von einem anderen unterscheidet. So kann die Phonologie als Beispiel für die von Saussure beschriebene allgemeine Sprachregel gelten: „Es gibt nur Unterschiede in der Sprache.“ Noch wichtiger ist dies nicht: Der Unterschied impliziert normalerweise die genauen Bedingungen, zwischen denen er angesiedelt ist; aber in der Sprache gibt es nur Unterschiede ohne genaue Bedingungen. Ob „Bezeichnung“ oder „Bezeichnet“ – in der Sprache gibt es weder Begriffe noch Laute, die es vor der Entwicklung des Sprachsystems gegeben hätte.

In einer solchen Struktur werden sprachliche Analogien nicht mit Hilfe ihrer inhärenten Qualitäten definiert, sondern mit Hilfe von Systembeziehungen („strukturellen“) Beziehungen.

Ich habe bereits erwähnt, dass sich die Phonologie in ihrer Entwicklung auf die Ideen von Saussure stützte. Obwohl seine Analyse der Sprachphysiologie in der Neuzeit, so Harris, „als ‚physisch‘ und nicht als ‚psychologisch‘ oder ‚funktional‘ bezeichnet werden würde, hat er in The Course die Richtung und die Grundprinzipien der Funktionsanalyse der Sprache klar zum Ausdruck gebracht. Sein einziges zu seinen Lebzeiten veröffentlichtes Werk, Memoire sur le systeme primitif des voyelles dans les langues indo-europeennes (Anmerkungen zum ursprünglichen Vokalsystem in den indogermanischen Sprachen), das 1878 veröffentlicht wurde, stand vollständig im Einklang mit der vergleichenden historischen Sprachwissenschaft der 19. Jahrhundert. Trotzdem habe Saussure in dieser Arbeit, so Jonathan Culler, "die Fruchtbarkeit der Idee der Sprache als eines Systems miteinander verbundener Phänomene gezeigt, selbst bei ihrer historischen Rekonstruktion". Saussure analysierte die Beziehung zwischen Phonemen und erklärte den Wechsel von Vokalen in den modernen Sprachen der indogermanischen Gruppe und schlug vor, dass es neben mehreren verschiedenen Lauten "a" auch andere Phoneme geben muss, die formal beschrieben werden. „Was Saussures Arbeit besonders beeindruckend macht“, schließt Kaller, „ist, dass fast 50 Jahre später, als die hethitische Keilschrift entdeckt und entschlüsselt wurde, ein mit „h“ bezeichnetes Schriftzeichen gefunden wurde, das sich so verhielt, wie es Saussure vorhergesagt hatte. Durch formale Analyse entdeckte er in den indogermanischen Sprachen das, was heute als Gutturallaut bekannt ist.

Im Konzept einer relativen (diakritischen) Definition von Zeichen, sowohl explizit als auch implizit im Kurs, gibt es eine dritte Schlüsselannahme der strukturellen Linguistik, die von Saussure die „willkürliche Natur des Zeichens“ genannt wird. Damit ist gemeint, dass die Beziehung zwischen Laut und Bedeutung in der Sprache durch nichts motiviert ist: Man kann genauso gut das Wort „arbre“ und das Wort „tree“ mit dem Begriff „tree“ verbinden. Darüber hinaus bedeutet dies, dass der Klang auch willkürlich ist: Sie können den Begriff "Baum" durch das Vorhandensein seiner Rinde (außer Palmen) und durch Größe (außer für "niedrige Gehölze" - Sträucher) definieren. Daraus sollte klar sein, dass alle Annahmen, die ich vorstelle, nicht in mehr und weniger wichtige unterteilt sind: jede von ihnen - die systemische Natur von Zeichen (am verständlichsten im "synchronen" Studium der Sprache), ihre relative (diakritische) Wesen, die Willkür der Zeichen - kommt aus der Ruhe.

Daher wird in der Saussureschen Linguistik das untersuchte Phänomen als eine Reihe von Vergleichen und Gegensätzen der Sprache verstanden. Sprache ist sowohl Ausdruck der Bedeutung von Wörtern (Bezeichnung) als auch deren Ergebnis (Kommunikation) – und diese beiden Funktionen fallen nie zusammen (vgl. Shleifers „Deconstruction of Language“). Wir können den Wechsel von Form und Inhalt sehen, den Greimas und Kurte in der neuesten Version der Interpretation beschreiben: Sprachliche Kontraste definieren seine strukturellen Einheiten, und diese Einheiten interagieren auf sukzessiven Ebenen, um einen bestimmten sinnvollen Inhalt zu erzeugen. Da die Elemente der Sprache zufällig sind, können weder Kontrast noch Kombination die Grundlage sein. Das bedeutet, dass in einer Sprache Unterscheidungsmerkmale auf einer anderen Verständnisebene einen phonetischen Kontrast bilden, Phoneme zu kontrastierenden Morphemen kombiniert werden, Morpheme - zu Wörtern, Wörter - zu Sätzen usw. In jedem Fall kann ein ganzes Phonem, Wort, Satz usw. ist mehr als die Summe seiner Teile (so wie Wasser in Saussures Beispiel mehr als eine Kombination aus Wasserstoff und Sauerstoff ist).

Die drei Annahmen des „Kurses für Allgemeine Sprachwissenschaft“ führten Saussure zu der Idee einer neuen Wissenschaft des zwanzigsten Jahrhunderts, die von der Linguistik getrennt ist und das „Leben der Zeichen in der Gesellschaft“ untersucht. Saussure nannte diese Wissenschaft Semiologie (vom griechischen „semeion“ – ein Zeichen). Die „Wissenschaft“ der Semiotik, die sich in den 1920er und 1930er Jahren in Osteuropa und in den 1950er und 1960er Jahren in Paris entwickelte, erweiterte das Studium der Sprache und der sprachlichen Strukturen um literarische Funde, die im Hinblick auf diese Strukturen verfasst (oder formuliert) wurden. Darüber hinaus beschäftigte sich Saussure in der Abenddämmerung seiner Karriere parallel zu seinem Studium der Allgemeinen Linguistik mit einer "semiotischen" Analyse spätrömischer Dichtung und versuchte, bewusst komponierte Anagramme von Eigennamen zu entdecken. Diese Methode war in ihrer linguistischen Analyse in vielerlei Hinsicht das Gegenteil des Rationalismus: Sie war ein Versuch, wie Saussure in einem der 99 Notizbücher schreibt, das Problem der „Wahrscheinlichkeit“ im System zu untersuchen, das „zur Grundlage von allem wird. " Eine solche Untersuchung, behauptet Saussure selbst, hilft, sich auf die "reale Seite" der Wahrscheinlichkeit zu konzentrieren; Das „Schlüsselwort“, für das Saussure ein Anagramm sucht, ist laut Jean Starobinsky „ein Werkzeug für den Dichter und nicht die Lebensquelle des Gedichts. Das Gedicht dient dazu, die Laute des Schlüsselwortes umzukehren. Laut Starobinsky geht Saussure in dieser Analyse „nicht auf die Suche nach verborgenen Bedeutungen ein“. Im Gegenteil, in seinen Werken ist der Wunsch spürbar, bewusstseinsbezogene Fragen zu vermeiden: „Da Poesie nicht nur in Worten ausgedrückt wird, sondern auch in dem, was diese Worte hervorrufen, entzieht sie sich der Kontrolle des Bewusstseins und hängt nur von ab die Gesetze der Sprache.“

Saussures Versuch, Eigennamen in der spätrömischen Poesie zu studieren (Tsvetan Todorov nannte dies eine Abkürzung für "ein Wort ... erst, bevor es geschrieben wird") betont eine der Komponenten seiner sprachlichen Analyse - die willkürliche Natur von Zeichen sowie die formale Essenz der Saussureschen Linguistik ("Sprache", behauptet er, "die Essenz der Form, nicht des Phänomens"), die die Möglichkeit der Analyse der Bedeutung ausschließt. Todorov kommt zu dem Schluss, dass Saussures Schriften heute bemerkenswert konsequent in ihrer Abneigung gegen das Studium von Symbolen [Phänomene mit genau definierter Bedeutung] zu sein scheinen. . . . Beim Erkunden von Anagrammen achtet Saussure nur auf Wiederholungen, nicht aber auf frühere Optionen. . . . Beim Studium des Nibelungenliedes definiert er die Symbole nur, um sie falschen Lesarten zuzuordnen: Wenn sie unbeabsichtigt sind, existieren die Symbole nicht. Schließlich geht er in seinen Schriften zur allgemeinen Sprachwissenschaft von der Existenz einer Semiologie aus, die nicht nur sprachliche Zeichen beschreibt; Diese Annahme wird jedoch dadurch eingeschränkt, dass die Semilogie nur zufällige, willkürliche Zeichen beschreiben kann.

Wenn dem wirklich so ist, dann nur, weil er sich „Absicht“ nicht ohne Objekt vorstellen konnte; er konnte die Kluft zwischen Form und Inhalt nicht vollständig überbrücken - in seinen Schriften wurde dies zu einer Frage. Stattdessen wandte er sich der "sprachlichen Legitimität" zu. Zwischen auf historischen und subjektiven Vermutungen basierenden Konzepten des 19. Jahrhunderts einerseits und darauf basierenden Methoden der zufälligen Interpretation und andererseits strukturalistischen Konzepten zu stehen, die Lévi-Strauss „Kantianismus ohne transzendenten Akteur“ nannte " - Ferlinand de Saussures Schriften über Linguistik und Semiotik markieren einen Wendepunkt in der Erforschung von Bedeutungen in Sprache und Kultur, indem sie den Gegensatz zwischen Form und Inhalt (Subjekt und Objekt), Bedeutung und Ursprung in Strukturalismus, Psychoanalyse und sogar Quantenmechanik aufheben.

Ronald Schleifer

Literatur

1. Admoni V.G. Grundlagen der Grammatiktheorie / V.G. Admoni; Akademie der Wissenschaften der UdSSR.-M.: Nauka, 1964.-104p.

3. Arapov, M. V., Herts, M. M. Mathematische Methoden in der Linguistik. M., 1974.

4. Arnold I.V. Die semantische Struktur des Wortes im modernen Englisch und die Methodik für seine Untersuchung. /I.V. Arnold-L.: Erziehung, 1966. - 187 S.

6.Bashlykov A.M. Automatisches Übersetzungssystem. / BIN. Bashlykov, A.A. Sokolov. - M.: GmbH "FIMA", 1997. - 20 p.

7. Baudouin de Courtenay: Theoretisches Erbe und Moderne: Zusammenfassungen der Berichte der internationalen wissenschaftlichen Konferenz / Ed.I.G. Kondratjew. - Kasan: KGU, 1995. - 224 p.

8. A. V. Gladkiy, Elemente der mathematischen Linguistik. / . Gladkiy A.V., Melchuk I.A. -M., 1969. - 198 S.

9. Golovin, B.N. Sprache und Statistik. /B.N. Golovin - M., 1971. - 210 p.

10. Zvegintsev, V.A. Theoretische und angewandte Linguistik. / V.A. Sweginzew - M., 1969. - 143 p.

11. Kasevich, V.B. Semantik. Syntax. Morphologie. // V.B. Kasevich - M., 1988. - 292 p.

12. Lekomtsev Yu.K. EINFÜHRUNG in die Formensprache der Linguistik / Yu.K. Lekomzew. - M.: Nauka, 1983, 204 S., mit Abb.

13. Sprachliches Erbe von Baudouin de Courtenay am Ende des zwanzigsten Jahrhunderts: Zusammenfassungen der Berichte der internationalen wissenschaftlichen und praktischen Konferenz vom 15. bis 18. März 2000. - Krasnojarsk, 2000. - 125 p.

Matveeva G.G. Versteckte grammatikalische Bedeutungen und Identifizierung der sozialen Person („Porträt“) des Sprechers / G.G. Matwejew. - Rostow, 1999. - 174 p.

14. Melchuk, I.A. Erfahrung im Aufbau sprachlicher Modelle „Bedeutung<-->Text". / I.A. Melchuk. - M., 1974. - 145 p.

15. Nelyubin L.L. Übersetzen und Angewandte Linguistik / L.L. Nelyubin. - M.: Höhere Schule, 1983. - 207 p.

16. Zu den genauen Methoden der Sprachforschung: Zur sogenannten "mathematischen Linguistik" / O.S. Akhmanova, I. A. Melchuk, E. V. Paducheva und andere - M., 1961. - 162 p.

17. Piotrowski L.G. Mathematische Linguistik: Lehrbuch / L.G. Piotrovsky, K.B. Bektaev, A.A. Piotrowskaja. - M.: Höhere Schule, 1977. - 160 p.

18. Er ist. Text, Maschine, Person. - L., 1975. - 213 p.

19. Er ist. Angewandte Linguistik / Hrsg. A. S. Gerda. - L., 1986. - 176 p.

20. Revzin, I.I. Sprachmodelle. M., 1963. Revzin, I.I. Moderne Strukturlinguistik. Probleme und Methoden. M., 1977. - 239 S.

21. Revzin, I.I., Rozentsveig, V.Yu. Grundlagen der allgemeinen und maschinellen Übersetzung / Revzin I.I., Rozentsveig, V.Yu. - M., 1964. - 401 p.

22. Slyusareva N.A. Die Theorie von F. de Saussure im Lichte der modernen Linguistik / N.A. Slyusareva. - M.: Nauka, 1975. - 156 p.

23. Eule, L.Z. Analytische Linguistik / L.Z. Eule - M., 1970. - 192 p.

24. Saussure F. de. Anmerkungen zur Allgemeinen Sprachwissenschaft / F. de Saussure; Pro. von fr. - M.: Fortschritt, 2000. - 187 p.

25. Er ist. Studiengang Allgemeine Sprachwissenschaft / Pro. von fr. - Jekaterinburg, 1999. -426 p.

26. Sprachstatistik und automatische Textanalyse / Ed. ed. R.G. Piotrowski. L., 1980. - 223 S.

27. Stoll, P. Sets. Logik. Axiomatische Theorien / R. Stoll; Pro. aus dem Englischen. - M., 1968. - 180 p.

28. Tenier, L. Grundlagen der strukturellen Syntax. M., 1988.

29. Ubin II. Automatisierung von Übersetzungsaktivitäten in der UdSSR / I.I. Ubin, L. Yu. Korostelev, B.D. Tichomirow. - M., 1989. - 28 p.

30. Faure, R., Kofman, A., Denis-Papin, M. Moderne Mathematik. M., 1966.

31. Shenk, R. Verarbeitung konzeptioneller Informationen. M., 1980.

32. Shikhanovich, Yu.A. EINFÜHRUNG in die moderne Mathematik (Anfangsbegriffe). M., 1965

33. Shcherba L.V. Russische Vokale in qualitativer und quantitativer Hinsicht / L.V. Shcherba - L.: Nauka, 1983. - 159 p.

34. Abdullah-zade F. Weltbürger // Spark - 1996. - Nr. 5. - S.13

35. V.A. Uspensky. Vorläufig für die Leser der "New Literary Review" zu den semiotischen Botschaften von Andrei Nikolaevich Kolmogorov. - Neue Literaturkritik. -1997. - Nr. 24. - S. 18-23

36. Perlovsky L. Bewusstsein, Sprache und Kultur. - Wissen ist Macht. -2000. №4 - S. 20-33

Einführung? Vorlesung Übersetzungstheorie

Die Linguistik wurde im letzten Jahrhundert immer wieder als Beispiel einer Wissenschaft angeführt, die sich rasant entwickelt hat und sehr schnell zur methodischen Reife gelangt ist. Bereits Mitte des letzten Jahrhunderts hat sich die junge Wissenschaft selbstbewusst in den Kreis der jahrtausendealten Wissenschaften eingeordnet, und einer ihrer prominentesten Vertreter - A. Schleicher - hatte den Mut, mit seinen Arbeiten daran zu glauben fasste bereits die letzte Zeile zusammen.<113>Die Geschichte der Linguistik hat jedoch gezeigt, dass eine solche Meinung zu voreilig und ungerechtfertigt war. Am Ende des Jahrhunderts erlebte die Linguistik ihren ersten großen Schock, der mit der Kritik an neogrammatischen Prinzipien verbunden war, gefolgt von anderen. Dabei ist festzuhalten, dass alle Krisen, die wir in der Geschichte der Sprachwissenschaft aufdecken können, diese in der Regel nicht in ihren Grundfesten erschütterten, sondern im Gegenteil zur Stärkung beitrugen und letztlich eine Verfeinerung und Verbesserung mit sich brachten der Methoden sprachwissenschaftlicher Forschung, erweitert um Themen und wissenschaftliche Fragestellungen.

Aber neben der Sprachwissenschaft lebten und entwickelten sich auch andere Wissenschaften, darunter eine Vielzahl neuer. Die physikalischen, chemischen und technischen (sogenannten "exakten") Wissenschaften haben in unserer Zeit eine besonders schnelle Entwicklung erfahren, und ihre theoretische Grundlage, die Mathematik, hat sie alle beherrscht. Die exakten Wissenschaften haben nicht nur alle Geisteswissenschaften stark bedrängt, sondern streben gegenwärtig danach, sie "in ihren Glauben zu bringen", sie ihren Gepflogenheiten unterzuordnen, ihnen ihre Forschungsmethoden aufzuzwingen. In der gegenwärtigen Situation kann man mit einem japanischen Ausdruck sagen, dass jetzt Linguisten-Philologen den äußersten Rand der Matte beschmutzen, wo die exakten Wissenschaften, angeführt von der Mathematik, triumphierend und frei ihren Standort haben.

Wäre es vom allgemeinen wissenschaftlichen Interesse aus nicht zielführender, vor der Mathematik zu kapitulieren, sich ganz der Macht ihrer Methoden zu ergeben, die manche Stimmen offen fordern 59 , und dadurch vielleicht neue Kraft zu gewinnen ? Um diese Fragen zu beantworten, müssen wir uns zunächst ansehen, welche Ansprüche die Mathematik in diesem Fall stellt, in welchem ​​Bereich der Linguistik mathematische Methoden ihre Anwendung finden, inwieweit sie mit den Besonderheiten des Sprachmaterials vereinbar sind und ob sie zu leisten vermögen oder auch nur Antworten auf diese Fragen vorschlagen, die von der Sprachwissenschaft gestellt werden.

Von Anfang an sei darauf hingewiesen, dass unter den Enthusiasten der neue, mathematische Trend in der Linguistik ist<114>In der statischen Forschung gibt es keine einheitlichen Meinungen über ihre Ziele und Zielsetzungen. Akad. A. A. Markov, der als erster mathematische Methoden auf Sprache anwandte, betrachten Boldrini, Yul, Mariotti Sprachelemente als geeignetes Anschauungsmaterial für die Konstruktion quantitativer Methoden oder für statistische Theoreme, ohne sich überhaupt zu fragen, ob die Ergebnisse einer solchen Studie von Interesse sind für Linguisten 6 0 . Ross glaubt, dass die Wahrscheinlichkeitstheorie und die mathematische Statistik ein Werkzeug oder, wie sie jetzt lieber sagen, ein mathematisches Modell zum Testen und Bestätigen jener linguistischen Schlussfolgerungen bieten, die eine numerische Interpretation zulassen. Mathematische Methoden sind also nur als Hilfsmittel der Sprachforschung 6 1 konzipiert. Viel mehr behauptet Herdan, der in seinem Buch alle Versuche zur mathematischen Erforschung von Sprachproblemen nicht nur zusammenfasste und systematisierte, sondern auch versuchte, ihnen eine klare Orientierung für die weitere Arbeit zu geben. Er konzentriert sich bei der Präsentation des gesamten Materials seines Buches auf das „Verstehen der Literaturstatistik (wie er das Studium von Texten mit Methoden der mathematischen Statistik nennt. - IN 3.) als integraler Bestandteil der Linguistik“ 6 2 , und formuliert Wesen und Aufgaben dieses neuen Abschnitts der Linguistik mit folgenden Worten: „Literaturstatistik als quantitative Sprachphilosophie ist auf alle Zweige der Linguistik anwendbar. Literaturstatistik ist unseres Erachtens eine auf das Niveau einer quantitativen Wissenschaft oder einer quantitativen Philosophie erhobene Strukturlinguistik. Daher ist es ebenso falsch, seine Ergebnisse als außerhalb des Geltungsbereichs liegend zu definieren<115>Linguistik oder als Hilfsmittel für die Forschung behandeln“ 6 3 .

Es ist kaum ratsam, in Theorien darüber einzutreten, ob es in diesem Fall legitim ist, von der Entstehung eines neuen Zweigs der Linguistik zu sprechen, und die Frage seiner Ansprüche zu klären, ohne sich zunächst auf die Betrachtung dessen zu beziehen, was tatsächlich getan wurde diesem Bereich zu klären und zu klären, in welche Richtung die Anwendung neuer Methoden 6 4 . Dies wird uns helfen, die Meinungsverschiedenheiten zu verstehen.

Die Verwendung mathematischer (oder genauer statistischer) Kriterien zur Lösung sprachlicher Probleme ist keineswegs neu in der Sprachwissenschaft und wird seit langem von Linguisten bis zu einem gewissen Grad verwendet. Schließlich sind solche traditionellen Konzepte der Linguistik wie das phonetische Gesetz (und verwandte<116>nee damit - eine Ausnahme vom Gesetz), die Produktivität grammatikalischer Elemente (z. B. Ableitungssuffixe) oder sogar die Kriterien für verwandtschaftliche Beziehungen zwischen Sprachen basieren bis zu einem gewissen Grad auf relativen statistischen Merkmalen. Denn je schärfer und deutlicher der statistische Gegensatz der beobachteten Fälle ist, desto mehr Grund haben wir, über produktive und unproduktive Suffixe, über das Lautgesetz und Ausnahmen davon, über das Vorhandensein oder Fehlen von Verwandtschaft zwischen Sprachen zu sprechen. Aber wenn in solchen Fällen das statistische Prinzip mehr oder weniger spontan angewendet wurde, dann begann es in Zukunft bewusst und bereits mit einer bestimmten Zielsetzung angewendet zu werden. So sind in unserer Zeit die sogenannten Häufigkeitswörterbücher von Vokabeln und Ausdrücken einzelner Sprachen 6 5 oder auch die Bedeutungen mehrsprachiger Wörter mit einem „allgemeinen Realitätsbezug“ 6 6 sehr weit verbreitet. Die Daten dieser Wörterbücher werden verwendet, um fremdsprachige Lehrbücher (deren Texte auf den am häufigsten verwendeten Vokabeln aufbauen) und Minimalwörterbücher zu erstellen. Statistisches Kalkül fand eine besondere sprachliche Verwendung in der Methode der Lexikostatistik oder Glotochronologie von M. Swadesh, wo auf der Grundlage statistischer Formeln, die die Fälle des Verschwindens der Wörter des Hauptfonds aus den Sprachen berücksichtigen, es sich handelt möglich, die absolute Chronologie der Zerstückelung von Sprachfamilien zu erstellen 6 7 .

In den letzten Jahren haben Fälle der Anwendung mathematischer Methoden auf sprachliches Material stark zugenommen, und in der Masse solcher Versuche haben sich mehr oder weniger eindeutige Richtungen abgezeichnet. Wenden wir uns um<117>zu deren sequentieller Betrachtung, ohne auf Einzelheiten einzugehen.

Beginnen wir mit der Richtung, die den Namen Stilstatistik erhalten hat. In diesem Fall sprechen wir von der Definition und Charakterisierung der Stilmerkmale einzelner Werke oder Autoren durch die quantitativen Relationen der verwendeten sprachlichen Elemente. Die Grundlage des statistischen Ansatzes zur Erforschung stilistischer Phänomene ist das Verständnis des literarischen Stils als individuelle Art der Beherrschung der Sprachmittel. Gleichzeitig wird der Forscher völlig von der Frage nach der qualitativen Bedeutung der zählbaren Sprachelemente abgelenkt und richtet seine ganze Aufmerksamkeit nur auf die quantitative Seite; die semantische Seite der untersuchten Spracheinheiten, ihre emotionale und expressive Belastung sowie ihr Anteil am Gefüge eines Kunstwerks - all dies bleibt unberücksichtigt, verweist auf die sogenannten redundanten Phänomene. So erscheint ein Kunstwerk in Form eines mechanischen Aggregats, dessen Spezifität der Konstruktion nur durch die Zahlenverhältnisse seiner Elemente zum Ausdruck kommt. Vertreter der Stilistik verschließen vor allen genannten Umständen nicht die Augen und stellen den Methoden der traditionellen Stilistik, die zweifellos Elemente der Subjektivität enthalten, eine einzige Qualität der mathematischen Methode gegenüber, die ihrer Meinung nach alle ihre Mängel kompensiert - die Objektivität der erzielten Ergebnisse. „Wir bemühen uns“, schreibt etwa V. Fuchs, „... den sprachlichen Ausdrucksstil mit mathematischen Mitteln zu charakterisieren. Dazu sollten Methoden geschaffen werden, deren Ergebnisse ebenso objektiv sein sollten wie die Ergebnisse der exakten Wissenschaften ... Dies legt nahe, dass wir uns zumindest zunächst nur mit formalen Strukturqualitäten und nicht mit semantischen Inhalten befassen werden von sprachlichen Ausdrücken. . Auf diese Weise erhalten wir ein System von Ordinalrelationen, das in seiner Gesamtheit die Grundlage und den Ausgangspunkt der mathematischen Stiltheorie bilden wird“ 6 8 .<118>

Die einfachste Art der statistischen Herangehensweise an die Erforschung der Sprache von Schriftstellern oder einzelnen Werken ist das Zählen der verwendeten Wörter, da der Reichtum des Wörterbuchs offenbar auch den Autor selbst in gewisser Weise charakterisieren soll. Die Ergebnisse solcher Berechnungen liefern jedoch diesbezüglich etwas unerwartete Ergebnisse und tragen in keiner Weise zur ästhetischen Erkenntnis und Bewertung eines literarischen Werkes bei, was nicht zuletzt zu den Aufgaben der Stilistik gehört. Hier sind einige Daten zur Gesamtzahl der Wörter, die in einer Reihe von Werken verwendet werden:

Bibel (lateinisch). . . . . . . . . . 5649 Wörter

Bibel (Hebräisch). . . . 5642 Wörter

Demosthenes (Rede). . . . . . . . . . . . 4972 Wörter

Sallust. . . . . . . . . . . . . . . . . 3394 Wörter

Horaz. . . . . . . . . . . . . . . . . . . 0,6084 Wörter

Dante (Göttliche Komödie) 5860 Wörter

(dazu gehören 1615 Eigennamen und geographische Namen)

Tasso (Der wütende Orland). . . . 8474 Wörter

Milton. . . . . . . . . . . . . . . . . . . . .8000 Wörter (ungefähr angegeben)

Shakespeare. . . . . . . . . . . . . . . . . . .15000 Wörter

(ungefähr, nach anderen Quellen 20.000 Wörter)

O. Jespersen weist darauf hin, dass das Wörterbuch von Zola, Kipling und Jack London das Wörterbuch von Milton erheblich übersteigt, d. h. die Zahl ist 8000 6 9 . Die Berechnung des Redenlexikons des US-Präsidenten W. Wilson ergab, dass es reichhaltiger ist als das von Shakespeare. Dazu sollten die Daten von Psychologen hinzugefügt werden. So stellte Terman auf der Grundlage von Beobachtungen einer großen Anzahl von Fällen fest, dass der Wortschatz eines durchschnittlichen Kindes etwa 3600 Wörter und im Alter von 14 Jahren bereits 9000 beträgt. Der durchschnittliche Erwachsene verwendet 11700 Wörter und eine Person von "erhöht Intelligenz" bis 13500 7 0 . Solche Zahlenangaben allein liefern also keine Grundlage für die Identifizierung der stilistischen Qualitäten von Werken und nur "objektiv" con<119>Sie geben die Verwendung einer unterschiedlichen Anzahl von Wörtern durch verschiedene Autoren an, was, wie die obigen Berechnungen zeigen, nicht mit dem relativen künstlerischen Wert ihrer Werke zusammenhängt.

Berechnungen zur relativen Häufigkeit der Wortverwendung einzelner Autoren sind etwas anders aufgebaut. Dabei wird nicht nur die Gesamtzahl der Wörter berücksichtigt, sondern auch die Häufigkeit der Verwendung einzelner Wörter. Die statistische Verarbeitung des auf diese Weise gewonnenen Materials besteht darin, dass Wörter mit gleicher Verwendungshäufigkeit in Klassen (oder Ränge) eingeteilt werden, was zur Ermittlung der Häufigkeitsverteilung aller von einem bestimmten Autor verwendeten Wörter führt. Ein Spezialfall dieser Art der Berechnung ist die Bestimmung der relativen Häufigkeit bestimmter Wörter (zB romanischer Wortschatz in den Werken von Chaucer, wie es Mersand 7 1 getan hat). Die relative Häufigkeit der von den Autoren verwendeten Wörter enthält die gleichen objektiven Informationen über den Stil einzelner Autoren wie die obigen Gesamtberechnungen, mit dem einzigen Unterschied, dass das Ergebnis genauere numerische Daten sind. Es wird aber auch verwendet, um einzelne Werke desselben Autors auf der Grundlage einer vorläufigen Berechnung der relativen Häufigkeit seines Wortgebrauchs in verschiedenen Abschnitten seines Lebens (nach vom Autor selbst datierten Werken) zu datieren. Eine andere Art der Verwendung von Daten aus solchen Berechnungen besteht darin, die Echtheit der Urheberschaft von Werken festzustellen, bei denen diese Frage zweifelhaft erscheint 7 2 . In diesem letzten Fall basiert alles auf einem Vergleich statistischer Formeln für die Verwendungshäufigkeit in echten und kontroversen Werken. Über die sehr große Relativität und Annäherung der Ergebnisse solcher Methoden braucht man nicht zu sprechen. Denn die relative Nutzungshäufigkeit variiert nicht nur mit dem Alter des Autors, sondern auch je nach Genre, Handlung und historischem Umfeld des Werks (vgl. etwa „Brot“ und „Peter I“ von A . Tolstoi).<120>

In Vertiefung der oben beschriebenen Methode begann die Stilstatistik als Stilmerkmal, auf das Stabilitätskriterium der relativen Häufigkeit der am häufigsten verwendeten Wörter zurückzugreifen. Die dabei angewandte Methode lässt sich anhand der statistischen Aufarbeitung von Puschkins Erzählung „The Captain’s Daughter“ durch Esselson und Epstein am Institute of Slavonic Languages ​​​​der University of Detroit (USA) 7 3 veranschaulichen. Der gesamte Text der Geschichte (ca. 30.000 Wortvorkommen) wurde der Untersuchung unterzogen, dann Passagen mit ca. 10.000 und 5.000 Vorkommen. Ferner wurden, um die Stabilität der relativen Häufigkeit der Verwendung von Wörtern zu bestimmen, die 102 häufigsten Wörter (mit einer Häufigkeit von 1160 Mal zu 35) mit der berechneten relativen Häufigkeit (anhand ausgewählter Passagen gemacht) verglichen der eigentliche. Beispielsweise wurde die Vereinigung „und“ in der gesamten Geschichte 1.160 Mal verwendet. In einer Passage mit 5.000 Vorkommen aller Wörter wird erwartet, dass diese Konjunktion 5.000 x 1.160:30.000 verwendet wird, oder 193 Mal aufgerundet wird, und in einer Passage mit 10.000 Vorkommen aller Wörter wird erwartet, dass sie 10.000 x verwendet wird 1.160: 30.000 oder 386 mal. Der Vergleich der mit dieser Art von Berechnungen erhaltenen Daten mit den tatsächlichen Daten zeigt eine sehr geringe Abweichung (innerhalb von 5 %). Basierend auf solchen Berechnungen wurde festgestellt, dass in dieser Geschichte von Puschkin die Präposition "k" doppelt so oft wie "y" verwendet wird und das Pronomen "you" dreimal häufiger verwendet wird als "they" usw. Also Trotz aller Wechselfälle der Handlung, sowohl in der gesamten Geschichte als auch in ihren einzelnen Teilen, gibt es eine Stabilität in der relativen Häufigkeit des Gebrauchs von Wörtern. Was in Bezug auf einige (häufigste) Wörter beobachtet wird, gilt vermutlich für alle Wörter, die in der Arbeit verwendet werden. Daraus folgt, dass der Stil des Autors durch ein bestimmtes Verhältnis der Variabilität der durchschnittlichen Häufigkeit der Verwendung eines Wortes zur allgemeinen Häufigkeit für eine bestimmte Sprache gekennzeichnet werden kann.<121>die Häufigkeit seiner Verwendung. Dieses Verhältnis gilt als objektives quantitatives Merkmal des Stils des Autors.

Andere formale Elemente der Sprachstruktur werden auf ähnliche Weise untersucht. So hat beispielsweise V. Fuchs die metrischen Merkmale der Werke von Goethe, Rilke, Caesar, Sallust etc. einer vergleichend-statistischen Betrachtung unterzogen.7 4

Das Kriterium der Stabilität der relativen Häufigkeit des Wortgebrauchs verdeutlicht zwar die Technik der quantitativen Charakterisierung des Stils, bringt aber im Vergleich zu den oben analysierten primitiveren Methoden nichts grundlegend Neues. Alle Methoden der Stilistik liefern letztlich die gleichen leidenschaftslosen "objektiven" Ergebnisse, gleiten über die Oberfläche der Sprache und haften nur an rein äußeren Zeichen. Quantitative Methoden sind offenbar nicht in der Lage, sich auf die qualitativen Unterschiede im untersuchten Material zu konzentrieren und tatsächlich alle untersuchten Objekte auszugleichen.

Wo eine maximale Spezifikation erforderlich ist, werden die allgemeinsten Kriterien angeboten; qualitative Merkmale werden in der Sprache der Quantität ausgedrückt. Das ist nicht nur ein logischer Widerspruch, sondern auch ein Widerspruch zur Natur der Dinge. Was passiert in der Tat, wenn wir versuchen, ein vergleichendes stilistisches (d. h. qualitatives) Merkmal der Werke von Alexander Gerasimov und Rembrandt auf der Grundlage des quantitativen Verhältnisses von roter und schwarzer Farbe auf ihren Leinwänden zu erhalten? Es scheint ein absoluter Unsinn zu sein. Inwieweit können uns völlig „objektive“ quantitative Informationen über die körperlichen Daten einer Person eine Vorstellung von allem geben, was eine Person charakterisiert und ihr wahres Wesen ausmacht? Offensichtlich keine. Sie können nur als individuelles Zeichen dienen, das eine Person von einer anderen unterscheidet, wie ein Abdruck von Windungen auf dem Daumen. Ähnlich verhält es sich mit den quantitativen Merkmalen des literarischen Stils. Sie liefern bei genauem Hinsehen ebenso magere Daten zur Beurteilung der eigentlichen Stilistik<122>Qualitäten der Sprache des Autors sowie eine Beschreibung der Windungen am Finger für das Studium der menschlichen Psychologie.

Zu allem Gesagten sollte hinzugefügt werden, dass in der Vergangenheit in der sogenannten formalen Schule der Literaturkritik bereits der Versuch unternommen wurde, eine quantitative Studie über den Stil von Schriftstellern durchzuführen, wenn Epitheta, Metaphern und Rhythmik -melodische Elemente des Verses wurden gezählt. Dieser Versuch wurde jedoch nicht weiterentwickelt.

Ein weiteres Anwendungsgebiet mathematischer Methoden zur Erforschung sprachlicher Phänomene lässt sich unter dem Namen Sprachstatistik zusammenfassen. Es versucht, in die Grundfragen der Sprachtheorie einzudringen und damit eine Berufung im Bereich der Linguistik selbst zu erlangen. Um sich mit dieser Richtung vertraut zu machen, wendet man sich am besten dem bereits erwähnten Werk von Herdan zu, wie es einer seiner vielen Rezensenten ausdrückte, „einem ungeheuer anspruchsvollen Buch“ 7 5 , stieß jedoch unter Linguisten auf breites Echo 7 6 . Angesichts der Tatsache, dass Herdan (wie bereits oben erwähnt) in seinem Buch das Wichtigste auf dem Gebiet der Anwendung mathematischer Methoden auf sprachliche Probleme zu sammeln suchte, haben wir es in seinem Buch eigentlich weniger mit Herdan als mit einem Ganzen zu tun Trend. Wie schon der Titel des Buches, Sprache als Wahl und Wahrscheinlichkeit, zeigt, liegt sein Hauptaugenmerk auf der Klärung dessen, was in der Sprache der freien Wahl des Sprechers überlassen bleibt und was der immanenten Struktur der Sprache, so wie sie ist, geschuldet ist bei der Bestimmung des Mengenverhältnisses der Elemente erster und zweiter Ordnung. Kherdans Buch informiert fast erschöpfend über alle Arbeiten auf diesem Gebiet, die von Vertretern verschiedener Fachrichtungen durchgeführt werden.<123>(Philosophen, Linguisten, Mathematiker, Techniker), ist aber nicht darauf beschränkt und enthält viele originelle Beobachtungen, Überlegungen und Schlussfolgerungen des Autors selbst. Als zusammenfassende Arbeit gibt es einen guten Überblick über die verwendeten quantitativen Methoden und die mit ihrer Hilfe erzielten Ergebnisse. Die Fragen, die wir bedingt in den Abschnitt der Sprachstatistik zusammenfassen, werden im zweiten und vierten Teil des Buches behandelt.

Von den vielen Fällen der Anwendung der Methoden der mathematischen Statistik auf das Studium sprachlicher Probleme konzentrieren wir uns auf die allgemeinsten, die auch als die typischsten angesehen werden können. Verwendung von Daten anderer Autoren - Boldrini 7 7 , Mathesius 7 8 , Mariotti 7 9 , Zipf 8 0 , Deway 8 1 und andere, sowie unter Berufung auf eigene Studien, die die relative Häufigkeit der Verteilung von Phonemen, Buchstaben, Wortlänge (gemessen an der Anzahl der Buchstaben und Silben) bestimmen , grammatikalische Formen und metrische Elemente im lateinischen und griechischen Hexameter stellt Herdan die Tatsache der Stabilität der relativen Häufigkeit sprachlicher Elemente als gemeinsames Merkmal aller sprachlichen Strukturen fest. Er leitet die folgende Regel ab: „Die Anteile der sprachlichen Elemente, die zu der einen oder anderen Ebene oder Sphäre der sprachlichen Kodierung gehören – Phonologie, Grammatik, Metrik – bleiben für eine bestimmte Sprache, in einer bestimmten Periode ihrer Entwicklung und innerhalb der Sprache mehr oder weniger konstant Grenzen hinreichend umfassender und unvoreingenommener Beobachtungen » 8 2 . Diese Regel, die Herdan das Grundgesetz der Sprache nennt, sucht er in gewisser Weise zu interpretieren und zu erweitern. „Er“, schreibt Herdan über dieses Gesetz, „ist ein Ausdruck dafür, dass auch hier, wo der menschliche Wille und die Entscheidungsfreiheit gewährt werden<124>im weitesten rahmen, wo sich bewusste wahl und unbeschwertes spiel abwechseln, gibt es insgesamt eine beachtliche stabilität... in der grammatik, aber auch in bezug auf die verwendungshäufigkeit von bestimmten phonemen, lexikalischen einheiten (wörtern) und grammatikalischen phonemen und Konstruktionen; mit anderen Worten, die Ähnlichkeit besteht nicht nur darin, was verwendet wird, sondern auch darin, wie oft es verwendet wird“ 8 3 . Diese Situation hat verständliche Gründe, aber dies führt zu neuen Schlussfolgerungen. Bei der Untersuchung verschiedener Texte oder Segmente einer gegebenen Sprache stellt man beispielsweise fest, dass die relativen Häufigkeiten der Verwendung eines bestimmten bestimmten Phonems (oder anderer Sprachelemente) durch verschiedene Personen grundsätzlich gleich bleiben. Dies führt zur Interpretation einzelner Sprachformen als Schwankungen in der konstanten Wahrscheinlichkeit, das betrachtete Phonem in einer bestimmten Sprache zu verwenden. Es stellt sich also heraus, dass eine Person in ihrer Sprechtätigkeit bestimmten Wahrscheinlichkeitsgesetzen in Bezug auf die Anzahl der verwendeten Sprachelemente unterliegt. Und dann, wenn wir in einer großen Menge von Texten oder Sprachabschnitten eine Vielzahl von Sprachelementen beobachten, entsteht der Eindruck einer kausalen Abhängigkeit in dem Sinne, dass hier auch eine Bestimmung in Bezug auf die Verwendung bestimmter Sprachelemente besteht . Mit anderen Worten erweist es sich als zulässig zu behaupten, dass das, was aus intuitiver Sicht ein kausaler Zusammenhang zu sein scheint, quantitativ eine Wahrscheinlichkeit ist 8 4 . Es ist klar, dass die Summe größer ist<125>Je spezifischer die untersuchten Texte oder Sprachabschnitte sind, desto deutlicher wird sich die Stabilität der relativen Häufigkeit der Verwendung sprachlicher Elemente auch im individuellen Gebrauch manifestieren (das Gesetz der großen Zahl). Daraus wird eine neue allgemeine Schlussfolgerung gezogen, dass Sprache ein Massenphänomen ist und als solches behandelt werden sollte.

Diese auf der Grundlage von Häufigkeitsberechnungen von phonetischen Elementen, Wörtern und grammatikalischen Formen, die zusammen eine Sprache bilden, gewonnenen Schlussfolgerungen werden dann auf die "statistische Interpretation" von Saussures Einteilung in "Sprache" (Lalangue) und "Rede" (Laparole) angewendet ). Laut Saussure ist "Sprache" eine Reihe von Sprachgewohnheiten, die die Kommunikation zwischen Mitgliedern einer bestimmten Sprachgemeinschaft ermöglichen. Dies ist eine gesellschaftliche Realität, ein „Massenphänomen“, verpflichtend für alle Menschen, die diese Sprache sprechen. Herdan beweist, wie angedeutet, dass die Mitglieder einer einzigen Sprachgemeinschaft einander nicht nur dadurch ähnlich sind, dass sie dieselben Phoneme, lexikalischen Einheiten und grammatikalischen Formen verwenden, sondern auch dadurch, dass all diese Elemente mit derselben Häufigkeit verwendet werden . Seine statistische Definition von „Sprache“ nimmt daher folgende Form an: „Sprache“ (lalangue) ist die Gesamtheit gemeinsamer sprachlicher Elemente zuzüglich ihrer relativen Wahrscheinlichkeit, verwendet zu werden.

Diese Definition von „Sprache“ ist auch der Ausgangspunkt für die entsprechende statistische Interpretation von „Sprache“, die laut Saussure eine individuelle Äußerung ist. Saussure stellte „Sprache“ als soziales Phänomen „Sprache“ als individuelles Phänomen gegenüber und schrieb: „Sprache ist ein individueller Willens- und Verständigungsakt, bei dem zu unterscheiden ist: 1. Kombinationen, mit denen das sprechende Subjekt die Sprache verwendet Code, um seinen persönlichen Gedanken auszudrücken; 2. ein psychophysischer Mechanismus, der es ihm erlaubt, diese Kombinationen zu objektivieren“ 8 5 . Da "Sprache" in der Sprachstatistik als eine Menge von Elementen mit einem bestimmten Verwandten betrachtet wird<126>bestimmte Wahrscheinlichkeit ihrer Verwendung, sofern sie als wesentlichstes Merkmal die statistische Gesamtheit oder Gesamtheit (Population) umfasst und in diesem Aspekt berücksichtigt werden kann. Demnach wird „Sprache“ zu einer eigenen Stichprobe von „Sprache“ als statistischem Aggregat. Die Wahrscheinlichkeit wird dabei durch das Verhältnis von „Rede“ zu „Sprache“ (in ihrem „quantitativen“ Verständnis) bestimmt, und die Verteilung der relativen Häufigkeit der Verwendung verschiedener Elemente der Sprache wird als Ergebnis interpretiert von a kollektive "Wahl" (Wahl) in einem bestimmten chronologischen Zeitraum der Existenz der Sprache. Im Verständnis, dass eine solche Interpretation der Unterschiede zwischen „Sprache“ und „Sprache“ dennoch auf ganz anderen Grundlagen aufbaut als die Saussures, schreibt Herdan dazu: „Diese scheinbar geringfügige Modifikation des Saussureschen Begriffs hat die wichtige Konsequenz, dass „Sprache“ ( lalangue ) erhält nun ein wesentliches Merkmal in Form eines statistischen Aggregats (Population). Diese Grundgesamtheit ist durch bestimmte relative Häufigkeiten bzw. Schwankungswahrscheinlichkeiten gekennzeichnet, d. h. jedes Sprachelement gehört einem bestimmten Sprachniveau an. In diesem Fall entpuppt sich „Sprache“ (Laparole) gemäß seiner Bedeutung als Begriff zur Definition statistischer Stichproben aus „Sprache“ als statistische Grundgesamtheit. Es wird deutlich, dass die Auswahl (Wahl) hier in Form des Verhältnisses von „Sprache“ zu „Sprache“ erscheint, also dem Verhältnis einer zufällig gezogenen Stichprobe zu einer statistischen Gesamtheit (Bevölkerung). Gerade die Ordnung der Häufigkeitsverteilung, als Hinterlegung der Sprechtätigkeit einer Sprachgemeinschaft über die Jahrhunderte, ist ein Element der Wahl (Wahl), aber nicht der individuellen Wahl, wie beim Stil, sondern der kollektiven Wahl. Mit einer Metapher können wir hier von der Wahl des Sprachgeistes sprechen, wenn wir darunter die Prinzipien der sprachlichen Kommunikation verstehen, die dem Komplex der mentalen Daten der Mitglieder einer bestimmten Sprachgemeinschaft entsprechen. Die Stabilität von Reihen ist das Ergebnis von Wahrscheinlichkeit (Zufall)» 8 6 .

Ein Sonderfall der Anwendung des genannten Prinzips<127>pa ist in der Sprache die Abgrenzung normativer Phänomene von „Ausnahmen“ (Abweichungen). Die Sprachstatistik besagt, dass die statistische Methode es ermöglicht, die in dieser Frage vorhandene Unschärfe zu beseitigen und klare Kriterien für die Unterscheidung zwischen diesen Phänomenen festzulegen. Wenn die Norm als Grundgesamtheit (im obigen Sinne) verstanden wird und die Ausnahme (bzw. der Fehler) eine Abweichung von den Häufigkeiten der Grundgesamtheit ist, dann bietet sich eine quantitative Lösung der Fragestellung an. Es läuft alles auf eine statistische Beziehung zwischen „Bevölkerung“ und „Ausreißer“ hinaus. Weichen die in einer einzelnen Stichprobe beobachteten Häufigkeiten von den Wahrscheinlichkeiten aufgrund der statistischen Grundgesamtheit um mehr ab, als durch eine Reihe von Stichprobenzählungen bestimmt wird, dann haben wir Grund zu der Annahme, dass die Trennlinie zwischen „gleich“ (Norm) und „nicht das gleiche" (Ausnahme) verletzt wird.

Quantitative Unterschiede zwischen "Sprache" und "Rede" werden auch verwendet, um zwei Arten von sprachlichen Elementen zu unterscheiden: grammatikalische und lexikalische. Ausgangspunkt zur Lösung dieses aus sprachwissenschaftlicher Sicht oft sehr schwierigen Problems ist die Annahme, dass der Häufigkeitsgrad grammatikalischer Elemente ein anderer ist als der von lexikalischen Einheiten. Dies hängt angeblich mit der "Verallgemeinerung" grammatikalischer Elemente zusammen, wie sie sich von durch lexikalische Einheiten festgelegten Begriffen unterscheiden. Außerdem sind grammatikalische Elemente in der Regel viel kleiner: Als eigenständige Wörter (dazu zählen Pronomen, Präpositionen, Konjunktionen und Hilfswörter) bestehen sie meist aus wenigen Phonemen und in Form von „zusammenhängenden Formen“. " - aus einem oder zwei Phonemen 8 7 . Je kleiner das sprachliche Element ist, desto weniger kann seine "Länge" (quantitatives Moment) als definierendes Merkmal dienen, und desto wichtiger wird die "Qualität" von Phonemen für diesen Zweck. Welche Methoden werden vorgeschlagen, um das betrachtete Problem zu lösen? Es wird gelöst, indem man sich auf den rein quantitativen Begriff der Grammatik bezieht<128>load, „Nehmen wir an“, schreibt Herdan in diesem Zusammenhang, „dass wir daran interessiert sind, zwei Sprachen in dieser Hinsicht zu vergleichen. Wie können wir mit einem gewissen Maß an Objektivität die „grammatische Last“ bestimmen, die eine Sprache trägt? Es ist klar, dass diese Belastung von der Position der Demarkationslinie zwischen Grammatik und Wortschatz abhängt. Die erste Überlegung, die uns in den Sinn kommt, ist die Bestimmung, wie "komplex" die Grammatik einer bestimmten Sprache ist. Schließlich ist „Komplexität“ ein qualitatives Merkmal und der Begriff „grammatikalische Belastung“ ein quantitatives Merkmal. Die Belastung hängt zwar bis zu einem gewissen Grad von der Komplexität ab, aber nicht vollständig. Eine Sprache mag mit einer äußerst komplexen Grammatik belohnt werden, aber nur ein vergleichsweise kleiner Teil davon wird in der Aktivität der Sprache verwendet. Wir definieren „grammatische Belastung“ als die Gesamtheit der Grammatik, die eine Sprache trägt, wenn sie in Aktion ist, was unser Problem sofort in den Bereich der strukturellen Linguistik in dem Sinne bringt, in dem die Disziplin von Saussure definiert wurde. In der folgenden Präsentation werden quantitative Methoden verwendet, um den Unterschied zwischen Sprachen zu bestimmen, je nachdem, wo die Grenze liegt, indem Grammatik und Wortschatz getrennt werden“ 8 8 . Mit anderen Worten, sprachliche Unterschiede sollten in diesem Fall auf Unterschiede in numerischen Beziehungen zwischen grammatikalischen und lexikalischen Elementen reduziert werden.

Die uns zur Verfügung stehenden Materialien zeichnen folgendes Bild. Im Englischen (es wurden nur „grammatische Wörter“ berücksichtigt: Pronomen oder, wie sie auch genannt werden, „Substitute“, Präpositionen, Konjunktionen und Hilfsverben) in einem Segment, das 78633 Fälle der Verwendung aller Wörter umfasst (1027 unterschiedliche Wörter), 53.102 Fälle der Verwendung von grammatikalischen Elementen, genauer gesagt „grammatische Wörter“ (149 unterschiedliche Wörter), das sind 67,53 % mit 15,8 % unterschiedlichen Wörtern. Das sind die Daten von Deway 8 9 . Andere Daten zeigen einen anderen Prozentsatz<129>Verhältnis: 57,1 % mit 5,4 % unterschiedlichen Wörtern 9 0 . Diese signifikante Diskrepanz erklärt sich durch den Unterschied zwischen geschriebener und gesprochener Sprache. Schriftliche Formen der Sprache (erste Daten) verwenden angeblich mehr grammatikalische Elemente als mündliche (zweiter Fall). In Dantes Göttlicher Komödie (nach dem italienischen Original) stellte Mariotti 54,4 % des Vorkommens von „grammatischen Wörtern“ fest.

Eine andere und anscheinend perfektere Möglichkeit, die grammatikalische Belastung einer Sprache zu bestimmen, besteht darin, die in den grammatikalischen Elementen enthaltenen Phoneme zu zählen. Dabei werden nicht nur eigenständige grammatikalische Wörter berücksichtigt, sondern auch verwandte Formen. Hier gibt es verschiedene Möglichkeiten. Wenn Sie beispielsweise die relative Häufigkeit der Verwendung einzelner Konsonantenphoneme in grammatikalischen Elementen bestimmen und sie mit der Häufigkeit der gesamten Verwendung derselben Phoneme vergleichen (die endgültigen Daten eines solchen Verhältnisses in Englisch ergeben einen Anteil von 99,9% zu 100.000 - Gesamtverbrauch); oder ein ähnlicher Vergleich von Konsonanten nach getrennten Klassifikationsgruppen (labial, palatal, velar und andere Phoneme). Das endgültige Verhältnis ergibt sich hier aus einem Verhältnis von 56,47 % (in grammatikalischen Elementen) zu 60,25 % (in Gesamtverwendung); oder derselbe Vergleich von Anfangskonsonantenphonemen (in diesem Fall haben wir ein Verhältnis von 100,2 % in grammatikalischen Wörtern zu 99,95 in der Gesamtverwendung). Andere komplexere statistische Operationen sind ebenfalls möglich, die jedoch zu ähnlichen quantitativen Ausdrücken des untersuchten Problems führen.

Die angegebenen quantitativen Daten dienen als Grundlage für eine allgemeine Schlussfolgerung. Es läuft darauf hinaus, dass die Verteilung von Phonemen in grammatikalischen Elementen die Art der Verteilung (in numerischer Hinsicht natürlich) von Phonemen in der Sprache als Ganzes bestimmt. Und dies wiederum lässt den Schluss zu, dass die Verwendung grammatikalischer Elemente am wenigsten von der individuellen Wahl abhängt und den von Wahrscheinlichkeiten kontrollierten Teil des sprachlichen Ausdrucks ausmacht.<130>ness. Diese spekulative Schlussfolgerung wird durch die Berechnung grammatikalischer Formen in der russischen Sprache bestätigt, die von Esselson 9 1 durchgeführt wurde. Die Studie wurde 46896 Wörtern aus den Quellen II (Werke von Griboyedov, Dostoevsky, Goncharov, Saltykov-Shchedrin, Garshin, Belinsky, Amfiteatrov, Gusev-Orenburgsky, Ehrenburg, Simonov und N. Ostrovsky) unterzogen. Sie wurden in umgangssprachliche Wörter (17.756 Wörter oder 37,9 %) und nicht umgangssprachliche Wörter (29.140 Wörter oder 62,1 %) unterteilt. Dann wurde die gesamte Wortgruppe je nach ihrer grammatikalischen Natur in 4 Gruppen eingeteilt: Die 1. Gruppe umfasste Substantive, Adjektive, Adjektive in der Funktion von Substantiven, Pronomen und flektierte Numerale; in der 2. Gruppe - Verben; in der 3. Gruppe - verbale Partizipien, Partizipien in der Funktion von Adjektiven und Substantiven und Gerundien; in der 4. Gruppe - unveränderliche Formen von Adverbien, Präpositionen, Konjunktionen und Partikeln. Die zusammenfassenden Ergebnisse (auch Tabellen mit Daten für einzelne Autoren sind angegeben) ergeben folgendes Verhältnis:

1. Gruppe

2. Gruppe

3. Gruppe

4. Gruppe

umgangssprachlich

schweigsam

Die Betrachtung der so gewonnenen quantitativen Daten charakterisiert Herdan mit folgenden Worten: „Sie rechtfertigen den Schluss, dass grammatikalische Elemente als Faktor betrachtet werden sollten, der die Wahrscheinlichkeit eines sprachlichen Ausdrucks bestimmt. Eine solche Schlussfolgerung vermeidet die lästige Qualifizierung jedes verwendeten Wortes. Es ist klar, dass, da Grammatik und Wortschatz nicht in wasserdichten Schalen gespeichert sind, weder reine „Wahl“ noch reiner „Zufall“ sind. Sowohl die Grammatik als auch der Wortschatz enthalten beide Elemente, wenn auch in deutlich unterschiedlichen Anteilen“ 9 2 .<131>

Ein großer Teil von Herdans Buch ist dem Studium der Dualität oder Dualität in der Sprache gewidmet, und das eigentliche Konzept der Dualität basiert auf mathematischen Merkmalen.

So können Sätze in der projektiven Geometrie in zwei Reihen angeordnet werden, so dass jeder Satz einer Reihe aus einem Satz einer anderen Reihe durch Ersetzen der Wörter erhalten werden kann Punkt und gerade. Wenn zum Beispiel die Aussage gegeben ist: "jede verschiedene Punkte gehören zu einer und nur einer Linie", dann können wir daraus die entsprechende Aussage ableiten: "jede zwei verschiedene Linien gehören zu einem und nur einem Punkt." Ein weiteres Verfahren zur Bestimmung der Dualität besteht darin, verschiedene Ebenen des untersuchten Phänomens entlang der Abszisse und der Ordinate darzustellen. So werden, wie beispielsweise Yul 9 3, entlang der Abszisse unterschiedliche Verwendungshäufigkeiten gezählt, und entlang der Ordinate wird die Anzahl der lexikalischen Einheiten gezählt, deren Häufigkeit ermittelt wird usw. Sprachforschung.

Unter dem so definierten Begriff der Dualität, der in allen Fällen eigentlich den Charakter eines binären Codes hat und der auch als wesentlichstes Merkmal der sprachlichen Struktur gilt, werden Phänomene höchst unterschiedlicher Qualitäten eingebracht, die eine Opposition auf zwei Ebenen zulassen : die Verteilung der Wortverwendung nach der Art der lexikalischen Einheiten und die Verteilung der lexikalischen Einheiten nach der Häufigkeit. geschriebene und gesprochene Redeformen; lexikalische und grammatikalische Elemente; Synonyme und Antonyme; Phonem und seine grafische Darstellung; definierbar und definierend (Saussures Signifikant und Signifikanz) usw.

Nach einer quantitativen Untersuchung der Dualität des einen oder anderen besonderen sprachlichen Phänomens oder begrenzten "Textes" wird in der Regel eine Schlussfolgerung gezogen, der die Qualitäten der sprachlichen Universalität zugeschrieben werden. Die Art solcher Schlussfolgerungen und die Art und Weise, wie sie begründet werden, kann dem Beispiel entnommen werden<132>Studien zur Dualität des Wortes und des Begriffs (tatsächlich sprechen wir über das Verhältnis von Wortlänge und Volumen des Begriffs - es muss berücksichtigt werden, dass die äußerst freie Verwendung von sprachlichen und anderen Begriffen in solche Werke machen das Verständnis oft sehr schwierig). Es ist hier wichtig zu beachten, dass die internationale Nomenklatur der Krankheiten (etwa 1000 Namen) und das allgemeine Krankheitsregister in England und Wells für 1949 als Quelle für Beobachtungen dieser Art von sprachlicher Dualität verwendet wurden.In diesem Fall das folgende allgemeine Es wird der Schluss gezogen: „Jeder Begriff, der eine allgemeine Idee bezeichnet, hat das, was man eine „Sphäre“ oder ein „Volumen“ nennen könnte. Es erlaubt durch sein Medium, über viele Objekte oder andere Konzepte nachzudenken, die sich in seiner "Sphäre" befinden. Andererseits bilden alle Elemente, die zur Definition eines Begriffs erforderlich sind, seinen sogenannten "Inhalt". Volumen und Inhalt sind wechselseitig korreliert – je kleiner der Inhalt und dementsprechend abstrakter der Begriff, desto größer sein Geltungsbereich bzw. Volumen, d.h. desto mehr Gegenstände werden darunter gebracht. Dies kann als Analogie (im konzeptionellen Bereich) zu den Prinzipien der Codierung gesehen werden, wonach die Länge eines Symbols und die Häufigkeit der Verwendung voneinander abhängig sind“ 9 4 .

Das Prinzip der Dualität gilt auch für bestimmte Probleme. Zum Beispiel bei der Feststellung der Äquivalenz von Wortbedeutungen in zwei verschiedenen Sprachen. Als Ergebnis der Untersuchung des englisch-deutschen Wörterbuchs von Muret-Zanders mit der mathematischen Methode der Iterationen wird geschlussfolgert, dass die Wahrscheinlichkeit, ein englisches Wort mit einer oder mehreren Bedeutungen in der deutschen Übersetzung zu verwenden, für jeden Anfangsbuchstaben im gesamten Wörterbuch konstant bleibt 9 5 . Die Betrachtung der Wortstellung in chinesischen Wörterbüchern führt zu dem Schluss, dass sie taxonomischer Natur ist, da die Anzahl der Striche im Zeichen seinen Platz (als eigenständiges Radikal oder eine bestimmte Unterklasse, die dem Radikal untergeordnet ist) anzeigt. Die Taxonomie ist ein untergeordnetes Ordnungsprinzip der Zoologie und Botanik. Kherdan behauptet das<133>die Grundlagen der chinesischen Lexikographie sind auch auf den Prinzipien der Taxonomie aufgebaut 9 6 usw.

Bei einer allgemeinen Einschätzung dieses Anwendungsbereichs mathematischer Methoden zur Untersuchung sprachlicher Probleme (also der Sprachstatistik) ist es offenbar notwendig, von der von Ettinger formulierten Position auszugehen: „Mathematik kann effektiv verwendet werden nur dann in den Dienst der Linguistik gestellt, wenn Linguisten die wirklichen Grenzen ihrer Anwendung sowie die Möglichkeiten der verwendeten mathematischen Modelle klar sind“ 9 7 . Mit anderen Worten, von mathematischer Linguistik kann gesprochen werden, wenn mathematische Methoden ihre Eignung zur Lösung jener sprachlichen Probleme beweisen, die in ihrer Gesamtheit die Sprachwissenschaft ausmachen. Wenn dies nicht der Fall ist, obwohl dies neue Aspekte der wissenschaftlichen Forschung eröffnen kann, dann können wir in diesem Fall von allem sprechen, aber nicht von Linguistik - in diesem Fall meinen wir nicht verschiedene Arten von angewandter Linguistik (wir sprechen über es später) Rede unten), sondern wissenschaftliche oder theoretische Linguistik. Ausgehend von dieser Position ist anzumerken, dass aus Sicht eines Sprachwissenschaftlers vieles in der Sprachstatistik zweifelhaft und sogar verwirrend ist.

Wenden wir uns der Analyse von nur zwei Beispielen zu (um die Präsentation nicht zu überladen), mit der Maßgabe, dass gegen jedes von ihnen sehr bedeutende Einwände erhoben werden können. Hier haben wir eine quantitative Unterscheidung zwischen grammatikalischen und lexikalischen Einheiten. Es stellt sich heraus, dass man für eine solche Unterscheidung bereits im Voraus wissen muss, was zum Bereich Grammatik und was zum Wortschatz gehört, da die „grammatische Belastung“ der Sprache (also die Gesamtheit der grammatischen Elemente in der Sprache verwendet), wie oben angegeben, "hängt von der Demarkationslinie ab, die Vokabular von Grammatik trennt." Ohne zu wissen, wo diese Grenze liegt, ist es daher unmöglich, die angegebene Unterscheidung zu treffen. Was ist dann die Bedeutung der quantitativen Methode, das Lexikalische von der Grammatik zu unterscheiden?<134>matik? Was Herdan betrifft, denkt er jedoch nicht besonders über dieses Problem nach und klassifiziert sprachliche Elemente kühn, indem er sich auf grammatikalische Elemente bezieht, "verwandte Formen", die nach der Präsentation als externe Flexion zu verstehen sind, und "grammatische Wörter", die umfassen Präpositionen , Konjunktionen, Hilfsverben und Pronomen - letztere aufgrund der Tatsache, dass sie "Ersatz" sind. Aber wenn wir nur von dieser Eigenschaft von Pronomen sprechen und sie auf dieser Grundlage auf grammatikalische Elemente beziehen, dann sollten ihnen natürlich auch solche Wörter wie "vorgenannt", "benannt", "gegeben" usw. zugeschrieben werden wie auch sie als Stellvertreter agieren. Im Zusammenhang mit der in der Sprachstatistik angewandten Methode zur Trennung grammatischer Elemente stellt sich natürlich die Frage, wie hier mit solchen „nicht-formalen“ grammatikalischen Phänomenen wie Wortstellung, Tonalität, Nullmorphemen, paradigmatischen Beziehungen (einige dieser Phänomene spiegeln sich übrigens in jenen Sprachen wider, die mit mathematischen Methoden untersucht werden)? So unterscheidet man Sprachen mit reicher Binnenbeugung (wie zum Beispiel in den semitischen Sprachen), wo sie nicht nur die Wurzel grammatikalisch modifiziert (Radikal), sondern ihr auch lexikalische Existenz verleiht, da die Wurzel keine Permutationen hat keine wirkliche Existenz in der Sprache? Was ist unter der grammatikalischen Komplexität einer Sprache zu verstehen, nach welchem ​​Kriterium wird sie bestimmt? Wenn der quantitative Punkt, der in diesem Fall auf jede erdenkliche Weise betont wird, dann wird eine der grammatikalisch schwierigsten Sprachen Englisch sein, das solche Konstruktionen wie Ishallhavebeencalling oder Hewouldhavebeencalling hat. In diesen Sätzen kann nur call als lexikalisch eingestuft werden, alles andere muss daher als grammatikalisch betrachtet werden. Welche Gründe sprechen dafür, die Verwendungshäufigkeit grammatikalischer Elemente mit der Allgemeinheit oder Abstraktheit der Bedeutungen grammatikalischer Wörter zu verknüpfen? Schließlich ist es ziemlich offensichtlich, dass die relativ große Verwendungshäufigkeit grammatikalischer Elemente durch ihre Funktion beim Bau von Sätzen bestimmt wird, und was die Abstraktheit von Bedeutungen betrifft, ist es sehr leicht, eine große zu finden<135>die Anzahl der lexikalischen Elemente, die in dieser Hinsicht leicht mit grammatikalischen Elementen konkurrieren können, da sie ihnen in der Häufigkeit weit unterlegen sind (z. Sein, Existenz, Ausdehnung, Raum, Substanz usw).

Eine ähnliche Art von Absurdität taucht vor uns im Fall der Definition der Dualität (Dualität) des Wortes und des Begriffs auf. Es ist ein äußerst eigenartiges Verständnis des strukturellen Wesens der Sprache erforderlich, um sie einer Erforschung unter Verwendung der Nomenklatur der Krankheiten und des Krankenhausregisters der Krankheiten zu unterziehen, die, wie oben angedeutet, als Quellenmaterial für sehr wichtige Sprachen dienten Schlussfolgerungen. Ohne auf die völlig obskure Verwendung solcher Begriffe einzugehen, die keine sprachliche Existenz haben, wie die Sphäre, das Volumen und der Inhalt eines Begriffs (übrigens sind die lexikalische Bedeutung des Wortes und der mit dem wissenschaftlichen Begriff bezeichnete Begriff grob verwirrt), wenden wir uns dem Schluss zu, der in diesem Fall gezogen wird. Wir haben es, wie oben ausgeführt, mit der Behauptung zu tun, dass „Umfang und Inhalt sich gegenseitig bedingen“. Der gesamte zu einer solchen Schlussfolgerung begründende Gedankengang sowie die Methode der mathematischen Operation sprachlicher Tatsachen zeigen deutlich, dass in diesem Fall eine ganz wesentliche Qualität der Sprache völlig außer Acht gelassen wird, was alle durchgeführten Berechnungen durcheinander bringt : die Fähigkeit, dasselbe "Inhalt" durch sprachliche Einheiten unterschiedlichen "Volumens" auszudrücken, die außerdem zweifellos unterschiedliche relative Verwendungshäufigkeit haben. Wir können also dieselbe Person als Petrov bezeichnen, meinen Bekannten, er, einen Moskowiter, einen jungen Mann, einen Universitätsangestellten, den Bruder meiner Frau, einen Mann, den wir auf der Brücke getroffen haben usw. Angesichts solcher Tatsachen, dort handelt es sich zweifellos nur um private Schlußfolgerungen, denen jedoch, wie darauf hingewiesen wurde, allgemeine Bedeutung beigemessen wird, sondern auch um die Zweckmäßigkeit, die quantitativen Methoden selbst auf solche sprachlichen Probleme anzuwenden.

Aber manchmal werden Linguisten Schlussfolgerungen angeboten, an deren Gültigkeit kein Zweifel besteht. Dies ist das "Grundgesetz der Sprache", das darin besteht, dass in der Sprache eine gewisse Stabilität ihrer Elemente und die relative Häufigkeit ihrer Erwähnung besteht.<136>Verbrauch. Das Problem bei dieser Art von Entdeckungen ist jedoch, dass sie Linguisten seit langem bekannt sind. Schließlich ist es ziemlich offensichtlich, dass, wenn die Sprache keine gewisse Stabilität hätte und jedes Mitglied einer bestimmten Sprachgemeinschaft die Elemente der Sprache frei variierte, eine gegenseitige Kommunikation nicht möglich wäre und die bloße Existenz der Sprache bedeutungslos würde . Die Verteilung der relativen Häufigkeit der Verwendung einzelner Elemente der Sprache hat ihren Ausdruck in der Linguistik in Form der Zuordnung von Kategorien des passiven und aktiven Vokabulars und der Grammatik gefunden, denen L. V. Shcherba so viel Aufmerksamkeit geschenkt hat. In diesem Fall können statistische Methoden Linguisten nur bei der Verteilung spezifischer Sprachelemente nach den Kategorien ihrer relativen Verwendungshäufigkeit helfen, aber sie haben keinen Grund zu behaupten, neue Muster zu entdecken, die für die theoretische Linguistik von Wert sind.

Andererseits bietet die linguistische Statistik eine Reihe wirklich "origineller" Schlussfolgerungen, die äußerst bezeichnend für die Natur des wissenschaftlichen Denkens ihrer Anhänger sind. So wird das „politische Vokabular“ in den Werken von Churchill, Benes, Halifax, Stresemann und anderen mit aufwändigen statistischen Methoden untersucht und Übersetzungen ihrer Werke ins Englische in die Berechnungen für nicht englischsprachige Autoren einbezogen. Die Berechnungsergebnisse werden in Form zahlreicher Tabellen, mathematischer Formeln und Gleichungen dargestellt. Die sprachliche Interpretation quantitativer Daten läuft in diesem Fall auf die Tatsache hinaus, dass Churchills Verwendung des "politischen Vokabulars" für diese Gruppe von Autoren am typischsten (?) ist und dass Churchills Verwendung von Wörtern in Fällen, in denen er sich mit politischen Themen befasst, typisch ist der englischen Sprachgruppe 9 8 .

In einem anderen Fall wird nach entsprechenden statistischen Manipulationen der Schluss gezogen, dass Hitler die Dualität zwischen „Sprache“ und „Rede“ im quantitativen Sinne dieser Begriffe im Gebrauch von Nazideutschland verletzt hat. Ein Sonderfall der Zerstörung dieser Dualität ist das wörtliche Verständnis<137>metaphorische Wendungen (z. B. "Salz in offene Wunden gießen"). Nazi-Deutschland hat sich mit so vielen unmenschlichen Taten gebrandmarkt, dass es kaum nötig ist, es wegen dieser sprachlichen Gräueltaten zu verurteilen 9 9 . Laut Kherdan führt Marx' Definition der Sprache als unmittelbare Realität des Denkens auch zu einer Verletzung der sprachlichen Dualität, und das Gesetz der Dialektik vom Übergang eines Phänomens in sein Gegenteil ist seiner Meinung nach das missverstandene sprachliche Gesetz der Dualität der Sprache. Solche Interpretationen sprechen für sich.

Schließlich ist ein gemeinsamer Mangel, der allen oben genannten Fällen der quantitativen Methode des Studiums sprachlichen Materials und damit des Erwerbs eines methodologischen Charakters innewohnt, die Herangehensweise an sprachliche Elemente als eine mechanische Menge von Tatsachen, die absolut unabhängig voneinander sind, in Übereinstimmung mit denen, falls vorhanden oder Muster beziehen sie sich nur auf die Zahlenverhältnisse der Verteilung autonomer Tatsachen, außerhalb ihrer systemischen Abhängigkeiten. Zwar versucht J. Watmou auf jede erdenkliche Weise zu versichern, dass die Mathematik besser ist als jede Art von linguistischer Strukturanalyse, da sie in der Lage ist, die strukturellen Merkmale einer Sprache aufzudecken. „Moderne Mathematik“, schreibt er, „beschäftigt sich nicht mit Messung und Analysis, deren Genauigkeit durch ihre Natur begrenzt ist, sondern in erster Linie mit Struktur. Aus diesem Grund ist die Mathematik für die Genauigkeit des Sprachenlernens in hohem Maße förderlich - soweit eine separate Beschreibung, noch begrenzter in der Natur, nicht in der Lage ist ... Genau wie in der Physik werden mathematische Elemente verwendet, um die physikalische Welt zu beschreiben, Da angenommen wird, dass sie Elementen der physischen Welt entsprechen, sollen die mathematischen Elemente in der mathematischen Linguistik den Elementen der Sprachwelt entsprechen“ 101 . Aber eine solche Fragestellung rettet die Situation keineswegs, da sie es bestenfalls kann<138>Sprache entweder als physikalische Struktur, die für eine Sprache noch lange nicht ausreicht und letzten Endes immer noch denselben mechanistischen Charakter hat, oder als logisch-mathematische Struktur analysieren und die Sprache in eine andere überführen Ebene und ihr in vielerlei Hinsicht fremd. Es ist nicht überflüssig, darauf hinzuweisen, dass Watmow die Erfolge der mathematischen Linguistik erst in der Zukunft voraussieht, und was ihre wirklichen Ergebnisse betrifft, bewertet er sie mit den folgenden Worten: „...fast alle Arbeiten, die bisher von Herdan, Zipf, Yul, Giro (Guiraux) und andere, ist keineswegs außerhalb des Bereichs der Kritik sowohl der Linguistik als auch der Mathematik; sie riecht in hohem Maße nach Dilettantismus“ 103 . Wenn wir also nicht versuchen, die Zukunft mathematischer Methoden in der Sprachforschung vorherzusagen, sondern versuchen, das zu schätzen, was wir heute haben, dann müssen wir zwangsläufig zugeben, dass die Mathematik bisher in der Tat begrenzt war Bereich der Linguistik nur auf „Messen und Rechnen“, und ich könnte keine qualitative Analyse der Sprache geben, indem ich mich mit ihrer Struktur befasse.<139>

Versuchen wir, so objektiv wie möglich zu sein. In einem gewissen Teil können quantitative Daten offenbar von der Linguistik verwendet werden, aber nur als Hilfsmittel und hauptsächlich bei Problemen, die einen praktischen Bezug haben. In Bezug auf die meisten quantitativen Methoden zur Untersuchung einzelner Sprachphänomene ist die allgemeine Schlussfolgerung von R. Brown zweifellos berechtigt: „Sie können so betrachtet werden, wie Kherdan sie betrachtet, aber was ist der Sinn all dessen?“ 104 . Stellen wir uns vor, wir stellen die Frage: "Was sind das für Bäume in diesem Garten?". Und als Antwort bekommen wir: "Es gibt hundert Bäume in diesem Garten." Ist das die Antwort auf unsere Frage und macht sie wirklich Sinn? Aber auf viele sprachliche Fragen geben mathematische Methoden genau solche Antworten.

Es gibt jedoch ein weites Feld der Forschungstätigkeit, die hauptsächlich mathematische Methoden verwendet und sich gleichzeitig an sprachlichem Material orientiert, wo die Zweckmäßigkeit einer solchen Kombination außer Zweifel steht. Der „Sinn“ dieser Forschungstätigkeit, ihre Bedeutung wird durch die Ziele bestimmt, die sie anstrebt. Es wurde bereits in der Praxis getestet. In diesem Fall sprechen wir über die Probleme, die mit der Erstellung von Informationsmaschinen, Strukturen für die maschinelle Übersetzung geschriebener wissenschaftlicher Texte, der Automatisierung der Übersetzung mündlicher Rede von einer Sprache in eine andere und mit der ganzen Bandbreite der kombinierten Aufgaben verbunden sind in den sprachlichen Fragen der Kybernetik. Die Gesamtheit solcher Probleme wird gewöhnlich mit dem allgemeinen Namen Angewandte Linguistik bezeichnet. Damit grenzt sie sich von der sogenannten mathematischen Linguistik ab, die die oben als Stil- und Sprachstatistik bezeichneten Arbeitsgebiete umfasst, wobei sie die statistische Bearbeitung von Sprachmaterial keineswegs vermeidet. Das vielleicht wichtigste Merkmal der angewandten Linguistik, das sie von der mathematischen Linguistik trennt, ist, wie oben skizziert, dass die erstere die entgegengesetzte Richtung hat: nicht Mathematik für Linguistik, sondern Linguistik.<140>(durch mathematische Methoden formalisiert) für ein breites Spektrum praktischer Probleme.

Es bedarf keiner Inhaltsoffenlegung einzelner Problemstellungen, die mittlerweile in den überaus weiten Bereich der Angewandten Linguistik einbezogen werden. Im Gegensatz zur mathematischen Linguistik werden diese Probleme in der sowjetischen Sprachliteratur aktiv diskutiert und nehmen zu Recht einen immer wichtigeren Platz in den wissenschaftlichen Problemen der Forschungsinstitute ein 105 . Daher sind sie unserer Sprachgemeinschaft bereits gut bekannt. Dieser Umstand entbindet uns jedoch nicht von der Notwendigkeit, sie insbesondere unter sprachwissenschaftlichen Prinzipien einer Reflexion zu unterziehen. Dies wird zweifellos dazu beitragen, die immer häufiger auftretenden Missverständnisse zwischen Vertretern weit voneinander entfernter und an der Arbeit an Problemen der angewandten Linguistik beteiligter Wissenschaften zu beseitigen und einerseits Wege zu ihrer Annäherung aufzuzeigen , Abgrenzung von Forschungsgebieten andererseits. Es versteht sich von selbst, dass die folgenden Überlegungen den Standpunkt des Linguisten darstellen, und es ist notwendig, dass Mathematiker nicht nur versuchen, ihn aufzunehmen, sondern ihnen im Zusammenhang mit den aufgeworfenen Fragen ihre Interpretation geben.

Der Sprachtheoretiker kann sich keineswegs damit zufrieden geben, dass in allen Fällen<141>Sprache im Sinne der angewandten Linguistik, deren Grundlage ein mathematisches Modell ist. Entsprechend werden Beobachtungen zu Sprachphänomenen und die dabei gewonnenen Ergebnisse in Begriffen und Konzepten der Mathematik ausgedrückt, d. h. durch mathematische Gleichungen und Formeln. Schauen wir uns zur Verdeutlichung ein Beispiel an. Condon 1 06 und Zipf 1 07 haben festgestellt, dass die Logarithmen der Frequenz ( f) liegen die Wortvorkommen in einem großen Text fast auf einer geraden Linie, wenn sie im Diagramm mit den Logarithmen von Rang oder Rang korreliert werden ( r) dieser Wörter. Die gleichung f=c:r, wo mit ist eine Konstante, die diese Beziehung im begrenzten Sinne widerspiegelt c:r für eingestellten Wert r gibt die beobachtete Frequenz mit großer Näherung wieder. Beziehung zwischen f und r, ausgedrückt durch eine mathematische Formel, ist ein Modell für die Beziehung zwischen den beobachteten Werten der Verwendungshäufigkeit und dem Rang oder Rang von Wörtern. Dies ist einer der Fälle der mathematischen Modellierung. 

Die gesamte Informationstheorie basiert vollständig auf dem von C. Shannon entwickelten mathematischen Modell des Kommunikationsprozesses 108 . Es ist definiert als „eine mathematische Disziplin, die sich den Methoden zur Berechnung und Schätzung der in Daten enthaltenen Informationsmenge und der Untersuchung der Prozesse der Speicherung und Übertragung von Informationen widmet“ (TSB, Bd. 51, S. 128). Dementsprechend erhalten die Grundkonzepte der Informationstheorie einen mathematischen Ausdruck: Informationen werden in Binits oder binären Einheiten gemessen (ein Code, mit dem die Sprache verglichen wird, überträgt mit zwei bedingten gleichwahrscheinlichen Signalen eine binäre Informationseinheit bei der Übertragung jedes Zeichens ) -entweder der Codes und die durchschnittliche Menge der übertragenen Informationen<142>Formationen. Die Redundanz wird als Prozentsatz der gesamten Übertragungsfähigkeit des Codes ausgedrückt“ 1 09 usw. Auf die gleiche Weise erfordert die maschinelle Übersetzung eine algorithmische Entwicklung, um Elemente einer Sprache in eine andere abzubilden usw. 1 10 . Dies sind andere Fälle von Modellierung.

Insbesondere bei der Lösung der Probleme, die sich die angewandte Linguistik stellt, kann die Verwendung von Modellen ohne Bedeutung aller Voraussicht nach eine sehr wichtige Hilfe sein. Für die theoretische Linguistik ist es jedoch sehr wichtig, dass ein abstraktes Modell in der Regel nicht alle Merkmale eines realen Phänomens, alle seine funktionalen Eigenschaften wiedergibt. So kann ein Architekt vor dem Bau eines Hauses sein Modell erstellen, das das zu entwerfende Haus bis ins kleinste Detail reproduziert, und dies hilft ihm, eine Reihe praktischer Probleme im Zusammenhang mit dem Bau des Hauses selbst zu lösen. Aber ein solches Modell eines Hauses, egal wie genau es sein mag, hat nicht die „Funktion“ und den Zweck, für den alle Häuser im Allgemeinen gebaut werden – es ist nicht in der Lage, einer Person Wohnraum zu bieten. Ähnlich verhält es sich mit der Sprache, wo das Modell nicht immer alle seine Qualitäten wiedergeben kann. In diesem Fall wird die Sache noch dadurch verkompliziert, dass nicht sprachliche, sondern mathematische Kriterien zum Aufbau des Modells herangezogen werden. „Mathematische Modelle ... - schreibt A. Ettinger, - spielen auf allen Gebieten der Technik eine äußerst wichtige Rolle, aber da sie ein Werkzeug zur Synthese sind, ist ihre Bedeutung für die Linguistik, die in erster Linie eine historische und beschreibende Disziplin ist, naturgemäß begrenzt ” 1 11 .<143>

Die mathematische Modellierung einer Sprache ist eigentlich nur auf ihren statischen Zustand anwendbar, der für einen Linguisten bedingt ist und tatsächlich in direktem Konflikt mit der Grundqualität einer Sprache steht, deren Existenzform Entwicklung ist. Es versteht sich von selbst, dass das statische Studium einer Sprache keineswegs aus der Linguistik ausgeschlossen ist und die Grundlage für die Erstellung von normativen Grammatiken und Wörterbüchern, deskriptiven Grammatiken, praktischen Grammatiken und Wörterbüchern ist, die als Leitfaden für das praktische Studium von Fremdsprachen usw. dienen Bei all diesen Arbeiten, die überwiegend in der Natur angewandt werden, schränken Linguisten jedoch das Forschungsfeld bewusst ein und verschließen keineswegs die Augen vor anderen Aspekten der Sprache 1 12 . Insbesondere bei einer statischen Untersuchung der Sprache verschwinden solche Eigenschaften der Sprache, die mit ihrer dynamischen Natur verbunden sind, wie Produktivität, Abhängigkeit von Denkformen und umfassende Interaktion mit kulturellen, sozialen, politischen, historischen und anderen Faktoren, vollständig Blickfeld des Forschers. Nur auf der synchronen Ebene kann Sprache als ein System konventioneller Zeichen oder Codes betrachtet werden, was sich jedoch als völlig unbegründet herausstellt, sobald wir eine für Sprache geeignetere dynamische Sichtweise einnehmen. In den Entwicklungsprozessen sind sprachliche Qualitäten wie Motivation, Mehrdeutigkeit von Wörtern ohne stabile Grenzen, Nichtautonomie der Bedeutung eines Wortes und seiner Lauthülle und das kreative Potenzial eines Wortes, das mit dem Kontext verbunden ist manifestiert, und all dies steht in krassem Widerspruch zu den Hauptmerkmalen eines Codes oder Zeichens 1 13 . Natürlich kann man sich in der angewandten Linguistik auch all diese Qualitäten der Sprache vorstellen und sich für praktische Zwecke sozusagen mit einer „Momentaufnahme“ der Sprache begnügen, die noch eine ziemlich ungefähre Vorstellung davon zu geben vermag ​​der Mechanismus seiner Funktionsweise.<144>Nirowanija. Jede solche „Momentaufnahme“ muss jedoch, wenn sie als Tatsache der Sprache und nicht als Tatsache eines Systems herkömmlicher Codes betrachtet wird, in den endlosen Bewegungsprozess einbezogen werden, in dem Sprache immer existiert 1 14 . Sie kann nicht außerhalb der spezifischen Bedingungen studiert werden, die diese Bewegung charakterisieren, die den gegebenen Zustand der Sprache prägt und das Potenzial für ihre weitere Entwicklung bestimmt. Hier besteht der gleiche Unterschied wie zwischen einer Momentaufnahme eines Menschen und seinem mit dem Pinsel gemalten Portrait eines echten Künstlers. Im Werk des Künstlers haben wir ein verallgemeinerndes Bild eines Menschen in seiner ganzen Ursprünglichkeit nicht nur seiner körperlichen Erscheinung, sondern auch seines inneren geistigen Inhalts vor uns. Aus einem künstlerischen Porträt können wir auch die Vergangenheit der darauf abgebildeten Person ablesen und feststellen, wozu er in seinem Handeln fähig ist. Und ein Schnappschuss, obwohl er in der Lage ist, ein genaueres Bild des Aussehens des Originals zu vermitteln, hat diese Eigenschaften nicht und fängt oft sowohl einen versehentlichen Pickel ein, der auf die Nase gesprungen ist, als auch<145>eine völlig uncharakteristische Pose oder Mimik, die letztlich zu einer Verzerrung des Originals führt.

Anzumerken ist, dass die Methode der „Schnappschüsse“ natürlich auch auf die Fakten der Sprachentwicklung angewendet werden kann. Aber in diesem Fall handelt es sich eigentlich nur um getrennte Sprachzustände, die sich in ihrer quantitativen Charakterisierung nur als eine vergleichende quantitative Charakterisierung verschiedener Sprachen zusammenhängend erweisen. Diese Art von quantitativer „Dynamik“ wird nichts Organisches enthalten, und der Zusammenhang zwischen den einzelnen Zuständen der Sprache wird nur auf dem Vergleich numerischer Relationen beruhen. Wenn wir auch in diesem Fall auf eine Analogie zurückgreifen, können wir uns auf das Wachstum des Kindes beziehen. Seine Entwicklung kann natürlich in Form der Dynamik numerischer Daten über sein Gewicht, seine Größe, sich ändernde Verhältnisse des Volumens von Körperteilen dargestellt werden, aber alle diese Daten sind absolut losgelöst von allem, was primär das individuelle Wesen ausmacht einer Person - sein Charakter, seine Neigungen, Gewohnheiten, Geschmäcker usw.

Eine weitere negative Seite der mathematischen "Modellierung" der Sprache ist die Tatsache, dass sie nicht als allgemeines Prinzip dienen kann, auf dessen Grundlage eine umfassende und umfassende - systematische Beschreibung der Sprache durchgeführt werden kann. Nur eine mathematische Herangehensweise an die Sprachphänomene wird es beispielsweise nicht ermöglichen, auch solche grundlegenden Fragen zu beantworten (ohne die die Existenz der Sprachwissenschaft undenkbar ist), wie: Was ist Sprache, was sollten Phänomene sein? richtigen sprachlichen zugeordnet werden, wie ein Wort oder ein Satz definiert wird, was die grundlegenden Konzepte und Kategorien der Sprache sind usw. Bevor man sich den mathematischen Methoden des Sprachstudiums zuwendet, ist es notwendig, bereits Antworten zu haben (auch in Form von eine Arbeitshypothese) zu all diesen Fragen im Voraus. Es braucht nicht übersehen zu werden, dass in allen uns bekannten Fällen der Untersuchung sprachlicher Phänomene mit mathematischen Methoden alle diese Begriffe und Kategorien zwangsläufig so akzeptiert werden mussten, wie sie durch traditionelle oder relativ gesprochen qualitative Methoden.

Dieses Merkmal mathematischer Methoden in ihrer sprachlichen Anwendung wurde von Spang-Hanssen bemerkt, als pi<146>sal: „Es sollte bedacht werden, dass beobachtete Tatsachen, die einen quantitativen Ausdruck erhalten, ... keinen Wert haben, wenn sie nicht Teil der Beschreibung sind, und für sprachliche Zwecke sollte es sich um eine systematische Beschreibung handeln, die eng mit einer qualitativen sprachlichen verbunden ist Beschreibung und Theorie“ 1 15 . In einer anderen Rede von Spang-Hanssen finden wir eine Klärung dieser Idee: „Bis die Möglichkeit der Konstruktion eines quantitativen Systems bewiesen ist und solange es ein allgemein akzeptiertes qualitatives System für ein bestimmtes Studiengebiet gibt, Häufigkeitsberechnungen und andere numerische Merkmale machen aus sprachlicher Sicht keinen Sinn" 1 16 . Ähnliche Gedanken werden von Uldall geäußert, der sie etwas unerwartet mit der Entwicklung der allgemeinen theoretischen Grundlagen der Glossematik verbindet: „Wenn ein Linguist zählt oder misst, ist alles, was er zählt und misst, an sich nicht quantitativ bestimmt; zum Beispiel werden Wörter, wenn sie gezählt werden, wenn überhaupt, ganz anders definiert.<147>

So zeigt sich, dass mathematische Methoden sowohl in theoretischer Hinsicht als auch in ihrer praktischen Anwendung direkt von sprachlichen Begriffen und Kategorien abhängig sind, die durch traditionelle, philologische oder, wie oben erwähnt, qualitative Methoden definiert werden. Für die angewandte Linguistik ist es wichtig, diese Abhängigkeit zu erkennen und folglich die Gesamtheit der Hauptkategorien der traditionellen Linguistik kennenzulernen.

Zwar gibt es keinen Grund, Vertretern der exakten Wissenschaften, die auf dem Gebiet der angewandten Linguistik arbeiten, vorzuwerfen, dass sie die Daten der modernen Linguistik nicht nutzen. Dies entspricht nicht dem tatsächlichen Stand der Dinge. Sie kennen nicht nur die von Linguisten aufgestellten Systeme der für verschiedene Sprachen charakteristischen Differenzialmerkmale, die Verteilung und Anordnung sprachlicher Elemente innerhalb bestimmter Sprachsysteme, die Errungenschaften der akustischen Phonetik usw. sehr gut, sondern verwenden sie auch in ihrer Arbeit in diesem Fall ist eine sehr deutliche Reservierung erforderlich. Tatsächlich verwenden Vertreter der exakten Wissenschaften die Daten nur einer Richtung in der Sprachwissenschaft – der sogenannten deskriptiven Linguistik, die sich bewusst von den traditionellen Problemen der theoretischen Linguistik abgrenzte, weit davon entfernt, das gesamte Gebiet der Sprachforschung abzudecken, von einer eigentlichen Sie weist aus sprachwissenschaftlicher Sicht erhebliche methodische Mängel auf, die sie in eine kürzlich offenbarte Krise geführt haben 1 18 , und hat darüber hinaus eine rein praktische Ausrichtung, die den Interessen der angewandten Linguistik entspricht. Alle Vorbehalte und Vorwürfe, die oben gegenüber der statischen Betrachtung der Sprache gemacht wurden, gelten auch für die deskriptive Linguistik. Ein solch einseitiger Ansatz der beschreibenden Linguistik kann, so der Forscher<148>Sie lässt sich jedoch nur mit den Aufgaben begründen, die sich die angewandte Linguistik stellt, erschöpft aber bei weitem nicht den gesamten Inhalt der Sprachwissenschaft.

Bei der Entwicklung von Fragestellungen der Angewandten Linguistik können neue theoretische Probleme entstehen und sind bereits entstanden. Einige dieser Probleme sind eng mit den spezifischen Aufgaben der angewandten Linguistik verbunden und zielen darauf ab, die Schwierigkeiten zu überwinden, die bei der Lösung dieser Probleme auftreten. Andere Probleme stehen in direktem Zusammenhang mit der theoretischen Linguistik und ermöglichen eine neue Perspektive auf traditionelle Ideen oder eröffnen neue Bereiche der Sprachforschung, neue Konzepte und Theorien. Zu letzteren gehört zum Beispiel das Problem der Schaffung einer "Maschinen"-Sprache (oder Vermittlungssprache), die am engsten mit einer komplexen Reihe von Kardinalfragen der theoretischen Linguistik wie der Beziehung von Begriffen und lexikalischen Bedeutungen, Logik und Grammatik, Diachronie und Synchronie, die Zeichennatur der Sprache, das Wesen der sprachlichen Bedeutung, die Prinzipien der Konstruktion künstlicher Sprachen usw. 1 19 . Dabei ist es besonders wichtig, gegenseitiges Verständnis und Gemeinsamkeit in der gemeinsamen Arbeit von Vertretern sprachwissenschaftlicher Disziplinen und der exakten Wissenschaften herzustellen. Was die sprachliche Seite betrifft, so sollten wir in diesem Fall offensichtlich nicht davon sprechen, die Bemühungen von beispielsweise Designern von Übersetzungsmaschinen im Voraus einzuschränken“ und zu versuchen, die Arbeitsfähigkeit solcher Maschinen anhand von Gedichten von N. Gribatschow oder V Kochetovs Prosa 1 20 . Die Maschine selbst wird die Grenzen ihrer Fähigkeiten und Rentabilität finden - die Grenzen ihrer Verwendung. Aber Linguisten müssen als ihren Beitrag zur gemeinsamen Sache ihr Wissen über die Merkmale der Sprachstruktur, ihre Vielseitigkeit, die internen sich überschneidenden Beziehungen ihrer Elemente sowie die breiten und multilateralen Verbindungen der Sprache mit dem Physischen und Physiologischen einbringen , mental und logisch<149>mi Phänomene, spezifische Funktionsmuster und Entwicklung der Sprache. Die Gesamtheit dieses Wissens ist für die Konstrukteure der entsprechenden Maschinen notwendig, um nicht in falsche Richtungen zu wandern, sondern die Suche zielgerichtet und klar orientiert zu gestalten. Schon die sehr knappe Betrachtung der Fälle der Anwendung mathematischer Methoden auf sprachliche Probleme, die in diesem Aufsatz gemacht wurde, überzeugt, dass solche Kenntnisse für Vertreter der exakten Wissenschaften keineswegs überflüssig sein werden.

Auf der Grundlage all der obigen Überlegungen kann man offensichtlich zu einigen allgemeinen Schlussfolgerungen kommen.

Mathematische Linguistik also? Wenn damit die Anwendung mathematischer Methoden als universeller Generalschlüssel zur Lösung aller Sprachprobleme gemeint ist, dann sind solche Behauptungen als absolut unbegründet anzuerkennen. Alles, was in dieser Richtung getan wurde, hat bisher nur sehr wenig oder gar nicht zur Lösung der traditionellen Probleme der Sprachwissenschaft beigetragen. Die Anwendung mathematischer Methoden ist im schlimmsten Fall von offensichtlichen Absurditäten begleitet oder aus sprachwissenschaftlicher Sicht völlig sinnlos. Mathematische Methoden können bestenfalls als Hilfsmethoden der Sprachforschung eingesetzt werden, die in den Dienst spezifischer und begrenzter sprachlicher Aufgabenstellungen gestellt werden. Von einer „quantitativen Sprachphilosophie“ kann hier keine Rede sein. Physik, Psychologie, Physiologie, Logik, Soziologie und Ethnologie griffen zu ihrer Zeit in die Selbständigkeit der Sprachwissenschaft ein, aber sie konnten sich die Linguistik nicht unterwerfen. Das Gegenteil geschah - die Linguistik machte sich die Errungenschaften dieser Wissenschaften zunutze und begann, soweit für sie notwendig, ihre Hilfe in Anspruch zu nehmen und damit das Arsenal ihrer Forschungsmethoden zu bereichern. Jetzt ist offenbar die Mathematik an der Reihe. Es ist zu hoffen, dass diese neue Gemeinschaft auch dazu beitragen wird, die Sprachwissenschaft zu stärken, ihre Arbeitsmethoden zu verbessern und ihre Vielfalt zu erhöhen. Es ist daher ebenso berechtigt, von mathematischer Linguistik zu sprechen wie von physikalischer Linguistik, physiologischer Linguistik, logischer Linguistik, psychologischer Linguistik usw<150>usw. Es gibt keine solche Linguistik, es gibt nur eine Linguistik, die die Daten anderer Wissenschaften gewinnbringend als Hilfsforschungswerkzeuge nutzt. Es gibt also keinen Grund, sich vor dem Ansturm der neuen Wissenschaft zurückzuziehen und ihr die erkämpften Positionen leicht nachzugeben. Hier ist es sehr angebracht, sich an die Worte von A. Martinet zu erinnern: „Vielleicht ist es verlockend, sich der einen oder anderen großen Gedankenbewegung anzuschließen, indem man ein paar gut gewählte Begriffe verwendet, oder mit irgendeiner mathematischen Formel die Strenge der eigenen Argumentation zu erklären. Für Linguisten ist jedoch die Zeit gekommen, die Unabhängigkeit ihrer Wissenschaft zu erkennen und sich von jenem Minderwertigkeitskomplex zu befreien, der sie dazu bringt, jede ihrer Handlungen mit dem einen oder anderen allgemeinen wissenschaftlichen Prinzip in Verbindung zu bringen, wodurch die Konturen der Realität immer werden nur schwammiger, statt klarer zu werden 21 .

Also Mathematik an sich und Linguistik an sich. Dies schließt gegenseitige Hilfe oder ein freundschaftliches Treffen zur gemeinsamen Bearbeitung gemeinsamer Probleme keineswegs aus. Ein solcher Anwendungsort der konzertierten Bemühungen beider Wissenschaften ist die ganze Bandbreite der Probleme, die Teil der angewandten Sprachwissenschaft und von großer volkswirtschaftlicher Bedeutung sind. Es wäre nur zu wünschen, dass beide Wissenschaften in ihrer gemeinsamen Arbeit ein Höchstmaß an gegenseitigem Verständnis zeigten, was zweifellos auch zur größtmöglichen Fruchtbarkeit ihrer Zusammenarbeit beitragen würde.<151>

Wie viel kostet es, Ihre Arbeit zu schreiben?

Art der Arbeit wählen Abschlussarbeit (Bachelor/Fachgebiet) Teil der Abschlussarbeit Master-Diplom Studienarbeit mit Praxis Lehrveranstaltungstheorie Aufsatz Aufsatz Prüfungsaufgaben Attestarbeit (VAR/VKR) Businessplan Prüfungsfragen MBA-Diplomarbeit (FH/FH) Sonstige Fälle Laborarbeit , RGR Online-Hilfe Praxisbericht Informationssuche Präsentation in PowerPoint Postgraduierten-Abstract Diplombegleitmaterialien Aufsatz Prüfungszeichnungen mehr »

Vielen Dank, eine E-Mail wurde an Sie gesendet. Prüfe deine Mails.

Möchten Sie einen 15% Rabatt-Gutscheincode?

SMS empfangen
mit Aktionscode

Erfolgreich!

?Teilen Sie den Aktionscode während eines Gesprächs mit dem Manager mit.
Der Aktionscode kann nur einmal bei Ihrer ersten Bestellung verwendet werden.
Art des Aktionscodes - " Diplomarbeit".

Zusammenspiel von Mathematik und Linguistik


Einführung

Kapitel 1. Die Geschichte der Anwendung mathematischer Methoden in der Linguistik

1.1. Die Herausbildung der Strukturlinguistik an der Wende vom 19. zum 20. Jahrhundert

1.2. Anwendung mathematischer Methoden in der Linguistik in der zweiten Hälfte des 20. Jahrhunderts

Kapitel 2. Ausgewählte Beispiele für den Einsatz von Mathematik in der Linguistik

2.1. Maschinell übersetzen

2.2.Statistische Methoden beim Sprachenlernen

2.3. Lernen einer Sprache mit Methoden der formalen Logik

2.4. Perspektiven für die Anwendung mathematischer Methoden in der Linguistik

Fazit

Literatur

Anhang 1. Ronald Schleifer. Ferdinand von Saussure

Anhang 2. Ferdinand de Saussure (Übersetzung)

Einführung


Im 20. Jahrhundert setzt sich der Trend zur Interaktion und Durchdringung verschiedener Wissensgebiete fort. Die Grenzen zwischen den einzelnen Wissenschaften verschwimmen allmählich; es gibt immer mehr Zweige geistiger Tätigkeit, die "an der Schnittstelle" von humanitären, technischen und naturwissenschaftlichen Erkenntnissen stehen.

Ein weiteres offensichtliches Merkmal der Moderne ist der Wunsch, Strukturen und ihre Bestandteile zu studieren. Daher wird der Mathematik sowohl in der wissenschaftlichen Theorie als auch in der Praxis ein immer größerer Stellenwert eingeräumt. In Berührung einerseits mit Logik und Philosophie, andererseits mit Statistik (und folglich mit den Sozialwissenschaften) dringt die Mathematik immer tiefer in jene Bereiche vor, die lange Zeit als rein galten „humanitär“, erweitern ihr heuristisches Potenzial (die Antwort auf die Frage „wie viel“ hilft oft bei der Beantwortung der Fragen „was“ und „wie“). Sprachwissenschaft war keine Ausnahme.

Der Zweck meiner Kursarbeit ist es, kurz die Verbindung zwischen der Mathematik und einem Zweig der Linguistik wie der Linguistik hervorzuheben. Seit den 1950er Jahren wird die Mathematik in der Linguistik verwendet, um einen theoretischen Apparat zur Beschreibung der Struktur von Sprachen (sowohl natürlichen als auch künstlichen) zu schaffen. Es muss jedoch gesagt werden, dass es eine solche praktische Anwendung nicht sofort für sich gefunden hat. Anfänglich wurden mathematische Methoden in der Linguistik verwendet, um die grundlegenden Konzepte der Linguistik zu klären, aber mit der Entwicklung der Computertechnologie begann eine solche theoretische Prämisse, Anwendung in der Praxis zu finden. Die Lösung solcher Aufgaben wie maschinelle Übersetzung, maschineller Informationsabruf, automatische Textverarbeitung erforderte eine grundlegend neue Herangehensweise an die Sprache. Die Linguisten stellten sich der Frage: Wie lernt man, sprachliche Muster so darzustellen, dass sie direkt auf die Technik übertragen werden können? Der in unserer Zeit gebräuchliche Begriff „mathematische Linguistik“ bezeichnet jede linguistische Forschung, die sich exakter Methoden bedient (und der Begriff der exakten Methoden in den Naturwissenschaften ist immer eng mit der Mathematik verbunden). Einige Wissenschaftler der letzten Jahre glauben, dass der Ausdruck selbst nicht in den Rang eines Begriffs erhoben werden kann, da er keine spezielle „Linguistik“ bedeutet, sondern nur eine neue Richtung, die sich auf die Verbesserung, Erhöhung der Genauigkeit und Zuverlässigkeit von Sprachforschungsmethoden konzentriert . Die Linguistik verwendet sowohl quantitative (algebraische) als auch nicht-quantitative Methoden, was sie der mathematischen Logik und folglich der Philosophie und sogar der Psychologie näher bringt. Sogar Schlegel bemerkte die Wechselwirkung von Sprache und Bewusstsein, und Ferdinand de Saussure, ein prominenter Linguist des frühen zwanzigsten Jahrhunderts (über seinen Einfluss auf die Entwicklung mathematischer Methoden in der Linguistik werde ich später berichten), verband die Struktur der Sprache mit ihrer Zugehörigkeit zu den Leuten. Der moderne Forscher L. Perlovsky geht noch weiter und identifiziert die quantitativen Merkmale der Sprache (z. B. Anzahl der Geschlechter, Fälle) mit den Besonderheiten der nationalen Mentalität (mehr dazu in Abschnitt 2.2, „Statistische Methoden in der Sprachwissenschaft“).

Das Zusammenspiel von Mathematik und Linguistik ist ein vielschichtiges Thema, und ich werde in meiner Arbeit nicht auf alle, sondern vor allem auf seine angewandten Aspekte eingehen.

Kapitel I. Geschichte der Anwendung mathematischer Methoden in der Linguistik


1.1 Die Entstehung der strukturellen Linguistik an der Wende vom 19. zum 20. Jahrhundert


Die mathematische Beschreibung der Sprache basiert auf der Idee der Sprache als Mechanismus, die auf den berühmten Schweizer Linguisten des frühen zwanzigsten Jahrhunderts, Ferdinand de Saussure, zurückgeht.

Das erste Glied seines Konzepts ist die Theorie der Sprache als eines aus drei Teilen bestehenden Systems (Sprache selbst - Sprache, Rede - Parole und Sprechtätigkeit - Sprache), in der jedes Wort (Mitglied des Systems) nicht an sich betrachtet wird , sondern in Verbindung mit anderen Mitgliedern. Wie ein anderer prominenter Linguist, der Däne Louis Hjelmslev, später feststellte, war Saussure „der erste, der einen strukturellen Ansatz für die Sprache forderte, das heißt eine wissenschaftliche Beschreibung der Sprache durch Aufzeichnung der Beziehungen zwischen Einheiten“.

Saussure verstand die Sprache als hierarchische Struktur und stellte als erster das Problem des Wertes und der Bedeutung sprachlicher Einheiten. Separate Phänomene und Ereignisse (zB die Entstehungsgeschichte einzelner indogermanischer Wörter) sollten nicht für sich allein untersucht werden, sondern in einem System, in dem sie mit ähnlichen Komponenten korreliert sind.

Die strukturelle Einheit der Sprache von Saussure betrachtete das Wort "Zeichen", in dem Klang und Bedeutung kombiniert wurden. Keines dieser Elemente existiert ohne das andere: Daher versteht der Muttersprachler die verschiedenen Bedeutungsnuancen eines polysemantischen Wortes als ein separates Element im strukturellen Ganzen, in der Sprache.

So kann man in der Theorie von F. de Saussure einerseits die Wechselwirkung der Linguistik mit der Soziologie und der Sozialpsychologie erkennen (man beachte, dass gleichzeitig Husserls Phänomenologie, Freuds Psychoanalyse, Einsteins Relativitätstheorie waren Entwicklung, Experimente zu Form und Inhalt in Literatur, Musik und Bildender Kunst), andererseits mit der Mathematik (der Konsistenzbegriff entspricht dem algebraischen Sprachbegriff). Ein solches Konzept veränderte das Konzept der sprachlichen Interpretation als solches: Phänomene begannen, nicht mehr in Bezug auf die Ursachen ihres Auftretens, sondern in Bezug auf Gegenwart und Zukunft interpretiert zu werden. Die Interpretation war nicht mehr unabhängig von den Absichten einer Person (trotz der Tatsache, dass Absichten unpersönlich, „unbewusst“ im Freudschen Sinne des Wortes sein können).

Das Funktionieren des sprachlichen Mechanismus manifestiert sich durch die Sprachaktivität von Muttersprachlern. Das Ergebnis der Sprache sind die sogenannten "korrekten Texte" - Sequenzen von Spracheinheiten, die bestimmten Mustern gehorchen, von denen viele eine mathematische Beschreibung ermöglichen. Die Theorie der Beschreibungsweisen der syntaktischen Struktur befasst sich mit der Untersuchung von Methoden zur mathematischen Beschreibung korrekter Texte (vor allem Sätze). In einer solchen Struktur werden sprachliche Analogien nicht mit Hilfe ihrer inhärenten Qualitäten definiert, sondern mit Hilfe von Systembeziehungen („strukturellen“) Beziehungen.

Saussures Ideen wurden im Westen von den jüngeren Zeitgenossen des großen Schweizer Sprachwissenschaftlers entwickelt: in Dänemark - L. Hjelmslev, der bereits von mir erwähnt wurde, der in seinem Werk "Fundamentals of Linguistic Theory" die algebraische Sprachtheorie hervorbrachte, im USA - E. Sapir, L. Bloomfield, C. Harris, in der Tschechischen Republik - russischer Wissenschaftler-Emigrant N. Trubetskoy.

Statistische Gesetzmäßigkeiten in der Sprachwissenschaft begannen von keinem geringeren als dem Begründer der Genetik, Georg Mendel, zu behandeln. Erst 1968 entdeckten Philologen, dass ihn in seinen letzten Lebensjahren die Untersuchung sprachlicher Phänomene mit den Methoden der Mathematik faszinierte. Mendel brachte diese Methode aus der Biologie in die Linguistik; In den 1990er Jahren behaupteten nur die kühnsten Linguisten und Biologen die Machbarkeit einer solchen Analyse. Im Archiv des Klosters St. Tomasz in Brünn, dessen Abt Mendel war, wurden Blätter mit Spalten von Nachnamen gefunden, die auf „mann“, „bauer“, „mayer“ enden, und mit einigen Brüchen und Berechnungen. In dem Bemühen, die formalen Gesetzmäßigkeiten der Entstehung von Familiennamen aufzudecken, stellt Mendel komplexe Berechnungen an, bei denen er die Anzahl der Vokale und Konsonanten in der deutschen Sprache, die Gesamtzahl der von ihm betrachteten Wörter, die Anzahl der Nachnamen, etc.

In unserem Land begann sich die strukturelle Linguistik ungefähr zur gleichen Zeit wie im Westen zu entwickeln - um die Wende vom 19. zum 20. Jahrhundert. Gleichzeitig mit F. de Saussure wurde das Konzept der Sprache als System in ihren Arbeiten von Professoren der Kasaner Universität F.F. Fortunatov und I.A. Baudouin de Courténay. Letzterer korrespondierte lange Zeit mit de Saussure, beziehungsweise die Genfer und die Kasaner Sprachschule arbeiteten zusammen. Wenn man Saussure als den Ideologen „exakter“ Methoden in der Linguistik bezeichnen kann, dann hat Baudouin de Courtenay die praktischen Grundlagen für ihre Anwendung gelegt. Er war der erste, der die Linguistik (als exakte Wissenschaft, die statistische Methoden und funktionale Abhängigkeiten verwendet) von der Philologie (einer Gemeinschaft humanitärer Disziplinen, die spirituelle Kultur durch Sprache und Sprache studieren) trennte. Der Wissenschaftler selbst glaubte, dass "die Sprachwissenschaft in naher Zukunft nur von der Zwangsvereinigung mit Philologie und Literaturgeschichte befreit" nützlich sein kann. Die Phonologie wurde zum "Testfeld" für die Einführung mathematischer Methoden in die Linguistik - Laute als "Atome" des Sprachsystems mit einer begrenzten Anzahl leicht messbarer Eigenschaften waren das bequemste Material für formale, strenge Beschreibungsmethoden. Die Phonologie bestreitet die Existenz von Bedeutung im Klang, daher wurde der "menschliche" Faktor in den Studien eliminiert. In diesem Sinne sind Phoneme wie physikalische oder biologische Objekte.

Phoneme stellen als die kleinsten für die Wahrnehmung akzeptablen sprachlichen Elemente eine eigene Sphäre, eine eigene "phänomenologische Realität" dar. Zum Beispiel kann der Laut „t“ im Englischen unterschiedlich ausgesprochen werden, aber eine Person, die Englisch spricht, wird ihn in jedem Fall als „t“ wahrnehmen. Die Hauptsache ist, dass das Phonem seine wichtigste – sinnvolle – Funktion erfüllt. Darüber hinaus sind die Unterschiede zwischen Sprachen so, dass Varietäten eines Tons in einer Sprache unterschiedlichen Phonemen in einer anderen entsprechen können; Zum Beispiel sind "l" und "r" im Englischen unterschiedlich, während sie in anderen Sprachen Varianten desselben Phonems sind (wie das englische "t", ausgesprochen mit oder ohne Aspiration). Das riesige Vokabular jeder natürlichen Sprache besteht aus einer Reihe von Kombinationen einer viel kleineren Anzahl von Phonemen. Im Englischen werden beispielsweise nur 40 Phoneme verwendet, um etwa eine Million Wörter auszusprechen und zu schreiben.

Die Laute einer Sprache sind eine systematisch organisierte Menge von Merkmalen. In den 1920er und 1930er Jahren, nach Saussure, hoben Jacobson und N. S. Trubetskoy die „charakteristischen Merkmale“ von Phonemen hervor. Diese Merkmale basieren auf der Struktur der Sprachorgane - Zunge, Zähne, Stimmbänder. Zum Beispiel ist der Unterschied zwischen „t“ und „d“ im Englischen das Vorhandensein oder Fehlen einer „Stimme“ (die Spannung der Stimmbänder) und die Lautstärke der Stimme, die ein Phonem von einem anderen unterscheidet. So kann die Phonologie als Beispiel für die von Saussure beschriebene allgemeine Sprachregel gelten: „Es gibt nur Unterschiede in der Sprache“. Noch wichtiger ist dies nicht: Der Unterschied impliziert normalerweise die genauen Bedingungen, zwischen denen er angesiedelt ist; aber in der Sprache gibt es nur Unterschiede ohne genaue Bedingungen. Ob „Bezeichnung“ oder „Bezeichnet“ – in der Sprache gibt es weder Begriffe noch Laute, die es vor der Entwicklung des Sprachsystems gegeben hätte.

Daher wird in der Saussureschen Linguistik das untersuchte Phänomen als eine Reihe von Vergleichen und Gegensätzen der Sprache verstanden. Sprache ist sowohl Ausdruck der Bedeutung von Wörtern als auch Kommunikationsmittel, und diese beiden Funktionen fallen nie zusammen. Wir können den Wechsel von Form und Inhalt feststellen: Sprachliche Kontraste definieren seine strukturellen Einheiten, und diese Einheiten interagieren, um einen bestimmten bedeutungsvollen Inhalt zu schaffen. Da die Elemente der Sprache zufällig sind, können weder Kontrast noch Kombination die Grundlage sein. Das bedeutet, dass in einer Sprache Unterscheidungsmerkmale auf einer anderen Verständnisebene einen phonetischen Kontrast bilden, Phoneme zu Morphemen, Morpheme zu Wörtern, Wörter zu Sätzen usw. In jedem Fall kann ein ganzes Phonem, Wort, Satz usw. ist mehr als nur die Summe seiner Teile.

Saussure schlug die Idee einer neuen Wissenschaft des zwanzigsten Jahrhunderts vor, die von der Linguistik getrennt ist und die Rolle der Zeichen in der Gesellschaft untersucht. Saussure nannte diese Wissenschaft Semiologie (vom griechischen „semeon“ – ein Zeichen). Die „Wissenschaft“ der Semiotik, die sich in den 1920er-1930er Jahren in Osteuropa und in den 1950er-1960er Jahren in Paris entwickelte, erweiterte das Studium der Sprache und der sprachlichen Strukturen zu literarischen Erkenntnissen, die mit Hilfe dieser Strukturen verfasst (oder formuliert) wurden. Darüber hinaus beschäftigte sich Saussure in der Abenddämmerung seiner Karriere parallel zu seinem Studium der allgemeinen Linguistik mit einer "semiotischen" Analyse spätrömischer Dichtung und versuchte, bewusst komponierte Anagramme von Eigennamen zu entdecken. Diese Methode war in ihrer Sprachanalyse in vielerlei Hinsicht das Gegenteil des Rationalismus: Sie war ein Versuch, das Problem der "Wahrscheinlichkeit" in der Sprache in einem System zu untersuchen. Solche Forschung hilft, sich auf die "reale Seite" der Wahrscheinlichkeit zu konzentrieren; Das "Schlüsselwort", für das Saussure ein Anagramm sucht, ist laut Jean Starobinsky "ein Werkzeug für den Dichter, nicht die Quelle des Lebens des Gedichts". Das Gedicht dient dazu, die Laute des Schlüsselworts auszutauschen. Laut Starobinsky geht Saussure in dieser Analyse „nicht auf die Suche nach verborgenen Bedeutungen ein“. Im Gegenteil, in seinen Werken ist der Wunsch spürbar, bewusstseinsbezogene Fragen zu vermeiden: „Da Poesie nicht nur in Worten ausgedrückt wird, sondern auch in dem, was diese Worte hervorrufen, entzieht sie sich der Kontrolle des Bewusstseins und hängt nur von ab die Gesetze der Sprache“ (vgl. Anhang 1).

Saussures Versuch, Eigennamen in der spätrömischen Poesie zu studieren, betont eine der Komponenten seiner Sprachanalyse – die willkürliche Natur von Zeichen sowie das formale Wesen von Saussures Linguistik, das die Möglichkeit einer Bedeutungsanalyse ausschließt. Todorov kommt zu dem Schluss, dass die Werke von Saussure heute äußerst konsequent darin zu sein scheinen, die Symbole eines Phänomens zu studieren, die eine klar definierte Bedeutung haben [Anhang 1]. Beim Erkunden von Anagrammen achtet Saussure nur auf Wiederholungen, nicht aber auf frühere Optionen. . . . Beim Studium des Nibelungenliedes definiert er die Symbole nur, um sie falschen Lesarten zuzuordnen: Wenn sie unbeabsichtigt sind, existieren die Symbole nicht. Schließlich geht er in seinen Schriften zur allgemeinen Sprachwissenschaft von der Existenz einer Semiologie aus, die nicht nur sprachliche Zeichen beschreibt; Diese Annahme wird jedoch dadurch eingeschränkt, dass die Semiologie nur zufällige, willkürliche Zeichen beschreiben kann.

Wenn dem wirklich so ist, dann nur, weil er sich „Absicht“ nicht ohne Objekt vorstellen konnte; er konnte die Kluft zwischen Form und Inhalt nicht vollständig überbrücken - in seinen Schriften wurde dies zu einer Frage. Stattdessen wandte er sich der "sprachlichen Legitimität" zu. Zwischen auf der Geschichte und subjektiven Vermutungen basierenden Konzepten des 19. Jahrhunderts einerseits und Methoden der willkürlichen Interpretation, die auf diesen Konzepten basieren, und andererseits strukturalistischen Konzepten, die den Gegensatz zwischen Form und Inhalt (Subjekt und Objekt) aufheben. , Bedeutung und Ursprünge im Strukturalismus, der Psychoanalyse und sogar der Quantenmechanik markieren Ferdinand de Saussures Schriften zur Linguistik und Semiotik einen Wendepunkt in der Erforschung von Bedeutungen in Sprache und Kultur.

Russische Wissenschaftler waren auch auf dem Ersten Internationalen Kongress der Linguisten 1928 in Den Haag vertreten. S. Kartsevsky, R. Yakobson und N. Trubetskoy erstellten einen Bericht, der die hierarchische Struktur der Sprache untersuchte - im Geiste der modernsten Ideen für den Beginn des letzten Jahrhunderts. Jakobson entwickelte in seinen Schriften Saussures Ideen, dass die Grundelemente einer Sprache zuallererst im Zusammenhang mit ihren Funktionen und nicht mit den Gründen für ihr Auftreten untersucht werden sollten.

Nachdem Stalin 1924 an die Macht kam, wurde die russische Linguistik leider, wie viele andere Wissenschaften, zurückgeworfen. Viele begabte Wissenschaftler mussten emigrieren, wurden des Landes verwiesen oder starben in Lagern. Erst Mitte der 1950er Jahre wurde ein gewisser Theoriepluralismus möglich – mehr dazu in Abschnitt 1.2.


1.2 Anwendung mathematischer Methoden in der Linguistik in der zweiten Hälfte des 20. Jahrhunderts


Mitte des 20. Jahrhunderts hatten sich vier Weltsprachschulen gebildet, von denen sich jede als Vorfahr einer bestimmten „exakten“ Methode herausstellte. Die Leningrader phonologische Schule (ihr Vorfahre war ein Schüler von Baudouin de Courtenay L. V. Shcherba) verwendete ein psycholinguistisches Experiment, das auf der Analyse der Sprache von Muttersprachlern als Hauptkriterium für die Verallgemeinerung von Lauten in Form eines Phonems beruhte.

Wissenschaftler des Prager Sprachkreises, insbesondere sein Gründer N.S. Trubetskoy, der aus Russland emigrierte, entwickelte die Theorie der Oppositionen – die semantische Struktur der Sprache wurde von ihnen als eine Reihe von gegensätzlich konstruierten semantischen Einheiten beschrieben – Sem. Diese Theorie wurde nicht nur beim Studium der Sprache, sondern auch der künstlerischen Kultur angewendet.

Die Ideologen des amerikanischen Deskriptivismus waren die Linguisten L. Bloomfield und E. Sapir. Sprache wurde den Deskriptivisten als eine Reihe von Sprachaussagen präsentiert, die das Hauptobjekt ihrer Studie waren. Ihr Schwerpunkt lag auf den Regeln der wissenschaftlichen Beschreibung (daher der Name) von Texten: dem Studium der Organisation, Anordnung und Klassifizierung ihrer Elemente. Die Formalisierung analytischer Verfahren auf dem Gebiet der Phonologie und Morphologie (Entwicklung von Prinzipien für das Studium der Sprache auf verschiedenen Ebenen, Verteilungsanalyse, Methode der direkten Konstituenten usw.) führte zur Formulierung allgemeiner Fragen der sprachlichen Modellierung. Die Unaufmerksamkeit gegenüber dem Plan des Inhalts der Sprache sowie der paradigmatischen Seite der Sprache erlaubte es den Deskriptivisten nicht, die Sprache als System vollständig genug zu interpretieren.

In den 1960er Jahren entwickelte sich die Theorie der formalen Grammatiken, die vor allem durch die Arbeit des amerikanischen Philosophen und Linguisten N. Chomsky entstand. Er gilt zu Recht als einer der berühmtesten modernen Wissenschaftler und Persönlichkeiten des öffentlichen Lebens, viele Artikel, Monographien und sogar ein Dokumentarfilm in voller Länge sind ihm gewidmet. Unter dem Namen einer grundlegend neuen Art, die von Chomsky erfundene syntaktische Struktur zu beschreiben - generative (generative) Grammatik - wurde die entsprechende Richtung in der Linguistik als Generativismus bezeichnet.

Chomsky, ein Nachkomme von Einwanderern aus Russland, studierte seit 1945 Linguistik, Mathematik und Philosophie an der University of Pennsylvania, stark beeinflusst von seinem Lehrer Zelig Harris – wie Harris betrachtete und sieht Chomsky seine politischen Ansichten dem Anarchismus nahe (er ist immer noch bekannt als Kritiker des bestehenden politischen Systems der USA und als einer der geistigen Führer des Antiglobalismus).

Chomskys erste große wissenschaftliche Arbeit, seine Magisterarbeit Morphology of Modern Hebrew (1951), blieb unveröffentlicht. Chomsky promovierte 1955 an der University of Pennsylvania, aber ein Großteil der Forschung, die seiner Dissertation (vollständig erst 1975 unter dem Titel The Logical Structure of Linguistic Theory veröffentlicht) und seiner ersten Monographie, Syntactic Structures (1957, Rus. trans . 1962), wurde 1951-1955 an der Harvard University aufgeführt. Im gleichen Jahr 1955 wechselte der Wissenschaftler an das Massachusetts Institute of Technology, wo er 1962 Professor wurde.

Chomskys Theorie hat in ihrer Entwicklung mehrere Stadien durchlaufen.

In der ersten Monographie „Syntactic Structures“ stellte der Wissenschaftler die Sprache als einen Mechanismus zur Generierung einer unendlichen Menge von Sätzen mit endlichen grammatikalischen Mitteln vor. Zur Beschreibung sprachlicher Eigenschaften schlug er die Konzepte tiefer (der direkten Wahrnehmung verborgener und durch ein System rekursiver, d. h. wiederholt anwendbarer Regeln erzeugter) und oberflächlicher (direkt wahrnehmbarer) grammatikalischer Strukturen sowie Transformationen vor, die den Übergang beschreiben von tiefen Strukturen zu oberflächlichen. Einer Tiefenstruktur können mehrere Oberflächenstrukturen entsprechen (z. B. die passive Konstruktion Das Dekret wird vom Präsidenten unterzeichnet stammt aus derselben Tiefenstruktur wie die aktive Konstruktion Der Präsident unterzeichnet das Dekret) und umgekehrt (z. B. die Mehrdeutigkeit Mutter liebt die Tochter wird als Ergebnis des Zusammentreffens von Oberflächenstrukturen beschrieben, die auf zwei verschiedene Tiefen zurückgehen, von denen in der einen die Mutter diejenige ist, die die Tochter liebt, und in der anderen diejenige, die die Tochter liebt).

Chomskys Standardtheorie gilt als das „Aspects“-Modell, das in Chomskys Buch „Aspects of the Theory of Syntax“ dargelegt ist. In diesem Modell wurden erstmals semantische Interpretationsregeln in die formale Theorie eingeführt, die Tiefenstrukturen Bedeutung zuschreiben. In Aspekten wird sprachliche Kompetenz dem Gebrauch von Sprache (Performance) gegenübergestellt, die sogenannte Katz-Postal-Hypothese über die Bewahrung von Bedeutung während der Transformation wird übernommen, in deren Zusammenhang das Konzept der optionalen Transformation ausgeschlossen wird, und ein Apparat von syntaktische Merkmale, die die lexikalische Kompatibilität beschreiben, werden eingeführt.

In den 1970er Jahren arbeitete Chomsky an der Theorie der Governance und Bindung (GB-Theorie - von den Wörtern Regierung und Bindung) - allgemeiner als die vorherige. Darin verzichtete der Wissenschaftler auf die spezifischen Regeln, die die syntaktischen Strukturen bestimmter Sprachen beschreiben. Alle Transformationen wurden durch eine universelle Bewegungstransformation ersetzt. Im Rahmen der GB-Theorie gibt es auch private Module, die jeweils für einen eigenen Teil der Grammatik zuständig sind.

Bereits vor kurzem, 1995, hat Chomsky ein minimalistisches Programm vorgelegt, in dem menschliche Sprache wie Maschinensprache beschrieben wird. Es ist nur ein Programm, kein Modell oder eine Theorie. Darin identifiziert Chomsky zwei Hauptuntersysteme des menschlichen Sprachapparats: das Lexikon und das Computersystem sowie zwei Schnittstellen – phonetische und logische.

Chomskys formale Grammatiken sind zu Klassikern geworden, um nicht nur natürliche, sondern auch künstliche Sprachen – insbesondere Programmiersprachen – zu beschreiben. Die Entwicklung der Strukturlinguistik in der zweiten Hälfte des 20. Jahrhunderts kann zu Recht als „Chomskische Revolution“ bezeichnet werden.

Die Moskauer Phonologische Schule, deren Vertreter A.A. Reformatsky, V.N. Sidorow, P.S. Kuznetsov, A.M. Sukhotin, R.I. Avanesov verwendete eine ähnliche Theorie, um Phonetik zu studieren. Allmählich werden "exakte" Methoden nicht nur in Bezug auf die Phonetik, sondern auch in Bezug auf die Syntax angewendet. Sowohl Linguisten als auch Mathematiker im In- und Ausland beginnen, die Struktur der Sprache zu studieren. In den 1950er und 60er Jahren begann in der UdSSR eine neue Phase in der Interaktion zwischen Mathematik und Linguistik, verbunden mit der Entwicklung von maschinellen Übersetzungssystemen.

Der Anstoß für den Beginn dieser Arbeiten in unserem Land waren die ersten Entwicklungen auf dem Gebiet der maschinellen Übersetzung in den Vereinigten Staaten (obwohl das erste maschinelle Übersetzungsgerät von P. P. Smirnov-Troyansky bereits 1933 in der UdSSR erfunden wurde, da es primitiv war , hat sich nicht verbreitet). 1947 entwickelten A. Butt und D. Britten einen Code für die Wort-für-Wort-Übersetzung mit Hilfe eines Computers, ein Jahr später schlug R. Richens eine Regel vor, um Wörter bei der maschinellen Übersetzung in Wortstämme und Endungen aufzuteilen. Diese Jahre waren ganz anders als heute. Dies waren sehr große und teure Maschinen, die ganze Räume einnahmen und für deren Wartung ein großes Personal an Ingenieuren, Bedienern und Programmierern erforderlich war. Grundsätzlich wurden diese Computer verwendet, um mathematische Berechnungen für die Bedürfnisse militärischer Institutionen durchzuführen - die neuen in Mathematik, Physik und Technologie dienten in erster Linie militärischen Angelegenheiten. In den frühen Stadien wurde die Entwicklung des MP aktiv vom Militär unterstützt, während sich (unter den Bedingungen des Kalten Krieges) die russisch-englische Richtung in den USA und die anglo-russische Richtung in der UdSSR entwickelte.

Im Januar 1954 fand an der Massachusetts Technical University das Georgetown-Experiment statt, die erste öffentliche Demonstration der Übersetzung aus dem Russischen ins Englische auf der IBM-701-Maschine. Zusammenfassung der Nachricht über den erfolgreichen Abschluss des Experiments, erstellt von D.Yu. Panov, erschienen in RJ "Mathematics", 1954, Nr. 10: "Übersetzung von einer Sprache in eine andere mit einer Maschine: ein Bericht über den ersten erfolgreichen Test."

D. Yu. Panov (damals Direktor des Instituts für wissenschaftliche Information - INI, später VINITI) zog I. K. Belskaya an, der später die Gruppe für maschinelle Übersetzung am Institut für präzise Mathematik und Computertechnik der Akademie der Wissenschaften der UdSSR leitete Arbeit an maschineller Übersetzung. Ende 1955 liegen die ersten Erfahrungen mit der Übersetzung aus dem Englischen ins Russische mit Hilfe der BESM-Maschine vor. Programme für BESM wurden von N.P. Trifonov und L. N. Korolev, dessen Doktorarbeit Methoden zum Erstellen von Wörterbüchern für die maschinelle Übersetzung gewidmet war.

Parallel dazu wurden Arbeiten zur maschinellen Übersetzung in der Abteilung für Angewandte Mathematik des Mathematischen Instituts der Akademie der Wissenschaften der UdSSR (jetzt M. V. Keldysh-Institut für Angewandte Mathematik der Russischen Akademie der Wissenschaften) durchgeführt. Auf Initiative des Mathematikers A.A. Ljapunow. Er beteiligte O.S. Kulagin und ihre Schüler T.D. Wentzel und N.N. Rico. Die Ideen von Lyapunov und Kulagina über die Möglichkeit, mithilfe von Technologie von einer Sprache in eine andere zu übersetzen, wurden in der Zeitschrift Nature, 1955, Nr. 8 veröffentlicht. Ab Ende 1955 war T.N. Moloshnaya, der dann mit der unabhängigen Arbeit am Englisch-Russisch-Übersetzungsalgorithmus begann.

R. Frumkina, der sich damals mit dem Übersetzungsalgorithmus aus dem Spanischen beschäftigte, erinnert sich, dass es in dieser Phase der Arbeit schwierig war, konsequente Schritte zu unternehmen. Viel öfter musste ich der heuristischen Erfahrung folgen – meiner eigenen oder Kollegen.

Die erste Generation maschineller Übersetzungssysteme war jedoch sehr unvollkommen. Alle basierten auf sequentiellen Übersetzungsalgorithmen „Wort für Wort“, „Satz für Satz“ – semantische Zusammenhänge zwischen Wörtern und Sätzen wurden in keiner Weise berücksichtigt. Wir können zum Beispiel die Sätze zitieren: „John suchte seine Spielzeugkiste. Endlich hat er es gefunden. Die Schachtel war im Stift. Johannes war sehr glücklich. (John suchte seine Spielzeugkiste. Endlich fand er sie. Die Kiste stand im Laufstall. John war sehr glücklich.)“ „Stift“ ist in diesem Zusammenhang kein „Stift“ (Schreibgerät), sondern ein „Laufstall“ (Laufstall). Das Wissen um Synonyme, Antonyme und bildliche Bedeutungen ist schwer in einen Computer einzugeben. Eine vielversprechende Richtung war die Entwicklung von Computersystemen, die sich auf die Verwendung eines menschlichen Übersetzers konzentrierten.

Im Laufe der Zeit wurden direkte Übersetzungssysteme durch T-Systeme (vom englischen Wort "transfer" - Transformation) ersetzt, bei denen die Übersetzung auf der Ebene syntaktischer Strukturen durchgeführt wurde. Die Algorithmen von T-Systems verwendeten einen Mechanismus, der es ermöglichte, eine syntaktische Struktur gemäß den Grammatikregeln der Sprache des Eingabesatzes aufzubauen (ähnlich wie eine Fremdsprache in der High School gelehrt wird) und dann den Ausgabesatz zu synthetisieren indem die syntaktische Struktur transformiert und die erforderlichen Wörter aus dem Wörterbuch ersetzt werden.

Lyapunov sprach über das Übersetzen, indem er die Bedeutung des übersetzten Textes extrahierte und ihn in einer anderen Sprache präsentierte. Der Ansatz zum Aufbau von Maschinenübersetzungssystemen auf der Grundlage des Erhaltens der semantischen Darstellung des Eingabesatzes durch semantische Analyse und Synthese des Eingabesatzes gemäß der erhaltenen semantischen Darstellung wird immer noch als der vollkommenste angesehen. Solche Systeme nennt man I-Systeme (vom Wort „interlingua“). Die in die späten 50er und frühen 60er Jahre zurückversetzte Aufgabe ihrer Erstellung ist jedoch trotz der Bemühungen der International Federation of IFIP, der Weltgemeinschaft von Wissenschaftlern auf dem Gebiet der Informationsverarbeitung, noch nicht vollständig gelöst.

Wissenschaftler dachten darüber nach, wie man Algorithmen für die Arbeit mit Texten formalisiert und baut, welche Wörterbücher in die Maschine eingegeben werden sollten, welche sprachlichen Muster in der maschinellen Übersetzung verwendet werden sollten. Solche Vorstellungen hatte die traditionelle Linguistik nicht – nicht nur semantisch, sondern auch syntaktisch. Zu dieser Zeit gab es für keine Sprache Listen syntaktischer Konstruktionen, die Bedingungen für ihre Kompatibilität und Austauschbarkeit wurden nicht untersucht, die Regeln für die Konstruktion großer Einheiten syntaktischer Struktur aus kleineren Bestandteilen wurden nicht entwickelt.

Die Notwendigkeit, die theoretischen Grundlagen der maschinellen Übersetzung zu schaffen, führte zur Entstehung und Entwicklung der mathematischen Linguistik. Die führende Rolle in dieser Angelegenheit in der UdSSR spielten die Mathematiker A.A. Ljapunow, O.S. Kulagina, V.A. Uspensky, Linguisten V.Yu. Rosenzweig, P.S. Kuznetsov, R.M. Frumkina, A.A. Reformatsky, I.A. Melchuk, V.V. Iwanow. Kulaginas Dissertation war dem Studium der formalen Theorie der Grammatik gewidmet (gleichzeitig mit N. Khomsky in den USA), Kuznetsov stellte die Aufgabe der Axiomatisierung der Linguistik, die auf die Arbeiten von F.F. Fortunatov.

Am 6. Mai 1960 wurde das Dekret des Präsidiums der Akademie der Wissenschaften der UdSSR "Über die Entwicklung struktureller und mathematischer Methoden für das Studium der Sprache" verabschiedet und die entsprechenden Abteilungen am Institut für Linguistik und am Institut für eingerichtet Die russische Sprache. Seit 1960 begann an den führenden humanitären Universitäten des Landes - der philologischen Fakultät der Moskauer Staatsuniversität, Leninrad, den Nowosibirsker Universitäten, dem Moskauer Staatlichen Institut für Fremdsprachen - die Ausbildung im Bereich der automatischen Textverarbeitung.

Maschinenübersetzungswerke dieser Zeit, die als "klassisch" bezeichnet werden, sind jedoch eher von theoretischem als von praktischem Interesse. Kostengünstige maschinelle Übersetzungssysteme wurden erst in den achtziger Jahren des letzten Jahrhunderts entwickelt. Darauf werde ich später in Abschnitt 2.1, Maschinelle Übersetzung, eingehen.

Die 1960er - 70er Jahre umfassen tiefgreifende theoretische Entwicklungen unter Verwendung der Methoden der Mengenlehre und der mathematischen Logik, wie z. B. der Feldtheorie und der Fuzzy-Mengentheorie.

Der Autor der Feldtheorie in der Linguistik war der sowjetische Dichter, Übersetzer und Linguist V.G. Admoni. Er entwickelte seine Theorie zunächst auf der Grundlage der deutschen Sprache. Für Admoni bezeichnet der Begriff „Feld“ eine willkürliche, nicht leere Menge sprachlicher Elemente (z. B. „lexikalisches Feld“, „semantisches Feld“).

Die Struktur des Feldes ist heterogen: Es besteht aus einem Kern, dessen Elemente einen vollständigen Satz von Merkmalen haben, die einen Satz definieren, und einer Peripherie, deren Elemente beide Merkmale eines gegebenen Satzes haben können (nicht alle). und benachbarte. Ich werde ein Beispiel geben, das diese Aussage illustriert: Zum Beispiel ist im Englischen das Feld der zusammengesetzten Wörter („day-dream“ - „dream“ schwer vom Feld der Phrasen („tear gas“ – „tear gas“) zu trennen. .

Die oben bereits erwähnte Theorie der Fuzzy-Mengen ist eng mit der Feldtheorie verwandt. In der UdSSR haben die Linguisten V.G. Admoni, I.P. Ivanova, G.G. Pochentsov jedoch war sein Vorfahre der amerikanische Mathematiker L. Zadeh, der 1965 den Artikel „Fuzzy Logic“ veröffentlichte. Zade begründete die Theorie der Fuzzy-Mengen mathematisch und betrachtete sie auf der Grundlage von sprachlichem Material.

In dieser Theorie sprechen wir nicht so sehr über die Zugehörigkeit von Elementen zu einer gegebenen Menge (АОа), sondern über den Grad dieser Zugehörigkeit (mАОа), da periphere Elemente bis zu einem gewissen Grad zu mehreren Feldern gehören können. Zade (Lofti-zade) stammte aus Aserbaidschan, bis zum Alter von 12 Jahren hatte er die Praxis, in vier Sprachen zu kommunizieren – Aserbaidschanisch, Russisch, Englisch und Persisch – und benutzte drei verschiedene Alphabete: Kyrillisch, Latein, Arabisch. Wenn ein Wissenschaftler gefragt wird, was die Theorie der Fuzzy-Mengen und die Linguistik gemeinsam haben, verneint er diesen Zusammenhang nicht, stellt aber klar: „Ich bin mir nicht sicher, ob das Studium dieser Sprachen einen großen Einfluss auf mein Denken hatte. Wenn dem so war, dann nur unbewusst. In seiner Jugend besuchte Zadeh eine presbyterianische Schule in Teheran und wanderte nach dem Zweiten Weltkrieg in die Vereinigten Staaten aus. „Die Frage ist nicht, ob ich Amerikaner, Russe, Aserbaidschaner oder was auch immer bin“, sagte er.

Ähnliche Abstracts:

Sprache und Sprechen als eines der Grundprobleme der Stilistik. Das Konzept des Phonems und der phonologischen Ebene. Das Konzept der Sprache als System und Ebenen des Sprachsystems. Das Konzept der Morpheme und ihrer Typen. Ein Satz als syntaktische Einheit eines Textes. Zeichen des Sprachsystems.

Einführung

Kapitel 1. Die Geschichte der Anwendung mathematischer Methoden in der Linguistik

1.1. Die Herausbildung der Strukturlinguistik an der Wende vom 19. zum 20. Jahrhundert

1.2. Anwendung mathematischer Methoden in der Linguistik in der zweiten Hälfte des 20. Jahrhunderts

Kapitel 2. Ausgewählte Beispiele für den Einsatz von Mathematik in der Linguistik

2.1. Maschinell übersetzen

2.2.Statistische Methoden beim Sprachenlernen

2.3. Lernen einer Sprache mit Methoden der formalen Logik

2.4. Perspektiven für die Anwendung mathematischer Methoden in der Linguistik

Fazit

Literatur

Anhang 1. Ronald Schleifer. Ferdinand von Saussure

Anhang 2. Ferdinand de Saussure (Übersetzung)

Einführung

Im 20. Jahrhundert setzt sich der Trend zur Interaktion und Durchdringung verschiedener Wissensgebiete fort. Die Grenzen zwischen den einzelnen Wissenschaften verschwimmen allmählich; es gibt immer mehr Zweige geistiger Tätigkeit, die "an der Schnittstelle" von humanitären, technischen und naturwissenschaftlichen Erkenntnissen stehen.

Ein weiteres offensichtliches Merkmal der Moderne ist der Wunsch, Strukturen und ihre Bestandteile zu studieren. Daher wird der Mathematik sowohl in der wissenschaftlichen Theorie als auch in der Praxis ein immer größerer Stellenwert eingeräumt. In Berührung einerseits mit Logik und Philosophie, andererseits mit Statistik (und folglich mit den Sozialwissenschaften) dringt die Mathematik immer tiefer in jene Bereiche vor, die lange Zeit als rein galten „humanitär“, erweitern ihr heuristisches Potenzial (die Antwort auf die Frage „wie viel“ hilft oft bei der Beantwortung der Fragen „was“ und „wie“). Sprachwissenschaft war keine Ausnahme.

Der Zweck meiner Kursarbeit ist es, kurz die Verbindung zwischen der Mathematik und einem Zweig der Linguistik wie der Linguistik hervorzuheben. Seit den 1950er Jahren wird die Mathematik in der Linguistik verwendet, um einen theoretischen Apparat zur Beschreibung der Struktur von Sprachen (sowohl natürlichen als auch künstlichen) zu schaffen. Es muss jedoch gesagt werden, dass es eine solche praktische Anwendung nicht sofort für sich gefunden hat. Anfänglich wurden mathematische Methoden in der Linguistik verwendet, um die grundlegenden Konzepte der Linguistik zu klären, aber mit der Entwicklung der Computertechnologie begann eine solche theoretische Prämisse, Anwendung in der Praxis zu finden. Die Lösung solcher Aufgaben wie maschinelle Übersetzung, maschineller Informationsabruf, automatische Textverarbeitung erforderte eine grundlegend neue Herangehensweise an die Sprache. Die Linguisten stellten sich der Frage: Wie lernt man, sprachliche Muster so darzustellen, dass sie direkt auf die Technik übertragen werden können? Der in unserer Zeit gebräuchliche Begriff „mathematische Linguistik“ bezeichnet jede linguistische Forschung, die sich exakter Methoden bedient (und der Begriff der exakten Methoden in den Naturwissenschaften ist immer eng mit der Mathematik verbunden). Einige Wissenschaftler der letzten Jahre glauben, dass der Ausdruck selbst nicht in den Rang eines Begriffs erhoben werden kann, da er keine spezielle „Linguistik“ bedeutet, sondern nur eine neue Richtung, die sich auf die Verbesserung, Erhöhung der Genauigkeit und Zuverlässigkeit von Sprachforschungsmethoden konzentriert . Die Linguistik verwendet sowohl quantitative (algebraische) als auch nicht-quantitative Methoden, was sie der mathematischen Logik und folglich der Philosophie und sogar der Psychologie näher bringt. Sogar Schlegel bemerkte die Wechselwirkung von Sprache und Bewusstsein, und Ferdinand de Saussure, ein prominenter Linguist des frühen zwanzigsten Jahrhunderts (über seinen Einfluss auf die Entwicklung mathematischer Methoden in der Linguistik werde ich später berichten), verband die Struktur der Sprache mit ihrer Zugehörigkeit zu den Leuten. Der moderne Forscher L. Perlovsky geht noch weiter und identifiziert die quantitativen Merkmale der Sprache (z. B. Anzahl der Geschlechter, Fälle) mit den Besonderheiten der nationalen Mentalität (mehr dazu in Abschnitt 2.2, „Statistische Methoden in der Sprachwissenschaft“).

Das Zusammenspiel von Mathematik und Linguistik ist ein vielschichtiges Thema, und ich werde in meiner Arbeit nicht auf alle, sondern vor allem auf seine angewandten Aspekte eingehen.

Kapitel I. Geschichte der Anwendung mathematischer Methoden in der Linguistik

1.1 Die Entstehung der strukturellen Linguistik an der Wende vom 19. zum 20. Jahrhundert

Die mathematische Beschreibung der Sprache basiert auf der Idee der Sprache als Mechanismus, die auf den berühmten Schweizer Linguisten des frühen zwanzigsten Jahrhunderts, Ferdinand de Saussure, zurückgeht.

Ausgangspunkt seines Konzepts ist die Theorie der Sprache als eines aus drei Teilen bestehenden Systems (die Sprache selbst ist Sprache, Rede - Passwort, und Sprachaktivität - Sprache), in der jedes Wort (Mitglied des Systems) nicht für sich betrachtet wird, sondern in Verbindung mit anderen Mitgliedern. Wie ein anderer prominenter Linguist, der Däne Louis Hjelmslev, später feststellte, war Saussure „der erste, der einen strukturellen Ansatz für die Sprache forderte, das heißt eine wissenschaftliche Beschreibung der Sprache durch Aufzeichnung der Beziehungen zwischen Einheiten“.

Saussure verstand die Sprache als hierarchische Struktur und stellte als erster das Problem des Wertes und der Bedeutung sprachlicher Einheiten. Separate Phänomene und Ereignisse (zB die Entstehungsgeschichte einzelner indogermanischer Wörter) sollten nicht für sich allein untersucht werden, sondern in einem System, in dem sie mit ähnlichen Komponenten korreliert sind.

Die strukturelle Einheit der Sprache von Saussure betrachtete das Wort "Zeichen", in dem Klang und Bedeutung kombiniert wurden. Keines dieser Elemente existiert ohne das andere: Daher versteht der Muttersprachler die verschiedenen Bedeutungsnuancen eines polysemantischen Wortes als ein separates Element im strukturellen Ganzen, in der Sprache.

So kann man in der Theorie von F. de Saussure einerseits die Wechselwirkung der Linguistik mit der Soziologie und der Sozialpsychologie erkennen (man beachte, dass gleichzeitig Husserls Phänomenologie, Freuds Psychoanalyse, Einsteins Relativitätstheorie waren Entwicklung, Experimente zu Form und Inhalt in Literatur, Musik und Bildender Kunst), andererseits mit der Mathematik (der Konsistenzbegriff entspricht dem algebraischen Sprachbegriff). Ein solches Konzept veränderte das Konzept der sprachlichen Interpretation als solches: Phänomene begannen, nicht mehr in Bezug auf die Ursachen ihres Auftretens, sondern in Bezug auf Gegenwart und Zukunft interpretiert zu werden. Die Interpretation war nicht mehr unabhängig von den Absichten einer Person (trotz der Tatsache, dass Absichten unpersönlich, „unbewusst“ im Freudschen Sinne des Wortes sein können).

Das Funktionieren des sprachlichen Mechanismus manifestiert sich durch die Sprachaktivität von Muttersprachlern. Das Ergebnis der Sprache sind die sogenannten "korrekten Texte" - Sequenzen von Spracheinheiten, die bestimmten Mustern gehorchen, von denen viele eine mathematische Beschreibung ermöglichen. Die Theorie der Beschreibungsweisen der syntaktischen Struktur befasst sich mit der Untersuchung von Methoden zur mathematischen Beschreibung korrekter Texte (vor allem Sätze). In einer solchen Struktur werden sprachliche Analogien nicht mit Hilfe ihrer inhärenten Qualitäten definiert, sondern mit Hilfe von Systembeziehungen („strukturellen“) Beziehungen.

Saussures Ideen wurden im Westen von den jüngeren Zeitgenossen des großen Schweizer Sprachwissenschaftlers entwickelt: in Dänemark - L. Hjelmslev, der bereits von mir erwähnt wurde, der in seinem Werk "Fundamentals of Linguistic Theory" die algebraische Sprachtheorie hervorbrachte, im USA - E. Sapir, L. Bloomfield, C. Harris, in der Tschechischen Republik - russischer Wissenschaftler-Emigrant N. Trubetskoy.

Statistische Gesetzmäßigkeiten in der Sprachwissenschaft begannen von keinem geringeren als dem Begründer der Genetik, Georg Mendel, zu behandeln. Erst 1968 entdeckten Philologen, dass ihn in seinen letzten Lebensjahren die Untersuchung sprachlicher Phänomene mit den Methoden der Mathematik faszinierte. Mendel brachte diese Methode aus der Biologie in die Linguistik; In den 1990er Jahren behaupteten nur die kühnsten Linguisten und Biologen die Machbarkeit einer solchen Analyse. Im Archiv des Klosters St. Tomasz in Brünn, dessen Abt Mendel war, wurden Blätter mit Spalten von Nachnamen gefunden, die auf „mann“, „bauer“, „mayer“ enden, und mit einigen Brüchen und Berechnungen. In dem Bemühen, die formalen Gesetzmäßigkeiten der Entstehung von Familiennamen aufzudecken, stellt Mendel komplexe Berechnungen an, bei denen er die Anzahl der Vokale und Konsonanten in der deutschen Sprache, die Gesamtzahl der von ihm betrachteten Wörter, die Anzahl der Nachnamen, etc.

In unserem Land begann sich die strukturelle Linguistik ungefähr zur gleichen Zeit wie im Westen zu entwickeln - um die Wende vom 19. zum 20. Jahrhundert. Gleichzeitig mit F. de Saussure wurde das Konzept der Sprache als System in ihren Arbeiten von Professoren der Kasaner Universität F.F. Fortunatov und I.A. Baudouin de Courténay. Letzterer korrespondierte lange Zeit mit de Saussure, beziehungsweise die Genfer und die Kasaner Sprachschule arbeiteten zusammen. Wenn man Saussure als den Ideologen „exakter“ Methoden in der Linguistik bezeichnen kann, dann hat Baudouin de Courtenay die praktischen Grundlagen für ihre Anwendung gelegt. Er war der erste, der die Linguistik (as präzise eine Wissenschaft, die statistische Methoden und funktionale Abhängigkeit verwendet) von der Philologie (einer Gemeinschaft humanitärer Disziplinen, die spirituelle Kultur durch Sprache und Sprache studieren). Der Wissenschaftler selbst glaubte, dass "die Sprachwissenschaft in naher Zukunft nur von der Zwangsvereinigung mit Philologie und Literaturgeschichte befreit" nützlich sein kann. Die Phonologie wurde zum "Testfeld" für die Einführung mathematischer Methoden in die Linguistik - Laute als "Atome" des Sprachsystems mit einer begrenzten Anzahl leicht messbarer Eigenschaften waren das bequemste Material für formale, strenge Beschreibungsmethoden. Die Phonologie bestreitet die Existenz von Bedeutung im Klang, daher wurde der "menschliche" Faktor in den Studien eliminiert. In diesem Sinne sind Phoneme wie physikalische oder biologische Objekte.

Phoneme stellen als die kleinsten für die Wahrnehmung akzeptablen sprachlichen Elemente eine eigene Sphäre, eine eigene "phänomenologische Realität" dar. Zum Beispiel kann der Laut „t“ im Englischen unterschiedlich ausgesprochen werden, aber eine Person, die Englisch spricht, wird ihn in jedem Fall als „t“ wahrnehmen. Die Hauptsache ist, dass das Phonem seine wichtigste – sinnvolle – Funktion erfüllt. Darüber hinaus sind die Unterschiede zwischen Sprachen so, dass Varietäten eines Tons in einer Sprache unterschiedlichen Phonemen in einer anderen entsprechen können; Zum Beispiel sind "l" und "r" im Englischen unterschiedlich, während sie in anderen Sprachen Varianten desselben Phonems sind (wie das englische "t", ausgesprochen mit oder ohne Aspiration). Das riesige Vokabular jeder natürlichen Sprache besteht aus einer Reihe von Kombinationen einer viel kleineren Anzahl von Phonemen. Im Englischen werden beispielsweise nur 40 Phoneme verwendet, um etwa eine Million Wörter auszusprechen und zu schreiben.

Einführung

Kapitel 1. Die Geschichte der Anwendung mathematischer Methoden in der Linguistik

1.1. Die Herausbildung der Strukturlinguistik an der Wende vom 19. zum 20. Jahrhundert

1.2. Anwendung mathematischer Methoden in der Linguistik in der zweiten Hälfte des 20. Jahrhunderts

Kapitel 2. Ausgewählte Beispiele für den Einsatz von Mathematik in der Linguistik

2.1. Maschinell übersetzen

2.2.Statistische Methoden beim Sprachenlernen

2.3. Lernen einer Sprache mit Methoden der formalen Logik

2.4. Perspektiven für die Anwendung mathematischer Methoden in der Linguistik

Fazit

Literatur

Anhang 1. Ronald Schleifer. Ferdinand von Saussure

Anhang 2. Ferdinand de Saussure (Übersetzung)

Einführung

Im 20. Jahrhundert setzt sich der Trend zur Interaktion und Durchdringung verschiedener Wissensgebiete fort. Die Grenzen zwischen den einzelnen Wissenschaften verschwimmen allmählich; es gibt immer mehr Zweige geistiger Tätigkeit, die "an der Schnittstelle" von humanitären, technischen und naturwissenschaftlichen Erkenntnissen stehen.

Ein weiteres offensichtliches Merkmal der Moderne ist der Wunsch, Strukturen und ihre Bestandteile zu studieren. Daher wird der Mathematik sowohl in der wissenschaftlichen Theorie als auch in der Praxis ein immer größerer Stellenwert eingeräumt. In Berührung einerseits mit Logik und Philosophie, andererseits mit Statistik (und folglich mit den Sozialwissenschaften) dringt die Mathematik immer tiefer in jene Bereiche vor, die lange Zeit als rein galten „humanitär“, erweitern ihr heuristisches Potenzial (die Antwort auf die Frage „wie viel“ hilft oft bei der Beantwortung der Fragen „was“ und „wie“). Sprachwissenschaft war keine Ausnahme.

Der Zweck meiner Kursarbeit ist es, kurz die Verbindung zwischen der Mathematik und einem Zweig der Linguistik wie der Linguistik hervorzuheben. Seit den 1950er Jahren wird die Mathematik in der Linguistik verwendet, um einen theoretischen Apparat zur Beschreibung der Struktur von Sprachen (sowohl natürlichen als auch künstlichen) zu schaffen. Es muss jedoch gesagt werden, dass es eine solche praktische Anwendung nicht sofort für sich gefunden hat. Anfänglich wurden mathematische Methoden in der Linguistik verwendet, um die grundlegenden Konzepte der Linguistik zu klären, aber mit der Entwicklung der Computertechnologie begann eine solche theoretische Prämisse, Anwendung in der Praxis zu finden. Die Lösung solcher Aufgaben wie maschinelle Übersetzung, maschineller Informationsabruf, automatische Textverarbeitung erforderte eine grundlegend neue Herangehensweise an die Sprache. Die Linguisten stellten sich der Frage: Wie lernt man, sprachliche Muster so darzustellen, dass sie direkt auf die Technik übertragen werden können? Der in unserer Zeit gebräuchliche Begriff „mathematische Linguistik“ bezeichnet jede linguistische Forschung, die sich exakter Methoden bedient (und der Begriff der exakten Methoden in den Naturwissenschaften ist immer eng mit der Mathematik verbunden). Einige Wissenschaftler der letzten Jahre glauben, dass der Ausdruck selbst nicht in den Rang eines Begriffs erhoben werden kann, da er keine spezielle „Linguistik“ bedeutet, sondern nur eine neue Richtung, die sich auf die Verbesserung, Erhöhung der Genauigkeit und Zuverlässigkeit von Sprachforschungsmethoden konzentriert . Die Linguistik verwendet sowohl quantitative (algebraische) als auch nicht-quantitative Methoden, was sie der mathematischen Logik und folglich der Philosophie und sogar der Psychologie näher bringt. Sogar Schlegel bemerkte die Wechselwirkung von Sprache und Bewusstsein, und Ferdinand de Saussure, ein prominenter Linguist des frühen zwanzigsten Jahrhunderts (über seinen Einfluss auf die Entwicklung mathematischer Methoden in der Linguistik werde ich später berichten), verband die Struktur der Sprache mit ihrer Zugehörigkeit zu den Leuten. Der moderne Forscher L. Perlovsky geht noch weiter und identifiziert die quantitativen Merkmale der Sprache (z. B. Anzahl der Geschlechter, Fälle) mit den Besonderheiten der nationalen Mentalität (mehr dazu in Abschnitt 2.2, „Statistische Methoden in der Sprachwissenschaft“).

Das Zusammenspiel von Mathematik und Linguistik ist ein vielschichtiges Thema, und ich werde in meiner Arbeit nicht auf alle, sondern vor allem auf seine angewandten Aspekte eingehen.

Kapitel I. Geschichte der Anwendung mathematischer Methoden in der Linguistik

1.1 Die Entstehung der strukturellen Linguistik an der Wende vom 19. zum 20. Jahrhundert

Die mathematische Beschreibung der Sprache basiert auf der Idee der Sprache als Mechanismus, die auf den berühmten Schweizer Linguisten des frühen zwanzigsten Jahrhunderts, Ferdinand de Saussure, zurückgeht.

Ausgangspunkt seines Konzepts ist die Theorie der Sprache als eines aus drei Teilen bestehenden Systems (die Sprache selbst ist Sprache, Rede - Passwort, und Sprachaktivität - Sprache), in der jedes Wort (Mitglied des Systems) nicht für sich betrachtet wird, sondern in Verbindung mit anderen Mitgliedern. Wie ein anderer prominenter Linguist, der Däne Louis Hjelmslev, später feststellte, war Saussure „der erste, der einen strukturellen Ansatz für die Sprache forderte, das heißt eine wissenschaftliche Beschreibung der Sprache durch Aufzeichnung der Beziehungen zwischen Einheiten“.

Saussure verstand die Sprache als hierarchische Struktur und stellte als erster das Problem des Wertes und der Bedeutung sprachlicher Einheiten. Separate Phänomene und Ereignisse (zB die Entstehungsgeschichte einzelner indogermanischer Wörter) sollten nicht für sich allein untersucht werden, sondern in einem System, in dem sie mit ähnlichen Komponenten korreliert sind.

Die strukturelle Einheit der Sprache von Saussure betrachtete das Wort "Zeichen", in dem Klang und Bedeutung kombiniert wurden. Keines dieser Elemente existiert ohne das andere: Daher versteht der Muttersprachler die verschiedenen Bedeutungsnuancen eines polysemantischen Wortes als ein separates Element im strukturellen Ganzen, in der Sprache.

So kann man in der Theorie von F. de Saussure einerseits die Wechselwirkung der Linguistik mit der Soziologie und der Sozialpsychologie erkennen (man beachte, dass gleichzeitig Husserls Phänomenologie, Freuds Psychoanalyse, Einsteins Relativitätstheorie waren entstehen, Experimente zu Form und Inhalt in Literatur, Musik und bildender Kunst), andererseits mit der Mathematik (dem algebraischen Sprachbegriff entspricht der Begriff der Systemizität). Ein solches Konzept veränderte das Konzept der sprachlichen Interpretation als solches: Phänomene begannen, nicht mehr in Bezug auf die Ursachen ihres Auftretens, sondern in Bezug auf Gegenwart und Zukunft interpretiert zu werden. Die Interpretation war nicht mehr unabhängig von den Absichten einer Person (trotz der Tatsache, dass Absichten unpersönlich, „unbewusst“ im Freudschen Sinne des Wortes sein können).

Das Funktionieren des sprachlichen Mechanismus manifestiert sich durch die Sprachaktivität von Muttersprachlern. Das Ergebnis der Sprache sind die sogenannten „korrekten Texte“ – Aneinanderreihungen von Spracheinheiten, die bestimmten Mustern gehorchen, von denen viele eine mathematische Beschreibung zulassen. Die Theorie der Beschreibungsweisen der syntaktischen Struktur befasst sich mit der Untersuchung von Methoden zur mathematischen Beschreibung korrekter Texte (vor allem Sätze). In einer solchen Struktur werden sprachliche Analogien nicht mit Hilfe ihrer inhärenten Qualitäten definiert, sondern mit Hilfe von Systembeziehungen („strukturellen“) Beziehungen.

Im Westen werden Saussures Ideen von den jüngeren Zeitgenossen des großen Schweizer Sprachwissenschaftlers weiterentwickelt: in Dänemark - L. Hjelmslev, der bereits von mir erwähnt wurde, der in seinem Werk "Fundamentals of Linguistic Theory" die algebraische Sprachtheorie hervorbrachte, in in den USA - E. Sapir, L. Bloomfield, C. Harris, in der Tschechischen Republik - der russische emigrierte Wissenschaftler N. Trubetskoy.

Statistische Gesetzmäßigkeiten in der Sprachwissenschaft begannen von keinem geringeren als dem Begründer der Genetik, Georg Mendel, zu behandeln. Erst 1968 entdeckten Philologen, dass ihn in seinen letzten Lebensjahren die Untersuchung sprachlicher Phänomene mit den Methoden der Mathematik faszinierte. Mendel brachte diese Methode aus der Biologie in die Linguistik; In den 1990er Jahren behaupteten nur die kühnsten Linguisten und Biologen die Machbarkeit einer solchen Analyse. Im Archiv des Klosters St. Tomasz in Brünn, dessen Abt Mendel war, wurden Blätter mit Spalten von Nachnamen gefunden, die auf „mann“, „bauer“, „mayer“ enden, und mit einigen Brüchen und Berechnungen. In dem Bemühen, die formalen Gesetzmäßigkeiten der Entstehung von Familiennamen aufzudecken, stellt Mendel komplexe Berechnungen an, bei denen er die Anzahl der Vokale und Konsonanten in der deutschen Sprache, die Gesamtzahl der von ihm betrachteten Wörter, die Anzahl der Nachnamen, etc.

In unserem Land begann sich die strukturelle Linguistik ungefähr zur gleichen Zeit wie im Westen zu entwickeln - um die Wende vom 19. zum 20. Jahrhundert. Gleichzeitig mit F. de Saussure wurde das Konzept der Sprache als System in ihren Arbeiten von Professoren der Kasaner Universität F.F. Fortunatov und I.A. Baudouin de Courténay. Letzterer korrespondierte lange Zeit mit de Saussure, beziehungsweise die Genfer und die Kasaner Sprachschule arbeiteten zusammen. Wenn man Saussure als den Ideologen „exakter“ Methoden in der Linguistik bezeichnen kann, dann hat Baudouin de Courtenay die praktischen Grundlagen für ihre Anwendung gelegt. Er war der erste, der die Linguistik (as präzise eine Wissenschaft, die statistische Methoden und funktionale Abhängigkeit verwendet) von der Philologie (einer Gemeinschaft humanitärer Disziplinen, die spirituelle Kultur durch Sprache und Sprache studieren). Der Wissenschaftler selbst glaubte, dass "die Sprachwissenschaft in naher Zukunft nur von der Zwangsvereinigung mit Philologie und Literaturgeschichte befreit" nützlich sein kann. Die Phonologie wurde zum "Testfeld" für die Einführung mathematischer Methoden in die Linguistik - Laute als "Atome" des Sprachsystems mit einer begrenzten Anzahl leicht messbarer Eigenschaften waren das bequemste Material für formale, strenge Beschreibungsmethoden. Die Phonologie bestreitet die Existenz von Bedeutung im Klang, daher wurde der "menschliche" Faktor in den Studien eliminiert. In diesem Sinne sind Phoneme wie physikalische oder biologische Objekte.

Phoneme stellen als die kleinsten für die Wahrnehmung akzeptablen sprachlichen Elemente eine eigene Sphäre, eine eigene "phänomenologische Realität" dar. Zum Beispiel kann der Laut „t“ im Englischen unterschiedlich ausgesprochen werden, aber eine Person, die Englisch spricht, wird ihn in jedem Fall als „t“ wahrnehmen. Die Hauptsache ist, dass das Phonem seine wichtigste – sinnvolle – Funktion erfüllt. Darüber hinaus sind die Unterschiede zwischen Sprachen so, dass Varietäten eines Tons in einer Sprache unterschiedlichen Phonemen in einer anderen entsprechen können; Zum Beispiel sind "l" und "r" im Englischen unterschiedlich, während sie in anderen Sprachen Varianten desselben Phonems sind (wie das englische "t", ausgesprochen mit oder ohne Aspiration). Das riesige Vokabular jeder natürlichen Sprache besteht aus einer Reihe von Kombinationen einer viel kleineren Anzahl von Phonemen. Im Englischen werden beispielsweise nur 40 Phoneme verwendet, um etwa eine Million Wörter auszusprechen und zu schreiben.

Die Laute einer Sprache sind eine systematisch organisierte Menge von Merkmalen. In den 1920er bis 1930er Jahren, nach Saussure, hoben Jacobson und N. S. Trubetskoy die "charakteristischen Merkmale" von Phonemen hervor. Diese Merkmale basieren auf der Struktur der Sprachorgane - Zunge, Zähne, Stimmbänder. Zum Beispiel ist der Unterschied zwischen „t“ und „d“ im Englischen das Vorhandensein oder Fehlen einer „Stimme“ (die Spannung der Stimmbänder) und die Lautstärke der Stimme, die ein Phonem von einem anderen unterscheidet. So kann die Phonologie als Beispiel für die von Saussure beschriebene allgemeine Sprachregel gelten: „Es gibt nur Unterschiede in der Sprache“. Noch wichtiger ist dies nicht: Der Unterschied impliziert normalerweise die genauen Bedingungen, zwischen denen er angesiedelt ist; aber in der Sprache gibt es nur Unterschiede ohne genaue Bedingungen. Ob „Bezeichnung“ oder „Bezeichnet“ – in der Sprache gibt es weder Begriffe noch Laute, die es vor der Entwicklung des Sprachsystems gegeben hätte.

Daher wird in der Saussureschen Linguistik das untersuchte Phänomen als eine Reihe von Vergleichen und Gegensätzen der Sprache verstanden. Sprache ist sowohl Ausdruck der Bedeutung von Wörtern als auch Kommunikationsmittel, und diese beiden Funktionen fallen nie zusammen. Wir können den Wechsel von Form und Inhalt feststellen: Sprachliche Kontraste definieren seine strukturellen Einheiten, und diese Einheiten interagieren, um einen bestimmten bedeutungsvollen Inhalt zu schaffen. Da die Elemente der Sprache zufällig sind, können weder Kontrast noch Kombination die Grundlage sein. Das heißt, in einer Sprache bilden Unterscheidungsmerkmale einen phonetischen Kontrast auf einer anderen Verständnisebene, Phoneme werden zu Morphemen zusammengesetzt, Morpheme – zu Wörtern, Wörter – zu Sätzen usw. In jedem Fall kann ein ganzes Phonem, Wort, Satz usw. ist mehr als nur die Summe seiner Teile.

Saussure schlug die Idee einer neuen Wissenschaft des zwanzigsten Jahrhunderts vor, die von der Linguistik getrennt ist und die Rolle der Zeichen in der Gesellschaft untersucht. Saussure nannte diese Wissenschaft Semiologie (von griechisch „semeîon“ – ein Zeichen). Die „Wissenschaft“ der Semiotik, die sich in den 1920er und 1930er Jahren in Osteuropa und in den 1950er und 1960er Jahren in Paris entwickelte, erweiterte die Erforschung von Sprache und sprachlichen Strukturen zu literarischen Erkenntnissen, die mit Hilfe dieser Strukturen verfasst (oder formuliert) wurden. Darüber hinaus beschäftigte sich Saussure in der Abenddämmerung seiner Karriere parallel zu seinem Studium der allgemeinen Linguistik mit einer "semiotischen" Analyse spätrömischer Dichtung und versuchte, bewusst komponierte Anagramme von Eigennamen zu entdecken. Diese Methode war in ihrer Sprachanalyse in vielerlei Hinsicht das Gegenteil des Rationalismus: Sie war ein Versuch, das Problem der "Wahrscheinlichkeit" in der Sprache in einem System zu untersuchen. Solche Forschung hilft, sich auf die "reale Seite" der Wahrscheinlichkeit zu konzentrieren; Das "Schlüsselwort", für das Saussure ein Anagramm sucht, ist laut Jean Starobinsky "ein Werkzeug für den Dichter, nicht die Quelle des Lebens des Gedichts". Das Gedicht dient dazu, die Laute des Schlüsselworts auszutauschen. Laut Starobinsky geht Saussure in dieser Analyse „nicht auf die Suche nach verborgenen Bedeutungen ein“. Im Gegenteil, in seinen Werken ist der Wunsch spürbar, bewusstseinsbezogene Fragen zu vermeiden: „Da Poesie nicht nur in Worten ausgedrückt wird, sondern auch in dem, was diese Worte hervorrufen, entzieht sie sich der Kontrolle des Bewusstseins und hängt nur von ab die Gesetze der Sprache“ (vgl. Anhang 1).

Saussures Versuch, Eigennamen in der spätrömischen Poesie zu studieren, betont eine der Komponenten seiner Sprachanalyse – die willkürliche Natur von Zeichen sowie das formale Wesen von Saussures Linguistik, das die Möglichkeit einer Bedeutungsanalyse ausschließt. Todorov kommt zu dem Schluss, dass die Werke von Saussure heute äußerst konsequent darin zu sein scheinen, die Symbole eines Phänomens zu studieren, die eine klar definierte Bedeutung haben [Anhang 1]. Beim Erkunden von Anagrammen achtet Saussure nur auf Wiederholungen, nicht aber auf frühere Optionen. . . . Beim Studium des Nibelungenliedes definiert er die Symbole nur, um sie falschen Lesarten zuzuordnen: Wenn sie unbeabsichtigt sind, existieren die Symbole nicht. Schließlich geht er in seinen Schriften zur allgemeinen Sprachwissenschaft von der Existenz einer Semiologie aus, die nicht nur sprachliche Zeichen beschreibt; Diese Annahme wird jedoch dadurch eingeschränkt, dass die Semiologie nur zufällige, willkürliche Zeichen beschreiben kann.

Wenn dem wirklich so ist, dann nur, weil er sich „Absicht“ nicht ohne Objekt vorstellen konnte; er konnte die Kluft zwischen Form und Inhalt nicht vollständig überbrücken - in seinen Schriften wurde dies zu einer Frage. Stattdessen wandte er sich der "sprachlichen Legitimität" zu. Zwischen auf der Geschichte und subjektiven Vermutungen basierenden Konzepten des 19. Jahrhunderts einerseits und Methoden der willkürlichen Interpretation, die auf diesen Konzepten basieren, und andererseits strukturalistischen Konzepten, die den Gegensatz zwischen Form und Inhalt (Subjekt und Objekt) aufheben. , Bedeutung und Ursprünge im Strukturalismus, der Psychoanalyse und sogar der Quantenmechanik - die Schriften von Ferdinand de Saussure über Linguistik und Semiotik markieren einen Wendepunkt in der Erforschung von Bedeutungen in Sprache und Kultur.

Russische Wissenschaftler waren auch auf dem Ersten Internationalen Kongress der Linguisten 1928 in Den Haag vertreten. S. Kartsevsky, R. Yakobson und N. Trubetskoy erstellten einen Bericht, der die hierarchische Struktur der Sprache untersuchte - im Geiste der modernsten Ideen für den Beginn des letzten Jahrhunderts. Jakobson entwickelte in seinen Schriften Saussures Ideen, dass die Grundelemente einer Sprache zuallererst im Zusammenhang mit ihren Funktionen und nicht mit den Gründen für ihr Auftreten untersucht werden sollten.

Nachdem Stalin 1924 an die Macht kam, wurde die russische Linguistik leider, wie viele andere Wissenschaften, zurückgeworfen. Viele begabte Wissenschaftler mussten emigrieren, wurden des Landes verwiesen oder starben in Lagern. Erst seit Mitte der 1950er Jahre ist ein gewisser Theoriepluralismus möglich – mehr dazu in Abschnitt 1.2.

1.2 Anwendung mathematischer Methoden in der Linguistik in der zweiten Hälfte des 20. Jahrhunderts

Mitte des 20. Jahrhunderts hatten sich vier Weltsprachschulen gebildet, von denen sich jede als Vorfahr einer bestimmten „exakten“ Methode herausstellte. Leningrader Phonologische Schule(sein Vorfahre war ein Schüler von Baudouin de Courtenay L. V. Shcherba) verwendete ein psycholinguistisches Experiment, das auf der Analyse der Sprache von Muttersprachlern als Hauptkriterium für die Verallgemeinerung von Lauten in Form eines Phonems basiert.

Wissenschaftler Prager Sprachkreis, insbesondere - sein Gründer N.S. Trubetskoy, der aus Russland emigrierte, entwickelte die Theorie der Oppositionen – die semantische Struktur der Sprache wurde von ihnen als eine Reihe von gegensätzlich aufgebauten semantischen Einheiten beschrieben – Sem. Diese Theorie wurde nicht nur beim Studium der Sprache, sondern auch der künstlerischen Kultur angewendet.

Ideologen Amerikanischer Deskriptivismus waren die Linguisten L. Bloomfield und E. Sapir. Sprache wurde den Deskriptivisten als eine Reihe von Sprachaussagen präsentiert, die das Hauptobjekt ihrer Studie waren. Ihr Schwerpunkt lag auf den Regeln der wissenschaftlichen Beschreibung (daher der Name) von Texten: dem Studium der Organisation, Anordnung und Klassifizierung ihrer Elemente. Die Formalisierung analytischer Verfahren auf dem Gebiet der Phonologie und Morphologie (Entwicklung von Prinzipien für das Studium der Sprache auf verschiedenen Ebenen, Verteilungsanalyse, Methode der direkten Konstituenten usw.) führte zur Formulierung allgemeiner Fragen der sprachlichen Modellierung. Die Unaufmerksamkeit gegenüber dem Plan des Inhalts der Sprache sowie der paradigmatischen Seite der Sprache erlaubte es den Deskriptivisten nicht, die Sprache als System vollständig genug zu interpretieren.

In den 1960er Jahren entwickelte sich die Theorie der formalen Grammatiken, die vor allem durch die Arbeit des amerikanischen Philosophen und Linguisten N. Chomsky entstand. Er gilt zu Recht als einer der berühmtesten modernen Wissenschaftler und Persönlichkeiten des öffentlichen Lebens, viele Artikel, Monographien und sogar ein Dokumentarfilm in voller Länge sind ihm gewidmet. Mit dem Namen einer grundlegend neuen Art, die von Chomsky erfundene syntaktische Struktur zu beschreiben – generative (generative) Grammatik – wurde die entsprechende Richtung in der Linguistik bezeichnet Generatismus.

Chomsky, ein Nachkomme von Einwanderern aus Russland, studierte seit 1945 Linguistik, Mathematik und Philosophie an der University of Pennsylvania, stark beeinflusst von seinem Lehrer Zelig Harris – wie Harris betrachtete und sieht Chomsky seine politischen Ansichten dem Anarchismus nahe (er ist immer noch bekannt als Kritiker des bestehenden politischen Systems der USA und als einer der geistigen Führer des Antiglobalismus).

Chomskys erste große wissenschaftliche Arbeit, die Magisterarbeit „Morphology of Modern Hebrew » (1951) ist unveröffentlicht geblieben. Chomsky promovierte 1955 an der University of Pennsylvania, aber ein Großteil der Forschung, die seiner Dissertation (vollständig erst 1975 unter dem Titel The Logical Structure of Linguistic Theory veröffentlicht) und seiner ersten Monographie, Syntactic Structures (1957, Rus. trans . 1962), wurde 1951-1955 an der Harvard University aufgeführt. Im gleichen Jahr 1955 wechselte der Wissenschaftler an das Massachusetts Institute of Technology, wo er 1962 Professor wurde.

Chomskys Theorie hat in ihrer Entwicklung mehrere Stadien durchlaufen.

In der ersten Monographie „Syntactic Structures“ stellte der Wissenschaftler die Sprache als einen Mechanismus zur Generierung einer unendlichen Menge von Sätzen mit endlichen grammatikalischen Mitteln vor. Zur Beschreibung sprachlicher Eigenschaften schlug er die Konzepte tiefer (der direkten Wahrnehmung verborgener und durch ein System rekursiver, d. h. wiederholt anwendbarer Regeln erzeugter) und oberflächlicher (direkt wahrnehmbarer) grammatikalischer Strukturen sowie Transformationen vor, die den Übergang beschreiben von tiefen Strukturen zu oberflächlichen. Einer Tiefenstruktur können mehrere Oberflächenstrukturen entsprechen (z. B. eine Passivstruktur). Das Dekret wird vom Präsidenten unterzeichnet abgeleitet von derselben Tiefenstruktur wie das aktive Konstrukt Der Präsident unterzeichnet das Dekret) und umgekehrt (also die Mehrdeutigkeit Mutter liebt Tochter beschrieben als Ergebnis einer Koinzidenz von Oberflächenstrukturen, die auf zwei unterschiedliche Tiefen zurückgehen, von denen in der einen die Mutter diejenige ist, die die Tochter liebt, und in der anderen diejenige, die von der Tochter geliebt wird).

Chomskys Standardtheorie gilt als das „Aspects“-Modell, das in Chomskys Buch „Aspects of the Theory of Syntax“ dargelegt ist. In diesem Modell wurden erstmals semantische Interpretationsregeln in die formale Theorie eingeführt, die Tiefenstrukturen Bedeutung zuschreiben. In Aspekten wird sprachliche Kompetenz dem Gebrauch von Sprache (Performance) gegenübergestellt, die sogenannte Katz-Postal-Hypothese über die Bewahrung von Bedeutung während der Transformation wird übernommen, in deren Zusammenhang das Konzept der optionalen Transformation ausgeschlossen wird, und ein Apparat von syntaktische Merkmale, die die lexikalische Kompatibilität beschreiben, werden eingeführt.

In den 1970er Jahren arbeitete Chomsky an der Theorie der Kontrolle und Bindung (GB-Theorie - von den Worten Regierung und Bindung) ist allgemeiner als die vorherige. Darin verzichtete der Wissenschaftler auf die spezifischen Regeln, die die syntaktischen Strukturen bestimmter Sprachen beschreiben. Alle Transformationen wurden durch eine universelle Bewegungstransformation ersetzt. Im Rahmen der GB-Theorie gibt es auch private Module, die jeweils für einen eigenen Teil der Grammatik zuständig sind.

Bereits vor kurzem, 1995, hat Chomsky ein minimalistisches Programm vorgelegt, in dem menschliche Sprache wie Maschinensprache beschrieben wird. Dies ist nur ein Programm - kein Modell oder eine Theorie. Darin identifiziert Chomsky zwei Hauptuntersysteme des menschlichen Sprachapparats: das Lexikon und das Computersystem sowie zwei Schnittstellen – phonetische und logische.

Chomskys formale Grammatiken sind zu Klassikern geworden, um nicht nur natürliche, sondern auch künstliche Sprachen – insbesondere Programmiersprachen – zu beschreiben. Die Entwicklung der Strukturlinguistik in der zweiten Hälfte des 20. Jahrhunderts kann zu Recht als „Chomskische Revolution“ bezeichnet werden.

Moskauer Phonologische Schule, deren Vertreter A.A. Reformatsky, V.N. Sidorow, P.S. Kuznetsov, A.M. Sukhotin, R.I. Avanesov verwendete eine ähnliche Theorie, um Phonetik zu studieren. Allmählich werden "exakte" Methoden nicht nur in Bezug auf die Phonetik, sondern auch in Bezug auf die Syntax angewendet. Sowohl Linguisten als auch Mathematiker im In- und Ausland beginnen, die Struktur der Sprache zu studieren. In den 1950er und 60er Jahren begann in der UdSSR eine neue Phase in der Interaktion zwischen Mathematik und Linguistik, verbunden mit der Entwicklung von maschinellen Übersetzungssystemen.

Der Anstoß für den Beginn dieser Arbeiten in unserem Land waren die ersten Entwicklungen auf dem Gebiet der maschinellen Übersetzung in den Vereinigten Staaten (obwohl das erste maschinelle Übersetzungsgerät von P. P. Smirnov-Troyansky bereits 1933 in der UdSSR erfunden wurde, da es primitiv war , hat sich nicht verbreitet). 1947 entwickelten A. Butt und D. Britten einen Code für die Wort-für-Wort-Übersetzung mit Hilfe eines Computers, ein Jahr später schlug R. Richens eine Regel vor, um Wörter bei der maschinellen Übersetzung in Wortstämme und Endungen aufzuteilen. Diese Jahre waren ganz anders als heute. Dies waren sehr große und teure Maschinen, die ganze Räume einnahmen und für deren Wartung ein großes Personal an Ingenieuren, Bedienern und Programmierern erforderlich war. Grundsätzlich wurden diese Computer verwendet, um mathematische Berechnungen für die Bedürfnisse militärischer Institutionen durchzuführen - die neuen in Mathematik, Physik und Technologie dienten in erster Linie militärischen Angelegenheiten. In den frühen Stadien wurde die Entwicklung des MP aktiv vom Militär unterstützt, während sich (unter den Bedingungen des Kalten Krieges) die russisch-englische Richtung in den USA und die anglo-russische Richtung in der UdSSR entwickelte.

Im Januar 1954 fand an der Massachusetts Technical University das „Georgetown-Experiment“ statt – die erste öffentliche Vorführung der Übersetzung aus dem Russischen ins Englische auf der IBM-701-Maschine. Zusammenfassung der Nachricht über den erfolgreichen Abschluss des Experiments, erstellt von D.Yu. Panov, erschienen in RJ "Mathematics", 1954, Nr. 10: "Übersetzung von einer Sprache in eine andere mit einer Maschine: ein Bericht über den ersten erfolgreichen Test."

D. Yu. Panov (damals Direktor des Instituts für wissenschaftliche Information - INI, später VINITI) zog I. K. Belskaya an, der später die Gruppe für maschinelle Übersetzung am Institut für präzise Mathematik und Computertechnik der Akademie der Wissenschaften der UdSSR leitete Arbeit an maschineller Übersetzung. Ende 1955 liegen die ersten Erfahrungen mit der Übersetzung aus dem Englischen ins Russische mit Hilfe der BESM-Maschine vor. Programme für BESM wurden von N.P. Trifonov und L. N. Korolev, dessen Doktorarbeit Methoden zum Erstellen von Wörterbüchern für die maschinelle Übersetzung gewidmet war.

Parallel dazu wurden Arbeiten zur maschinellen Übersetzung in der Abteilung für Angewandte Mathematik des Mathematischen Instituts der Akademie der Wissenschaften der UdSSR (jetzt M. V. Keldysh-Institut für Angewandte Mathematik der Russischen Akademie der Wissenschaften) durchgeführt. Auf Initiative des Mathematikers A.A. Ljapunow. Er beteiligte O.S. Kulagin und ihre Schüler T.D. Wentzel und N.N. Rico. Die Ideen von Lyapunov und Kulagina über die Möglichkeit, mithilfe von Technologie von einer Sprache in eine andere zu übersetzen, wurden in der Zeitschrift Nature, 1955, Nr. 8 veröffentlicht. Ab Ende 1955 war T.N. Moloshnaya, der dann mit der unabhängigen Arbeit am Englisch-Russisch-Übersetzungsalgorithmus begann.

R. Frumkina, der sich damals mit dem Übersetzungsalgorithmus aus dem Spanischen beschäftigte, erinnert sich, dass es in dieser Phase der Arbeit schwierig war, konsequente Schritte zu unternehmen. Viel öfter musste ich der heuristischen Erfahrung folgen – meiner eigenen oder Kollegen.

Die erste Generation maschineller Übersetzungssysteme war jedoch sehr unvollkommen. Alle basierten auf sequentiellen Übersetzungsalgorithmen „Wort für Wort“, „Satz für Satz“ – semantische Zusammenhänge zwischen Wörtern und Sätzen wurden in keiner Weise berücksichtigt. Die Sätze lauten zum Beispiel: John suchte nach seiner Spielzeugkiste.Endlich hat er es gefunden. Die Schachtel war im Stift.Johannes war sehr glücklich. (John suchte seine Spielzeugkiste. Endlich fand er sie. Die Kiste stand im Laufstall. John war sehr glücklich.)“ „Stift“ ist in diesem Zusammenhang kein „Stift“ (Schreibgerät), sondern ein „Laufstall“ ( Laufstall). Das Wissen um Synonyme, Antonyme und bildliche Bedeutungen ist schwer in einen Computer einzugeben. Eine vielversprechende Richtung war die Entwicklung von Computersystemen, die sich auf die Verwendung eines menschlichen Übersetzers konzentrierten.

Im Laufe der Zeit wurden direkte Übersetzungssysteme durch T-Systeme (vom englischen Wort "transfer" - Transformation) ersetzt, bei denen die Übersetzung auf der Ebene syntaktischer Strukturen durchgeführt wurde. Die Algorithmen von T-Systems verwendeten einen Mechanismus, der es ermöglichte, eine syntaktische Struktur gemäß den Grammatikregeln der Sprache des Eingabesatzes aufzubauen (ähnlich wie eine Fremdsprache in der High School gelehrt wird) und dann den Ausgabesatz zu synthetisieren indem die syntaktische Struktur transformiert und die erforderlichen Wörter aus dem Wörterbuch ersetzt werden.

Lyapunov sprach über das Übersetzen, indem er die Bedeutung des übersetzten Textes extrahierte und ihn in einer anderen Sprache präsentierte. Der Ansatz zum Aufbau von Maschinenübersetzungssystemen auf der Grundlage des Erhaltens der semantischen Darstellung des Eingabesatzes durch semantische Analyse und Synthese des Eingabesatzes gemäß der erhaltenen semantischen Darstellung wird immer noch als der vollkommenste angesehen. Solche Systeme nennt man I-Systeme (vom Wort „interlingua“). Die in die späten 50er und frühen 60er Jahre zurückversetzte Aufgabe ihrer Erstellung ist jedoch trotz der Bemühungen der International Federation of IFIP - der Weltgemeinschaft von Wissenschaftlern auf dem Gebiet der Informationsverarbeitung - bisher nicht vollständig gelöst worden.

Wissenschaftler dachten darüber nach, wie man Algorithmen für die Arbeit mit Texten formalisiert und baut, welche Wörterbücher in die Maschine eingegeben werden sollten, welche sprachlichen Muster in der maschinellen Übersetzung verwendet werden sollten. Solche Vorstellungen hatte die traditionelle Linguistik nicht – nicht nur semantisch, sondern auch syntaktisch. Zu dieser Zeit gab es für keine Sprache Listen syntaktischer Konstruktionen, die Bedingungen für ihre Kompatibilität und Austauschbarkeit wurden nicht untersucht, die Regeln für die Konstruktion großer Einheiten syntaktischer Struktur aus kleineren Bestandteilen wurden nicht entwickelt.

Die Notwendigkeit, die theoretischen Grundlagen der maschinellen Übersetzung zu schaffen, führte zur Entstehung und Entwicklung der mathematischen Linguistik. Die führende Rolle in dieser Angelegenheit in der UdSSR spielten die Mathematiker A.A. Ljapunow, O.S. Kulagina, V.A. Uspensky, Linguisten V.Yu. Rosenzweig, P.S. Kuznetsov, R.M. Frumkina, A.A. Reformatsky, I.A. Melchuk, V.V. Iwanow. Kulaginas Dissertation war dem Studium der formalen Theorie der Grammatik gewidmet (gleichzeitig mit N. Khomsky in den USA), Kuznetsov stellte die Aufgabe der Axiomatisierung der Linguistik, die auf die Arbeiten von F.F. Fortunatov.

Am 6. Mai 1960 wurde das Dekret des Präsidiums der Akademie der Wissenschaften der UdSSR "Über die Entwicklung struktureller und mathematischer Methoden für das Studium der Sprache" verabschiedet und die entsprechenden Abteilungen am Institut für Linguistik und am Institut für eingerichtet Die russische Sprache. Seit 1960 haben die führenden humanitären Universitäten des Landes - die Philologische Fakultät der Moskauer Staatlichen Universität, Leninrad, die Nowosibirsker Universitäten, das Moskauer Staatliche Institut für Fremdsprachen - damit begonnen, Personal im Bereich der automatischen Textverarbeitung auszubilden.

Maschinenübersetzungswerke dieser Zeit, die als "klassisch" bezeichnet werden, sind jedoch eher von theoretischem als von praktischem Interesse. Kostengünstige maschinelle Übersetzungssysteme wurden erst in den achtziger Jahren des letzten Jahrhunderts entwickelt. Darauf werde ich später in Abschnitt 2.1, Maschinelle Übersetzung, eingehen.

Die 1960er - 70er Jahre umfassen tiefgreifende theoretische Entwicklungen unter Verwendung der Methoden der Mengenlehre und der mathematischen Logik, wie z. B. der Feldtheorie und der Fuzzy-Mengentheorie.

Der Autor der Feldtheorie in der Linguistik war der sowjetische Dichter, Übersetzer und Linguist V.G. Admoni. Er entwickelte seine Theorie zunächst auf der Grundlage der deutschen Sprache. Für Admoni bezeichnet der Begriff „Feld“ eine willkürliche, nicht leere Menge sprachlicher Elemente (z. B. „lexikalisches Feld“, „semantisches Feld“).

Die Struktur des Feldes ist heterogen: Es besteht aus einem Kern, dessen Elemente einen vollständigen Satz von Merkmalen haben, die einen Satz definieren, und einer Peripherie, deren Elemente beide Merkmale eines gegebenen Satzes haben können (nicht alle). und benachbarte. Ich werde ein Beispiel geben, das diese Aussage illustriert: Zum Beispiel ist im Englischen das Feld der zusammengesetzten Wörter („day-dream“ - „dream“ schwer vom Feld der Phrasen („tear gas“ – „tear gas“) zu trennen. .

Die oben bereits erwähnte Theorie der Fuzzy-Mengen ist eng mit der Feldtheorie verwandt. In der UdSSR haben die Linguisten V.G. Admoni, I.P. Ivanova, G.G. Pochentsov jedoch war sein Vorfahre der amerikanische Mathematiker L. Zadeh, der 1965 den Artikel „Fuzzy Logic“ veröffentlichte. Zade begründete die Theorie der Fuzzy-Mengen mathematisch und betrachtete sie auf der Grundlage von sprachlichem Material.

In dieser Theorie sprechen wir nicht so sehr über die Zugehörigkeit von Elementen zu einer gegebenen Menge (АОа), sondern über den Grad dieser Zugehörigkeit (mАОа), da periphere Elemente bis zu einem gewissen Grad zu mehreren Feldern gehören können. Zade (Lofti-zade) stammte aus Aserbaidschan, bis zum Alter von 12 Jahren hatte er die Praxis, in vier Sprachen zu kommunizieren – Aserbaidschanisch, Russisch, Englisch und Persisch – und benutzte drei verschiedene Alphabete: Kyrillisch, Latein, Arabisch. Wenn ein Wissenschaftler gefragt wird, was die Theorie der Fuzzy-Mengen und die Linguistik gemeinsam haben, verneint er diesen Zusammenhang nicht, stellt aber klar: „Ich bin mir nicht sicher, ob das Studium dieser Sprachen einen großen Einfluss auf mein Denken hatte. Wenn dem so war, dann nur unbewusst. In seiner Jugend besuchte Zadeh eine presbyterianische Schule in Teheran und wanderte nach dem Zweiten Weltkrieg in die Vereinigten Staaten aus. „Die Frage ist nicht, ob ich Amerikaner, Russe, Aserbaidschaner oder sonst jemand bin“, sagte er in einem der Gespräche, „ich bin geprägt von all diesen Kulturen und Völkern und fühle mich zwischen allen recht wohl.“ In diesen Worten steckt so etwas wie das, was die Theorie der Fuzzy-Mengen charakterisiert – eine Abkehr von eindeutigen Definitionen und scharfen Kategorien.

In unserem Land wurden in den 70er Jahren die Werke westlicher Linguisten des 20. Jahrhunderts übersetzt und studiert. I.A. Melchuk übersetzte die Werke von N. Chomsky ins Russische. AUF DER. Slyusareva verbindet in ihrem Buch „The Theory of F. de Saussure in the Light of Modern Linguistics“ die Postulate von Saussures Lehre mit den aktuellen Problemen der Linguistik der 70er Jahre. Es gibt eine Tendenz zur weiteren Mathematisierung der Linguistik. Die führenden inländischen Universitäten bilden Personal in der Fachrichtung „Mathematische (theoretische, angewandte) Linguistik“ aus. Gleichzeitig vollzieht sich im Westen ein sprunghafter Entwicklungssprung in der Computertechnik, der immer neue sprachliche Grundlagen erfordert.

In den 1980er Jahren wurde Professor des Instituts für Orientalistik der Akademie der Wissenschaften Yu.K. Während Lekomtsev die Sprache der Linguistik durch die Analyse von Schemata, Tabellen und anderen Arten von Notationen analysiert, die in linguistischen Beschreibungen verwendet werden, betrachtet er mathematische Systeme als geeignet für diese Zwecke (hauptsächlich Systeme der Matrixalgebra).

So kam es im gesamten 20. Jahrhundert zu einer Konvergenz der exakten und der Geisteswissenschaften. Das Zusammenspiel von Mathematik und Linguistik fand zunehmend praktische Anwendung. Mehr dazu im nächsten Kapitel.

Kapitel 2. Ausgewählte Beispiele für den Einsatz von Mathematik in der Linguistik

2.1 Maschinelle Übersetzung

Die Idee, mit Hilfe eines universellen Mechanismus von einer Sprache in eine andere zu übersetzen, entstand mehrere Jahrhunderte, bevor die ersten Entwicklungen auf diesem Gebiet begannen – bereits 1649 schlug Rene Descartes die Idee einer Sprache vor, in der die äquivalenten Ideen von verschiedene Sprachen würden durch ein Symbol ausgedrückt. Die ersten Versuche zur Umsetzung dieser Idee in den 1930er-40er Jahren, der Beginn theoretischer Entwicklungen in der Mitte des Jahrhunderts, die Verbesserung von Übersetzungssystemen mit Hilfe von Technologie in den 1970er-80er Jahren, die rasante Entwicklung der Übersetzungstechnologie in den letzten Jahrzehnt - das sind die Etappen in der Entwicklung der maschinellen Übersetzung als Industrie. Aus den Arbeiten zur maschinellen Übersetzung ist die Computerlinguistik als Wissenschaft gewachsen.

Mit der Entwicklung der Computertechnik in den späten 70er und frühen 80er Jahren setzten sich Forscher realistischere und kostengünstigere Ziele – die Maschine wurde nicht zur Konkurrenz (wie bisher angenommen), sondern zum Assistenten eines menschlichen Übersetzers. Die maschinelle Übersetzung dient nicht mehr ausschließlich militärischen Aufgaben (alle sowjetischen und amerikanischen Erfindungen und Forschungen, die sich hauptsächlich auf Russisch und Englisch konzentrierten, trugen auf die eine oder andere Weise zum Kalten Krieg bei). 1978 wurden Wörter in natürlicher Sprache über das Arpa-Verbundnetz übertragen, und sechs Jahre später erschienen die ersten Mikrocomputer-Übersetzungsprogramme in den Vereinigten Staaten.

In den 70er Jahren kauft die Kommission der Europäischen Gemeinschaften die Englisch-Französisch-Version des Computerübersetzers Systran und bestellt auch die Französisch-Englisch- und Italienisch-Englisch-Versionen sowie das von den US-Streitkräften verwendete Übersetzungssystem Russisch-Englisch. So wurde der Grundstein für das Projekt EUROTRA gelegt.

Über die Wiederbelebung der maschinellen Übersetzung in den 70-80er Jahren. Die folgenden Tatsachen bezeugen: Die Kommission der Europäischen Gemeinschaften (CEC) kauft die englisch-französische Version von Systran sowie das Übersetzungssystem vom Russischen ins Englische (letzteres wurde nach dem ALPAC-Bericht entwickelt und von der US Air weiter verwendet Force und NASA); Darüber hinaus ordnet die CEC die Entwicklung der französisch-englischen und italienisch-englischen Versionen an. Gleichzeitig gibt es eine rasche Ausweitung der maschinellen Übersetzungsaktivitäten in Japan; in den USA ordnet die Panamerikanische Gesundheitsorganisation (PAHO) die Entwicklung einer spanisch-englischen Richtung (SPANAM-System) an; Die US Air Force finanziert die Entwicklung eines maschinellen Übersetzungssystems am Linguistic Research Center der University of Texas in Austin; Die TAUM-Gruppe in Kanada macht bemerkenswerte Fortschritte bei der Entwicklung ihres METEO-Systems (meteorological translation). Eine Reihe von Projekten begann in den 70er und 80er Jahren. anschließend zu vollwertigen kommerziellen Systemen weiterentwickelt.

Zwischen 1978 und 1993 wurden in den USA 20 Millionen Dollar, in Europa 70 Millionen und in Japan 200 Millionen Dollar für die Forschung auf dem Gebiet der maschinellen Übersetzung ausgegeben.

Eine der neuen Entwicklungen ist die TM-Technologie (Translation Memory), die nach dem Akkumulationsprinzip arbeitet: Während des Übersetzungsprozesses werden das ursprüngliche Segment (Satz) und seine Übersetzung gespeichert, wodurch eine sprachliche Datenbank entsteht; Wenn im neu übersetzten Text ein identisches oder ähnliches Segment gefunden wird, wird es zusammen mit der Übersetzung und einer Angabe der prozentualen Übereinstimmung angezeigt. Der Übersetzer trifft dann eine Entscheidung (die Übersetzung zu bearbeiten, abzulehnen oder zu akzeptieren), deren Ergebnis vom System gespeichert wird, sodass derselbe Satz nicht zweimal übersetzt werden muss. Ein gut bekanntes kommerzielles System, das auf der TM-Technologie basiert, wird derzeit von dem TRADOS-System (gegründet 1984) entwickelt.

Derzeit entwickeln mehrere Dutzend Unternehmen kommerzielle maschinelle Übersetzungssysteme, darunter: Systran, IBM, L&H (Lernout & Hauspie), Transparent Language, Cross Language, Trident Software, Atril, Trados, Caterpillar Co., LingoWare; Ata-Software; Linguistica b.v. ua Jetzt können Sie die Dienste automatischer Übersetzer direkt im Web nutzen: alphaWorks; der Online-Übersetzer von PROMT, LogoMedia.net, der Übersetzungsdienst Babel Fish von AltaVista; InfiniT.com; Übersetzen des Internets.

Kommerziell wirksame Übersetzungssysteme erschienen in der zweiten Hälfte der 80er Jahre auch in unserem Land. Das eigentliche Konzept der maschinellen Übersetzung hat sich erweitert (es umfasste „die Schaffung einer Reihe automatischer und automatisierter Systeme und Geräte, die den gesamten Übersetzungszyklus oder einzelne Aufgaben im Dialog mit einer Person automatisch oder halbautomatisch ausführen“) und Die staatlichen Mittel für die Entwicklung dieser Industrie sind gestiegen.

Russisch, Englisch, Deutsch, Französisch und Japanisch wurden zu den Hauptsprachen der inländischen Übersetzungssysteme. Das All-Union Translation Center (VTsP) entwickelte ein System zur Übersetzung aus dem Englischen und Deutschen ins Russische auf einem Computer ES-1035-ANRAP. Es bestand aus drei Wörterbüchern – Eingabe Englisch und Deutsch und Ausgabe Russisch – unter einer einzigen Software. Es gab mehrere austauschbare Fachwörterbücher - für Computertechnik, Programmierung, Funkelektronik, Maschinenbau, Landwirtschaft, Metallurgie. Das System konnte in zwei Modi arbeiten - automatisch und interaktiv, wenn der Bildschirm den Ausgangstext und die Übersetzung pro Satz anzeigte, die eine Person bearbeiten konnte. Die Übersetzungsgeschwindigkeit von Text in ANRAP (vom Beginn der Eingabe bis zum Ende des Drucks) betrug ungefähr 100 Seiten pro Stunde.

1989 wurde eine Familie kommerzieller Übersetzer vom Typ SPRINT gegründet, die mit Russisch, Englisch, Deutsch und Japanisch arbeiteten. Ihr Hauptvorteil war ihre Kompatibilität mit dem IBM-PC - so erreichten einheimische maschinelle Übersetzungssysteme das internationale Qualitätsniveau. Gleichzeitig wird ein System zur maschinellen Übersetzung aus dem Französischen ins Russische FRAP entwickelt, das 4 Stufen der Textanalyse umfasst: graphematisch, morphologisch, syntaktisch und semantisch. In LGPI ihnen. Herzen wurde an einem viersprachigen (Englisch, Französisch, Spanisch, Russisch) SILOD-MP-System gearbeitet (Englisch-Russische und Französisch-Russische Wörterbücher wurden im Industriemodus verwendet.

Für die Fachübersetzung von Texten zur Elektrotechnik existierte das ETAP-2-System. Die Analyse des darin eingegebenen Textes wurde auf zwei Ebenen durchgeführt - morphologisch und syntaktisch. Das ETAP-2-Wörterbuch enthielt etwa 4.000 Einträge; die Phase der Texttransformation - etwa 1000 Regeln (96 allgemeine, 342 private, der Rest sind Wörterbuch). All dies sorgte für eine zufriedenstellende Übersetzungsqualität (z. B. wurde der Titel des Patents "Optische Phasengitteranordnung und Kopplungsvorrichtung mit einer solchen Anordnung" mit "Eine optische Phasengittervorrichtung und eine Verbindungsvorrichtung mit einer solchen Vorrichtung" übersetzt - trotz der Tautologie, die Bedeutung bleibt erhalten).

Am Minsker Pädagogischen Institut für Fremdsprachen wurde auf der Grundlage des englisch-russischen Wörterbuchs der Wortformen und Phrasen ein System zur maschinellen Übersetzung von Titeln erfunden, am Institut für Orientalistik der Akademie der Wissenschaften ein System zum Übersetzen vom Japanischen ins Russische. Der erste automatische Vokabular- und Terminologiedienst (SLOTHERM) für Computer und Programmierung, der am Moskauer Forschungsinstitut für Automatisierungssysteme erstellt wurde, enthielt ungefähr 20.000 Begriffe in einem erklärenden Wörterbuch und speziellen Wörterbüchern für die Sprachforschung.

Maschinelle Übersetzungssysteme wurden allmählich nicht nur für ihren vorgesehenen Zweck, sondern auch als wichtiger Bestandteil automatischer Lernsysteme (zum Unterrichten von Übersetzungen, zur Überprüfung von Rechtschreibung und Grammatik) eingesetzt.

Die 90er Jahre brachten die rasante Entwicklung des PC-Marktes (vom Desktop zum Pocket) und der Informationstechnologie, die weite Verbreitung des Internets (das immer internationaler und mehrsprachig wird). All dies machte die Weiterentwicklung automatisierter Übersetzungssysteme gefragt. Seit Anfang der 1990er Jahre Auch inländische Entwickler dringen in den PC-Systemmarkt ein.

Im Juli 1990 wurde das erste kommerzielle maschinelle Übersetzungssystem in Russland namens PROMT (PROgrammer's Machine Translation) auf dem PC-Forum in Moskau vorgestellt. PROMT gewann den NASA-Wettbewerb für die Lieferung von MP-Systemen (PROMT war das einzige nicht-amerikanische Unternehmen in diesem Wettbewerb). 1992 veröffentlichte PROMT eine ganze Familie von Systemen unter dem neuen Namen STYLUS für die Übersetzung aus dem Englischen, Deutschen, Französischen, Italienischen und Spanischen ins Russische und aus dem Russischen ins Englische, und das weltweit erste maschinelle Übersetzungssystem für Windows wurde entwickelt die Grundlage von STYLUS im Jahr 1993. 1994 wurde STYLUS 2.0 für Windows 3.X/95/NT und 1995-1996 die dritte Generation von maschinellen Übersetzungssystemen, der vollständige 32-Bit-STYLUS 3.0 für Windows 95/NT, veröffentlicht die Entwicklung von völlig neuen, weltweit ersten russisch-deutschen und russisch-französischen maschinellen Übersetzungssystemen wurde erfolgreich abgeschlossen.

1997 wurde mit dem französischen Unternehmen Softissimo eine Vereinbarung über die Erstellung von Übersetzungssystemen vom Französischen ins Deutsche und Englische und umgekehrt unterzeichnet, und im Dezember dieses Jahres wurde das weltweit erste Deutsch-Französisch-Übersetzungssystem veröffentlicht. Im selben Jahr veröffentlichte die Firma PROMT ein System, das mit der Gigant-Technologie implementiert wurde und mehrere Sprachrichtungen in einer Shell sowie einen speziellen Übersetzer für die Arbeit im Internet WebTranSite unterstützt.

1998 wurde eine ganze Reihe von Programmen unter dem neuen Namen PROMT 98 veröffentlicht. Ein Jahr später veröffentlichte PROMT zwei neue Produkte: ein einzigartiges Softwarepaket für die Arbeit im Internet - PROMT Internet - und einen Übersetzer für Firmen-Mail-Systeme - PROMT Mail Übersetzer. Im November 1999 wurde PROMT vom französischen Magazin PC Expert als bestes maschinelles Übersetzungssystem getestet und übertraf seine Konkurrenten um 30 Prozent. Auch für Firmenkunden wurden spezielle Serverlösungen entwickelt – der Corporate Translation Server PROMT Translation Server (PTS) und die Internetlösung PROMT Internet Translation Server (PITS). Im Jahr 2000 aktualisierte PROMT seine gesamte Softwareproduktlinie durch die Veröffentlichung einer neuen Generation von MÜ-Systemen: PROMT Translation Office 2000, PROMT Internet 2000 und Magic Gooddy 2000.

Die Online-Übersetzung mit Unterstützung des PROMT-Systems wird auf einer Reihe von in- und ausländischen Websites verwendet: PROMTs Online-Übersetzer, InfiniT.com, Translate.Ru, Lycos usw. sowie in Institutionen mit unterschiedlichen Profilen für die Übersetzung von Geschäftsdokumenten, Artikel und Briefe (es gibt Übersetzungssysteme, die direkt in Outlook Express und andere E-Mail-Clients integriert sind).

Heutzutage entstehen neue maschinelle Übersetzungstechnologien, die auf der Verwendung von Systemen der künstlichen Intelligenz und statistischen Methoden basieren. Über letzteres - im nächsten Abschnitt.

2.2 Statistische Methoden beim Sprachenlernen

In der modernen Linguistik wird dem Studium sprachlicher Phänomene mit den Methoden der quantitativen Mathematik große Aufmerksamkeit geschenkt. Quantitative Daten helfen oft, die untersuchten Phänomene, ihren Platz und ihre Rolle im System verwandter Phänomene besser zu verstehen. Die Antwort auf die Frage „wie viel“ hilft bei der Beantwortung der Fragen „was“, „wie“, „warum“ – das ist das heuristische Potenzial eines quantitativen Merkmals.

Statistische Methoden spielen bei der Entwicklung maschineller Übersetzungssysteme eine bedeutende Rolle (siehe Abschnitt 2.1). Beim statistischen Ansatz wird das Übersetzungsproblem in Form eines verrauschten Kanals betrachtet. Stellen Sie sich vor, wir müssen einen Satz aus dem Englischen ins Russische übersetzen. Das Noisy-Channel-Prinzip bietet uns folgende Erklärung für die Beziehung zwischen einem englischen und einem russischen Satz: Ein englischer Satz ist nichts anderes als ein durch irgendein Rauschen verzerrter russischer Satz. Um den ursprünglichen russischen Satz wiederherzustellen, müssen wir wissen, was die Leute normalerweise auf Russisch sagen und wie russische Sätze ins Englische verzerrt werden. Die Übersetzung wird durchgeführt, indem nach einem solchen russischen Satz gesucht wird, der die Produkte der unbedingten Wahrscheinlichkeit des russischen Satzes und der Wahrscheinlichkeit des englischen Satzes (Original) bei gegebenem russischen Satz maximiert. Nach dem Satz von Bayes ist dieser russische Satz die wahrscheinlichste Übersetzung aus dem Englischen:

wobei e der Übersetzungssatz und f der Originalsatz ist

Wir brauchen also ein Quellenmodell und ein Kanalmodell oder ein Sprachmodell und ein Übersetzungsmodell. Das Sprachmodell muss jedem Satz in der Zielsprache (in unserem Fall Russisch) und das Übersetzungsmodell dem ursprünglichen Satz einen Wahrscheinlichkeitswert zuweisen. (siehe Tabelle 1)

Im Allgemeinen arbeitet ein maschinelles Übersetzungssystem in zwei Modi:

1. Systemtraining: Ein Trainingskorpus von parallelen Texten wird genommen, und unter Verwendung von linearer Programmierung werden solche Werte von Ügesucht, die die Wahrscheinlichkeit maximieren, dass (zum Beispiel) der russische Teil des Korpus mit dem verfügbaren Englisch übereinstimmt zum ausgewählten Übersetzungsmodell. Ein Modell der russischen Sprache baut auf dem russischen Teil desselben Korpus auf.

2. Ausbeutung: Basierend auf den für einen unbekannten englischen Satz erhaltenen Daten wird ein Russisch gesucht, der das Produkt der Wahrscheinlichkeiten, die durch das Sprachmodell und das Übersetzungsmodell zugewiesen werden, maximiert. Das für eine solche Suche verwendete Programm wird Decoder genannt.

Das einfachste statistische Übersetzungsmodell ist das wörtliche Übersetzungsmodell. In diesem Modell wird davon ausgegangen, dass es zum Übersetzen eines Satzes von einer Sprache in eine andere ausreicht, alle Wörter zu übersetzen (einen „Wortbeutel“ zu erstellen), und das Modell wird ihre Platzierung in der richtigen Reihenfolge bereitstellen P(a, f | e) zu P(a | e , f), d.h. Wahrscheinlichkeiten einer gegebenen Ausrichtung bei einem Satzpaar, jede Wahrscheinlichkeit P(a, f | e) wird durch die Summe der Wahrscheinlichkeiten aller Ausrichtungen eines gegebenen Satzpaares normalisiert:

Die Implementierung des zum Trainieren von Modell Nr. 1 verwendeten Viterbi-Algorithmus ist wie folgt:

1. Die gesamte Tabelle der Übersetzungskwird mit den gleichen Werten gefüllt.

2. Für alle möglichen Varianten paarweiser Wortverbindungen wird die Wahrscheinlichkeit P(a, f | e) berechnet:

3. Die Werte von P(a, f | e) werden normalisiert, um die Werte von P(a | e, f) zu erhalten.

4. Die Häufigkeit jedes Übersetzungspaares wird berechnet, gewichtet mit der Wahrscheinlichkeit jeder Ausrichtungsoption.

5. Die resultierenden gewichteten Häufigkeiten werden normalisiert und bilden eine neue Tabelle von Übersetzungsübereinstimmungswahrscheinlichkeiten

6. Der Algorithmus wird ab Schritt 2 wiederholt.

Betrachten Sie als Beispiel das Training eines ähnlichen Modells auf einem Korpus aus zwei Satzpaaren (Abb. 2):

Weißes Haus

  • Haus Haus

Nach einer großen Anzahl von Iterationen erhalten wir eine Tabelle (Tabelle 2), die zeigt, dass die Übersetzung mit hoher Genauigkeit durchgeführt wird.

Auch statistische Methoden werden häufig beim Studium des Vokabulars, der Morphologie, der Syntax und des Stils verwendet. Wissenschaftler der Perm State University führten eine Studie durch, die auf der Behauptung basierte, dass stereotype Phrasen ein wichtiges „Baumaterial“ des Textes sind. Diese Phrasen bestehen aus "nuklearen" wiederholten Wörtern und abhängigen Wortbezeichnern und haben eine ausgeprägte stilistische Färbung.

Im wissenschaftlichen Stil können "nukleare" Wörter genannt werden: Forschung, Studie, Aufgabe, Problem, Frage, Phänomen, Tatsache, Beobachtung, Analyse usw. Im Journalismus werden andere Wörter „nuklear“ sein, die speziell für den Text der Zeitung einen erhöhten Wert haben: Zeit, Person, Macht, Geschäft, Handlung, Gesetz, Leben, Geschichte, Ort usw. (insgesamt 29)

Von besonderem Interesse für Linguisten ist auch die fachliche Differenzierung der Landessprache, die Originalität des Wortschatzgebrauchs und der Grammatik je nach Berufsart. Es ist bekannt, dass Autofahrer in der Berufssprache die Form w verwenden Über fer, sagen die Mediziner k Über Club statt Cocktail Ju sh - solche Beispiele können gegeben werden. Die Aufgabe der Statistik besteht darin, die Variabilität der Aussprache und die Änderung der Sprachnorm zu verfolgen.

Berufliche Unterschiede führen nicht nur zu grammatikalischen, sondern auch zu lexikalischen Unterschieden. Benannt nach der Yakut State University M.K. Ammosov wurden 50 Fragebögen mit den häufigsten Reaktionen auf bestimmte Wörter bei Ärzten und Bauarbeitern analysiert (Tabelle 3).

Bauherren

Menschlich

Patient (10), Persönlichkeit (5)

Mann (5)

gut

Hilfe (8), Hilfe (7)

böse (16)

ein Leben

Tod (10)

schön (5)

Tod

Leiche (8)

Leben (6)

das Feuer

erhitzen (8), brennen (6)

Feuer (7)

Finger

Hand (14), Panaritium (5)

groß (7), Index (6)

Augen

Sehvermögen (6), Pupille, Augenarzt (je 5)

braun (10), groß (6)

Kopf

Verstand (14), Verstand (5)

groß (9), schlau (8), schlau (6)

verlieren

Bewusstsein, Leben (je 4)

Geld (5), finden (4)

Es ist festzustellen, dass Ärzte häufiger als Bauherren Assoziationen zu ihrer beruflichen Tätigkeit angeben, da die im Fragebogen angegebenen Reizwörter mehr mit ihrem Beruf zu tun haben als mit dem Beruf eines Baumeisters.

Statistische Regelmäßigkeiten in einer Sprache werden verwendet, um Häufigkeitswörterbücher zu erstellen - Wörterbücher, die numerische Merkmale der Häufigkeit von Wörtern (Wortformen, Phrasen) einer beliebigen Sprache angeben - der Sprache des Schriftstellers, eines beliebigen Werks usw. Normalerweise die Häufigkeit des Auftretens von ein Wort wird als Merkmal für die Häufigkeit des Vorkommens eines Wortes im Text eines bestimmten Bandes verwendet

Das Modell der Sprachwahrnehmung ist ohne ein Wörterbuch als wesentlichen Bestandteil nicht möglich. Bei der Wahrnehmung von Sprache ist die grundlegende Operationseinheit das Wort. Daraus folgt insbesondere, dass jedes Wort des wahrgenommenen Textes mit der entsprechenden Einheit des internen Wortschatzes des Zuhörers (oder Lesers) identifiziert werden muss. Es ist naheliegend anzunehmen, dass die Suche von vornherein auf einige Subdomänen des Wörterbuchs beschränkt ist. Nach den meisten modernen Theorien der Sprachwahrnehmung liefert die tatsächliche phonetische Analyse des klingenden Textes in einem typischen Fall nur einige Teilinformationen über das mögliche phonologische Aussehen des Wortes, und diese Art von Informationen entspricht nicht einem, sondern einer bestimmten VIELZAHL von Wörtern des Wörterbuchs; Daher treten zwei Probleme auf:

(a) Auswahl des geeigneten Satzes gemäß bestimmten Parametern;

(b) innerhalb der Grenzen des umrissenen Satzes (wenn er angemessen zugeordnet ist) alle Wörter zu "eliminieren", mit Ausnahme des einzigen, das dem gegebenen Wort des erkannten Textes am besten entspricht. Eine der "Dropout"-Strategien besteht darin, niederfrequente Wörter auszuschließen. Daraus folgt, dass das Vokabular für die Sprachwahrnehmung ein Frequenzlexikon ist. Die Erstellung einer Computerversion des Frequenzwörterbuchs der russischen Sprache ist die anfängliche Aufgabe des vorgestellten Projekts.

Basierend auf dem Material der russischen Sprache gibt es 5 Häufigkeitswörterbücher (ohne Zweigwörterbücher). Halten wir nur einige allgemeine Mängel der bestehenden Wörterbücher fest.

Alle bekannten Frequenzwörterbücher der russischen Sprache basieren auf der Verarbeitung von Arrays geschriebener (gedruckter) Texte. Auch aus diesem Grund wird, wenn die Identität eines Wortes weitgehend auf formalen, grafischen Zufällen beruht, die Semantik nicht ausreichend berücksichtigt. Dadurch werden auch die Frequenzcharakteristiken verschoben, verzerrt; Wenn beispielsweise der Ersteller des Häufigkeitswörterbuchs Wörter aus der Kombination "einander" in die allgemeine Statistik der Verwendung des Wortes "Freund" aufnimmt, ist dies kaum gerechtfertigt: Angesichts der Semantik müssen wir zugeben, dass dies bereits der Fall ist verschiedene Wörter, oder besser gesagt, dass eine unabhängige Wörterbucheinheit nur die Kombination als Ganzes ist.

Außerdem werden in allen vorhandenen Wörterbüchern Wörter nur in ihren Grundformen platziert: Substantive im Singular, Nominativ, Verben im Infinitiv usw. Einige der Wörterbücher geben Auskunft über die Häufigkeit von Wortformen, tun dies aber meist nicht konsequent genug, nicht erschöpfend. Die Häufigkeiten verschiedener Wortformen desselben Wortes stimmen offensichtlich nicht überein. Der Entwickler eines Sprachwahrnehmungsmodells muss berücksichtigen, dass bei einem realen Wahrnehmungsprozess gerade eine bestimmte Wortform in den Text „eingetaucht“ wird, der erkannt werden soll: basierend auf der Analyse des Anfangsteils des Exponenten der Wortform wird ein Satz von Wörtern mit identischem Anfang gebildet, und der Anfangsabschnitt der Wortform ist nicht notwendigerweise identisch mit dem Anfangsabschnitt der Wörterbuchform. Es ist die Wortform, die eine bestimmte rhythmische Struktur hat, die auch ein äußerst wichtiger Parameter für die wahrnehmungsbezogene Auswahl von Wörtern ist. Schließlich werden in der endgültigen Darstellung der erkannten Äußerung die Wörter wiederum durch die entsprechenden Wortformen dargestellt.

Es gibt viele Arbeiten, die die Bedeutung der Frequenz im Prozess der Sprachwahrnehmung demonstrieren. Aber uns sind keine Werke bekannt, in denen die Häufigkeit von Wortformen verwendet würde – im Gegenteil, alle Autoren ignorieren praktisch die Häufigkeit einzelner Wortformen und beziehen sich ausschließlich auf Lexeme. Wenn die von ihnen erzielten Ergebnisse nicht als Artefakte angesehen werden, muss man davon ausgehen, dass der Muttersprachler irgendwie Zugang zu Informationen über das Verhältnis der Häufigkeiten von Wortformen und Wörterbuchformen hat, also tatsächlich Lexeme. Außerdem lässt sich ein solcher Übergang von einer Wortform zu einem Lexem natürlich nicht durch natürliches Wissen um das entsprechende Paradigma erklären, da vor der endgültigen Identifizierung des Wortes Häufigkeitsinformationen verwendet werden müssen, sonst verliert es einfach seine Bedeutung.

Gemäß den primären statistischen Merkmalen kann unabhängig von der Textart mit einem bestimmten relativen Fehler derjenige Teil des Vokabulars bestimmt werden, der Wörter mit hoher Häufigkeit enthält. Durch Einführen einer schrittweisen Ordnung in das Wörterbuch ist es auch möglich, eine Reihe von Wörterbüchern zu erhalten, die die ersten 100, 1000, 5000 usw. häufiger Wörter abdecken. Die statistischen Merkmale des Wörterbuchs sind im Zusammenhang mit der semantischen Analyse des Wortschatzes von Interesse. Die Untersuchung subjektideologischer Gruppen und semantischer Felder zeigt, dass lexikalische Assoziationen durch semantische Verbindungen unterstützt werden, die sich um Lexeme mit der häufigsten Bedeutung konzentrieren. Die Beschreibung von Bedeutungen innerhalb des lexiko-semantischen Feldes kann durchgeführt werden, indem Wörter mit den abstraktesten Bedeutungslexemen identifiziert werden. Offensichtlich bilden "leere" (aus Sicht der Nominativpotenzen) Wörterbucheinheiten eine statistisch homogene Schicht.

Nicht weniger wertvoll sind Vokabeln für einzelne Genres. Die Untersuchung des Ähnlichkeitsmaßes und der Art statistischer Verteilungen wird interessante Informationen über die qualitative Schichtung des Vokabulars in Abhängigkeit von der Sphäre des Sprachgebrauchs liefern.

Die Zusammenstellung großer Frequenzwörterbücher erfordert den Einsatz von Computertechnologie. Als Experiment zur maschinellen Bearbeitung von Wörterbüchern für unterschiedliche Texte ist die Einführung einer Teilmechanisierung und Automatisierung in den Bearbeitungsprozess eines Wörterbuchs von Interesse. Ein solches Wörterbuch erfordert ein strengeres System zum Verarbeiten und Sammeln von Vokabularmaterial. Im Miniaturformat ist dies ein Informationsabrufsystem, das Informationen zu verschiedenen Aspekten des Textes und des Vokabulars bereitstellen kann. Einige grundlegende Anforderungen an dieses System sind von Anfang an geplant: die Gesamtzahl der Bestandswörter, die statistischen Merkmale eines einzelnen Wortes und ganzer Wörterbücher, die Anordnung von häufigen und seltenen Zonen des Wörterbuchs usw. Die Maschinenkartei ermöglicht es Ihnen zum automatischen Erstellen von Reverse-Wörterbüchern für einzelne Genres und Quellen. Viele andere nützliche statistische Informationen über die Sprache werden aus der angesammelten Informationsreihe extrahiert. Das Computerfrequenzwörterbuch schafft eine experimentelle Grundlage für den Übergang zu einer weitergehenden Automatisierung der Wortschatzarbeit.

Die statistischen Daten von Häufigkeitswörterbüchern können auch häufig zur Lösung anderer sprachlicher Probleme verwendet werden - beispielsweise zur Analyse und Bestimmung der aktiven Mittel der Wortbildung der modernen russischen Sprache, zur Lösung von Problemen der Verbesserung von Grafik und Rechtschreibung, die mit der Aufnahme zusammenhängen Berücksichtigung statistischer Informationen über den Wortschatz (es ist wichtig, probabilistische Merkmale von Graphemkombinationen, in Wörtern realisierte Typen von Buchstabenkombinationen zu berücksichtigen), praktische Transkription und Transliteration. Die statistischen Parameter des Wörterbuchs werden auch bei der Lösung von Problemen der automatischen Eingabe, Erkennung und des automatischen Lesens von wörtlichem Text nützlich sein.

Moderne erklärende Wörterbücher und Grammatiken der russischen Sprache basieren hauptsächlich auf literarischen und künstlerischen Texten. Es gibt Frequenzwörterbücher der Sprache von A.S. Puschkin, A.S. Griboedova, F.M. Dostojewski, V. V. Vysotsky und viele andere Autoren. Am Institut für Geschichte und Theorie der Literatur des Staates Smolensk. Die Pädagogische Hochschule arbeitet seit einigen Jahren an der Erstellung von Häufigkeitswörterbüchern zu poetischen und prosaischen Texten. Für diese Studie wurden Häufigkeitswörterbücher aller Texte von Puschkin und zwei weiteren Dichtern des goldenen Zeitalters - "Wehe aus Wit" von Griboyedov und alle Gedichte von Lermontov - ausgewählt; Pasternak und fünf weitere Dichter des Silberzeitalters - Balmont 1894-1903, "Poems about the Beautiful Lady" von Blok, "Stone" von Mandelstam, "Pillar of Fire" von Gumilyov, "Anno Domini MCMXXI" von Akhmatova und "Sisters of My Life“ von Pasternak und vier weitere Dichter der Eisenzeit – „Poems by Yuri Zhivago“, „When it clears“, der gesamte Textkorpus von M. Petrovs, „The road is far away“, „Windscreen“, "Abschied vom Schnee" und "Hufeisen" von Mezhirov, "Antimirov" von Voznesensky und "Snowballs » Rylenkova.

Es sei darauf hingewiesen, dass diese Wörterbücher unterschiedlicher Natur sind: Einige stellen das Vokabular eines dramatischen Werks dar, andere - Textbücher oder mehrere Bücher oder den gesamten Korpus der Gedichte des Dichters. Die in diesem Papier vorgestellten Ergebnisse der Analyse sind mit Vorsicht zu genießen, sie können nicht als absolut angesehen werden. Mit Hilfe spezieller Maßnahmen lässt sich jedoch der Unterschied in der ontologischen Natur von Texten bis zu einem gewissen Grad reduzieren.

In den letzten Jahren ist der Gegensatz zwischen Umgangssprache und Buchsprache immer deutlicher geworden. Besonders heftig wird diese Frage unter Methodikern diskutiert, die eine Hinwendung zur gesprochenen Sprache im Unterricht fordern. Die Besonderheit der Umgangssprache bleibt jedoch noch ungeklärt.

Wörterbücher wurden durch Erstellen einer Benutzeranwendung in der Umgebung des Büroprogramms EXCEL97 verarbeitet. Die Anwendung enthält vier Arbeitsblätter des EXCEL-Buches - "Titelblatt", Blatt "Wörterbücher" mit Anfangsdaten, "Entfernungen" und "Entfernungen" mit Ergebnissen sowie eine Reihe von Makros.

Auf dem Blatt „Wörterbücher“ werden die ersten Informationen eingetragen. Wörterbücher der untersuchten Texte werden in EXCEL-Zellen geschrieben, die letzte Spalte S wird aus den erhaltenen Ergebnissen gebildet und entspricht der Anzahl der in anderen Wörterbüchern gefundenen Wörter. Die Tabellen „Nähe“ und „Abstände“ enthalten berechnete Maße für Nähe M, Korrelation R und Abstand D.

Anwendungsmakros sind ereignisbasierte Programmierprozeduren, die in Visual Basic for Application (VBA) geschrieben sind. Prozeduren basieren auf VBA-Bibliotheksobjekten und ihren Verarbeitungsmethoden. Für Operationen mit Arbeitsblättern der Anwendung werden also das Schlüsselobjekt Worksheet (Arbeitsblatt) und die entsprechende Methode zum Aktivieren des Blatts Activate (activate) verwendet. Das Festlegen des Bereichs der analysierten Quelldaten auf dem Wörterbuchblatt erfolgt durch die Select-Methode des Range-Objekts (Range), und die Übertragung von Wörtern als Werte an Variablen erfolgt als Value-Eigenschaft (Wert) desselben Range Objekt.

Trotz der Tatsache, dass die Rangkorrelationsanalyse uns hinsichtlich der Abhängigkeit von Themen zwischen verschiedenen Texten vorsichtig macht, haben die meisten der häufigsten Wörter in jedem Text Übereinstimmungen in einem oder mehreren anderen Texten. Spalte S zeigt die Anzahl solcher Wörter unter den 15 häufigsten Wörtern für jeden Autor. Fettgedruckte Wörter erscheinen nur in den Worten eines Dichters in unserer Tabelle. Blok, Akhmatova und Petrovs haben überhaupt keine hervorgehobenen Wörter, sie haben S = 15. Diese drei Dichter haben die gleichen 15 häufigsten Wörter, sie unterscheiden sich nur in der Position in der Liste. Aber selbst Puschkin, dessen Vokabular das originellste ist, hat S = 8, und es gibt 7 hervorgehobene Wörter.

Die Ergebnisse zeigen, dass es eine bestimmte Ebene des Vokabulars gibt, die die Hauptthemen der Poesie konzentriert. In der Regel sind diese Wörter kurz: von der Gesamtzahl (225) der Wortverwendungen von einsilbig 88, zweisilbig 127, dreisilbig 10. Oft repräsentieren diese Wörter die wichtigsten Mythologeme und können in Paare fallen: Nacht – Tag, Erde – Himmel (Sonne), Gott – Mensch (Menschen), Leben – Tod, Leib – Seele, Rom – Welt(bei Mandelstam); lassen sich zu Mythologemen höherer Ebene zusammenfassen: Himmel, Stern, Sonne, Erde; Bei einer Person fallen in der Regel Körper, Herz, Blut, Arm, Bein, Wange und Augen auf. Von den menschlichen Zuständen werden Schlaf und Liebe bevorzugt. Das Haus und die Städte gehören der menschlichen Welt - Moskau, Rom, Paris. Kreativität wird durch Lexeme repräsentiert Wort und Lied.

Griboedov und Lermontov haben fast keine Wörter, die Natur unter den häufigsten Wörtern bezeichnen. Sie haben dreimal so viele Wörter, die eine Person, Teile seines Körpers, Elemente seiner geistigen Welt bezeichnen. Puschkin und Dichter des zwanzigsten Jahrhunderts. Bezeichnungen von Mensch und Natur sind ungefähr gleich. In diesem wichtigen Aspekt des Themas können wir sagen, dass das zwanzigste Jahrhundert. folgte Puschkin.

Minimales Thema Fall unter den häufigsten Wörtern kommt es nur in Gribojedow und Puschkin vor. Lermontov und Dichter des zwanzigsten Jahrhunderts. es weicht einem minimalen Thema Wort. Das Wort schließt Taten nicht aus (die biblische Interpretation des Themas: Im Neuen Testament werden alle Lehren Jesu Christi als das Wort Gottes oder das Wort Jesu angesehen, und die Apostel nennen sich manchmal Diener des Wortes). Die heilige Bedeutung des Lexemwortes wird beispielsweise in Pasternaks Vers "Und das Bild der Welt, offenbart im Wort" überzeugend manifestiert. Die heilige Bedeutung des Lexems Wort in Verbindung mit und Kontrast zu menschlichen Angelegenheiten manifestiert es sich überzeugend in dem gleichnamigen Gedicht von Gumilyov.

Tokens, die nur in einem Text vorkommen, kennzeichnen die Originalität eines bestimmten Buches oder einer Büchersammlung. So kommt das Wort „mind“ beispielsweise in Gribojedovs Komödie „Woe from Wit“ am häufigsten vor – es kommt aber nicht unter den häufig vorkommenden Wörtern anderer Texte vor. Das Thema des Geistes ist bei weitem das bedeutendste in der Komödie. Dieses Lexem begleitet das Bild von Chatsky, und der Name Chatsky ist der häufigste in der Komödie. So kombiniert das Werk organisch das häufigste Substantiv mit dem häufigsten Eigennamen.

Der höchste Korrelationskoeffizient verbindet die Themen der tragischen Bücher von Gumilyov "The Pillar of Fire" und Achmatovas "Anno Domini MCMXXI". Unter den 15 häufigsten Substantiven gibt es 10 häufige, darunter Blut, Herz, Seele, Liebe, Wort, Himmel. Erinnern Sie sich daran, dass Achmatovas Buch eine Miniatur „Sie werden nicht am Leben sein ...“ enthielt, die zwischen der Verhaftung von Gumilyov und seiner Hinrichtung geschrieben wurde.

Die Themen der Kerze und der Menge im untersuchten Material finden sich nur in den "Gedichten von Yuri Zhivago". Das Thema der Kerze in den Versen aus dem Roman hat viele kontextbezogene Bedeutungen: Es ist mit dem Bild von Jesus Christus verbunden, mit den Themen Glaube, Unsterblichkeit, Kreativität, Liebesdatum. Die Kerze ist die wichtigste Lichtquelle in den zentralen Szenen des Romans. Das Thema der Masse entwickelt sich im Zusammenhang mit der Hauptidee des Romans, in dem das Privatleben einer Person mit seinen unerschütterlichen Werten der Unmoral des neuen Staates entgegengestellt wird, der auf den Prinzipien der Freude an der Masse aufbaut .

Die Arbeit umfasst auch die dritte Phase, die sich auch im Programm widerspiegelt – dies ist die Berechnung der Differenz der Ordnungszahlen der Wörter, die zwei Wörterbüchern gemeinsam sind, und des durchschnittlichen Abstands zwischen denselben Wörtern zweier Wörterbücher. Diese Phase ermöglicht es, von den allgemeinen Trends in der Interaktion von Wörterbüchern, die mit Hilfe von Statistiken identifiziert wurden, auf eine Ebene zu gelangen, die sich dem Text annähert. Beispielsweise korrelieren die Bücher von Gumilyov und Akhmatova statistisch signifikant. Wir schauen uns an, welche Wörter sich für ihre Wörterbücher als üblich erwiesen haben, und wählen zunächst diejenigen aus, deren Seriennummern sich minimal unterscheiden oder gleich Null sind. Es sind diese Wörter, die die gleiche Rangnummer haben, und daher sind diese minimalen Themen in den Köpfen der beiden Dichter gleich wichtig. Als nächstes sollten Sie sich auf die Ebene der Texte und Kontexte begeben.

Quantitative Methoden helfen auch, die Eigenschaften von Völkern - Muttersprachlern - zu untersuchen. Angenommen, es gibt 6 Fälle auf Russisch, es gibt keine Fälle auf Englisch, und in einigen Sprachen der Völker Dagestans erreicht die Zahl der Fälle 40. L. Perlovsky korreliert diese in seinem Artikel „Bewusstsein, Sprache und Kultur“. Merkmale mit der Tendenz der Völker zum Individualismus oder Kollektivismus, mit der Wahrnehmung von Dingen und Phänomenen getrennt oder in Verbindung mit anderen. Immerhin tauchten im englischsprachigen Raum (es gibt keine Fälle - das Ding wird „von selbst“ wahrgenommen) Konzepte wie individuelle Freiheit, Liberalismus und Demokratie auf (ich stelle fest, dass ich diese Konzepte nur im Zusammenhang mit dem verwende Sprache, ohne wertende Merkmale). Obwohl solche Vermutungen immer noch nur auf der Ebene kühner wissenschaftlicher Hypothesen verbleiben, helfen sie, bereits bekannte Phänomene auf neue Weise zu betrachten.

Wie wir sehen, können quantitative Merkmale in ganz unterschiedlichen Bereichen der Linguistik Anwendung finden, wodurch die Grenzen zwischen „exakten“ und „humanitären“ Methoden zunehmend verschwimmen. Die Linguistik greift zur Lösung ihrer Probleme zunehmend nicht nur auf die Hilfe der Mathematik, sondern auch der Computertechnik zurück.

2.3 Erlernen der Sprache mit Methoden der formalen Logik

Mit nicht-quantitativen Methoden der Mathematik, insbesondere mit Logik, interagiert die moderne Theoretische Linguistik nicht weniger fruchtbar als mit quantitativen. Die schnelle Entwicklung der Computertechnologien und das Wachstum ihrer Rolle in der modernen Welt erforderten eine Überarbeitung des Ansatzes für die Interaktion von Sprache und Logik im Allgemeinen.

Die Methoden der Logik sind weit verbreitet bei der Entwicklung formalisierter Sprachen, insbesondere Programmiersprachen, deren Elemente einige Symbole (ähnlich mathematischen), ausgewählt (oder aus zuvor ausgewählten Symbolen konstruiert) und auf bestimmte Weise interpretiert, verwandt sind zu jeder "traditionellen" Verwendung, zum Verständnis und zum Verständnis der Funktionen derselben Symbole in anderen Kontexten. Ein Programmierer beschäftigt sich in seiner Arbeit ständig mit Logik. Die Bedeutung des Programmierens besteht lediglich darin, dem Computer Vernunft beizubringen (im weitesten Sinne des Wortes). Dabei erweisen sich die Methoden des „Argumentierens“ als sehr unterschiedlich. Jeder Programmierer verbringt eine gewisse Zeit damit, nach Fehlern in seinen eigenen und den Programmen anderer Leute zu suchen. Das heißt, nach Fehlern in der Argumentation, in der Logik suchen. Und das hinterlässt auch seine Spuren. Es ist viel einfacher, logische Fehler in der gewöhnlichen Sprache zu erkennen. Die relative Einfachheit der von Logikern untersuchten Sprachen ermöglicht es ihnen, die Strukturen dieser Sprachen deutlicher aufzuklären, als dies Linguisten möglich ist, die ausschließlich komplexe natürliche Sprachen analysieren. Angesichts der Tatsache, dass die von Logikern untersuchten Sprachen Relationen verwenden, die von natürlichen Sprachen kopiert wurden, können Logiker wichtige Beiträge zur allgemeinen Sprachtheorie leisten. Hier verhält es sich ähnlich wie in der Physik: Der Physiker formuliert auch Sätze für ideal vereinfachte Fälle, die in der Natur gar nicht vorkommen - er formuliert Gesetze für ideale Gase, ideale Flüssigkeiten, spricht von Bewegung ohne Reibung, etc. Für diese idealisierten Fälle lassen sich einfache Gesetzmäßigkeiten aufstellen, die sehr zum Verständnis dessen beitragen würden, was wirklich passiert und was der Physik wahrscheinlich unbekannt bleiben würde, wenn sie versuchen würde, die Realität in ihrer ganzen Komplexität direkt zu betrachten.

Beim Studium natürlicher Sprachen werden logische Methoden verwendet, damit sich Sprachlerner nicht dummerweise möglichst viele Wörter „auswendig lernen“, sondern ihre Struktur besser verstehen können. L. Shcherba verwendete in seinen Vorlesungen auch ein Beispiel für einen Satz, der nach den Gesetzen der russischen Sprache aufgebaut war: „Die fehlerhafte Kusdra-Steko hat die Bokra gebokt und die Bokra gekräuselt“, und fragte dann die Studenten, was dies bedeutete. Trotz der Tatsache, dass die Bedeutung der Wörter im Satz unklar blieb (sie existieren einfach nicht auf Russisch), konnte klar geantwortet werden: „Kuzdra“ ist das Subjekt, ein weibliches Substantiv, im Singular, Nominativ „ bokr“ ist animiert usw. Die Übersetzung des Satzes lautet ungefähr so: „Etwas Weibliches hat auf einmal etwas über eine Art männliches Wesen getan und dann begonnen, etwas Langsames, Allmähliches mit seinem Jungen zu tun.“ Ein ähnliches Beispiel für einen (künstlerischen) Text aus nicht existierenden Wörtern, der ganz nach den Gesetzen der Sprache aufgebaut ist, ist Lewis Carrolls Jabberwock (in Alice im Wunderland erklärt Carroll durch den Mund seiner Figur Humpty Dumpty die Bedeutung von die Wörter, die er erfunden hat: "cooked" - acht Uhr abends, wenn es Zeit ist, das Abendessen zu kochen, "chlivky" - fadenscheinig und geschickt, "shorek" - eine Kreuzung aus Frettchen, Dachs und Korkenzieher, "dive". " - springen, tauchen, drehen, "nava" - Gras unter der Sonnenuhr (erstreckt sich ein wenig nach rechts , ein wenig nach links und ein wenig nach hinten), "grunzen" - grunzen und lachen, "zelyuk" - a grüner Truthahn, „myumzik“ - ein Vogel; seine Federn sind zerzaust und stehen wie ein Besen in alle Richtungen ab, „mova“ - weit weg von zu Hause).

Eines der Hauptkonzepte der modernen Logik und theoretischen Linguistik, das beim Studium von Sprachen verschiedener logisch-mathematischer Kalküle, natürlicher Sprachen, verwendet wird, um die Beziehung zwischen Sprachen verschiedener "Ebenen" zu beschreiben und die Beziehung zwischen den betrachteten Sprachen und den mit ihrer Hilfe beschriebenen Sachgebieten, ist das Konzept der Metasprache. Eine Metasprache ist eine Sprache, die verwendet wird, um Urteile über eine andere Sprache, das Sprachobjekt, auszudrücken. Mit Hilfe einer Metasprache untersuchen sie die Struktur von Zeichenkombinationen (Ausdrücken) des Sprachobjekts, beweisen Sätze über seine Ausdruckseigenschaften, über seine Beziehung zu anderen Sprachen usw. Die zu untersuchende Sprache wird auch Fachsprache genannt Beziehung zu dieser Metasprache. Sowohl die Fachsprache als auch die Metasprache können gewöhnliche (natürliche) Sprachen sein. Die Metasprache kann sich von der Objektsprache unterscheiden (z. B. in einem englischen Lehrbuch für Russen ist Russisch eine Metasprache und Englisch eine Objektsprache), sie kann aber auch mit dieser übereinstimmen oder sich nur teilweise unterscheiden, z. B. in speziellen Terminologien (Russische Sprachterminologie ist ein Element der Metasprache zur Beschreibung der russischen Sprache, die sogenannten semantischen Faktoren sind Teil der Metasprache zur Beschreibung der Semantik natürlicher Sprachen).

Das Konzept der "Metalinguage" ist im Zusammenhang mit dem Studium formalisierter Sprachen, die im Rahmen der mathematischen Logik aufgebaut sind, sehr fruchtbar geworden. Im Gegensatz zu formalisierten Subjektsprachen ist hier die Metasprache, mit deren Hilfe die Metatheorie formuliert wird (Untersuchung der Eigenschaften der in der Subjektsprache formulierten Subjekttheorie), in der Regel eine gewöhnliche natürliche Sprache, in besonderer Weise a begrenztes Fragment einer natürlichen Sprache, das keinerlei Mehrdeutigkeit enthält, Metaphern, „metaphysische“ Konzepte usw. Elemente der gewöhnlichen Sprache, die ihre Verwendung als Werkzeug für genaue wissenschaftliche Forschung verhindern. Gleichzeitig kann die Metasprache selbst formalisiert und (ungeachtet dessen) Gegenstand der Forschung mittels der Metametasprache werden und eine solche Reihe als unendlich wachsend „gedacht“ werden.

Die Logik lehrt uns eine fruchtbare Unterscheidung zwischen dem Sprachobjekt und der Metasprache. Das Sprachobjekt ist der eigentliche Gegenstand logischer Forschung, und die Metasprache ist jene unvermeidlich künstliche Sprache, in der solche Forschung durchgeführt wird. Logisches Denken besteht nur darin, die Beziehungen und Strukturen einer realen Sprache (Objektsprache) in der Symbolsprache (Metasprache) zu formulieren.

Die Metasprache muss auf jeden Fall „nicht ärmer“ sein als ihre objektive Sprache (d. h. für jeden Ausdruck der letzteren in der Metasprache muss ihr Name „Übersetzung“ stehen) – andernfalls, wenn diese Anforderungen nicht erfüllt sind (was sicherlich erfolgt in natürlichen Sprachen, wenn besondere Vereinbarungen nichts anderes vorsehen) semantische Paradoxien (Antinomien) entstehen.

Da immer mehr neue Programmiersprachen geschaffen wurden, bestand im Zusammenhang mit dem Problem der Programmierübersetzer die dringende Notwendigkeit, Metasprachen zu erstellen. Gegenwärtig ist die Metasprache der Backus-Naur-Form (abgekürzt als BNF) die am häufigsten verwendete Metasprache zur Beschreibung der Syntax von Programmiersprachen. Es ist eine kompakte Form in Form einiger mathematischer Formeln. Für jeden Begriff der Sprache gibt es eine eindeutige Metaformel (Normalformel). Es besteht aus einem linken und einem rechten Teil. Die linke Seite spezifiziert das zu definierende Konzept, und die rechte Seite spezifiziert den Satz zulässiger Sprachkonstrukte, die in diesem Konzept kombiniert werden. Die Formel verwendet spezielle Metazeichen in Form von spitzen Klammern, die das definierte Konzept (auf der linken Seite der Formel) oder ein zuvor definiertes Konzept (auf der rechten Seite) enthalten, und die Trennung des linken und rechten Teils wird durch angezeigt das Metazeichen "::=", dessen Bedeutung den Worten "per definitionem gibt es" entspricht. Metasprachliche Formeln sind in irgendeiner Form in Übersetzer eingebettet; mit ihrer Hilfe werden die vom Programmierer verwendeten Konstrukte auf formale Übereinstimmung mit allen in dieser Sprache syntaktisch gültigen Konstrukten überprüft. Es gibt auch getrennte Metasprachen verschiedener Wissenschaften – somit existiert Wissen in Form verschiedener Metasprachen.

Logische Methoden dienten auch als Grundlage für die Schaffung von Systemen der künstlichen Intelligenz auf der Grundlage des Konzepts des Konnektionismus. Der Konnektionismus ist eine besondere Richtung in der philosophischen Wissenschaft, deren Gegenstand Wissensfragen sind. Im Rahmen dieses Trends wird versucht, die intellektuellen Fähigkeiten eines Menschen mit künstlichen neuronalen Netzen zu erklären. Neuronale Netze bestehen aus einer großen Anzahl neuronenähnlicher Struktureinheiten, wobei jedem Element eine Gewichtung zugeordnet ist, die die Stärke der Verbindung mit anderen Elementen bestimmt. Neuronale Netze sind vereinfachte Modelle des menschlichen Gehirns. Experimente mit neuronalen Netzen dieser Art haben gezeigt, dass sie lernen können, Aufgaben wie Mustererkennung, Lesen und Identifizieren einfacher grammatikalischer Strukturen auszuführen.

Philosophen begannen sich für den Konnektionismus zu interessieren, da der konnektionistische Ansatz versprach, eine Alternative zur klassischen Theorie des Geistes und der in dieser Theorie weit verbreiteten Idee zu bieten, dass die Funktionsweise des Geistes der Verarbeitung symbolischer Sprache durch ein digitales Gerät ähnelt Computer. Dieses Konzept ist sehr umstritten, hat aber in den letzten Jahren immer mehr Anhänger gefunden.

Das logische Studium der Sprache setzt Saussures Konzept der Sprache als System fort. Die Tatsache, dass sie ständig fortgesetzt wird, bestätigt einmal mehr die Kühnheit wissenschaftlicher Vermutungen zu Beginn des letzten Jahrhunderts. Den letzten Abschnitt meiner Arbeit werde ich den Perspektiven für die Entwicklung mathematischer Methoden in der Linguistik heute widmen.

2.4 Perspektiven für die Anwendung mathematischer Methoden in der Linguistik

Im Zeitalter der Computertechnik haben die Methoden der mathematischen Linguistik eine neue Entwicklungsperspektive erhalten. Die Suche nach Lösungen für die Probleme der Sprachanalyse wird nun zunehmend auf der Ebene der Informationssysteme durchgeführt. Gleichzeitig stellt die Automatisierung des Prozesses der Verarbeitung von Sprachmaterial, die dem Forscher erhebliche Möglichkeiten und Vorteile bietet, zwangsläufig neue Anforderungen und Aufgaben für ihn.

Die Kombination von „exaktem“ und „humanitärem“ Wissen ist zu einem fruchtbaren Boden für neue Entdeckungen auf dem Gebiet der Linguistik, Informatik und Philosophie geworden.

Die maschinelle Übersetzung von einer Sprache in eine andere bleibt ein schnell wachsender Zweig der Informationstechnologie. Trotz der Tatsache, dass die computergestützte Übersetzung qualitativ niemals mit menschlicher Übersetzung verglichen werden kann (insbesondere bei literarischen Texten), ist die Maschine zu einem unverzichtbaren Helfer für eine Person bei der Übersetzung großer Textmengen geworden. Es wird angenommen, dass in naher Zukunft fortschrittlichere Übersetzungssysteme geschaffen werden, die hauptsächlich auf der semantischen Analyse des Textes basieren.

Eine ebenso vielversprechende Richtung ist das Zusammenspiel von Linguistik und Logik, das als philosophische Grundlage für das Verständnis der Informationstechnologie und der sogenannten „virtuellen Realität“ dient. In naher Zukunft wird die Arbeit an der Schaffung von Systemen der künstlichen Intelligenz fortgesetzt - obwohl sie wiederum in ihren Fähigkeiten niemals dem Menschen gleichkommen werden. Ein solcher Wettbewerb ist bedeutungslos: In unserer Zeit sollte (und wird) die Maschine kein Rivale, sondern ein Assistent des Menschen werden, nicht etwas aus dem Reich der Fantasie, sondern Teil der realen Welt.

Das Studium der Sprache mit statistischen Methoden wird fortgesetzt, wodurch ihre qualitativen Eigenschaften genauer bestimmt werden können. Es ist wichtig, dass die kühnsten Hypothesen über die Sprache ihren mathematischen und damit logischen Beweis finden.

Das Wichtigste ist, dass in den letzten Jahren verschiedene Zweige der mathematischen Anwendung in der Linguistik, die zuvor ziemlich isoliert waren, miteinander in Beziehung gesetzt wurden und sich zu einem kohärenten System verbinden, in Analogie zu dem vor einem Jahrhundert von Ferdinand de Saussure entdeckten Sprachsystem und Yvan Baudouin de Courtenay. Dies ist die Kontinuität wissenschaftlicher Erkenntnisse.

Die Linguistik in der modernen Welt ist zur Grundlage für die Entwicklung der Informationstechnologie geworden. Solange die Informatik ein sich schnell entwickelnder Zweig der menschlichen Tätigkeit bleibt, wird die Vereinigung von Mathematik und Linguistik weiterhin ihre Rolle in der Entwicklung der Wissenschaft spielen.

Fazit

Im Laufe des 20. Jahrhunderts haben Computertechnologien einen langen Weg zurückgelegt - von der militärischen bis zur friedlichen Nutzung, von einem engen Zielbereich bis zum Eindringen in alle Bereiche des menschlichen Lebens. Die Mathematik als Wissenschaft hat mit der Entwicklung der Computertechnik immer neue praktische Bedeutung gefunden. Dieser Prozess dauert bis heute an.

Das bisher undenkbare „Tandem“ von „Physikern“ und „Lyrikern“ ist Realität geworden. Für das vollständige Zusammenwirken von Mathematik und Informatik mit den Geisteswissenschaften wurden qualifizierte Spezialisten auf beiden Seiten benötigt. Während Informatiker zunehmend systematisches humanitäres Wissen (sprachlich, kulturell, philosophisch) benötigen, um Veränderungen in der sie umgebenden Realität, in der Interaktion von Mensch und Technik zu begreifen, immer neue sprachliche und mentale Konzepte zu entwickeln, zu schreiben Programme, dann müssen alle "Geisteswissenschaften" unserer Zeit für ihre berufliche Weiterentwicklung zumindest die Grundlagen der Arbeit mit einem Computer beherrschen.

Die Mathematik, die eng mit der Informatik verflochten ist, entwickelt sich ständig weiter und interagiert mit den Natur- und Geisteswissenschaften. Im neuen Jahrhundert schwächt sich der Trend zur Mathematisierung der Wissenschaft nicht ab, sondern nimmt im Gegenteil zu. Auf der Grundlage quantitativer Daten werden die Gesetze der Sprachentwicklung, ihre historischen und philosophischen Merkmale verstanden.

Der mathematische Formalismus eignet sich am besten zur Beschreibung von Mustern in der Linguistik (wie auch in anderen Wissenschaften - sowohl den Geisteswissenschaften als auch den Naturwissenschaften). In der Wissenschaft entwickelt sich die Situation manchmal so, dass es ohne die Verwendung einer angemessenen mathematischen Sprache unmöglich ist, die Natur von physikalischen, chemischen usw. zu verstehen. Vorgang ist nicht möglich. Erstellen eines Planetenmodells des Atoms, des berühmten englischen Physikers des 20. Jahrhunderts. E. Rutherford hatte mathematische Schwierigkeiten. Seine Theorie wurde zunächst nicht akzeptiert: Sie klang nicht überzeugend, und der Grund dafür war Rutherfords Unkenntnis der Wahrscheinlichkeitstheorie, auf deren Grundlage nur die modellhafte Darstellung atomarer Wechselwirkungen zu verstehen war. Mit dieser Erkenntnis schrieb sich bereits damals ein herausragender Wissenschaftler, der Träger des Nobelpreises, in das Seminar des Mathematikers Professor Lamb ein und besuchte zwei Jahre lang zusammen mit den Studenten einen Kurs und erarbeitete einen Workshop zur Wahrscheinlichkeitstheorie . Darauf aufbauend konnte Rutherford das Verhalten des Elektrons beschreiben und seinem Strukturmodell überzeugende Genauigkeit und Anerkennung verschaffen. Genauso verhält es sich mit der Linguistik.

Dies wirft die Frage auf, was ist so mathematisch an objektiven Phänomenen, dank derer sie in der Sprache der Mathematik, in der Sprache der quantitativen Merkmale beschrieben werden können? Dies sind räumlich und zeitlich verteilte homogene Materieeinheiten. Jene Wissenschaften, die weiter als andere zur Isolierung der Homogenität gegangen sind und sich als besser geeignet für die Anwendung der Mathematik in ihnen erweisen.

Das Internet, das sich in den 1990er Jahren rasant entwickelte, brachte Vertreter verschiedener Länder, Völker und Kulturen zusammen. Obwohl Englisch nach wie vor die Hauptsprache der internationalen Kommunikation ist, ist das Internet in unserer Zeit mehrsprachig geworden. Dies führte zur Entwicklung kommerziell erfolgreicher maschineller Übersetzungssysteme, die in verschiedenen Bereichen der menschlichen Tätigkeit weit verbreitet sind.

Computernetzwerke sind zum Gegenstand philosophischer Reflexion geworden – immer mehr neue sprachliche, logische, weltanschauliche Konzepte wurden geschaffen, die helfen, „virtuelle Realität“ zu verstehen. In vielen Kunstwerken wurden – häufiger pessimistische – Szenarien über die Dominanz der Maschinen über den Menschen und der virtuellen Realität – über die Außenwelt – geschaffen. Bei weitem nicht immer erwiesen sich solche Prognosen als bedeutungslos. Die Informationstechnologie ist nicht nur eine vielversprechende Industrie, um menschliches Wissen zu investieren, sie ist auch eine Möglichkeit, Informationen und folglich über menschliches Denken zu kontrollieren.

Dieses Phänomen hat sowohl eine negative als auch eine positive Seite. Negativ – weil die Kontrolle über Informationen dem unveräußerlichen Menschenrecht auf freien Zugang zu ihnen widerspricht. Positiv – weil das Fehlen dieser Kontrolle zu katastrophalen Folgen für die Menschheit führen kann. Es genügt, an einen der klügsten Filme des letzten Jahrzehnts zu erinnern – „When the World Ends“ von Wim Wenders, dessen Charaktere vollständig in die „virtuelle Realität“ ihrer eigenen Träume eintauchen, die auf einem Computer aufgezeichnet wurden. Allerdings kann kein einziger Wissenschaftler und kein einziger Künstler eine eindeutige Antwort auf die Frage geben: Was erwartet Wissenschaft und Technik in Zukunft?

Die Konzentration auf die manchmal phantastisch erscheinende „Zukunft“ war Mitte des 20. Jahrhunderts ein charakteristisches Merkmal der Wissenschaft, als Erfinder danach strebten, perfekte Technologiemodelle zu schaffen, die ohne menschliches Eingreifen funktionieren konnten. Die Zeit hat gezeigt, wie utopisch eine solche Forschung ist. Es wäre jedoch überflüssig, die Wissenschaftler dafür zu verurteilen - ohne ihren Enthusiasmus in den 1950er Jahren hätte die Informationstechnologie der 60er Jahre in den 90er Jahren keinen so gewaltigen Sprung gemacht, und wir hätten nicht das, was wir jetzt haben.

Die letzten Jahrzehnte des zwanzigsten Jahrhunderts veränderten die Prioritäten der Wissenschaft – Forschung, erfinderisches Pathos wich kommerziellem Interesse. Auch dies ist weder gut noch schlecht. Dies ist eine Realität, in der die Wissenschaft zunehmend in den Alltag integriert wird.

Das 21. Jahrhundert hat diesen Trend fortgesetzt, und Erfindungen sind in unserer Zeit nicht nur Ruhm und Anerkennung, sondern vor allem Geld. Auch deshalb ist es wichtig sicherzustellen, dass die neuesten Errungenschaften von Wissenschaft und Technik nicht in die Hände von Terrorgruppen oder diktatorischen Regimen gelangen. Die Aufgabe ist schwierig bis zur Unmöglichkeit; sie so weit wie möglich zu verwirklichen, ist die Aufgabe der gesamten Weltgemeinschaft.

Information ist eine Waffe, und Waffen sind nicht weniger gefährlich als Atom- oder Chemiewaffen – nur wirken sie nicht physisch, sondern psychisch. Die Menschheit muss darüber nachdenken, was ihr in diesem Fall wichtiger ist – Freiheit oder Kontrolle.

Die neuesten philosophischen Konzepte zur Entwicklung der Informationstechnologien und der Versuch, sie zu verstehen, haben die Grenzen sowohl des naturwissenschaftlichen Materialismus, der im 19. und frühen 20. Jahrhundert dominierte, als auch des extremen Idealismus aufgezeigt, der die Bedeutung der materiellen Welt leugnet . Für das moderne Denken, insbesondere das Denken des Westens, ist es wichtig, diesen Dualismus im Denken zu überwinden, wenn die umgebende Welt klar in materiell und ideell getrennt ist. Der Weg dorthin ist ein Dialog der Kulturen, ein Vergleich unterschiedlicher Sichtweisen auf die umgebenden Phänomene.

Paradoxerweise kann die Informationstechnologie dabei eine wichtige Rolle spielen. Computernetzwerke und insbesondere das Internet sind nicht nur eine Ressource für Unterhaltung und lebhafte kommerzielle Aktivitäten, sie sind auch ein Mittel für sinnvolle, kontroverse Kommunikation zwischen Vertretern verschiedener Zivilisationen in der modernen Welt sowie für einen Dialog zwischen Vergangenheit und Vergangenheit das Geschenk. Wir können sagen, dass das Internet die räumlichen und zeitlichen Grenzen verschiebt.

Und im Dialog der Kulturen durch Informationstechnologie ist die Rolle der Sprache als ältestes universelles Kommunikationsmittel immer noch wichtig. Deshalb hat die Linguistik im Zusammenspiel mit Mathematik, Philosophie und Informatik ihre zweite Geburt erlebt und entwickelt sich bis heute weiter. Der Trend der Gegenwart setzt sich auch in Zukunft fort – „bis ans Ende der Welt“, wie es vor 15 Jahren derselbe V. Wenders voraussagte. Es ist zwar nicht bekannt, wann dieses Ende eintreten wird – aber spielt es jetzt eine Rolle, denn die Zukunft wird früher oder später ohnehin zur Gegenwart.

Anhang 1

Ferdinand von Saussure

Der Schweizer Linguist Ferdinand de Saussure (1857-1913) gilt weithin als Begründer der modernen Linguistik mit seinen Versuchen, eher die Struktur der Sprache als die Geschichte bestimmter Sprachen und Sprachformen zu beschreiben. Tatsächlich finden die Methode des Strukturalismus in der Sprach- und Literaturwissenschaft und ein bedeutender Zweig der Semiotik ihren wichtigsten Ausgangspunkt in seinem Werk um die Wende zum 20. Jahrhundert. Es wurde sogar argumentiert, dass der Komplex von Strategien und Konzepten, der als „Poststrukturalismus“ bezeichnet wird – das Werk von Jacques Derrida, Michel Foucault, Jacques Lacan, Julia Kristeva, Roland Barthes und anderen – von Saussures Werk angeregt wird in Linguistik und anagrammatischen Lesarten der späten lateinischen Poesie, literarische Moderne bis hin zur Psychoanalyse und Philosophie im frühen 20. Jahrhundert. Wie Algirdas Julien Greimas und Joseph Courtés in Semiotics and Language: An Analytic Dictionary unter der Überschrift „Interpretation“ argumentieren, entstand im frühen zwanzigsten Jahrhundert eine neue Art der Interpretation, die sie mit der Saussureschen Linguistik, der Husserlschen Phänomenologie und der Freudschen Psychoanalyse identifizieren. In diesem Modus handelt es sich bei der Interpretation „nicht mehr um die Zuweisung eines gegebenen Inhalts an eine Form, der sonst einer fehlt, sondern um eine Paraphrase, die auf andere Weise den äquivalenten Inhalt eines bezeichnenden Elements innerhalb eines gegebenen semiotischen Systems formuliert“ ( 159). in diesem Verständnis von „Interpretation“ sind Form und Inhalt nicht voneinander getrennt; vielmehr ist jede „Form“ alternativ auch ein semantischer „Inhalt“, eine „bezeichnende Form“, so dass die Interpretation eine analoge Paraphrase von etwas bietet, das bereits innerhalb eines anderen Bedeutungssystems bedeutet.

Eine solche Neuinterpretation von Form und Verständnis – die Claude Lévi-Strauss in einer seiner programmatischsten Artikulationen des Strukturalismuskonzepts in „Struktur und Form: Reflexionen über ein Werk von Vladimir Propp“ beschreibt – ist in Saussures posthumem Kurs enthalten in General Linguistics (1916, trans., 1959, 1983). Zu seinen Lebzeiten veröffentlichte Saussure relativ wenig, und sein Hauptwerk, The Course, war die Transkription mehrerer Kurse in allgemeiner Linguistik durch seine Studenten, die er 1907-11 anbot. Im Kurs forderte Saussure das "wissenschaftliche" Studium der Sprache im Gegensatz zu den Arbeiten der historischen Linguistik des 19. Jahrhunderts, die eine der großen Errungenschaften des westlichen Intellekts darstellen: bestimmte Wörter als Bausteine ​​zu nehmen Die historische (oder „diachrone“) Linguistik verfolgte den Ursprung und die Entwicklung westlicher Sprachen aus einer mutmaßlichen gemeinsamen Sprachquelle, zuerst einer „indogermanischen“ Sprache und dann einer früheren „p roto-indo-europäische" Sprache.

Genau diese Untersuchung des einzigartigen Vorkommens von Wörtern mit der damit einhergehenden Annahme, dass die grundlegende „Einheit“ der Sprache tatsächlich die positive Existenz dieser „Wortelemente“ ist, stellte Saussure in Frage. Sein Werk war ein Versuch, die von der historischen Linguistik so minutiös untersuchte Masse von Tatsachen über Sprache auf eine überschaubare Zahl von Aussagen zu reduzieren. Die „vergleichende Schule“ der Philologie des 19. Jahrhunderts, sagt Saussure im Kurs, „hat es nicht geschafft, die wahre Wissenschaft der Linguistik zu etablieren“, weil „es ihr nicht gelungen ist, die Natur ihres Studiengegenstandes zu suchen“ (3). Diese „Natur“, argumentiert er, ist nicht einfach in den „elementaren“ Wörtern zu finden, die eine Sprache umfasst – die scheinbar „positiven“ Tatsachen (oder „Substanzen“) der Sprache – sondern in den formalen Beziehungen, die diese hervorbringen "Substanzen."

Saussures systematische Überprüfung der Sprache basiert auf drei Annahmen. Die erste ist, dass die wissenschaftliche Erforschung der Sprache eher das System als die Geschichte sprachlicher Phänomene entwickeln und untersuchen muss. Aus diesem Grund unterscheidet er zwischen den besonderen Vorkommen von Sprache - seine besonderen „Sprachereignisse", die er als parole bezeichnet – und das eigentliche Objekt der Linguistik, das System (oder „Code"), das diese Ereignisse beherrscht, das er als langue bezeichnet. Eine solche systematische Untersuchung erfordert außerdem eine „ synchrone" Konzeption der Beziehung zwischen den Sprachelementen zu einem bestimmten Zeitpunkt und nicht die "diachrone" Untersuchung der Entwicklung der Sprache im Laufe der Geschichte.

Diese Annahme führte zu dem, was Roman Jakobson 1929 als „Strukturalismus“ bezeichnete, in dem „jede Menge von Phänomenen, die von der zeitgenössischen Wissenschaft untersucht werden, nicht als mechanische Anhäufung, sondern als strukturelles Ganzes behandelt wird, wobei die mechanische Vorstellung von Prozessen der Frage nachgibt ihrer Funktion" ("Romantic" 711). In dieser Passage artikuliert Jakobson Saussures Absicht, die Linguistik als ein wissenschaftliches System zu definieren, im Gegensatz zu einer einfachen, „mechanischen“ Erklärung historischer Zufälle. Damit einhergehend beschreibt Jakobson auch die zweite Grundannahme Saussures – wir können Nennen wir es jetzt "strukturelle" - Linguistik: dass die Grundelemente der Sprache nur in Bezug auf ihre Funktionen und nicht in Bezug auf ihre Ursachen untersucht werden können. Europäische "Wörter"), diese Ereignisse und Entitäten müssen in einen systemischen Rahmen gestellt werden in denen sie mit anderen sogenannten Ereignissen und Entitäten in Beziehung gesetzt werden. Dies ist eine radikale Neuorientierung in der Wahrnehmung von Erfahrungen und Phänomenen, deren Bedeutung der Philosoph Ernst Cassirer verglichen hat mit "der neuen Wissenschaft von Galileo, die im siebzehnten Jahrhundert unser Ganzes veränderte Konzept der physischen Welt" (zitiert in Culler, Pursuit 2 4). Diese Veränderung, wie Greimas und Courtés anmerken, begreift "Interpretation" neu und erfindet somit Erklärung und Verstehen selbst neu. Anstatt sich auf die Ursachen eines Phänomens zu erklären, also als „Wirkung“ seinen Ursachen gewissermaßen untergeordnet zu sein, besteht die Erklärung hier darin, ein Phänomen seiner zukunftsgerichteten „Funktion“ unterzuordnen bzw "Zweck." Erklärung ist nicht mehr unabhängig von menschlichen Absichten oder Zwecken (auch wenn diese Absichten unpersönlich, gemeinschaftlich oder, in Freudschen Begriffen, „unbewusst“ sein können).

Diese Transformation vollzieht Saussure in seiner Linguistik gerade in der Neudefinition des sprachlichen „Wortes“, das er als sprachliches „Zeichen“ bezeichnet und funktionalistisch definiert. Das Zeichen, so argumentiert er, ist die Vereinigung von „einem Konzept und einem Klangbild“, das er „Signifikat und Signifikant“ nannte (66-67; Roy Harris' Übersetzung von 1983 bietet die Begriffe „Signifikation“ und „Signal“ an). Die Natur ihrer „Kombination“ ist insofern „funktional“, als weder das Signifikat noch der Signifikant die „Ursache“ des anderen sind, sondern „jeder seine Werte vom anderen“ (8). Sprachelement, das Zeichen , relational und stellt die Grundannahme der historischen Linguistik, nämlich die Identität der elementaren Einheiten von Sprache und Bedeutung (d.h. „Wörter“), einer rigorosen Analyse zum Gegenstand, da das Wort „Baum“ nicht das „gleiche“ Wort ist das Wort wird durch innewohnende Qualitäten definiert – es ist keine „mechanische Anhäufung“ solcher Qualitäten – sondern weil es als Element in einem System, dem „strukturellen Ganzen“ der Sprache definiert ist.

Eine solche relationale (oder "diakritische") Definition einer Entität bestimmt die Konzeption aller Sprachelemente in der strukturellen Linguistik. Dies wird am deutlichsten in der beeindruckendsten Errungenschaft der Saussureschen Linguistik, der Entwicklung der Konzepte der "Phoneme" und "Unterscheidungsmerkmale" der Sprache. Phoneme sind die kleinsten artikulierten und bezeichnenden Einheiten einer Sprache. Es sind nicht die Klänge, die in der Sprache vorkommen, sondern die von Saussure erwähnten "Klangbilder", die von Sprechern als Bedeutungsträger wahrgenommen - phänomenal wahrgenommen - werden. (So ​​bezeichnet Elmar Holenstein Jakobsons Linguistik, die Saussure in wichtigen Punkten folgt, als „phänomenologischen Strukturalismus“.) Aus diesem Grund bemerkte der führende Sprecher des Strukturalismus der Prager Schule, Jan Mukarovsky, 1937, dass „Struktur . . . ist eine phänomenologische und keine empirische Realität; es ist nicht das Werk selbst, sondern eine Reihe funktionaler Zusammenhänge, die im Bewusstsein eines Kollektivs (Generation, Milieu etc.) angesiedelt sind“ (zitiert in Galan 35). Ebenso Lévi-Strauss, der führende Sprecher des französischen Strukturalismus , bemerkte 1960, dass „Struktur keinen eindeutigen Inhalt hat; es ist selbst Inhalt, und die logische Organisation, in der es festgehalten wird, wird als Eigenschaft des Realen konzipiert“ (167; siehe auch Jakobson, Fundamentals 27-28).

Phoneme, die kleinsten wahrnehmbaren Elemente der Sprache, sind also keine positiven Objekte, sondern eine „phänomenologische Realität“. Im Englischen zum Beispiel kann das Phonem /t/ auf viele verschiedene Arten ausgesprochen werden, aber ein Englischsprecher wird es in jedem Fall als ein /t/ erkennen. Ein angesaugtes t (d. h. ein t, das mit einem h-ähnlichen Hauch danach ausgesprochen wird), ein hoher oder tiefer t-Ton, ein verlängerter t-Ton und so weiter, funktionieren alle auf die gleiche Weise bei der Unterscheidung der Bedeutung von "to" und "do" auf Englisch. Darüber hinaus sind die Unterschiede zwischen Sprachen derart, dass phonologische Variationen in einer Sprache unterschiedliche Phoneme in einer anderen darstellen können; Englisch unterscheidet also zwischen /l/ und /r/, während andere Sprachen so strukturiert sind, dass diese Artikulationen als Variationen desselben Phonems betrachtet werden (wie das aspirierte und nicht aspirierte t im Englischen). In jeder natürlichen Sprache ist die große Anzahl möglicher Wörter eine Kombination aus einer kleinen Anzahl von Phonemen. Englisch zum Beispiel besitzt weniger als 40 Phoneme, die zusammengenommen über eine Million verschiedene Wörter bilden.

Die Phoneme der Sprache sind selbst systematisch organisierte Merkmalsstrukturen. In den 1920er und 1930er Jahren isolierten Jakobson und N. S. Trubetzkoy, dem Beispiel von Saussure folgend, die „charakteristischen Merkmale“ von Phonemen. Diese Merkmale basieren auf der physiologischen Struktur der Sprachorgane – Zunge, Zähne, Stimmbänder und so weiter – das Saussure im Kurs erwähnt und die Harris als "physiologische Phonetik" beschreibt (39; Baskins frühere Übersetzung verwendet den Begriff "Phonologie" [(1959) 38]) - und sie kombinieren sich in "Bündeln" binärer Gegensätze, um Phoneme zu bilden. Zum Beispiel ist der Unterschied zwischen /t/ und /d/ im Englischen das Vorhandensein oder Fehlen von „Voice“ (das Engagement der Stimmbänder), und auf der Ebene des Stimmens definieren sich diese Phoneme gegenseitig. Damit ist die Phonologie ein konkretes Beispiel für eine von Saussure beschriebene allgemeine Sprachregel: In der Sprache gibt es nur Unterschiede. noch wichtiger: eine Differenz impliziert im Allgemeinen positive Terme, zwischen denen die Differenz aufgestellt wird; aber in der Sprache gibt es nur Unterschiede ohne positive Begriffe. Ob wir das Signifikat oder den Signifikanten nehmen, die Sprache hat weder Ideen noch Laute, die vor dem Sprachsystem existierten. (120)

In diesem Rahmen werden sprachliche Identitäten nicht durch inhärente Qualitäten, sondern durch systemische ("strukturelle") Beziehungen bestimmt.

Ich habe gesagt, dass die Phonologie Saussure „folgte“, denn obwohl seine Analyse der Physiologie der Sprachproduktion „heute“, wie Harris sagt, „physisch“ genannt würde, im Gegensatz zu entweder „psychologisch“ oder „funktional“. "" (Lesung 49), folglich artikulierte er im Kurs die Richtung und die Umrisse einer funktionalen Analyse der Sprache. In ähnlicher Weise war sein einziges erweitertes veröffentlichtes Werk, Mémoire sur le système primitif des voyelles dans les langues indo-européennes (Memoiren über das primitive System der Vokale in indogermanischen Sprachen), das 1878 erschien, vollständig in das Projekt des 19. Jahrhunderts historische Linguistik. Dennoch demonstrierte Saussure innerhalb dieser Arbeit, wie Jonathan Culler argumentiert hat, "die Fruchtbarkeit, Sprache als ein System rein relationaler Elemente zu denken, selbst wenn er an der Aufgabe der historischen Rekonstruktion arbeitet" (Saussure 66). Durch die Analyse der systematischen strukturellen Beziehungen zwischen Phonemen, um Muster des Vokalwechsels in bestehenden indogermanischen Sprachen zu berücksichtigen, schlug Saussure vor, dass es neben mehreren verschiedenen Phonemen / a / ein weiteres Phonem gegeben haben muss, das formal beschrieben werden könnte. „Was Saussures Arbeit so beeindruckend macht“, schließt Culler, „ist die Tatsache, dass fast fünfzig Jahre später, als die Keilschrift des Hethitischen entdeckt und entschlüsselt wurde, ein Phonem mit der Schreibweise h gefunden wurde, das sich so verhielt, wie Saussure es vorhergesagt hatte . Er hatte durch eine rein formale Analyse entdeckt, was heute als Kehlkopf der Indogermanen bekannt ist“ (66).

Diese Konzeption der relationalen oder diakritischen Bestimmung der Elemente der Bedeutung, die im Kurs sowohl implizit als auch explizit ist, legt eine dritte Annahme nahe, die die Strukturlinguistik beherrscht, was Saussure „die willkürliche Natur des Zeichens“ nennt. Damit meint er, dass die Beziehung zwischen dem Signifikanten und dem Signifikanten in der Sprache niemals notwendig (oder "motiviert") ist: Man könnte genauso gut den Lautsignifikanten arbre wie den Signifikantenbaum finden, um ihn mit dem Begriff "Baum" zu vereinen. Aber darüber hinaus bedeutet es, dass das Signifikat auch willkürlich ist: Man könnte den Begriff „Baum“ genauso gut durch seine Holzqualität (was Palmen ausschließen würde) wie durch seine Größe (was die „niedrigen Gehölze“ ausschließt) definieren Büsche nennen). Dies sollte klarstellen, dass die Nummerierung der Annahmen, die ich vorgestellt habe, keine Prioritätsreihenfolge darstellt: jede Annahme – die systemische Natur der Bedeutung (am besten erfasst durch das „synchrone“ Studium der Sprache), die relationale oder „diakritische“ Natur der Elemente der Bedeutung, die Beliebigkeit der Zeichen - bezieht ihren Wert aus den anderen.

Das heißt, die Saussuresche Linguistik untersucht die Phänomene in übergreifenden Kombinations- und Kontrastbeziehungen in der Sprache. In dieser Konzeption ist Sprache sowohl der Prozess der Artikulation von Bedeutung (Signifikation) als auch ihr Produkt (Kommunikation), und diese beiden Funktionen der Sprache sind weder identisch noch vollständig deckungsgleich (siehe Schleifer, „Dekonstruktion“). Hier zeigt sich der Wechsel zwischen Form und Inhalt, den Greimas und Courtés in modernistischer Interpretation beschreiben: Die Sprache präsentiert Kontraste, die ihre Einheiten formal definieren, und diese Einheiten verbinden sich auf aufeinanderfolgenden Ebenen, um den bezeichnenden Inhalt zu schaffen. Da die Elemente der Sprache willkürlich sind, kann darüber hinaus weder der Kontrast noch die Kombination als grundlegend bezeichnet werden. So verbinden sich in der Sprache Unterscheidungsmerkmale zu kontrastierenden Phonemen auf einer anderen Wahrnehmungsebene, Phoneme verbinden sich zu kontrastierenden Morphemen, Morpheme verbinden sich zu Wörtern, Wörter verbinden sich zu Sätzen und so weiter. In jedem Fall ist das ganze Phonem oder Wort oder Satz usw. größer als die Summe seiner Teile (so wie Wasser, H2O, in Saussures Beispiel [(1959) 103] mehr ist als die mechanische Agglomeration von Wasserstoff und Sauerstoff).

Die drei Annahmen des Kurses in Allgemeiner Linguistik veranlassten Saussure, eine neue Wissenschaft des zwanzigsten Jahrhunderts zu fordern, die über die Sprachwissenschaft hinausgehen und „das Leben der Zeichen in der Gesellschaft“ untersuchen würde. Saussure nannte diese Wissenschaft „Semiologie (von griechisch semeîon „Zeichen“)“ (16). Die „Wissenschaft“ der Semiotik, wie sie in den 1920er und 1930er Jahren in Osteuropa und in den 1950er und 1960er Jahren in Paris praktiziert wurde, erweiterte das Studium der Sprache und der sprachlichen Strukturen auf literarische Artefakte, die durch diese Strukturen konstituiert (oder artikuliert) wurden. Darüber hinaus verfolgte Saussure während des gesamten späten Teils seiner Karriere, sogar während er Kurse in allgemeiner Linguistik anbot, seine eigene "semiotische" Analyse der späten lateinischen Poesie, um absichtlich verborgene Anagramme von Eigennamen zu entdecken. Die Untersuchungsmethode war in vielerlei Hinsicht das Gegenteil des funktionalen Rationalismus seiner linguistischen Analysen: Sie versuchte, wie Saussure in einem der 99 Notizbücher erwähnt, in denen er diese Studie durchführte, das Problem des "Zufalls", das " wird zur unvermeidlichen Grundlage von allem" (zitiert in Starobinski 101). Eine solche Studie konzentriert sich, wie Saussure selbst sagt, auf "die materielle Tatsache" von Zufall und Bedeutung (zitiert 101), so dass das "Themenwort", dessen Anagramm Saussure sucht, wie Jean Starobinski argumentiert, "für den Dichter ist , ein Instrument, und kein vitaler Keim des Gedichts. Das Gedicht muss die phonetischen Materialien des Themenworts wiederverwenden“ (45). In dieser Analyse sagt Starobinski: „Saussure hat sich nicht in der Suche nach verborgenen Bedeutungen verloren.“ Stattdessen scheint sein Werk den Wunsch zu zeigen, allen Problemen, die sich aus dem Bewusstsein ergeben, auszuweichen: "Da Poesie nicht nur in Worten verwirklicht, sondern etwas ist, das aus Worten geboren wird, entzieht sie sich der willkürlichen Kontrolle des Bewusstseins, um nur auf eine Art sprachlicher Gesetzmäßigkeit angewiesen zu sein "(121).

Das heißt, Saussures Versuch, Eigennamen in der späten lateinischen Poesie zu entdecken – was Tzvetan Todorov die Reduktion eines „Wortes . . . zu ihrem Signifikanten“ (266) – betont eines der Elemente, die seine linguistische Analyse beherrschten, die willkürliche Natur des Zeichens. (Es betont auch die formale Natur der Saussureschen Linguistik – „Sprache“, behauptet er, „ist eine Form und nicht eine Substanz" - wodurch die Semantik als Hauptgegenstand der Analyse effektiv eliminiert wird.) Wie Todorov schlussfolgert, erscheint Saussures Werk heute bemerkenswert homogen in seiner Weigerung, symbolische Phänomene zu akzeptieren. . . . In seiner Forschung zu Anagrammen achtet er nur auf die Phänomene der Wiederholung, nicht auf die der Evokation. . . . In seinen Nibelungenstudien erkennt er Symbole nur, um sie falschen Lesarten zuzuschreiben: Da sie nicht gewollt sind, gibt es keine Symbole. Schließlich beschäftigt er sich in seinen Vorlesungen zur allgemeinen Sprachwissenschaft mit der Existenz von Semiologie und damit von anderen als sprachlichen Zeichen; aber diese Behauptung wird sofort durch die Tatsache begrenzt, dass die Semiologie einer einzigen Art von Zeichen gewidmet ist: denen, die willkürlich sind. (269-70)

Wenn das stimmt, dann deshalb, weil Saussure „Absicht“ nicht ohne ein Subjekt begreifen konnte; er konnte sich dem Gegensatz zwischen Form und Inhalt nicht ganz entziehen, den sein Werk so sehr in Frage gestellt hatte. Stattdessen griff er auf "sprachliche Legalität" zurück. Angesiedelt zwischen den Geschichtskonzepten des 19. Jahrhunderts, der Subjektivität und der von diesen Konzepten beherrschten Art der kausalen Interpretation einerseits und den „strukturalistischen“ Konzepten des 20. Jahrhunderts von dem, was Lévi-Strauss den „Kantianismus ohne“ nannte ein transzendentales Subjekt" (zitiert in Connerton 23) - Konzepte, die den Gegensatz zwischen Form und Inhalt (oder Subjekt und Objekt) und die Hierarchie von Vorder- und Hintergrund im ausgewachsenen Strukturalismus, der Psychoanalyse und sogar der Quantenmechanik auslöschen - das Werk von Ferdinand de Saussure in Linguistik und Semiotik umschreibt ein Signalmoment in der Bedeutungs- und Kulturforschung.

Ronald Schleifer

Anhang 2

Ferdinand de Saussure (Übersetzung)

Der Schweizer Linguist Ferdinand de Saussure (1857–1913) gilt als Begründer der modernen Linguistik – dank seiner Versuche, die Struktur der Sprache zu beschreiben, und nicht die Geschichte einzelner Sprachen und Wortformen. Im Großen und Ganzen wurden in seinen Werken zu Beginn des 20. Jahrhunderts die Grundlagen der Strukturmethoden der Linguistik und Literaturkritik und zu einem großen Teil der Semiotik gelegt. Es ist erwiesen, dass die Methoden und Konzepte des sogenannten „Poststrukturalismus“, die in den Werken von Jacques Derrida, Michel Foucault, Jacques Lacan, Julia Kristeva, Roland Barthes und anderen entwickelt wurden, auf die sprachwissenschaftlichen Arbeiten von Saussure und Saussure zurückgehen Anagrammatische Lesarten spätrömischer Poesie. Es sei darauf hingewiesen, dass Saussures Arbeit zur Linguistik und Sprachinterpretation dazu beiträgt, ein breites Spektrum intellektueller Disziplinen zu verbinden - von der Physik bis zu literarischen Innovationen, der Psychoanalyse und der Philosophie des frühen zwanzigsten Jahrhunderts. A. J. Greimas und J. Kurte schreiben in Semiotics and Language: „Anfang des 20. Jahrhunderts erschien neben der Linguistik von Saussure, der Phänomenologie von Husserl und der Psychoanalyse ein analytisches Wörterbuch mit dem Titel „Interpretation“ als neue Art der Interpretation von Freud. In einem solchen Fall ist „Interpretation nicht die Zuschreibung eines gegebenen Inhalts auf eine sonst fehlende Form, sondern eine Paraphrase, die denselben Inhalt eines signifikanten Elements innerhalb eines gegebenen semiotischen Systems auf andere Weise formuliert“ (159 ). In diesem Verständnis von "Interpretation" sind Form und Inhalt untrennbar; im Gegenteil, jede Form ist mit semantischer Bedeutung („bedeutungsvolle Form“) gefüllt, sodass die Interpretation eine neue, ähnliche Nacherzählung von etwas Bedeutungsvollem in einem anderen Zeichensystem bietet.

Ein ähnliches Verständnis von Form und Inhalt, das Claude Lévi-Strauss in einem der programmatischen Werke des Strukturalismus („Structure and Form: Reflections on the Works of Vladimir Propp“) präsentiert hat, findet sich in Saussures posthum erschienenem Buch A Course in Allgemeine Sprachwissenschaft (1916, trans., 1959, 1983). Zu seinen Lebzeiten veröffentlichte Saussure wenig, "Course" - sein Hauptwerk - wurde aus den Notizen von Studenten gesammelt, die 1907-11 seine Vorlesungen über allgemeine Sprachwissenschaft besuchten. In dem Kurs forderte Saussure ein "wissenschaftliches" Studium der Sprache und kontrastierte sie mit der vergleichenden historischen Linguistik des 19. Jahrhunderts. Dieses Werk kann als eine der größten Errungenschaften des abendländischen Denkens angesehen werden: Ausgehend von einzelnen Wörtern als Strukturelementen der Sprache bewies die historische (oder „diachrone“) Linguistik die Entstehung und Entwicklung der westeuropäischen Sprachen von a gemeinsame, indogermanische Sprache - und eine frühere Proto-Indo-Europäerin.

Genau diese Untersuchung des einzigartigen Vorkommens von Wörtern mit der damit einhergehenden Annahme, dass die grundlegende "Einheit" der Sprache tatsächlich die positive Existenz dieser "Wortelemente" ist, hat Saussure in Frage gestellt. Seine Arbeit war ein Versuch, die vielen Tatsachen über Sprache, die von der vergleichenden Linguistik beiläufig untersucht wurden, auf eine kleine Anzahl von Theoremen zu reduzieren. Die vergleichende philologische Schule des 19. Jahrhunderts, schreibt Saussure, „hat es nicht geschafft, eine wirkliche Schule der Linguistik zu schaffen“, weil „sie das Wesen des Untersuchungsgegenstandes nicht verstanden hat“ (3). Dieses "Wesen", argumentiert er, liegt nicht nur in einzelnen Wörtern - den "positiven Substanzen" der Sprache -, sondern auch in den formalen Verbindungen, die diesen Substanzen zu ihrer Existenz verhelfen.

Saussures „Sprachtest“ basiert auf drei Annahmen. Erstens basiert das wissenschaftliche Verständnis von Sprache nicht auf einem historischen, sondern auf einem strukturellen Phänomen. Deshalb unterschied er zwischen einzelnen Phänomenen der Sprache – „Sprechereignissen“, die er als „parole“ definiert – und dem seiner Meinung nach eigentlichen Untersuchungsgegenstand der Linguistik, dem System (Code, Struktur), das diese Ereignisse steuert ("Sprache"). Eine solche systematische Untersuchung erfordert darüber hinaus eher eine "synchrone" Auffassung der Beziehung zwischen den Sprachelementen zu einem gegebenen Zeitpunkt als eine "diachrone" Untersuchung der Entwicklung einer Sprache durch ihre Geschichte.

Diese Hypothese war der Vorläufer dessen, was Roman Jakobson 1929 „Strukturalismus“ nannte – eine Theorie, in der „jede Reihe von Phänomenen, die von der modernen Wissenschaft untersucht werden, nicht als eine mechanische Akkumulation betrachtet wird, sondern als ein strukturelles Ganzes, in dem die konstruktive Komponente korreliert ist die Funktion" ("Romantik" 711). In dieser Passage formulierte Jakobson Saussures Idee, Sprache als Struktur zu definieren, im Gegensatz zur „mechanischen“ Aufzählung historischer Ereignisse. Darüber hinaus entwickelt Jakobson eine weitere Saussuresche Annahme, die zum Vorläufer der strukturellen Linguistik wurde: Die Grundelemente der Sprache sollten nicht so sehr im Zusammenhang mit ihren Ursachen, sondern mit ihren Funktionen untersucht werden. Separate Phänomene und Ereignisse (zB die Entstehungsgeschichte einzelner indogermanischer Wörter) sollten nicht für sich allein untersucht werden, sondern in einem System, in dem sie mit ähnlichen Komponenten korreliert sind. Dies war eine radikale Wende im Vergleich von Phänomenen mit der umgebenden Realität, deren Bedeutung vom Philosophen Ernst Cassirer mit "der Wissenschaft von Galileo, die die Ideen über die materielle Welt im siebzehnten Jahrhundert umkehrte" verglichen wurde , wie Greimas und Kurthe bemerken, ändert die Idee der "Interpretation", folglich die Erklärungen selbst. Phänomene begannen, nicht in Bezug auf die Ursachen ihres Auftretens interpretiert zu werden, sondern in Bezug auf die Wirkung, die sie in der haben können Gegenwart und Zukunft Interpretation war nicht mehr unabhängig von den Intentionen einer Person (trotz der Tatsache, dass Intentionen unpersönlich, „unbewusst“ im Sinne Freuds sein können).

Saussure zeigt in seiner Linguistik diese Wendung vor allem in der Veränderung des Begriffs des Wortes in der Linguistik, das er als Zeichen definiert und in seinen Funktionen beschreibt. Ein Zeichen ist für ihn eine Kombination aus Laut und Bedeutung, „signified and designation“ (66-67; in der englischen Übersetzung von 1983 von Roy Harris – „signification“ und „signal“). Die Natur dieser Verbindung ist "funktional" (weder das eine noch das andere Element kann ohne einander existieren); außerdem „leiht man sich Qualitäten vom anderen“ (8). Damit definiert Saussure das Hauptstrukturelement der Sprache – das Zeichen – und macht die Identität von Zeichen mit Wörtern zur Grundlage der historischen Linguistik, was einer besonders strengen Analyse bedarf. Daher können wir beispielsweise von demselben Wort "Baum" unterschiedliche Bedeutungen verstehen - nicht weil das Wort nur eine Menge bestimmter Eigenschaften ist, sondern weil es als Element im Zeichensystem definiert ist, im "strukturellen Ganzen", in der Sprache.

Ein solcher relativer ("diakritischer") Einheitsbegriff liegt dem Begriff aller Sprachelemente in der Strukturlinguistik zugrunde. Dies wird besonders deutlich in der originellsten Entdeckung der Saussureschen Linguistik, in der Entwicklung des Konzepts der "Phoneme" und "Unterscheidungsmerkmale" der Sprache. Phoneme sind die kleinsten gesprochenen und bedeutungsvollen Spracheinheiten. Es sind nicht nur Laute, die in der Sprache vorkommen, sondern „Klangbilder“, stellt Saussure fest, die von Muttersprachlern als bedeutungsvoll wahrgenommen werden. (Es sei darauf hingewiesen, dass Elmar Holenstein Jakobsons Linguistik, die die Ideen und Konzepte von Saussure in ihren Hauptbestimmungen fortsetzt, „phänomenologischen Strukturalismus“ nennt). Deshalb stellte der führende Redner der Prager Schule des Strukturalismus, Jan Mukarowski, 1937 fest, dass „Struktur. . . kein empirischer, sondern ein phänomenologischer Begriff; es ist nicht das Ergebnis selbst, sondern eine Reihe signifikanter Beziehungen des kollektiven Bewusstseins (Generation, andere usw.)“. Ein ähnlicher Gedanke wurde 1960 von Lévi-Strauss, dem Führer des französischen Strukturalismus, geäußert: „Die Struktur hat keinen bestimmten Inhalt; es ist an sich bedeutungsvoll, und die logische Konstruktion, in die es eingeschlossen ist, ist der Abdruck der Wirklichkeit.

Phoneme wiederum stellen als die kleinsten für die Wahrnehmung akzeptablen sprachlichen Elemente eine separate integrale "phänomenologische Realität" dar. Zum Beispiel kann der Laut „t“ im Englischen unterschiedlich ausgesprochen werden, aber eine Person, die Englisch spricht, wird ihn in jedem Fall als „t“ wahrnehmen. Angesaugt, angehoben oder abgesenkt, ein langer „t“-Laut usw. unterscheidet gleichermaßen die Bedeutung der Wörter „to“ und „do“. Darüber hinaus sind die Unterschiede zwischen Sprachen so, dass Varietäten eines Tons in einer Sprache unterschiedlichen Phonemen in einer anderen entsprechen können; Zum Beispiel sind "l" und "r" im Englischen unterschiedlich, während sie in anderen Sprachen Varianten desselben Phonems sind (wie das englische "t", ausgesprochen mit und ohne Aspiration). Das riesige Vokabular jeder natürlichen Sprache besteht aus einer Reihe von Kombinationen einer viel kleineren Anzahl von Phonemen. Im Englischen werden beispielsweise nur 40 Phoneme verwendet, um etwa eine Million Wörter auszusprechen und zu schreiben.

Die Laute einer Sprache sind eine systematisch organisierte Menge von Merkmalen. In den 1920er bis 1930er Jahren, nach Saussure, hoben Jacobson und N. S. Trubetskoy die "charakteristischen Merkmale" von Phonemen hervor. Diese Merkmale beruhen auf dem Aufbau der Sprechorgane – Zunge, Zähne, Stimmbänder – Saussure bemerkt dies im „Course of General Linguistics“, und Harris nennt es „physiologische Phonetik“ (in Baskins früherer Übersetzung der Begriff „Phonologie“. " verwendet wird) - sie sind in "Knoten" verbunden » durg gegen einen Freund, um Geräusche zu machen. Zum Beispiel ist der Unterschied zwischen „t“ und „d“ im Englischen das Vorhandensein oder Fehlen einer „Stimme“ (die Spannung der Stimmbänder) und die Lautstärke der Stimme, die ein Phonem von einem anderen unterscheidet. So kann die Phonologie als Beispiel für die von Saussure beschriebene allgemeine Sprachregel gelten: „Es gibt nur Unterschiede in der Sprache.“ Noch wichtiger ist dies nicht: Der Unterschied impliziert normalerweise die genauen Bedingungen, zwischen denen er angesiedelt ist; aber in der Sprache gibt es nur Unterschiede ohne genaue Bedingungen. Ob „Bezeichnung“ oder „Bezeichnet“ – in der Sprache gibt es weder Begriffe noch Laute, die es vor der Entwicklung des Sprachsystems gegeben hätte.

In einer solchen Struktur werden sprachliche Analogien nicht mit Hilfe ihrer inhärenten Qualitäten definiert, sondern mit Hilfe von Systembeziehungen („strukturellen“) Beziehungen.

Ich habe bereits erwähnt, dass sich die Phonologie in ihrer Entwicklung auf die Ideen von Saussure stützte. Obwohl seine Analyse der Sprachphysiologie in der Neuzeit, so Harris, „als ‚physisch‘ und nicht als ‚psychologisch‘ oder ‚funktional‘ bezeichnet werden würde, hat er in The Course die Richtung und die Grundprinzipien der Funktionsanalyse der Sprache klar zum Ausdruck gebracht. Sein einziges zu seinen Lebzeiten veröffentlichtes Werk, Mémoire sur le système primitif des voyelles dans les langues indo-européennes (Anmerkungen zum ursprünglichen Vokalsystem in den indogermanischen Sprachen), das 1878 veröffentlicht wurde, stand vollständig im Einklang mit der vergleichenden historischen Sprachwissenschaft der 19. Jahrhundert. Trotzdem habe Saussure in dieser Arbeit, so Jonathan Culler, "die Fruchtbarkeit der Idee der Sprache als eines Systems miteinander verbundener Phänomene gezeigt, selbst bei ihrer historischen Rekonstruktion". Saussure analysierte die Beziehung zwischen Phonemen und erklärte den Wechsel von Vokalen in den modernen Sprachen der indogermanischen Gruppe und schlug vor, dass es neben mehreren verschiedenen Lauten "a" auch andere Phoneme geben muss, die formal beschrieben werden. „Was Saussures Arbeit besonders beeindruckend macht“, schließt Kaller, „ist, dass fast 50 Jahre später, als die hethitische Keilschrift entdeckt und entschlüsselt wurde, ein mit „h“ bezeichnetes Schriftzeichen gefunden wurde, das sich so verhielt, wie es Saussure vorhergesagt hatte. Durch formale Analyse entdeckte er in den indogermanischen Sprachen das, was heute als Gutturallaut bekannt ist.

Im Konzept einer relativen (diakritischen) Definition von Zeichen, sowohl explizit als auch implizit im Kurs, gibt es eine dritte Schlüsselannahme der strukturellen Linguistik, die von Saussure die „willkürliche Natur des Zeichens“ genannt wird. Damit ist gemeint, dass die Beziehung zwischen Laut und Bedeutung in der Sprache durch nichts motiviert ist: Man kann genauso gut das Wort „arbre“ und das Wort „tree“ mit dem Begriff „tree“ verbinden. Darüber hinaus bedeutet dies, dass der Klang auch willkürlich ist: Sie können den Begriff "Baum" durch das Vorhandensein seiner Rinde (außer Palmen) und durch Größe (außer für "niedrige Gehölze" - Sträucher) definieren. Daraus sollte klar sein, dass alle Annahmen, die ich vorstelle, nicht in mehr und weniger wichtige unterteilt sind: jede von ihnen - die systemische Natur von Zeichen (am verständlichsten im "synchronen" Studium der Sprache), ihre relative (diakritische) Wesen, die Willkür der Zeichen - kommt aus der Ruhe.

Daher wird in der Saussureschen Linguistik das untersuchte Phänomen als eine Reihe von Vergleichen und Gegensätzen der Sprache verstanden. Sprache ist sowohl Ausdruck der Bedeutung von Wörtern (Bezeichnung) als auch deren Ergebnis (Kommunikation) – und diese beiden Funktionen fallen nie zusammen (vgl. Shleifers „Deconstruction of Language“). Wir können den Wechsel von Form und Inhalt sehen, den Greimas und Kurte in der neuesten Version der Interpretation beschreiben: Sprachliche Kontraste definieren seine strukturellen Einheiten, und diese Einheiten interagieren auf sukzessiven Ebenen, um einen bestimmten sinnvollen Inhalt zu erzeugen. Da die Elemente der Sprache zufällig sind, können weder Kontrast noch Kombination die Grundlage sein. Das bedeutet, dass in einer Sprache Unterscheidungsmerkmale auf einer anderen Verständnisebene einen phonetischen Kontrast bilden, Phoneme zu kontrastierenden Morphemen kombiniert werden, Morpheme - zu Wörtern, Wörter - zu Sätzen usw. In jedem Fall kann ein ganzes Phonem, Wort, Satz usw. ist mehr als die Summe seiner Teile (so wie Wasser in Saussures Beispiel mehr als eine Kombination aus Wasserstoff und Sauerstoff ist).

Die drei Annahmen des „Kurses für Allgemeine Sprachwissenschaft“ führten Saussure zu der Idee einer neuen Wissenschaft des zwanzigsten Jahrhunderts, die von der Linguistik getrennt ist und das „Leben der Zeichen in der Gesellschaft“ untersucht. Saussure nannte diese Wissenschaft Semiologie (von griechisch „semeîon“ – ein Zeichen). Die „Wissenschaft“ der Semiotik, die sich in den 1920er und 1930er Jahren in Osteuropa und in den 1950er und 1960er Jahren in Paris entwickelte, erweiterte das Studium der Sprache und der sprachlichen Strukturen um literarische Funde, die im Hinblick auf diese Strukturen verfasst (oder formuliert) wurden. Darüber hinaus beschäftigte sich Saussure in der Abenddämmerung seiner Karriere parallel zu seinem Studium der Allgemeinen Linguistik mit einer "semiotischen" Analyse spätrömischer Dichtung und versuchte, bewusst komponierte Anagramme von Eigennamen zu entdecken. Diese Methode war in ihrer linguistischen Analyse in vielerlei Hinsicht das Gegenteil des Rationalismus: Sie war ein Versuch, wie Saussure in einem der 99 Notizbücher schreibt, das Problem der „Wahrscheinlichkeit“ im System zu untersuchen, das „zur Grundlage von allem wird. " Eine solche Untersuchung, behauptet Saussure selbst, hilft, sich auf die "reale Seite" der Wahrscheinlichkeit zu konzentrieren; Das „Schlüsselwort“, für das Saussure ein Anagramm sucht, ist laut Jean Starobinsky „ein Werkzeug für den Dichter und nicht die Lebensquelle des Gedichts. Das Gedicht dient dazu, die Laute des Schlüsselwortes umzukehren. Laut Starobinsky geht Saussure in dieser Analyse „nicht auf die Suche nach verborgenen Bedeutungen ein“. Im Gegenteil, in seinen Werken ist der Wunsch spürbar, bewusstseinsbezogene Fragen zu vermeiden: „Da Poesie nicht nur in Worten ausgedrückt wird, sondern auch in dem, was diese Worte hervorrufen, entzieht sie sich der Kontrolle des Bewusstseins und hängt nur von ab die Gesetze der Sprache.“

Saussures Versuch, Eigennamen in der spätrömischen Poesie zu studieren (Tsvetan Todorov nannte dies eine Abkürzung für "ein Wort ... erst, bevor es geschrieben wird") betont eine der Komponenten seiner sprachlichen Analyse - die willkürliche Natur von Zeichen sowie die formale Essenz der Saussureschen Linguistik ("Sprache", behauptet er, "die Essenz der Form, nicht des Phänomens"), die die Möglichkeit der Analyse der Bedeutung ausschließt. Todorov kommt zu dem Schluss, dass Saussures Schriften heute bemerkenswert konsequent in ihrer Abneigung gegen das Studium von Symbolen [Phänomene mit genau definierter Bedeutung] zu sein scheinen. . . . Beim Erkunden von Anagrammen achtet Saussure nur auf Wiederholungen, nicht aber auf frühere Optionen. . . . Beim Studium des Nibelungenliedes definiert er die Symbole nur, um sie falschen Lesarten zuzuordnen: Wenn sie unbeabsichtigt sind, existieren die Symbole nicht. Schließlich geht er in seinen Schriften zur allgemeinen Sprachwissenschaft von der Existenz einer Semiologie aus, die nicht nur sprachliche Zeichen beschreibt; Diese Annahme wird jedoch dadurch eingeschränkt, dass die Semilogie nur zufällige, willkürliche Zeichen beschreiben kann.

Wenn dem wirklich so ist, dann nur, weil er sich „Absicht“ nicht ohne Objekt vorstellen konnte; er konnte die Kluft zwischen Form und Inhalt nicht vollständig überbrücken - in seinen Schriften wurde dies zu einer Frage. Stattdessen wandte er sich der "sprachlichen Legitimität" zu. Zwischen auf historischen und subjektiven Vermutungen basierenden Konzepten des 19. Jahrhunderts einerseits und darauf basierenden Methoden der zufälligen Interpretation und andererseits strukturalistischen Konzepten zu stehen, die Lévi-Strauss „Kantianismus ohne transzendenten Akteur“ nannte " - Ferlinand de Saussures Schriften über Linguistik und Semiotik markieren einen Wendepunkt in der Erforschung von Bedeutungen in Sprache und Kultur, indem sie den Gegensatz zwischen Form und Inhalt (Subjekt und Objekt), Bedeutung und Ursprung in Strukturalismus, Psychoanalyse und sogar Quantenmechanik aufheben.

Ronald Schleifer

Literatur

1. Admoni V.G. Grundlagen der Grammatiktheorie / V.G. Admoni; Akademie der Wissenschaften der UdSSR.-M.: Nauka, 1964.-104p.

3. Arapov, M. V., Herts, M. M. Mathematische Methoden in der Linguistik. M., 1974.

4. Arnold I.V. Die semantische Struktur des Wortes im modernen Englisch und die Methodik für seine Untersuchung. /I.V. Arnold-L.: Erziehung, 1966. - 187 S.

6.Bashlykov A.M. Automatisches Übersetzungssystem. / BIN. Bashlykov, A.A. Sokolov. - M.: GmbH "FIMA", 1997. - 20 p.

7. Baudouin de Courtenay: Theoretisches Erbe und Moderne: Zusammenfassungen der Berichte der internationalen wissenschaftlichen Konferenz / Ed.I.G. Kondratjew. - Kasan: KGU, 1995. - 224 p.

8. A. V. Gladkiy, Elemente der mathematischen Linguistik. / . Gladkiy A.V., Melchuk I.A. -M., 1969. - 198 S.

9. Golovin, B.N. Sprache und Statistik. /B.N. Golovin - M., 1971. - 210 p.

10. Zvegintsev, V.A. Theoretische und angewandte Linguistik. / V.A. Sweginzew - M., 1969. - 143 p.

11. Kasevich, V.B. Semantik. Syntax. Morphologie. // V.B. Kasevich - M., 1988. - 292 p.

12. Lekomtsev Yu.K. Einführung in die Formensprache der Linguistik / Yu.K. Lekomzew. - M.: Nauka, 1983, 204 S., mit Abb.

13. Sprachliches Erbe von Baudouin de Courtenay am Ende des zwanzigsten Jahrhunderts: Zusammenfassungen der Berichte der internationalen wissenschaftlichen und praktischen Konferenz vom 15. bis 18. März 2000. - Krasnojarsk, 2000. - 125 p.

Matveeva G.G. Versteckte grammatikalische Bedeutungen und Identifizierung der sozialen Person („Porträt“) des Sprechers / G.G. Matwejew. - Rostow, 1999. - 174 p.

14. Melchuk, I.A. Erfahrung im Aufbau von sprachlichen Modellen "Meaning Text"./ I.A. Melchuk. - M., 1974. - 145 p.

15. Nelyubin L.L. Übersetzen und Angewandte Linguistik / L.L. Nelyubin. - M.: Höhere Schule, 1983. - 207 p.

16. Zu den genauen Methoden der Sprachforschung: Zur sogenannten "mathematischen Linguistik" / O.S. Akhmanova, I. A. Melchuk, E. V. Paducheva und andere - M., 1961. - 162 p.

17. Piotrowski L.G. Mathematische Linguistik: Lehrbuch / L.G. Piotrovsky, K.B. Bektaev, A.A. Piotrowskaja. - M.: Höhere Schule, 1977. - 160 p.

18. Er ist. Text, Maschine, Person. - L., 1975. - 213 p.

19. Er ist. Angewandte Linguistik / Hrsg. A. S. Gerda. - L., 1986. - 176 p.

20. Revzin, I.I. Sprachmodelle. M., 1963. Revzin, I.I. Moderne Strukturlinguistik. Probleme und Methoden. M., 1977. - 239 S.

21. Revzin, I.I., Rozentsveig, V.Yu. Grundlagen der allgemeinen und maschinellen Übersetzung / Revzin I.I., Rozentsveig, V.Yu. - M., 1964. - 401 p.

22. Slyusareva N.A. Die Theorie von F. de Saussure im Lichte der modernen Linguistik / N.A. Slyusareva. - M.: Nauka, 1975. - 156 p.

23. Eule, L.Z. Analytische Linguistik / L.Z. Eule - M., 1970. - 192 p.

24. Saussure F. de. Anmerkungen zur Allgemeinen Sprachwissenschaft / F. de Saussure; Pro. von fr. - M.: Fortschritt, 2000. - 187 p.

25. Er ist. Studiengang Allgemeine Sprachwissenschaft / Pro. von fr. - Jekaterinburg, 1999. -426 p.

26. Sprachstatistik und automatische Textanalyse / Ed. ed. R.G. Piotrowski. L., 1980. - 223 S.

27. Stoll, P. Sets. Logik. Axiomatische Theorien / R. Stoll; Pro. aus dem Englischen. - M., 1968. - 180 p.

28. Tenier, L. Grundlagen der strukturellen Syntax. M., 1988.

29. Ubin II. Automatisierung von Übersetzungsaktivitäten in der UdSSR / I.I. Ubin, L. Yu. Korostelev, B.D. Tichomirow. - M., 1989. - 28 p.

30. Faure, R., Kofman, A., Denis-Papin, M. Moderne Mathematik. M., 1966.

31. Shenk, R. Verarbeitung konzeptioneller Informationen. M., 1980.

32. Shikhanovich, Yu.A. Einführung in die moderne Mathematik (Anfangsbegriffe). M., 1965

33. Shcherba L.V. Russische Vokale in qualitativer und quantitativer Hinsicht / L.V. Shcherba - L.: Nauka, 1983. - 159 p.

34. Abdullah-zade F. Weltbürger // Spark - 1996. - Nr. 5. - S.13

35. V.A. Uspensky. Vorläufig für die Leser der "New Literary Review" zu den semiotischen Botschaften von Andrei Nikolaevich Kolmogorov. - Neue Literaturkritik. -1997. - Nr. 24. - S. 18-23

36. Perlovsky L. Bewusstsein, Sprache und Kultur. - Wissen ist Macht. -2000. №4 - S. 20-33

37. Frumkina R.M. Über uns - schräg. // Russisches Journal. - 2000. - Nr. 1. - S. 12

38. Fitialov, S. Ya. Zur Syntaxmodellierung in der Strukturellen Linguistik // Probleme der Strukturellen Linguistik. M., 1962.

39. Das ist er. Zur Äquivalenz von NN-Grammatik und Abhängigkeitsgrammatik // Probleme der Strukturlinguistik. M., 1967.

40. Chomsky, N. Logische Grundlagen der Sprachtheorie // Neu in der Linguistik. Ausgabe. 4. M., 1965

41. Schleifer R. Ferdinand de Saussure//press. jhu.ru

42. www.krugosvet.ru

43. www.lenta.ru

45. drücken. jhu.ru

46. ​​​​de.wikipedia.org