Mathematische Forschungsmethoden. Mathematische Methoden des Operations Research

BUNDESAGENTUR FÜR BILDUNG

Staatliche Bildungseinrichtung für höhere Berufsbildung "Ural State University. »

Geschichtsabteilung

Abteilung für Dokumentation und Informationsunterstützung des Managements

Mathematische Methoden in der wissenschaftlichen Forschung

Kursprogramm

Norm 350800 „Dokumentation und Dokumentationsmanagement“

Norm 020800 „Geschichts- und Archivwissenschaft“

Jekaterinburg

Ich bin damit einverstanden

Vizerektor

(Unterschrift)

Das Programm der Disziplin "Mathematische Methoden in der wissenschaftlichen Forschung" wird entsprechend den Anforderungen zusammengestellt Universität Bestandteil der obligatorischen Mindestinhalte und -niveaus der Ausbildung:

Absolvent von Beruf

Dokumentenverwaltung und Dokumentationsverwaltungsunterstützung (350800),

Geschichts- und Archivwissenschaft (020800),

zum Zyklus "Allgemeine humanitäre und sozioökonomische Disziplinen" des staatlichen Bildungsstandards der höheren Berufsbildung.

Semester III

Gemäß Lehrplan der Fachrichtung Nr. 000 - Dokumentation und Dokumentationsunterstützung für Führungskräfte:

Die Gesamtarbeitsintensität der Disziplin: 100 Stunden,

einschließlich Vorlesungen 36 Stunden

Gemäß dem Lehrplan der Fachrichtung Nr. 000 - Geschichts- und Archivwissenschaft

Die Gesamtarbeitsintensität der Disziplin: 50 Stunden,

einschließlich Vorlesungen 36 Stunden

Kontrollmaßnahmen:

Untersuchungen 2 Personen/Stunde

Zusammengestellt von:, Ph.D. ist. Naturwissenschaften, außerordentlicher Professor, Abteilung für Dokumentation und Informationsunterstützung des Managements, Ural State University

Abteilung für Dokumentation und Informationsunterstützung des Managements

vom 01.01.01 Nr. 1.

Einverstanden:

Stellvertreter Vorsitzende

Humanitärer Rat

_________________

(Unterschrift)

(C) Staatliche Uraluniversität

(AUS) , 2006

EINLEITUNG

Die Lehrveranstaltung „Mathematische Methoden in der sozioökonomischen Forschung“ soll die Studierenden mit den grundlegenden Techniken und Methoden der Verarbeitung quantitativer Informationen aus der Statistik vertraut machen. Ihre Hauptaufgabe besteht darin, den methodischen wissenschaftlichen Apparat der Forscher zu erweitern und zu lehren, wie man in praktischen und wissenschaftlichen Aktivitäten neben traditionellen Methoden auf der Grundlage logischer Analyse mathematische Methoden anwendet, die helfen, historische Phänomene und Fakten quantitativ zu charakterisieren.

Gegenwärtig werden die mathematischen Apparate und mathematischen Methoden in fast allen Bereichen der Wissenschaft eingesetzt. Dies ist ein natürlicher Prozess, man nennt ihn oft die Mathematisierung der Wissenschaft. In der Philosophie wird unter Mathematisierung meist die Anwendung der Mathematik auf verschiedene Wissenschaften verstanden. Mathematische Methoden sind seit langem fester Bestandteil des Arsenals von Forschungsmethoden von Wissenschaftlern. Sie werden verwendet, um Daten zusammenzufassen, Trends und Muster in der Entwicklung sozialer Phänomene und Prozesse, Typologie und Modellierung zu identifizieren.

Statistische Kenntnisse sind notwendig, um die Prozesse in Wirtschaft und Gesellschaft richtig zu charakterisieren und zu analysieren. Dazu ist es notwendig, das Stichprobenverfahren, die Zusammenfassung und Gruppierung von Daten zu beherrschen, Durchschnitts- und Relativwerte, Variationsindikatoren und Korrelationskoeffizienten berechnen zu können. Ein Element der Informationskultur ist die Fähigkeit, Tabellen und Diagramme korrekt zu formatieren, die ein wichtiges Werkzeug für die Systematisierung primärer sozioökonomischer Daten und die visuelle Darstellung quantitativer Informationen sind. Um vorübergehende Veränderungen zu bewerten, ist es notwendig, eine Vorstellung vom System dynamischer Indikatoren zu haben.

Die Verwendung der Methodik zur Durchführung einer selektiven Studie ermöglicht es Ihnen, große Mengen an Informationen aus Massenquellen zu untersuchen, Zeit und Arbeit zu sparen und gleichzeitig wissenschaftlich signifikante Ergebnisse zu erzielen.

Mathematische und statistische Methoden nehmen Hilfspositionen ein und ergänzen und bereichern die traditionellen Methoden der sozioökonomischen Analyse. Ihre Entwicklung ist ein notwendiger Bestandteil der Qualifikation eines modernen Spezialisten - eines Dokumentenspezialisten, eines Historiker-Archivars.

Derzeit werden mathematische und statistische Methoden aktiv im Marketing, in der soziologischen Forschung, beim Sammeln von Betriebsmanagementinformationen, beim Erstellen von Berichten und beim Analysieren von Dokumentenflüssen eingesetzt.

Quantitative Analysefähigkeiten sind für die Erstellung von Qualifikationsarbeiten, Abstracts und anderen Forschungsprojekten erforderlich.

Die Erfahrungen mit mathematischen Methoden zeigen, dass deren Einsatz unter Beachtung der folgenden Grundsätze erfolgen sollte, um verlässliche und repräsentative Ergebnisse zu erhalten:

1) die allgemeine Methodik und Theorie der wissenschaftlichen Erkenntnis eine entscheidende Rolle spielen;

2) eine klare und korrekte Formulierung des Forschungsproblems erforderlich ist;

3) Auswahl quantitativ und qualitativ repräsentativer sozioökonomischer Daten;

4) die Richtigkeit der Anwendung mathematischer Methoden, d. h. sie müssen der Forschungsaufgabe und der Art der verarbeiteten Daten entsprechen;

5) eine aussagekräftige Interpretation und Analyse der erhaltenen Ergebnisse erforderlich ist, sowie eine obligatorische zusätzliche Überprüfung der durch mathematische Verarbeitung erhaltenen Informationen.

Mathematische Methoden helfen, die Technologie der wissenschaftlichen Forschung zu verbessern: ihre Effizienz zu steigern; Sie sparen viel Zeit, insbesondere bei der Verarbeitung großer Informationsmengen. Sie ermöglichen es Ihnen, versteckte Informationen aufzudecken, die in der Quelle gespeichert sind.

Darüber hinaus sind mathematische Methoden eng mit einer solchen Ausrichtung wissenschaftlicher und informationsbezogener Aktivitäten wie der Erstellung historischer Datenbanken und Archiven maschinenlesbarer Daten verbunden. Es ist unmöglich, die Errungenschaften dieser Ära zu ignorieren, und die Informationstechnologie wird zu einem der wichtigsten Faktoren in der Entwicklung aller Bereiche der Gesellschaft.

KURSPROGRAMM

Thema 1. EINFÜHRUNG. MATHEMATISIERUNG DER HISTORISCHEN WISSENSCHAFT

Zweck und Ziele des Kurses. Die objektive Notwendigkeit, historische Methoden zu verbessern, indem man die Techniken der Mathematik anzieht.

Mathematisierung der Wissenschaft, Hauptinhalt. Voraussetzungen für die Mathematisierung: naturwissenschaftliche Voraussetzungen; soziotechnische Voraussetzungen. Die Grenzen der Mathematisierung der Wissenschaft. Mathematisierungsstufen für die Natur-, Technik-, Wirtschafts- und Geisteswissenschaften. Die Hauptgesetzmäßigkeiten der Mathematisierung der Wissenschaften sind: die Unmöglichkeit, die Studiengebiete anderer Wissenschaften vollständig durch Mathematik abzudecken; die Übereinstimmung der angewandten mathematischen Methoden mit dem Inhalt der zu mathematisierenden Wissenschaft. Die Entstehung und Entwicklung neuer angewandter mathematischer Disziplinen.

Mathematisierung der Geschichtswissenschaft. Die Hauptbühnen und ihre Besonderheiten. Voraussetzungen für die Mathematisierung der Geschichtswissenschaft. Bedeutung der Entwicklung statistischer Methoden für die Entwicklung historischen Wissens.

Sozioökonomische Forschung mit mathematischen Methoden in der vorrevolutionären und sowjetischen Geschichtsschreibung der 20er Jahre (usw.)

Mathematische und statistische Methoden in den Werken von Historikern der 60-90er Jahre. Computerisierung der Wissenschaft und Verbreitung mathematischer Methoden. Schaffung von Datenbanken und Perspektiven für die Entwicklung von Informationsunterstützung für die historische Forschung. Die wichtigsten Ergebnisse der Anwendung mathematischer Methoden in der sozioökonomischen und historisch-kulturellen Forschung (ua).

Korrelation mathematischer Methoden mit anderen Methoden der historischen Forschung: historisch-vergleichende, historisch-typologische, strukturelle, systemische, historisch-genetische Methoden. Methodische Grundlagen für die Anwendung mathematisch-statistischer Methoden in der historischen Forschung.

Thema 2 . STATISTISCHE INDIKATOREN

Grundlegende Techniken und Methoden der statistischen Untersuchung sozialer Phänomene: statistische Beobachtung, Zuverlässigkeit statistischer Daten. Grundformen der statistischen Beobachtung, Beobachtungszweck, Beobachtungsgegenstand und Beobachtungseinheit. Statistisches Dokument als historische Quelle.

Statistische Indikatoren (Indikatoren für Volumen, Füllstand und Verhältnis), ihre Hauptfunktionen. Quantitative und qualitative Seite eines statistischen Indikators. Sorten statistischer Indikatoren (volumetrisch und qualitativ; individuell und generalisierend; Intervall und Moment).

Die wichtigsten Anforderungen an die Berechnung statistischer Indikatoren zur Gewährleistung ihrer Zuverlässigkeit.

Die Beziehung der statistischen Indikatoren. Scorekarte. Allgemeine Indikatoren.

Absolute Werte, Definition. Arten von absoluten statistischen Werten, ihre Bedeutung und Methoden zu ihrer Gewinnung. Absolute Werte als direktes Ergebnis einer Zusammenfassung statistischer Beobachtungsdaten.

Maßeinheiten, deren Wahl von der Art des untersuchten Phänomens abhängt. Natürliche, Kosten- und Arbeitsmaßeinheiten.

Relative Werte. Der Hauptinhalt des relativen Indikators, die Form ihres Ausdrucks (Koeffizient, Prozentsatz, ppm, Dezimille). Abhängigkeit von Form und Inhalt des relativen Indikators.

Vergleichsbasis, Wahl der Basis bei der Berechnung relativer Werte. Grundprinzipien für die Berechnung relativer Indikatoren, um die Vergleichbarkeit und Zuverlässigkeit absoluter Indikatoren (nach Gebiet, Objektbereich usw.) zu gewährleisten.

Relativwerte von Struktur, Dynamik, Vergleich, Koordination und Intensität. Möglichkeiten, sie zu berechnen.

Beziehung zwischen absoluten und relativen Werten. Die Notwendigkeit für ihre komplexe Anwendung.

Thema 3. DATENGRUPPIERUNG. TABELLEN.

Zusammenfassende Indikatoren und Gruppierung in historischen Studien. Aufgaben, die durch diese Methoden in der wissenschaftlichen Forschung gelöst werden: Systematisierung, Verallgemeinerung, Analyse, Bequemlichkeit der Wahrnehmung. Grundgesamtheit, Beobachtungseinheiten.

Aufgaben und Hauptinhalte der Zusammenfassung. Zusammenfassung - die zweite Stufe der statistischen Forschung. Sorten von zusammenfassenden Indikatoren (einfach, Hilfsindikatoren). Die Hauptphasen der Berechnung von zusammenfassenden Indikatoren.

Die Gruppierung ist die Hauptmethode zur Verarbeitung quantitativer Daten. Gruppierungsaufgaben und ihre Bedeutung in der wissenschaftlichen Forschung. Gruppierungstypen. Die Rolle von Gruppierungen bei der Analyse sozialer Phänomene und Prozesse.

Die Hauptphasen beim Aufbau einer Gruppierung: Bestimmung der untersuchten Population; die Wahl eines Gruppierungsmerkmals (quantitative und qualitative Merkmale; alternativ und nicht alternativ; faktoriell und effektiv); die Verteilung der Bevölkerung in Gruppen je nach Art der Gruppierung (Bestimmung der Anzahl der Gruppen und der Größe der Intervalle), die Skala zur Messung von Vorzeichen (nominal, ordinal, Intervall); Auswahl der Darstellungsform gruppierter Daten (Text, Tabelle, Grafik).

Typologische Gruppierung, Definition, Hauptaufgaben, Konstruktionsprinzipien. Die Rolle der typologischen Gruppierung bei der Untersuchung sozioökonomischer Typen.

Strukturelle Gruppierung, Definition, Hauptaufgaben, Konstruktionsprinzipien. Die Rolle der strukturellen Gruppierung bei der Untersuchung der Struktur sozialer Phänomene

Analytische (faktorielle) Gruppierung, Definition, Hauptaufgaben, Konstruktionsprinzipien, Die Rolle der analytischen Gruppierung bei der Analyse der Beziehung sozialer Phänomene. Die Notwendigkeit der integrierten Nutzung und Untersuchung von Gruppierungen für die Analyse sozialer Phänomene.

Allgemeine Anforderungen an die Konstruktion und Gestaltung von Tischen. Entwicklung des Tabellenlayouts. Tabellendetails (Nummerierung, Überschrift, Spalten- und Zeilenbezeichnungen, Symbole, Nummernbezeichnung). Die Methode zum Ausfüllen der Informationen der Tabelle.

Thema 4 . GRAFISCHE METHODEN FÜR DIE ANALYSE DER SOZIOÖKONOMISCHEN

INFORMATION

Die Rolle von Graphen und grafischer Darstellung in der wissenschaftlichen Forschung. Aufgaben graphischer Methoden: Klarheit der Wahrnehmung quantitativer Daten schaffen; analytische Aufgaben; Merkmale der Eigenschaften von Zeichen.

Statistisches Diagramm, Definition. Die Hauptelemente der Karte: Kartenfeld, Grafik, Raumbezüge, Skalenbezüge, Kartenerklärung.

Arten von statistischen Diagrammen: Liniendiagramm, Merkmale seiner Konstruktion, grafische Bilder; Balkendiagramm (Histogramm), Definition der Regel zur Erstellung von Histogrammen bei gleichen und ungleichen Intervallen; Tortendiagramm, Definition, Konstruktionsmethoden.

Feature-Verteilungspolygon. Normalverteilung eines Merkmals und seine grafische Darstellung. Merkmale der Verteilung von Zeichen, die soziale Phänomene charakterisieren: schräge, asymmetrische, mäßig asymmetrische Verteilung.

Lineare Beziehung zwischen Merkmalen, Merkmale einer grafischen Darstellung einer linearen Beziehung. Merkmale linearer Abhängigkeit bei der Charakterisierung sozialer Phänomene und Prozesse.

Das Konzept eines dynamischen Serientrends. Identifizierung eines Trends mit grafischen Methoden.

Thema 5. MITTELWERTE

Durchschnittswerte in der wissenschaftlichen Forschung und Statistik, ihr Wesen und ihre Definition. Grundlegende Eigenschaften von Durchschnittswerten als verallgemeinerndes Merkmal. Beziehung zwischen der Methode der Mittelwerte und Gruppierungen. Allgemeine und Gruppendurchschnitte. Bedingungen für die Typizität von Mittelwerten. Die wichtigsten Forschungsprobleme, die Mittelwerte lösen.

Methoden zur Berechnung von Durchschnittswerten. Arithmetisches Mittel - einfach, gewichtet. Grundlegende Eigenschaften des arithmetischen Mittels. Besonderheiten der Mittelwertbildung bei diskreten und Intervallverteilungsreihen. Die Abhängigkeit der Methode zur Berechnung des arithmetischen Mittels in Abhängigkeit von der Art der Quelldaten. Merkmale der Interpretation des arithmetischen Mittels.

Median - ein durchschnittlicher Indikator für die Struktur der Bevölkerung, Definition, grundlegende Eigenschaften. Bestimmung des Medianindikators für eine gerankte quantitative Reihe. Berechnung des Medians für den durch die Intervallgruppierung repräsentierten Indikator.

Mode ist ein durchschnittlicher Indikator für die Bevölkerungsstruktur, grundlegende Eigenschaften und Inhalte. Bestimmung des Modus für diskrete und Intervallreihen. Merkmale der historischen Interpretation der Mode.

Das Verhältnis von arithmetischem Mittel, Median und Modus, die Notwendigkeit ihrer integrierten Verwendung, Überprüfung der Typizität des arithmetischen Mittels.

Thema 6. INDIKATOREN DER VARIATION

Die Untersuchung der Fluktuation (Variabilität) der Werte des Attributs. Der Hauptinhalt der Maßnahmen zur Streuung des Merkmals und ihre Verwendung von Forschungsaktivitäten.

Absolute und durchschnittliche Variationsindikatoren. Variationsbreite, Hauptinhalte, Berechnungsmethoden. Durchschnittliche lineare Abweichung. Standardabweichung, Hauptinhalte, Berechnungsmethoden für diskrete und intervallmäßige quantitative Reihen. Das Konzept der Merkmalsstreuung.

Relative Variationsindikatoren. Schwingungskoeffizient, Hauptinhalte, Berechnungsmethoden. Der Variationskoeffizient, der Hauptinhalt der Berechnungsmethoden. Die Bedeutung und Besonderheit der Anwendung jedes Variationsindikators bei der Untersuchung sozioökonomischer Merkmale und Phänomene.

Thema 7.

Die Untersuchung von Veränderungen sozialer Phänomene im Laufe der Zeit ist eine der wichtigsten Aufgaben der sozioökonomischen Analyse.

Das Konzept der dynamischen Reihe. Moment- und Intervallzeitreihen. Anforderungen an die Konstruktion dynamischer Reihen. Vergleichbarkeit in der Reihe der Dynamik.

Indikatoren für Änderungen in der Reihe der Dynamik. Der Hauptinhalt der Indikatoren der Reihe der Dynamik. Zeilenebene. Basis- und Kettenindikatoren. Absolute Steigerung des Dynamikniveaus, absolute Grund- und Kettensteigerungen, Berechnungsmethoden.

Geburtsraten. Grund- und Kettenwachstumsraten. Merkmale ihrer Interpretation. Wachstumsindikatoren, Hauptinhalt, Methoden zur Berechnung von Grund- und Kettenwachstumsraten.

Das durchschnittliche Niveau einer Reihe von Dynamiken, der Hauptinhalt. Techniken zur Berechnung des arithmetischen Mittels für Momentenreihen mit gleichen und ungleichen Intervallen und für eine Intervallreihe mit gleichen Intervallen. Durchschnittliches absolutes Wachstum. Durchschnittliche Wachstumsrate. Durchschnittliche Wachstumsrate.

Umfassende Analyse zusammenhängender Zeitreihen. Identifizierung eines allgemeinen Entwicklungstrends - ein Trend: die Methode des gleitenden Durchschnitts, Vergrößerung von Intervallen, analytische Methoden zur Verarbeitung von Zeitreihen. Das Konzept der Interpolation und Extrapolation von Zeitreihen.

Thema 8.

Die Notwendigkeit, die Zusammenhänge für die Untersuchung sozioökonomischer Phänomene zu identifizieren und zu erklären. Arten und Formen von Beziehungen, die mit statistischen Methoden untersucht werden. Das Konzept der Funktion und Korrelation. Der Hauptinhalt der Korrelationsmethode und die mit ihrer Hilfe gelösten Aufgaben in der wissenschaftlichen Forschung. Hauptphasen der Korrelationsanalyse. Besonderheiten der Interpretation von Korrelationskoeffizienten.

Linearer Korrelationskoeffizient, Merkmalseigenschaften, für die der lineare Korrelationskoeffizient berechnet werden kann. Möglichkeiten zur Berechnung des linearen Korrelationskoeffizienten für gruppierte und nicht gruppierte Daten. Regressionskoeffizient, Hauptinhalt, Berechnungsmethoden, Interpretationsmerkmale. Bestimmtheitsmaß und seine sinnvolle Interpretation.

Anwendungsgrenzen der wichtigsten Varianten von Korrelationskoeffizienten in Abhängigkeit von Inhalt und Darstellungsform der Ausgangsdaten. Korrelationskoeffizient. Rangkorrelationskoeffizient. Assoziations- und Kontingenzkoeffizienten für alternative qualitative Merkmale. Ungefähre Methoden zur Bestimmung der Beziehung zwischen Merkmalen: Fechner-Koeffizient. Autokorrelationskoeffizient. Informationskoeffizienten.

Methoden zur Ordnung der Korrelationskoeffizienten: Korrelationsmatrix, Plejadenmethode.

Methoden der multidimensionalen statistischen Analyse: Faktorenanalyse, Komponentenanalyse, Regressionsanalyse, Clusteranalyse. Perspektiven der Modellierung historischer Prozesse zur Untersuchung sozialer Phänomene.

Thema 9. MUSTERFORSCHUNG

Gründe und Bedingungen für die Durchführung einer selektiven Studie. Die Notwendigkeit für Historiker, Methoden der partiellen Untersuchung sozialer Objekte anzuwenden.

Die wichtigsten Arten der Teilerhebung: Monographie, Hauptarray-Methode, Stichprobenerhebung.

Definition der Probenahmemethode, die wichtigsten Eigenschaften der Probenahme. Stichprobenrepräsentativität und Stichprobenfehler.

Phasen der Stichprobenforschung. Bestimmung des Stichprobenumfangs, grundlegende Techniken und Methoden zur Ermittlung des Stichprobenumfangs (mathematische Verfahren, Tafel großer Zahlen). Die Praxis der Stichprobenbestimmung in Statistik und Soziologie.

Methoden zur Bildung einer Stichprobenpopulation: ordnungsgemäße Stichprobenziehung, mechanische Stichprobenziehung, typische und verschachtelte Stichprobenziehung. Methodik zur Organisation selektiver Volkszählungen, Haushaltserhebungen bei Familien von Arbeitern und Bauern.

Methodik zum Nachweis der Repräsentativität der Stichprobe. Zufällige, systematische Stichprobenfehler und Beobachtungsfehler. Die Rolle traditioneller Methoden bei der Bestimmung der Zuverlässigkeit der Probenergebnisse. Mathematische Methoden zur Berechnung des Stichprobenfehlers. Die Abhängigkeit des Fehlers von Volumen und Art der Probe.

Merkmale der Interpretation der Ergebnisse der Stichprobe und der Verteilung der Indikatoren der Stichprobenpopulation auf die Allgemeinbevölkerung.

Natürliche Probe, Hauptinhalt, Formationsmerkmale. Das Problem der Repräsentativität einer natürlichen Probe. Die wichtigsten Schritte zum Nachweis der Repräsentativität einer natürlichen Probe: die Verwendung traditioneller und formaler Methoden. Die Methode des Zeichenkriteriums, die Methode der Reihen - als Beweismittel für die Eigenschaft der Zufälligkeit der Stichprobe.

Das Konzept einer kleinen Stichprobe. Grundprinzipien seiner Verwendung in der wissenschaftlichen Forschung

Thema 11. METHODEN ZUR FORMALISIERUNG VON INFORMATIONEN VON MASSENQUELLEN

Die Notwendigkeit, Informationen aus Massenquellen zu formalisieren, um verborgene Informationen zu erhalten. Das Problem der Informationsmessung. Quantitative und qualitative Merkmale. Skalen zur Messung quantitativer und qualitativer Merkmale: nominal, ordinal, Intervall. Die Hauptphasen der Messung von Quellinformationen.

Arten von Massenquellen, Merkmale ihrer Messung. Methodik zum Erstellen eines einheitlichen Fragebogens basierend auf den Materialien einer strukturierten, halbstrukturierten historischen Quelle.

Merkmale der Messung von Informationen einer unstrukturierten narrativen Quelle. Inhaltsanalyse, deren Inhalt und Einsatzmöglichkeiten. Arten der Inhaltsanalyse. Inhaltsanalyse in der soziologischen und historischen Forschung.

Zusammenhang mathematisch-statistischer Methoden der Informationsverarbeitung und Methoden der Formalisierung von Quellinformationen. Computerisierung der Forschung. Datenbanken und Datenbanken. Datenbanktechnologie in der sozioökonomischen Forschung.

Aufgaben zum selbstständigen Arbeiten

Zur Vertiefung des Vorlesungsstoffes werden den Studierenden Aufgaben zur selbstständigen Bearbeitung folgender Themen der Lehrveranstaltung angeboten:

Relative Indikatoren Durchschnittliche Indikatoren Gruppierungsmethode Graphische Methoden Indikatoren der Dynamik

Die Aufgabenerfüllung wird von der Lehrkraft kontrolliert und ist Voraussetzung für die Zulassung zur Prüfung.

Eine indikative Liste von Fragen für den Test

1. Mathematisierung der Wissenschaft, Wesen, Voraussetzungen, Stufen der Mathematisierung

2. Hauptstufen und Merkmale der Mathematisierung der Geschichtswissenschaft

3. Voraussetzungen für den Einsatz mathematischer Methoden in der historischen Forschung

4. Statistischer Indikator, Essenz, Funktionen, Sorten

3. Methodische Grundlagen für die Verwendung statistischer Indikatoren in der historischen Forschung

6. Absolute Werte

7. Relativwerte, Inhalt, Ausdrucksformen, Berechnungsgrundlagen.

8. Typen relativer Werte

9. Aufgaben und Hauptinhalte der Datenzusammenfassung

10. Gruppierung, Hauptinhalte und Aufgaben im Studium

11. Die Hauptphasen des Aufbaus einer Gruppierung

12. Das Konzept eines Gruppierungsmerkmals und seine Abstufungen

13. Gruppierungsarten

14. Regeln für den Aufbau und die Gestaltung von Tischen

15. Dynamische Serie, Anforderungen für den Aufbau einer dynamischen Serie

16. Statistisches Diagramm, Definition, Struktur, zu lösende Aufgaben

17. Arten von statistischen Diagrammen

18. Verteilung von Polygonmerkmalen. Normalverteilung des Merkmals.

19. Lineare Beziehung zwischen Merkmalen, Methoden zur Bestimmung der Linearität.

20. Das Konzept eines dynamischen Serientrends, Möglichkeiten, es zu bestimmen

21. Durchschnittswerte in der wissenschaftlichen Forschung, ihre Essenz und Haupteigenschaften. Bedingungen für die Typizität von Mittelwerten.

22. Arten von durchschnittlichen Bevölkerungsindikatoren. Das Verhältnis der Durchschnittswerte.

23. Statistische Indikatoren für Dynamik, allgemeine Merkmale, Typen

24. Absolute Indikatoren für Änderungen in Zeitreihen

25. Relative Indikatoren für Änderungen in Zeitreihen (Wachstumsraten, Wachstumsraten)

26. Durchschnittliche Indikatoren des Dynamikbereichs

27. Variationsindikatoren, Hauptinhalte und zu lösende Aufgaben, Typen

28. Arten nichtkontinuierlicher Beobachtung

29. Wahlstudium, Hauptinhalte und zu lösende Aufgaben

30. Stichprobe und Allgemeinbevölkerung, grundlegende Eigenschaften der Stichprobe

31. Stadien der Stichprobenforschung, allgemeine Merkmale

32. Bestimmung der Stichprobengröße

33. Möglichkeiten zur Bildung einer Stichprobenpopulation

34. Stichprobenfehler und Methoden zu seiner Bestimmung

35. Repräsentativität der Stichprobe, Faktoren, die die Repräsentativität beeinflussen

36. Natürliche Probenahme, das Problem der Repräsentativität der natürlichen Probenahme

37. Die wichtigsten Etappen des Nachweises der Repräsentativität einer natürlichen Probe

38. Korrelationsmethode, Wesen, Hauptaufgaben. Merkmale der Interpretation von Korrelationskoeffizienten

39. Statistische Beobachtung als Methode zum Sammeln von Informationen, die wichtigsten Arten der statistischen Beobachtung.

40. Arten von Korrelationskoeffizienten, allgemeine Merkmale

41. Linearer Korrelationskoeffizient

42. Autokorrelationskoeffizient

43. Methoden der Formalisierung historischer Quellen: die Methode eines einheitlichen Fragebogens

44. Methoden der Formalisierung historischer Quellen: die Methode der Inhaltsanalyse

III.Verteilung der Kursstunden nach Themen und Arbeitsarten:

gemäß Lehrplan des Fachgebiets (Nr. 000 - Dokumentenwissenschaft und Dokumentenmanagement)

Name

Rubriken und Themen

Hörunterricht

Selbstständige Arbeit

einschließlich

Einführung. Mathematisierung der Wissenschaft

Statistische Indikatoren

Daten gruppieren. Tische

Durchschnittliche Werte

Variationsindikatoren

Statistische Indikatoren der Dynamik

Methoden der multivariaten Analyse. Korrelationskoeffizienten

Beispielstudie

Methoden der Informationsformalisierung

Verteilung der Kursstunden nach Themen und Arbeitsarten

gemäß dem Lehrplan der Fachrichtung Nr. 000 - Geschichts- und Archivwissenschaft

Name

Rubriken und Themen

Hörunterricht

Selbstständige Arbeit

einschließlich

Praxis (Seminare, Laborarbeiten)

Einführung. Mathematisierung der Wissenschaft

Statistische Indikatoren

Daten gruppieren. Tische

Grafische Methoden zur Analyse sozioökonomischer Informationen

Durchschnittliche Werte

Variationsindikatoren

Statistische Indikatoren der Dynamik

Methoden der multivariaten Analyse. Korrelationskoeffizienten

Beispielstudie

Methoden der Informationsformalisierung

IV. Form der Endkontrolle - versetzt

v. Pädagogische und methodische Unterstützung des Kurses

Slavko-Methoden in der historischen Forschung. Lehrbuch. Jekaterinburg, 1995

Mazurische Methoden in der historischen Forschung. Richtlinien. Jekaterinburg, 1998

weiterführende Literatur

Andersen T. Statistische Analyse von Zeitreihen. M., 1976.

Statistische Analyse von Borodkin in der historischen Forschung. M., 1986

Borodkin-Informatik: Entwicklungsstufen // Neue und jüngere Geschichte. 1996. Nr. 1.

Tikhonov für die Geisteswissenschaften. M., 1997

Garskov und Datenbanken in der historischen Forschung. Göttingen, 1994

Gerchuk-Methoden in der Statistik. M., 1968

Druzhinin-Methode und ihre Anwendung in der sozioökonomischen Forschung. M., 1970

Jessen R. Methoden statistischer Erhebungen. M., 1985

Jeannie K. Durchschnittswerte. M., 1970

Yuzbashev Theorie der Statistik. M., 1995.

Rumjanzew Theorie der Statistik. M., 1998

Shmoylova Studie über den Haupttrend und die Beziehung in der Reihe der Dynamik. Tomsk, 1985

Yeats F. Stichprobenverfahren in Volkszählungen und Umfragen / per. aus dem Englischen. . M., 1976

Historische Informatik. M., 1996.

Kovalchenko historische Forschung. M., 1987

Computer in der Wirtschaftsgeschichte. Barnau, 1997

Circle of Ideas: Modelle und Technologien der Historischen Informatik. M., 1996

Circle of Ideas: Traditionen und Trends in der historischen Informatik. M., 1997

Circle of Ideas: Makro- und Mikroansätze in der Historischen Informatik. M., 1998

Circle of Ideas: Historische Informatik an der Schwelle zum 21. Jahrhundert. Tscheboksary, 1999

Circle of Ideas: Historische Informatik in der Informationsgesellschaft. M., 2001

Allgemeine Theorie der Statistik: Lehrbuch / hrsg. und. M., 1994.

Workshop zur Theorie der Statistik: Proc. Beihilfe M., 2000

Eliseev-Statistik. M., 1990

Slavko-statistische Methoden in Geschichte und Forschung M., 1981

Slavko-Methoden im Studium der Geschichte der sowjetischen Arbeiterklasse. M., 1991

Statistisches Wörterbuch / Hrsg. . M., 1989

Theorie der Statistik: Lehrbuch / hrsg. , M., 2000

Ursul Gesellschaft. Einführung in die Sozialinformatik. M., 1990

Schwartz G. Stichprobenverfahren / per. mit ihm. . M., 1978

Mathematische Methoden des Operations Research

Regressionsanalysemodell programmatisch

Einführung

Beschreibung des Themengebietes und Darlegung des Forschungsproblems

Praktischer Teil

Fazit

Referenzliste


Einführung


In der Wirtschaftswissenschaft sind Prognosen die Grundlage fast aller Aktivitäten. Bereits auf Basis der Prognose wird ein Aktions- und Maßnahmenplan erstellt. Daher können wir sagen, dass die Prognose makroökonomischer Variablen ein grundlegender Bestandteil der Pläne aller Wirtschaftssubjekte ist. Prognosen können sowohl auf Basis qualitativer (Experten-) als auch quantitativer Methoden durchgeführt werden. Letztere allein kommen ohne eine qualitative Analyse nicht aus, ebenso wie Experteneinschätzungen durch fundierte Berechnungen untermauert werden müssen.

Nun haben Prognosen auch auf makroökonomischer Ebene Szenariocharakter und werden nach folgendem Prinzip entwickelt: Was wäre wenn… , - und sind oft Vorstufe und Begründung für große nationale Konjunkturprogramme. Makroökonomische Prognosen werden in der Regel mit einem Vorlauf von einem Jahr erstellt. Die moderne Praxis des Funktionierens der Wirtschaft erfordert kurzfristige Prognosen (ein halbes Jahr, einen Monat, ein Jahrzehnt, eine Woche). Entwickelt für die Aufgabe, einzelne Wirtschaftsteilnehmer mit erweiterten Informationen zu versorgen.

Mit Änderungen in den Objekten und Aufgaben der Prognose hat sich die Liste der Prognosemethoden geändert. Adaptive Methoden der Kurzfristprognose haben eine rasante Entwicklung erfahren.

Moderne Wirtschaftsprognosen erfordern von Entwicklern eine vielseitige Spezialisierung, Kenntnisse aus verschiedenen Bereichen der Wissenschaft und Praxis. Zu den Aufgaben eines Prognostikers gehören Kenntnisse des wissenschaftlichen (meist mathematischen) Apparates der Prognostik, der theoretischen Grundlagen des Prognoseprozesses, der Informationsflüsse, der Software, der Interpretation von Prognoseergebnissen.

Die Hauptfunktion der Prognose besteht darin, den möglichen Zustand des Objekts in der Zukunft zu begründen oder alternative Pfade zu bestimmen.

Die Bedeutung von Benzin als Hauptkraftstoff ist heute kaum zu überschätzen. Und es ist ebenso schwierig, die Auswirkungen seines Preises auf die Wirtschaft eines Landes zu überschätzen. Die Art der Entwicklung der Wirtschaft des Landes als Ganzes hängt von der Dynamik der Kraftstoffpreise ab. Ein Anstieg der Benzinpreise führt zu einem Anstieg der Preise für Industriegüter, zu einem Anstieg der Inflationskosten in der Wirtschaft und zu einem Rückgang der Rentabilität energieintensiver Industrien. Die Kosten für Erdölprodukte sind eine der Komponenten der Warenpreise auf dem Verbrauchermarkt, und die Transportkosten beeinflussen ausnahmslos die Preisstruktur aller Konsumgüter und Dienstleistungen.

Von besonderer Bedeutung ist die Frage der Benzinkosten in der sich entwickelnden ukrainischen Wirtschaft, wo jede Preisänderung eine sofortige Reaktion in allen ihren Sektoren hervorruft. Der Einfluss dieses Faktors ist jedoch nicht auf die Sphäre der Wirtschaft beschränkt, viele politische und gesellschaftliche Prozesse sind auch auf die Folgen seiner Schwankungen zurückzuführen.

Daher ist die Untersuchung und Prognose der Dynamik dieses Indikators von besonderer Bedeutung.

Der Zweck dieser Arbeit besteht darin, die Kraftstoffpreise für die nahe Zukunft vorherzusagen.

1. Beschreibung des Themengebietes und Darlegung des Forschungsproblems


Der ukrainische Benzinmarkt kann kaum als konstant oder vorhersehbar bezeichnet werden. Und dafür gibt es viele Gründe, angefangen bei der Tatsache, dass der Rohstoff für die Kraftstoffherstellung Öl ist, dessen Preise und Produktionsvolumen nicht nur von Angebot und Nachfrage auf den Inlands- und Auslandsmärkten bestimmt werden, sondern auch von staatliche Politik sowie Sondervereinbarungen zwischen produzierenden Unternehmen. Angesichts der starken Abhängigkeit der ukrainischen Wirtschaft ist sie auf den Export von Stahl und Chemikalien angewiesen, und die Preise für diese Produkte ändern sich ständig. Und wenn man von den Benzinpreisen spricht, kann man ihren Aufwärtstrend nicht übersehen. Trotz der vom Staat verfolgten Zurückhaltungspolitik ist ihr Wachstum für die Mehrheit der Verbraucher gewohnheitsmäßig. Die Preise für Erdölprodukte in der Ukraine ändern sich heute täglich. Sie hängen hauptsächlich von den Ölpreisen auf dem Weltmarkt ($ / Barrel) und der Höhe der Steuerbelastung ab.

Die Untersuchung der Benzinpreise ist derzeit sehr relevant, da die Preise anderer Waren und Dienstleistungen von diesen Preisen abhängen.

In diesem Papier betrachten wir die Abhängigkeit der Benzinpreise von der Zeit und Faktoren wie:

ü Ölpreise, US-Dollar pro Barrel

ü offizieller Wechselkurs des Dollars (NBU), Griwna pro US-Dollar

ü Verbraucherpreisindex

Der Preis von Benzin, das ein Produkt der Ölraffination ist, steht in direktem Zusammenhang mit dem Preis der angegebenen natürlichen Ressource und dem Volumen ihrer Produktion. Der Dollarkurs hat einen erheblichen Einfluss auf die gesamte ukrainische Wirtschaft, insbesondere auf die Preisbildung auf den heimischen Märkten. Die direkte Verbindung dieses Parameters mit den Benzinpreisen hängt direkt vom US-Dollar-Wechselkurs ab. Der CPI spiegelt die allgemeine Preisänderung innerhalb des Landes wider, und da wirtschaftlich erwiesen ist, dass eine Preisänderung einiger Waren in den allermeisten Fällen (unter Bedingungen des freien Wettbewerbs) zu einem Anstieg der Preise anderer Waren führt , ist es vernünftig anzunehmen, dass eine Änderung der Warenpreise im ganzen Land den untersuchten Indikator bei der Arbeit beeinflusst.


Beschreibung des bei den Berechnungen verwendeten mathematischen Apparats


Regressionsanalyse

Die Regressionsanalyse ist eine Methode zur Modellierung gemessener Daten und zur Untersuchung ihrer Eigenschaften. Die Daten bestehen aus Wertepaaren der abhängigen Variablen (der Antwortvariablen) und der unabhängigen Variablen (der erklärenden Variablen). Regressionsmodell<#"19" src="doc_zip1.jpg" />. Regressionsanalyse ist die Suche nach einer Funktion, die diesen Zusammenhang beschreibt. Regression kann als Summe von nicht zufälligen und zufälligen Komponenten dargestellt werden. wobei die Regressionsabhängigkeitsfunktion ist und eine additive Zufallsvariable mit einer Erwartung von Null ist. Die Annahme über die Art der Verteilung dieser Menge wird als Datengenerierungshypothese bezeichnet<#"8" src="doc_zip6.jpg" />hat eine Gaußsche Verteilung<#"20" src="doc_zip7.jpg" />.

Das Problem, ein Regressionsmodell mehrerer freier Variablen zu finden, stellt sich wie folgt. Eine Probe wird gegeben<#"24" src="doc_zip8.jpg" />Werte freier Variablen und die Menge der entsprechenden Werte der abhängigen Variablen. Diese Mengen werden als Menge der Anfangsdaten bezeichnet.

Gegeben ist ein Regressionsmodell - eine parametrische Familie von Funktionen in Abhängigkeit von Parametern und freien Variablen. Es ist erforderlich, die wahrscheinlichsten Parameter zu finden:

Die Wahrscheinlichkeitsfunktion hängt von der Datenerzeugungshypothese ab und wird durch Bayes'sche Inferenz gegeben<#"justify">Methode der kleinsten Quadrate

Die Methode der kleinsten Quadrate ist eine Methode zum Finden der optimalen Parameter der linearen Regression, sodass die Summe der quadrierten Fehler (Regressionsreste) minimal ist. Das Verfahren besteht darin, den euklidischen Abstand zwischen zwei Vektoren zu minimieren - dem Vektor der wiederhergestellten Werte der abhängigen Variablen und dem Vektor der tatsächlichen Werte der abhängigen Variablen.

Die Aufgabe der Methode der kleinsten Quadrate besteht darin, einen Vektor zu wählen, um den Fehler zu minimieren. Dieser Fehler ist der Abstand von Vektor zu Vektor. Der Vektor liegt im Spaltenraum der Matrix, da es eine Linearkombination der Spalten dieser Matrix mit Koeffizienten gibt. Das Finden einer Lösung unter Verwendung der Methode der kleinsten Quadrate entspricht dem Problem, einen Punkt zu finden, der dem Spaltenraum der Matrix am nächsten liegt und sich darin befindet.

Somit muss der Vektor eine Projektion auf den Spaltenraum sein, und der Restvektor muss orthogonal zu diesem Raum sein. Orthogonalität ist, dass jeder Vektor im Spaltenraum eine lineare Kombination von Spalten mit einigen Koeffizienten ist, das heißt, es ist ein Vektor. Für alles im Raum müssen diese Vektoren senkrecht zum Residuum stehen:

Da diese Gleichheit also für einen beliebigen Vektor gelten muss

Die Lösung der kleinsten Quadrate eines inkonsistenten Systems, das aus Gleichungen mit Unbekannten besteht, ist die Gleichung

die als Normalgleichung bezeichnet wird. Wenn die Spalten einer Matrix linear unabhängig sind, dann ist die Matrix invertierbar und die einzige Lösung

Die Projektion eines Vektors auf den Spaltenraum einer Matrix hat die Form

Die Matrix wird als Projektionsmatrix des Vektors auf den Spaltenraum der Matrix bezeichnet. Diese Matrix hat zwei Haupteigenschaften: Sie ist idempotent und sie ist symmetrisch, . Auch die Umkehrung gilt: Eine Matrix mit diesen beiden Eigenschaften ist eine Projektionsmatrix auf ihren Spaltenraum.

Gegeben seien statistische Daten über den Parameter y in Abhängigkeit von x. Wir präsentieren diese Daten im Formular


xx1 X2 …..Xich…..Xnj *j 1*j 2*...... ja ich* …..y n *

Die Methode der kleinsten Quadrate lässt eine gegebene Art von Abhängigkeit y= zu ?(x) wähle seine numerischen Parameter so, dass die Kurve y= ?(x) zeigt die experimentellen Daten gemäß dem gegebenen Kriterium am besten an. Betrachten Sie die wahrscheinlichkeitstheoretische Begründung für die mathematische Definition der in ? (x).

Angenommen, die wahre Abhängigkeit von y von x wird exakt durch die Formel y= ausgedrückt ?(x). Die in Tabelle 2 dargestellten Versuchspunkte weichen aufgrund von Messfehlern von dieser Abhängigkeit ab. Die Messfehler gehorchen dem Normalgesetz nach dem Satz von Lyapunov. Betrachten Sie einen Wert des Arguments x ich . Das Ergebnis des Experiments ist eine Zufallsvariable y ich , verteilt nach dem Normalgesetz mit mathematischem Erwartungswert ?(x ich ) und mit Standardabweichung ?ich Charakterisierung des Messfehlers. Die Messgenauigkeit an allen Punkten x=(x 1, X 2, …, X n ) ist das gleiche, d.h. ?1=?2=…=?n =?. Dann gilt das Normalverteilungsgesetz Yi sieht aus wie:


Als Ergebnis einer Messreihe trat folgendes Ereignis auf: Zufallsvariablen (y 1*, ja 2*, …, yn *).


Beschreibung des ausgewählten Softwareprodukts


Mathcad - Computeralgebrasystem aus der Klasse der computergestützten Entwurfssysteme<#"justify">4. Praktischer Teil


Aufgabe der Studie ist es, Benzinpreise zu prognostizieren. Die ersten Informationen sind eine 36-wöchige Zeitreihe – von Mai 2012 bis Dezember 2012.

Statistikdaten (36 Wochen) werden in der Y-Matrix dargestellt. Als nächstes erstellen wir die H-Matrix, die benötigt wird, um den Vektor A zu finden.


Stellen wir die Ausgangsdaten und die anhand des Modells berechneten Werte vor:

Um die Qualität des Modells zu beurteilen, verwenden wir das Bestimmtheitsmaß.

Lassen Sie uns zuerst den Durchschnittswert von Xs finden:

Der regressionsbedingte Anteil der Varianz an der Gesamtvarianz des Indikators Y charakterisiert das Bestimmtheitsmaß R2.

Bestimmungskoeffizient, nimmt Werte von -1 bis +1 an. Je näher sein Wert des Modulo-Koeffizienten an 1 liegt, desto enger ist die Beziehung des effektiven Merkmals Y zu den untersuchten Faktoren X.

Der Wert des Bestimmtheitsmaßes dient als wichtiges Kriterium zur Beurteilung der Qualität von linearen und nichtlinearen Modellen. Je größer der Anteil der erklärten Variation ist, desto weniger spielen andere Faktoren eine Rolle, was bedeutet, dass das Regressionsmodell die Ausgangsdaten gut annähert und ein solches Regressionsmodell verwendet werden kann, um die Werte des effektiven Indikators vorherzusagen. Wir haben das Bestimmtheitsmaß R2 = 0,78 erhalten, daher erklärt die Regressionsgleichung 78 % der Varianz des effektiven Merkmals, und 22 % seiner Varianz (d. h. Restvarianz) fallen auf den Anteil anderer Faktoren.

Wir kommen daher zu dem Schluss, dass das Modell angemessen ist.

Anhand der gewonnenen Daten ist eine Prognose der Kraftstoffpreise für die 37. Woche des Jahres 2013 möglich. Die Formel für die Berechnung lautet wie folgt:

Die berechnete Prognose mit diesem Modell: Der Benzinpreis beträgt UAH 10.434.

Fazit


In diesem Papier haben wir die Möglichkeit aufgezeigt, eine Regressionsanalyse durchzuführen, um die Benzinpreise für zukünftige Perioden vorherzusagen. Ziel der Studienarbeit war die Vertiefung der Kenntnisse in der Lehrveranstaltung „Mathematische Methoden des Operations Research“ und der Erwerb von Fähigkeiten zur Entwicklung von Software, die es Ihnen ermöglicht, Operations Research in einem vorgegebenen Themengebiet zu automatisieren.

Die Prognose für den zukünftigen Benzinpreis ist natürlich nicht eindeutig, was auf die Besonderheiten der Ausgangsdaten und der entwickelten Modelle zurückzuführen ist. Aufgrund der erhaltenen Informationen ist jedoch davon auszugehen, dass die Benzinpreise in naher Zukunft natürlich nicht sinken, sondern höchstwahrscheinlich auf dem gleichen Niveau bleiben oder leicht steigen werden. Natürlich werden Faktoren im Zusammenhang mit Verbrauchererwartungen, Zollpolitik und vielen anderen Faktoren hier nicht berücksichtigt, aber ich möchte darauf hinweisen, dass dies weitgehend der Fall ist gegenseitig rückzahlbar . Und es wäre durchaus vernünftig zu bemerken, dass ein starker Anstieg der Benzinpreise im Moment wirklich äußerst zweifelhaft ist, was vor allem mit der von der Regierung verfolgten Politik zusammenhängt.

Referenzliste


1.Buyul A., Zöfel P. SPSS: Die Kunst der Informationsverarbeitung. Analyse statistischer Daten und Wiederherstellung verborgener Muster - St. Petersburg: OOO "DiaSoftUP", 2001. - 608 p.

2. Internetquellen http://www.ukrstat.gov.ua/

3. Internetressourcen http://index.minfin.com.ua/

Internetressourcen http://fx-commodities.ru/category/oil/


Unterrichten

Benötigen Sie Hilfe beim Erlernen eines Themas?

Unsere Experten beraten oder bieten Nachhilfe zu Themen an, die Sie interessieren.
Einen Antrag stellen gleich das Thema angeben, um sich über die Möglichkeit einer Beratung zu informieren.

Immer und in allen Bereichen seiner Tätigkeit hat ein Mensch Entscheidungen getroffen. Ein wichtiger Bereich der Entscheidungsfindung betrifft die Produktion. Je größer das Produktionsvolumen, desto schwieriger ist es, eine Entscheidung zu treffen, und daher ist es einfacher, einen Fehler zu machen. Eine natürliche Frage stellt sich: Ist es möglich, einen Computer zu verwenden, um solche Fehler zu vermeiden?

Die Antwort auf diese Frage gibt eine Wissenschaft namens Kybernetik. Kybernetik (abgeleitet vom griechischen „kybernetike“ – die Kunst des Managements) ist die Wissenschaft von den allgemeinen Gesetzen des Empfangens, Speicherns, Übermittelns und Verarbeitens von Informationen.

Das wichtigste Teilgebiet der Kybernetik ist die Wirtschaftskybernetik – die Wissenschaft, die sich mit der Anwendung von Ideen und Methoden der Kybernetik auf Wirtschaftssysteme befasst.

Die Wirtschaftskybernetik verwendet eine Reihe von Methoden zur Untersuchung von Managementprozessen in der Wirtschaft, darunter ökonomische und mathematische Methoden.

Gegenwärtig hat die Verwendung von Computern im Produktionsmanagement einen großen Umfang erreicht. In den meisten Fällen werden jedoch mit Hilfe von Computern sogenannte Routineaufgaben gelöst, dh Aufgaben im Zusammenhang mit der Verarbeitung verschiedener Daten, die vor dem Einsatz von Computern auf die gleiche Weise, jedoch manuell, gelöst wurden. Eine weitere Klasse von Problemen, die mit Hilfe von Computern gelöst werden können, sind Entscheidungsprobleme. Um einen Computer zur Entscheidungsfindung zu verwenden, ist es notwendig, ein mathematisches Modell zu erstellen. Ist es notwendig, Computer zu verwenden, um Entscheidungen zu treffen? Menschliche Fähigkeiten sind sehr vielfältig. Wenn Sie sie ordnen, ist der Mensch so eingerichtet, dass ihm das, was er besitzt, nicht ausreicht. Und der endlose Prozess der Steigerung seiner Fähigkeiten beginnt. Um mehr zu heben, erscheint eine der ersten Erfindungen - ein Hebel, um das Bewegen der Last zu erleichtern - das Rad. In diesen Werkzeugen wird vorerst nur die Energie des Menschen selbst verwendet. Im Laufe der Zeit beginnt die Nutzung externer Energiequellen: Schießpulver, Dampf, Strom, Atomenergie. Es ist unmöglich abzuschätzen, wie sehr die aus externen Quellen verbrauchte Energie die körperlichen Fähigkeiten eines Menschen heute übersteigt.

Was die geistigen Fähigkeiten eines Menschen betrifft, so ist, wie man sagt, jeder mit seinem Zustand unzufrieden, aber mit seinem Verstand zufrieden. Kann man einen Menschen klüger machen als er ist? Um diese Frage zu beantworten, sollte klargestellt werden, dass alle menschlichen intellektuellen Aktivitäten in formalisierbare und nicht-formalisierbare unterteilt werden können.

Formalisierbar ist eine Tätigkeit, die nach bestimmten Regeln ausgeführt wird. Beispielsweise kann die Ausführung von Berechnungen, Suchen in Verzeichnissen und grafische Arbeiten zweifellos einem Computer anvertraut werden. Und wie alles, was ein Computer kann, macht er es besser, also schneller und besser als ein Mensch.

Nicht formalisierbar ist eine solche Aktivität, die unter Anwendung einiger uns unbekannter Regeln auftritt. Denken, Argumentieren, Intuition, gesunder Menschenverstand – wir wissen immer noch nicht, was das ist, und all das kann man natürlich nicht einem Computer anvertrauen, schon weil wir einfach nicht wissen, was wir ihm anvertrauen, welche Aufgabe wir einem Computer stellen sollen.

Entscheidungsfindung ist eine Art geistige Aktivität.

Es ist allgemein anerkannt, dass die Entscheidungsfindung eine nicht formalisierte Aktivität ist. Dies ist jedoch nicht immer der Fall. Einerseits wissen wir nicht, wie wir eine Entscheidung treffen. Und einige Wörter mit Hilfe anderer zu erklären, wie "wir treffen eine Entscheidung mit Hilfe des gesunden Menschenverstandes", bringt nichts. Andererseits kann eine beträchtliche Anzahl von Entscheidungsaufgaben formalisiert werden. Eine der Arten von Entscheidungsfindungsproblemen, die formalisiert werden können, sind optimale Entscheidungsfindungsprobleme oder Optimierungsprobleme. Das Optimierungsproblem wird mit Hilfe mathematischer Modelle und dem Einsatz von Computertechnologie gelöst.

Moderne Computer erfüllen höchste Anforderungen. Sie können Millionen von Operationen pro Sekunde ausführen, sie können alle notwendigen Informationen in ihrem Gedächtnis haben, die Display-Tastatur-Kombination ermöglicht einen Dialog zwischen einer Person und einem Computer. Allerdings darf man Erfolge bei der Entwicklung von Computern nicht mit Fortschritten auf dem Gebiet ihrer Anwendung verwechseln. Tatsächlich ist alles, was ein Computer tun kann, gemäß einem Programm, das von einer Person gegeben wird, dafür zu sorgen, dass die anfänglichen Daten in ein Ergebnis umgewandelt werden. Es muss klar sein, dass der Computer keine Entscheidungen trifft und treffen kann. Die Entscheidung kann nur von einem Personenmanager getroffen werden, der dafür mit bestimmten Rechten ausgestattet ist. Aber für einen kompetenten Manager ist ein Computer ein großartiger Assistent, der in der Lage ist, eine Reihe verschiedener Lösungen zu entwickeln und anzubieten. Und aus dieser Menge wählt eine Person die Option, die aus ihrer Sicht besser geeignet ist. Natürlich lassen sich nicht alle Entscheidungsprobleme mit Hilfe eines Computers lösen. Doch auch wenn die Lösung eines Problems am Computer nicht mit vollem Erfolg endet, erweist sie sich dennoch als nützlich, da sie zu einem tieferen Verständnis dieses Problems und seiner konsequenteren Formulierung beiträgt.


Damit eine Person ohne Computer eine Entscheidung treffen kann, braucht es oft gar nichts. Ich dachte nach und entschied. Ein Mensch, ob gut oder schlecht, löst alle Probleme, die vor ihm auftauchen. Es stimmt, dass es in diesem Fall keine Garantien für die Richtigkeit gibt. Der Computer trifft keine Entscheidungen, sondern hilft nur, Lösungen zu finden. Dieser Prozess besteht aus den folgenden Schritten:

1) Auswahl einer Aufgabe.

Die Lösung eines Problems, insbesondere eines ziemlich komplexen, ist eine ziemlich schwierige Aufgabe, die viel Zeit erfordert. Und wenn die Aufgabe nicht erfolgreich gewählt wird, kann dies zu Zeitverlust und Enttäuschung bei der Verwendung von Computern zur Entscheidungsfindung führen. Welche Grundvoraussetzungen muss die Aufgabe erfüllen?

A. Es muss mindestens eine Lösung geben, denn wenn es keine Lösungen gibt, gibt es auch keine Auswahl.

B. Wir müssen genau wissen, in welchem ​​Sinne die gewünschte Lösung die beste sein soll, denn wenn wir nicht wissen, was wir wollen, kann uns der Computer nicht bei der Auswahl der besten Lösung helfen.

Die Auswahl der Aufgabenstellung wird durch deren inhaltliche Formulierung vervollständigt. Es ist notwendig, das Problem in gewöhnlicher Sprache klar zu formulieren, den Zweck der Studie hervorzuheben, die Grenzen aufzuzeigen und die Hauptfragen aufzuwerfen, die wir als Ergebnis der Lösung des Problems beantworten möchten.

Hier sollten wir die wichtigsten Merkmale des Wirtschaftsobjekts hervorheben, die wichtigsten Abhängigkeiten, die wir bei der Erstellung eines Modells berücksichtigen möchten. Es werden einige Hypothesen zur Entwicklung des Untersuchungsgegenstandes gebildet, die identifizierten Abhängigkeiten und Zusammenhänge untersucht. Bei der Auswahl einer Aufgabenstellung und deren sinnvoller Aussage muss man sich mit Spezialisten des Fachgebiets (Ingenieure, Technologen, Konstrukteure etc.) auseinandersetzen. Diese Spezialisten kennen sich in der Regel sehr gut mit ihrem Fachgebiet aus, haben aber nicht immer eine Vorstellung davon, was zur Lösung eines Problems am Computer erforderlich ist. Daher erweist sich die sinnvolle Formulierung des Problems oft als übersättigt mit Informationen, die für die Arbeit am Computer völlig unnötig sind.

2) Zusammenstellung des Modells

Unter einem wirtschaftsmathematischen Modell versteht man eine mathematische Beschreibung des untersuchten wirtschaftlichen Objekts oder Prozesses, in der ökonomische Muster in abstrakter Form durch mathematische Zusammenhänge ausgedrückt werden.

Die Grundprinzipien für die Erstellung eines Modells lassen sich auf die folgenden zwei Konzepte reduzieren:

1. Bei der Formulierung des Problems ist es notwendig, das simulierte Phänomen ziemlich breit abzudecken. Andernfalls wird das Modell kein globales Optimum liefern und nicht die Essenz der Sache widerspiegeln. Die Gefahr besteht darin, dass die Optimierung eines Teils auf Kosten anderer und zu Lasten der Gesamtorganisation gehen kann.

2. Das Modell sollte so einfach wie möglich sein. Das Modell muss so beschaffen sein, dass es bewertet, getestet und verstanden werden kann, und die aus dem Modell gewonnenen Ergebnisse müssen sowohl für seinen Ersteller als auch für den Entscheidungsträger klar sein. In der Praxis widersprechen sich diese Konzepte häufig, hauptsächlich weil bei der Datensammlung und -eingabe, der Fehlerprüfung und der Interpretation der Ergebnisse ein menschliches Element beteiligt ist, was die Größe des Modells begrenzt, das zufriedenstellend analysiert werden kann. Die Größe des Modells wird als begrenzender Faktor verwendet, und wenn wir die Abdeckungsbreite erhöhen wollen, müssen wir die Details verringern und umgekehrt.

Lassen Sie uns das Konzept der Modellhierarchie einführen, bei der die Breite der Abdeckung zunimmt und die Detailgenauigkeit abnimmt, wenn wir uns zu höheren Ebenen der Hierarchie bewegen. Auf höheren Ebenen wiederum werden Restriktionen und Ziele für niedrigere Ebenen gebildet.



Beim Aufbau eines Modells verlängert sich der Planungshorizont im Allgemeinen mit dem Wachstum der Hierarchie. Kann das langfristige Planungsmodell eines ganzen Konzerns wenige tagesaktuelle Details enthalten, so besteht das Produktionsplanungsmodell eines einzelnen Teilbereichs hauptsächlich aus solchen Details.

Bei der Formulierung einer Aufgabe sollten folgende drei Aspekte berücksichtigt werden:

1) Untersuchte Faktoren: Die Ziele der Studie sind ziemlich locker definiert und hängen stark davon ab, was im Modell enthalten ist. In dieser Hinsicht haben es Ingenieure einfacher, da die von ihnen untersuchten Faktoren normalerweise Standardfaktoren sind und die Zielfunktion in Form von maximalem Einkommen, minimalen Kosten oder möglicherweise minimalem Verbrauch einer Ressource ausgedrückt wird. Gleichzeitig setzen sich zum Beispiel Soziologen meist das Ziel „öffentlicher Nutzen“ oder ähnliches und befinden sich in der schwierigen Lage, verschiedenen Handlungen einen bestimmten „Nutzen“ mathematisch zuzuordnen .

2) Physische Grenzen: Die räumlichen Aspekte der Studie bedürfen einer detaillierten Betrachtung. Wenn die Produktion auf mehr als einen Punkt konzentriert ist, müssen die entsprechenden Verteilungsprozesse im Modell berücksichtigt werden. Diese Prozesse können Lagerhaltungs-, Transport- und Ausrüstungsplanungsaufgaben umfassen.

3) Zeitliche Grenzen: Die zeitlichen Aspekte der Studie führen zu einem ernsthaften Dilemma. Normalerweise ist der Planungshorizont bekannt, aber es muss eine Wahl getroffen werden: entweder das System dynamisch simulieren, um Zeitpläne zu erhalten, oder den statischen Betrieb zu einem bestimmten Zeitpunkt simulieren. Wird ein dynamischer (mehrstufiger) Prozess modelliert, so steigen die Dimensionen des Modells entsprechend der Anzahl der betrachteten Zeiträume (Stufen). Solche Modelle sind in der Regel konzeptionell einfach, sodass die Hauptschwierigkeit eher in der Fähigkeit liegt, ein Problem auf einem Computer in akzeptabler Zeit zu lösen, als in der Fähigkeit, eine große Menge an Ausgabedaten zu interpretieren. c Oft reicht es aus, ein Modell des Systems zu einem bestimmten Zeitpunkt zu erstellen, z. B. in einem festen Jahr, Monat, Tag, und die Berechnungen dann in bestimmten Abständen zu wiederholen. Im Allgemeinen wird die Verfügbarkeit von Ressourcen in einem dynamischen Modell oft angenähert und durch Faktoren außerhalb des Geltungsbereichs des Modells bestimmt. Daher muss sorgfältig analysiert werden, ob es wirklich notwendig ist, die Zeitabhängigkeit der Änderung der Eigenschaften des Modells zu kennen, oder ob das gleiche Ergebnis erhalten werden kann, indem die statischen Berechnungen für eine Reihe verschiedener fester Momente wiederholt werden.

In der Geschichte der Mathematik können üblicherweise zwei Hauptperioden unterschieden werden: die elementare und die moderne Mathematik. Der Meilenstein, von dem es üblich ist, die Ära der neuen (manchmal sagen sie - höheren) Mathematik zu zählen, war das 17. Jahrhundert - das Jahrhundert der Entstehung der mathematischen Analyse. Ende des 17. Jahrhunderts. I. Newton, G. Leibniz und ihre Vorgänger schufen den Apparat einer neuen Differentialrechnung und Integralrechnung, die die Grundlage der mathematischen Analyse und vielleicht sogar die mathematische Grundlage aller modernen Naturwissenschaften bilden.

Die mathematische Analyse ist ein weites Gebiet der Mathematik mit einem charakteristischen Untersuchungsgegenstand (einer Variablen), einer eigentümlichen Forschungsmethode (Analyse mittels Infinitesimalzahlen oder durch Grenzüberschreitung), einem bestimmten System von Grundbegriffen (Funktion, Grenzwert, Ableitung, Differential, Integral, Reihe) und ständig verbesserte und weiterentwickelte Apparate, die auf Differential- und Integralrechnung basieren.

Lassen Sie uns versuchen, eine Vorstellung davon zu geben, welche Art von mathematischer Revolution im 17. Jahrhundert stattgefunden hat, was den Übergang von der elementaren Mathematik, die mit der Geburt der mathematischen Analyse verbunden ist, zu derjenigen charakterisiert, die heute Gegenstand der Forschung in der mathematischen Analyse ist, und was seine grundlegende Rolle im gesamten modernen System des theoretischen und angewandten Wissens erklärt.

Stellen Sie sich vor, vor Ihnen liegt ein wunderschön ausgeführtes Farbfoto einer stürmischen Meereswelle, die an Land läuft: ein kräftig gebeugter Rücken, eine steile, aber leicht eingefallene Brust, bereits nach vorne geneigt und bereit, den Kopf mit einer vom Wind zerrissenen grauen Mähne fallen zu lassen. Sie haben den Moment angehalten, Sie haben es geschafft, die Welle zu fangen, und jetzt können Sie sie ohne Eile in all ihren Details sorgfältig studieren. Eine Welle kann gemessen werden, und mit den Mitteln der elementaren Mathematik werden Sie viele wichtige Schlussfolgerungen über diese Welle und damit alle ihre ozeanischen Schwestern ziehen. Aber indem Sie die Welle gestoppt haben, haben Sie ihr Bewegung und Leben genommen. Sein Ursprung, seine Entwicklung, sein Verlauf, die Wucht, mit der es ans Ufer stürzt – all dies ist Ihnen aus dem Blickfeld geraten, weil Sie weder eine Sprache noch einen mathematischen Apparat haben, der geeignet ist, nicht statisch zu beschreiben und zu studieren , sondern sich entwickelnde, dynamische Prozesse, Variablen und ihre Wechselbeziehungen.

"Die mathematische Analyse ist nicht weniger umfassend als die Natur selbst: Sie bestimmt alle greifbaren Zusammenhänge, misst Zeiten, Räume, Kräfte, Temperaturen." J. Fourier

Bewegung, Variablen und ihre Beziehungen sind überall um uns herum. Verschiedene Arten von Bewegung und ihre Gesetzmäßigkeiten bilden den Hauptgegenstand des Studiums bestimmter Wissenschaften: Physik, Geologie, Biologie, Soziologie usw. Daher erwiesen sich die genaue Sprache und geeignete mathematische Methoden zur Beschreibung und Untersuchung von Variablen als notwendig in allen Bereichen der Wissen etwa im gleichen Maße wie Zahlen und Rechnen sind notwendig, um quantitative Zusammenhänge zu beschreiben. Die mathematische Analyse ist also die Grundlage der Sprache und der mathematischen Methoden zur Beschreibung von Variablen und ihrer Beziehungen. Ohne mathematische Analyse ist es heute nicht nur unmöglich, Weltraumbahnen, den Betrieb von Kernreaktoren, das Laufen einer Meereswelle und die Muster der Zyklonentwicklung zu berechnen, sondern auch die Produktion, Ressourcenverteilung, Organisation technologischer Prozesse, den Ablauf chemischer Reaktionen oder Änderungen in der Anzahl verschiedener Arten, die in der Natur miteinander verbunden sind, vorhersagen, Tiere und Pflanzen, denn all dies sind dynamische Prozesse.

Elementare Mathematik war im Grunde die Mathematik der Konstanten, sie untersuchte hauptsächlich die Beziehungen zwischen den Elementen geometrischer Figuren, die arithmetischen Eigenschaften von Zahlen und algebraischen Gleichungen. Ihre Einstellung zur Realität ist gewissermaßen vergleichbar mit einem aufmerksamen, ja gründlichen und vollständigen Studium jedes fixierten Frames eines Films, der die sich verändernde, sich entwickelnde lebendige Welt in ihrer Bewegung festhält, die jedoch nicht auf einem separaten Frame sichtbar ist und die nur beobachtet werden kann, wenn man das Band als Ganzes betrachtet. Aber so wie das Kino ohne die Fotografie undenkbar ist, so ist die moderne Mathematik ohne den Teil davon, den wir bedingt als elementar bezeichnen, ohne die Ideen und Errungenschaften vieler hervorragender Wissenschaftler, die manchmal durch Dutzende von Jahrhunderten getrennt sind.

Die Mathematik ist eine, und ihr „höherer“ Teil ist mit dem „elementaren“ verbunden, ähnlich wie das nächste Stockwerk eines im Bau befindlichen Hauses mit dem vorherigen verbunden ist, und die Weite der Horizonte, die die Mathematik eröffnet uns in der Welt um uns herum hängt davon ab, welches Stockwerk dieses Gebäudes wir erreicht haben. Geboren im 17. Jahrhundert Die mathematische Analyse eröffnete Möglichkeiten zur wissenschaftlichen Beschreibung, quantitativen und qualitativen Untersuchung von Variablen und Bewegung im weitesten Sinne des Wortes.

Was sind die Voraussetzungen für die Entstehung der mathematischen Analyse?

Ende des 17. Jahrhunderts. folgende Situation ist eingetreten. Erstens haben sich im Rahmen der Mathematik selbst im Laufe der Jahre bestimmte wichtige Klassen von Problemen derselben Art angesammelt (z. B. Probleme beim Messen der Flächen und Volumina von nicht standardisierten Figuren, Probleme beim Zeichnen von Tangenten an Kurven) und Methoden sind zu deren Lösung in verschiedenen Spezialfällen erschienen. Zweitens stellte sich heraus, dass diese Probleme eng mit den Problemen der Beschreibung einer beliebigen (nicht notwendigerweise gleichförmigen) mechanischen Bewegung und insbesondere mit der Berechnung ihrer momentanen Eigenschaften (Geschwindigkeit, Beschleunigung zu jedem Zeitpunkt) sowie mit dem Auffinden zusammenhängen die Distanz, die für die Bewegung bei einer gegebenen variablen Geschwindigkeit zurückgelegt wird. Die Lösung dieser Probleme war für die Entwicklung von Physik, Astronomie und Technik notwendig.

Drittens schließlich bis zur Mitte des 17. Jahrhunderts. die Arbeiten von R. Descartes und P. Fermat legten die Grundlagen der analytischen Methode der Koordinaten (der sogenannten analytischen Geometrie), die es ermöglichte, geometrische und physikalische Probleme heterogenen Ursprungs in der allgemeinen (analytischen) Zahlensprache zu formulieren und numerische Abhängigkeiten oder, wie wir jetzt sagen, numerische Funktionen.

NIKOLAI NIKOLAEVICH LUZIN
(1883-1950)

N. N. Luzin - Sowjetischer Mathematiker, Gründer der Sowjetischen Schule der Funktionstheorie, Akademiker (1929).

Luzin wurde in Tomsk geboren, studierte am Tomsker Gymnasium. Der Formalismus des Gymnasiums in Mathematik entfremdete den talentierten jungen Mann, und nur ein fähiger Lehrer konnte ihm die Schönheit und Größe der mathematischen Wissenschaft offenbaren.

1901 trat Luzin in die mathematische Abteilung der Fakultät für Physik und Mathematik der Moskauer Universität ein. Von den ersten Studienjahren an fielen Fragen der Unendlichkeit in seinen Interessenkreis. Ende des 19. Jahrhunderts. Der deutsche Wissenschaftler G. Kantor schuf die allgemeine Theorie der unendlichen Mengen, die zahlreiche Anwendungen bei der Untersuchung von unstetigen Funktionen erhalten hat. Luzin begann, diese Theorie zu studieren, aber sein Studium wurde 1905 unterbrochen. Der Student, der an revolutionären Aktivitäten teilnahm, musste für eine Weile nach Frankreich gehen. Dort hörte er Vorlesungen der prominentesten französischen Mathematiker jener Zeit. Nach seiner Rückkehr nach Russland absolvierte Luzin die Universität und musste sich auf eine Professur vorbereiten. Bald ging er wieder nach Paris und dann nach Göttingen, wo er vielen Wissenschaftlern nahe kam und seine ersten wissenschaftlichen Arbeiten verfasste. Das Hauptproblem, das den Wissenschaftler interessierte, war die Frage, ob es Mengen geben kann, die mehr Elemente enthalten als die Menge der natürlichen Zahlen, aber weniger als die Menge der Punkte der Strecke (das Kontinuumsproblem).

Für jede unendliche Menge, die aus Segmenten unter Verwendung der Vereinigungs- und Schnittoperationen von zählbaren Sammlungen von Mengen erhalten werden konnte, war diese Hypothese wahr, und um das Problem zu lösen, war es notwendig, herauszufinden, welche anderen Möglichkeiten zur Konstruktion von Mengen es gab. Gleichzeitig beschäftigte sich Luzin mit der Frage, ob es möglich ist, jede periodische Funktion, auch wenn sie unendlich viele Unstetigkeitspunkte hat, als Summe einer trigonometrischen Reihe darzustellen, d.h. Summen einer unendlichen Menge harmonischer Schwingungen. Luzin erzielte zu diesen Fragen eine Reihe bedeutender Ergebnisse und verteidigte 1915 seine Dissertation „Das Integral und die trigonometrische Reihe“, für die er unter Umgehung des damals bestehenden Zwischenmasters sofort den Grad eines Doktors der reinen Mathematik erhielt .

1917 wurde Luzin Professor an der Moskauer Universität. Als talentierter Lehrer zog er die fähigsten Studenten und jungen Mathematiker an. Luzins Schule erreichte ihre Blütezeit in den ersten postrevolutionären Jahren. Luzins Schüler bildeten ein kreatives Team, das scherzhaft „Luzitania“ genannt wurde. Viele von ihnen haben während ihrer Studienzeit erstklassige wissenschaftliche Ergebnisse erzielt. Zum Beispiel entdeckten P. S. Aleksandrov und M. Ya. Suslin (1894-1919) eine neue Methode zur Konstruktion von Mengen, die die Entwicklung einer neuen Richtung einleitete - der deskriptiven Mengenlehre. Forschungen auf diesem Gebiet, die von Luzin und seinen Studenten durchgeführt wurden, zeigten, dass die üblichen Methoden der Mengenlehre nicht ausreichen, um viele der darin auftretenden Probleme zu lösen. Luzins wissenschaftliche Vorhersagen wurden in den 1960er Jahren vollständig bestätigt. 20. Jahrhundert Viele Schüler von N. N. Luzin wurden später Akademiker und korrespondierende Mitglieder der Akademie der Wissenschaften der UdSSR. Unter ihnen P. S. Aleksandrov. A. N. Kolmogorow. M. A. Lavrentiev, L. A. Lyusternik, D. E. Menshov, P. S. Novikov. L. G. Shnirelman und andere.

Moderne sowjetische und ausländische Mathematiker entwickeln in ihren Arbeiten die Ideen von N. N. Luzin.

Die Kombination dieser Umstände führte dazu, dass am Ende des 17. Jahrhunderts. zwei Wissenschaftlern - I. Newton und G. Leibniz - gelang es unabhängig voneinander, einen mathematischen Apparat zur Lösung dieser Probleme zu schaffen, indem sie einzelne Ergebnisse ihrer Vorgänger zusammenfassten und verallgemeinerten, darunter der antike Wissenschaftler Archimedes und Zeitgenossen von Newton und Leibniz - B. Cavalieri, B Pascal, D. Gregory, I. Barrow. Dieser Apparat bildete die Grundlage der mathematischen Analyse - einem neuen Zweig der Mathematik, der verschiedene Entwicklungsprozesse untersucht, d.h. Zusammenhänge von Variablen, die in der Mathematik funktionale Abhängigkeiten oder anders gesagt Funktionen genannt werden. Der Begriff „Funktion“ selbst wurde übrigens gerade im 17. Jahrhundert gebraucht und entstand natürlicherweise und hat mittlerweile nicht nur eine allgemein mathematische, sondern auch eine allgemein naturwissenschaftliche Bedeutung erlangt.

Erste Informationen zu den Grundbegriffen und dem mathematischen Analyseapparat werden in den Artikeln „Differentialrechnung“ und „Integralrechnung“ gegeben.

Abschließend möchte ich nur auf ein der Mathematik gemeinsames und für die Analysis charakteristisches Prinzip der mathematischen Abstraktion eingehen und in diesem Zusammenhang erläutern, in welcher Form die mathematische Analysis Variablen untersucht und was das Geheimnis dieser Universalität ihrer Methoden ist zum Studium aller Arten spezifischer Entwicklungsprozesse und ihrer Wechselbeziehungen.

Schauen wir uns einige erklärende Beispiele und Analogien an.

Wir erkennen manchmal nicht mehr, dass zum Beispiel eine mathematische Kennzahl, nicht für Äpfel, Stühle oder Elefanten geschrieben, sondern in abstrakter Form, abstrahiert von bestimmten Objekten, eine herausragende wissenschaftliche Leistung ist. Dies ist ein mathematisches Gesetz, das erfahrungsgemäß auf verschiedene konkrete Objekte anwendbar ist. Wenn wir also in der Mathematik die allgemeinen Eigenschaften abstrakter, abstrakter Zahlen studieren, studieren wir damit die quantitativen Beziehungen der realen Welt.

Aus einem Schulmathematikkurs ist zum Beispiel bekannt, dass man deshalb in einer konkreten Situation sagen könnte: „Wenn mir nicht zwei Sechs-Tonnen-Muldenkipper für den Transport von 12 Tonnen Erde zugeteilt werden, dann können Sie anfordern drei Vier-Tonnen-Muldenkipper und die Arbeit ist erledigt, und wenn sie nur einen Vier-Tonnen-Muldenkipper geben, muss sie drei Flüge machen. So werden die uns heute vertrauten abstrakten Zahlen und Zahlengesetzmäßigkeiten mit ihren konkreten Erscheinungsformen und Anwendungen verbunden.

Ungefähr ebenso sind die Veränderungsgesetze konkreter veränderlicher Größen und sich entwickelnder Naturvorgänge mit der abstrakten, abstrakten Formfunktion verbunden, in der sie auftreten und in der mathematischen Analyse untersucht werden.

Beispielsweise kann ein abstraktes Verhältnis die Abhängigkeit der Kinokasse von der Anzahl der verkauften Tickets widerspiegeln, wenn 20 20 Kopeken sind - der Preis für eine Eintrittskarte. Aber wenn wir mit 20 km/h auf einer Autobahn radeln, dann lässt sich das gleiche Verhältnis interpretieren als das Verhältnis der Zeit (Stunden) unserer Radtour und der in dieser Zeit zurückgelegten Strecke (Kilometer), das kann man ja immer argumentieren , zum Beispiel führt eine Änderung um mehrere Male zu einer proportionalen (d. h. um die gleiche Anzahl von Malen) Änderung des Werts von , und wenn , dann gilt auch der umgekehrte Schluss. Also insbesondere um die Kasseneinnahmen eines Kinos zu verdoppeln, muss man doppelt so viele Zuschauer anziehen, und um mit dem Fahrrad doppelt so weit zu fahren, muss man doppelt so lange fahren.

Die Mathematik untersucht sowohl die einfachste Abhängigkeit als auch andere, viel komplexere Abhängigkeiten in einer abstrakten, allgemeinen, abstrakten Form, die von privater Interpretation abstrahiert ist. Die in einer solchen Studie identifizierten Eigenschaften einer Funktion oder Methoden zur Untersuchung dieser Eigenschaften werden in der Natur allgemeiner mathematischer Techniken, Schlussfolgerungen, Gesetze und Schlussfolgerungen sein, die auf jedes spezifische Phänomen anwendbar sind, in dem die in abstrakter Form untersuchte Funktion auftritt, unabhängig davon, welche Wissensgebiet, zu dem dieses Phänomen gehört.

So nahm Ende des 17. Jahrhunderts die mathematische Analyse als Zweig der Mathematik Gestalt an. Der Untersuchungsgegenstand in der mathematischen Analyse (wie es aus modernen Positionen hervorgeht) sind Funktionen oder, mit anderen Worten, Abhängigkeiten zwischen Variablen.

Mit dem Aufkommen der mathematischen Analyse wurde es der Mathematik möglich, die sich entwickelnden Prozesse der realen Welt zu studieren und zu reflektieren; Variablen und Bewegung gingen in die Mathematik ein.

Mathematische Methoden werden am häufigsten bei der Durchführung systematischer Forschung eingesetzt. Gleichzeitig erfolgt die Lösung praktischer Probleme durch mathematische Methoden sequentiell nach folgendem Algorithmus:

    mathematische Formulierung des Problems (Entwicklung eines mathematischen Modells);

    Wahl der Forschungsmethode für das erhaltene mathematische Modell;

    Analyse des erhaltenen mathematischen Ergebnisses.

Mathematische Formulierung des Problems normalerweise dargestellt als Zahlen, geometrische Bilder, Funktionen, Gleichungssysteme usw. Die Beschreibung eines Objekts (Phänomens) kann durch kontinuierliche oder diskrete, deterministische oder stochastische und andere mathematische Formen dargestellt werden.

Mathematisches Modell ist ein System mathematischer Beziehungen (Formeln, Funktionen, Gleichungen, Gleichungssysteme), die bestimmte Aspekte des untersuchten Objekts, Phänomens, Prozesses oder des Objekts (Prozesses) als Ganzes beschreiben.

Die erste Stufe der mathematischen Modellierung ist die Formulierung des Problems, die Definition des Objekts und der Ziele der Studie, die Festlegung von Kriterien (Merkmale) für die Untersuchung von Objekten und deren Verwaltung. Eine falsche oder unvollständige Problemstellung kann die Ergebnisse aller nachfolgenden Schritte zunichte machen.

Das Modell ist das Ergebnis eines Kompromisses zwischen zwei gegensätzlichen Zielen:

    das Modell sollte detailliert sein, alle wirklich existierenden Verbindungen und die Faktoren und Parameter berücksichtigen, die an seiner Arbeit beteiligt sind;

    Gleichzeitig muss das Modell einfach genug sein, damit akzeptable Lösungen oder Ergebnisse in einem akzeptablen Zeitrahmen unter bestimmten Ressourcenbeschränkungen erhalten werden können.

Modellierung kann als ungefähre wissenschaftliche Forschung bezeichnet werden. Und der Grad seiner Genauigkeit hängt vom Forscher, seiner Erfahrung, seinen Zielen und seinen Ressourcen ab.

Die bei der Entwicklung des Modells getroffenen Annahmen sind eine Folge der Ziele der Modellierung und der Fähigkeiten (Ressourcen) des Forschers. Sie werden durch die Anforderungen an die Genauigkeit der Ergebnisse bestimmt und sind wie das Modell selbst das Ergebnis eines Kompromisses. Schließlich sind es die Annahmen, die ein Modell desselben Prozesses von einem anderen unterscheiden.

Normalerweise werden bei der Entwicklung eines Modells unbedeutende Faktoren verworfen (nicht berücksichtigt). Konstanten in physikalischen Gleichungen werden als konstant angenommen. Manchmal werden einige Größen, die sich im Prozess ändern, gemittelt (z. B. kann die Lufttemperatur über einen bestimmten Zeitraum als unverändert betrachtet werden).

    1. Modellentwicklungsprozess

Dies ist ein Prozess der konsequenten (und möglicherweise wiederholten) Schematisierung oder Idealisierung des untersuchten Phänomens.

Die Angemessenheit eines Modells ist seine Übereinstimmung mit dem realen physikalischen Prozess (oder Objekt), den es darstellt.

Um ein Modell eines physikalischen Prozesses zu entwickeln, muss Folgendes bestimmt werden:

Manchmal wird ein Ansatz verwendet, wenn ein Modell mit geringer Vollständigkeit, das probabilistischer Natur ist, angewendet wird. Dann wird es mit Hilfe eines Computers analysiert und verfeinert.

Modell Bestätigung beginnt und verläuft im eigentlichen Prozess seiner Konstruktion, wenn die eine oder andere Beziehung zwischen seinen Parametern ausgewählt oder hergestellt wird, werden die akzeptierten Annahmen bewertet. Nach der Bildung des Modells als Ganzes ist es jedoch notwendig, es von einigen allgemeinen Standpunkten aus zu analysieren.

Die mathematische Grundlage des Modells (d. h. die mathematische Beschreibung physikalischer Zusammenhänge) muss aus mathematischer Sicht genau konsistent sein: Funktionale Abhängigkeiten müssen die gleichen Trends haben wie reale Prozesse; Gleichungen müssen einen Existenzbereich haben, der nicht kleiner ist als der Bereich, in dem die Studie durchgeführt wird; Sie sollten keine besonderen Punkte oder Lücken haben, wenn sie nicht im realen Prozess enthalten sind usw. Die Gleichungen sollten die Logik des realen Prozesses nicht verzerren.

Das Modell soll die Realität adäquat, d.h. möglichst genau wiedergeben. Angemessenheit wird nicht allgemein, sondern im betrachteten Bereich benötigt.

Abweichungen zwischen den Ergebnissen der Analyse des Modells und dem tatsächlichen Verhalten des Objekts sind unvermeidlich, da das Modell ein Spiegelbild ist und nicht das Objekt selbst.

Auf Abb. 3. Es wird eine verallgemeinerte Darstellung vorgestellt, die bei der Konstruktion mathematischer Modelle verwendet wird.

Reis. 3. Vorrichtung zum Erstellen mathematischer Modelle

Bei der Verwendung statischer Methoden werden am häufigsten der Apparat der Algebra und Differentialgleichungen mit zeitunabhängigen Argumenten verwendet.

Dynamische Methoden verwenden Differentialgleichungen auf die gleiche Weise; Integralgleichungen; partielle Differentialgleichungen; Theorie der automatischen Steuerung; Algebra.

Probabilistische Methoden verwenden: Wahrscheinlichkeitstheorie; Informationstheorie; Algebra; Theorie zufälliger Prozesse; Theorie der Markov-Prozesse; Automatentheorie; Differentialgleichung.

Einen wichtigen Platz in der Modellierung nimmt die Frage nach der Ähnlichkeit zwischen Modell und realem Objekt ein. Quantitative Übereinstimmungen zwischen den einzelnen Aspekten der in einem realen Objekt ablaufenden Prozesse und seinem Modell werden durch Skalen charakterisiert.

Allgemein wird die Ähnlichkeit von Prozessen in Objekten und Modellen durch Ähnlichkeitskriterien charakterisiert. Das Ähnlichkeitskriterium ist ein dimensionsloser Parametersatz, der einen gegebenen Prozess charakterisiert. Bei der Durchführung von Recherchen werden je nach Forschungsgebiet unterschiedliche Kriterien herangezogen. In der Hydraulik ist ein solches Kriterium beispielsweise die Reynolds-Zahl (charakterisiert die Fließfähigkeit einer Flüssigkeit), in der Wärmetechnik die Nusselt-Zahl (charakterisiert die Bedingungen der Wärmeübertragung), in der Mechanik das Newton-Kriterium usw.

Es wird angenommen, dass das Modell korrekt ist, wenn solche Kriterien für das Modell und das untersuchte Objekt gleich sind.

An die Ähnlichkeitstheorie schließt sich eine weitere Methode der theoretischen Forschung an - dimensionale Analysemethode, die auf zwei Annahmen beruht:

    physikalische Gesetze werden nur durch Produkte von Graden physikalischer Größen ausgedrückt, die positiv, negativ, ganzzahlig und gebrochen sein können; die Dimensionen beider Teile der Gleichheit, die die physikalische Dimension ausdrückt, müssen gleich sein.