Die Anfangsphase der statistischen Forschung ist. Statistische Betrachtung: Begriff, Grundformen

Die Aufbereitung der erhobenen Primärdaten, einschließlich ihrer Gruppierung, Verallgemeinerung und tabellarischen Darstellung, bildet die zweite Stufe der statistischen Untersuchung, die sog Zusammenfassung.

Es gibt 3 Hauptformen der Darstellung verarbeiteter statistischer Daten: textuell, tabellarisch und grafisch.

In der dritten Phase der statistischen Studie, basierend auf den endgültigen zusammenfassenden Daten, wissenschaftliche Analyse der untersuchten Phänomene: verschiedene verallgemeinernde Indikatoren werden in Form von Durchschnitts- und Relativwerten berechnet, bestimmte Muster in den Verteilungen, der Dynamik von Indikatoren usw. identifiziert. Basierend auf den identifizierten Mustern werden Prognosen für die Zukunft erstellt.

Die statistische Beobachtung ist die erste Stufe der statistischen Forschung. Fast immer, natürlich gemäß den Zielen und Zwecken der Studie, beginnt die Arbeit mit der Berücksichtigung der Fakten und dem Sammeln von Primärmaterial. Primärmaterial ist die Grundlage der statistischen Forschung. Der Erfolg der gesamten Studie hängt von der Qualität der statistischen Beobachtung ab. Sie sollte so organisiert sein, dass als Ergebnis objektive und genaue Daten über das untersuchte Phänomen gewonnen werden. Unvollständige, ungenaue Daten, die den Prozess nicht gut genug charakterisieren, umso mehr verfälschen, führen zu Fehlern. Und die auf einer solchen Grundlage durchgeführte Analyse wird fehlerhaft sein. Daraus folgt, dass die Bilanzierung von Fakten und die Erhebung von Primärmaterial sorgfältig durchdacht und organisiert werden müssen.

Es sei noch einmal darauf hingewiesen, dass statistische Beobachtungen immer massiv sind. Das Gesetz der großen Zahl tritt in Kraft – je größer die Bevölkerung, desto objektiver die Ergebnisse.

Die statistische Beobachtung kann in drei Phasen unterteilt werden: 1. Vorbereitung der Beobachtung. Dies ist die Formulierung des Überwachungsprogramms, die Definition von Indikatoren, gruppiert in Layouts der endgültigen statistischen Tabellen.

Die Fragestellungen, die den Inhalt des Programms ausmachen, sollten sich aus dem Zweck der Studie bzw. der Hypothese ergeben, die die Studie bestätigen soll. Ein wichtiges Element sind die Layouts der endgültigen statistischen Tabellen. Sie sind das Projekt für die Entwicklung der Beobachtungsergebnisse, und nur wenn sie verfügbar sind, ist es möglich, alle Themen zu identifizieren, die in das Programm aufgenommen werden müssen, und die Einbeziehung unnötiger Informationen zu vermeiden.

2. Direkte Sammlung von Material. Dies ist der zeitaufwändigste Teil der Recherche. Die statistische Berichterstattung als besondere Form der Organisation der Datenerhebung ist nur der Landesstatistik inhärent. Alle anderen Informationen werden durch eine Vielzahl von statischen Tools gesammelt. Es ist notwendig, auf zwei Hauptanforderungen an die gesammelten Daten hinzuweisen: Zuverlässigkeit und Vergleichbarkeit. Und was sehr wünschenswert ist (unter Marktbedingungen steigt es um ein Vielfaches) ist Aktualität.



3. Kontrolle des Materials vor seiner Analyse. So sorgfältig die Beobachtungswerkzeuge zusammengestellt, die Ausführenden instruiert, das Beobachtungsmaterial immer kontrolliert werden muss. Dies liegt an der massiven Natur statistischer Arbeit und der Komplexität ihres Inhalts.

Der Gegenstand jeder statistischen Studie ist eine Reihe von Einheiten des untersuchten Phänomens. Das Objekt kann die Bevölkerung bei der Volkszählung, Unternehmen, Städte, Firmenpersonal usw. sein. Mit einem Wort, das Objekt der Beobachtung ist die untersuchte statistische Grundgesamtheit. Es ist sehr wichtig, die Grenzen der untersuchten Population zu definieren, die die untersuchte Population klar definieren. Wenn das Ziel beispielsweise darin besteht, die Aktivitäten kleiner Unternehmen in der Region zu untersuchen, sollte festgelegt werden, zu welcher Eigentumsform sie gehören (staatlich, privat, gemeinsam usw.), nach welchen Kriterien Unternehmen ausgewählt werden: Branchenspezifika, Umsatzvolumen, Zeit ab dem Zeitpunkt der Registrierung, Status (aktiv, inaktiv, vorübergehend inaktiv) usw. Das Set muss homogen sein, sonst entstehen zusätzliche Schwierigkeiten im Analyseprozess und Fehler sind fast immer unvermeidlich.

Neben der Definition des Betrachtungsgegenstandes und der Grenzen ist es wichtig, die Einheit der Grundgesamtheit und die Betrachtungseinheit zu bestimmen. Eine Bevölkerungseinheit ist ein einzelnes konstituierendes Element einer statistischen Grundgesamtheit. Die Beobachtungseinheit ist das Phänomen, der Gegenstand, dessen Zeichen der Registrierung unterliegen. Die Menge der Beobachtungseinheiten bildet das Beobachtungsobjekt. Ziel ist es beispielsweise, den Einfluss verschiedener Faktoren auf die Produktivität der Arbeiter in den Minen von Ispat-Karmet OJSC zu untersuchen. In diesem Fall - die Bevölkerung wird durch das Ziel selbst definiert - die Bergleute, die in den Minen "Ispat-Karmet" arbeiten, ist die Einheit der Bevölkerung der Bergmann als Informationsträger und die Beobachtungseinheit das Bergwerk. Kurz gesagt: Die Einheit der Bevölkerung ist das, was untersucht wird, die Einheit der Beobachtung ist die Informationsquelle.
Um eine statistische Beobachtung durchzuführen, ist es notwendig, Daten auf einer bestimmten Grundlage zu sammeln, nämlich: eine statistische Grundgesamtheit zu benennen, die aus materiell vorhandenen Objekten, einer Einheit und dem Zweck einer einmaligen Erhebung eines Objekts besteht, und zu erstellen a Programm der statistischen Beobachtung.



In der ersten Phase, a Probe gesammelten Daten nach den angegebenen Merkmalen werden die Daten aufsteigend sortiert. Anschließend sollte eine Häufigkeitsverteilungstabelle erstellt werden, bei der die entsprechenden Spalten der Tabelle sequenziell ausgefüllt werden.

In der zweiten Stufe ist es zur Verarbeitung der gesammelten Primärdaten erforderlich, die ausgewählten Elemente nach einem bestimmten Attribut zu gruppieren und zu verallgemeinern, um die numerischen Merkmale der Stichprobe zu bestimmen. Diese Phase der statistischen Forschung wird aufgerufen Zusammenfassung. Zusammenfassung - wissenschaftliche Verarbeitung von Primärdaten, um verallgemeinerte Merkmale des untersuchten Phänomens gemäß einer Reihe von dafür wesentlichen Merkmalen zu erhalten, d.h. Primärmaterialien werden zusammengeführt, bilden statistische Aggregate, die durch endgültige absolute Generalisierungsindikatoren gekennzeichnet sind. In der zusammenfassenden Phase bewegen wir uns von der Charakterisierung individuell unterschiedlicher Merkmale der Bevölkerungseinheiten zur Charakterisierung der gesamten Bevölkerung als Ganzes oder zur Charakterisierung ihrer allgemeinen Manifestation in der Masse.

Sollte gefunden werden Umfang nach der formel:

R=x(max) - x(min);

Mode M(0), das den am häufigsten vorkommenden Wert anzeigt, Median M(e), das den Mittelwert charakterisiert (es übersteigt nicht die Hälfte der Mitglieder der Reihe), entspricht der Variante in der Mitte der Reihe von Variationen. Die Position des Medians wird durch seine Zahl bestimmt: Nme \u003d (n + 1) / 2, wobei n die Anzahl der Einheiten in der Bevölkerung ist und arithmetisches Mittel für die angegebene Gruppe, die nach folgender Formel berechnet wird:

Die Ergebnisse der Arbeit können grafisch in Form eines Histogramms und eines Häufigkeitsverteilungspolygons dargestellt werden.

Die erhaltenen Daten spiegeln das Allgemeine wider, das allen Einheiten der untersuchten Bevölkerung innewohnt. Als Ergebnis der statistischen Beobachtung sollten objektive, vergleichbare und vollständige Informationen gewonnen werden, die es ermöglichen, in späteren Phasen der Studie evidenzbasierte Schlussfolgerungen über die Art und die Entwicklungsmuster des untersuchten Phänomens zu ziehen.

Praktische Aufgabe

Führen Sie eine statistische Studie durch, um die Informationen herauszufinden Über Wachstum 2 5 zufällig ausgewählte Studenten der Polytechnischen Universität Tomsk.

Erstellen Sie eine Häufigkeitsverteilungstabelle, finden Sie den Bereich, den Modus, den Median und das arithmetische Mittel der Körpergröße (in cm) für die angegebenen jungen Männer.

2.1 Schema zur Durchführung einer statistischen Studie

Statistische Datenanalysesysteme sind ein modernes und effektives Werkzeug für die statistische Forschung. Breite Möglichkeiten zur Verarbeitung statistischer Daten haben spezielle Systeme der statistischen Analyse sowie universelle Tools - Excel, Matlab, Mathcad usw.

Aber selbst das perfekteste Werkzeug kann den Forscher nicht ersetzen, der den Zweck der Studie formulieren, Daten sammeln, Methoden, Ansätze, Modelle und Werkzeuge für die Datenverarbeitung und -analyse auswählen und die Ergebnisse interpretieren muss.

Abbildung 2.1 zeigt das Schema zur Durchführung einer statistischen Studie.

Abb.2.1 - Schematische Darstellung einer statistischen Studie

Ausgangspunkt der statistischen Forschung ist die Problemstellung. Bei der Bestimmung wird der Zweck der Studie berücksichtigt, es wird festgelegt, welche Informationen benötigt werden und wie sie bei der Entscheidungsfindung verwendet werden.

Die statistische Studie selbst beginnt mit einer Vorbereitungsphase. In der Vorbereitungsphase studieren Analysten technische Aufgabe- ein vom Auftraggeber der Studie erstelltes Dokument. Die Aufgabenstellung sollte die Ziele der Studie klar benennen:

    der Studiengegenstand ist definiert;

    listet die Annahmen und Hypothesen auf, die während der Studie bestätigt oder widerlegt werden müssen;

    beschreibt, wie die Ergebnisse der Studie verwendet werden;

    den Zeitrahmen, in dem die Studie durchgeführt werden soll, und das Budget für die Studie.

Basierend auf der Aufgabenstellung, a Analytischer Berichtsaufbau- dann, in irgendeiner Form die Ergebnisse der Forschung sollten präsentiert werden, sowie Statistisches Beobachtungsprogramm. Das Programm ist eine Liste von Zeichen, die während des Beobachtungsprozesses aufgezeichnet werden sollen (oder Fragen, auf die zuverlässige Antworten für jede erfasste Beobachtungseinheit eingeholt werden müssen). Der Inhalt des Programms wird sowohl durch die Eigenschaften des beobachteten Objekts und die Ziele der Studie als auch durch die von den Analytikern gewählten Methoden zur Weiterverarbeitung der gesammelten Informationen bestimmt.

Die Hauptphase der statistischen Forschung umfasst die Erhebung der erforderlichen Daten und deren Analyse.

Die letzte Phase der Studie ist die Erstellung eines Analyseberichts und dessen Bereitstellung für den Kunden.

Auf Abb. 2.2 ist ein Diagramm der statistischen Datenanalyse.

Abb.2.2 - Die Hauptphasen der statistischen Analyse

2.2 Sammlung statistischer Informationen

Die Materialsammlung umfasst die Analyse der Aufgabenstellung der Studie, die Identifizierung von Quellen für notwendige Informationen und (falls erforderlich) die Entwicklung von Fragebögen. Bei der Untersuchung von Informationsquellen werden alle erforderlichen Daten unterteilt primär(Daten nicht verfügbar und direkt für diese Studie zu erheben), und sekundär(zuvor für andere Zwecke erhoben).

Die Erhebung von Sekundärdaten wird oft als „Schreibtisch“- oder „Bibliotheks“-Recherche bezeichnet.

Beispiele für die Primärdatenerhebung: Beobachtungen von Ladenbesuchern, Befragungen von Krankenhauspatienten, Besprechung eines Problems bei einem Meeting.

Sekundärdaten werden in interne und externe unterteilt.

Beispiele für interne sekundäre Datenquellen:

    Informationssystem der Organisation (einschließlich des Buchhaltungs-Subsystems, des Vertriebsmanagement-Subsystems, CRM (CRM-System, kurz für Customer Relationship Management) - Anwendungssoftware für Organisationen zur Automatisierung von Strategien für die Interaktion mit Kunden) und andere);

    vorherige Studien;

    schriftliche Berichte von Mitarbeitern.

Beispiele für externe sekundäre Datenquellen:

    Berichte statistischer Ämter und anderer staatlicher Institutionen;

    Berichte von Marketingagenturen, Berufsverbänden usw.;

    elektronische Datenbanken (Adressverzeichnisse, GIS etc.);

    Bibliotheken;

    Medien.

Die wichtigsten Ergebnisse der Datenerhebungsphase sind:

    geplante Stichprobengröße;

    Stichprobenstruktur (Vorhandensein und Größe von Quoten);

    Art der statistischen Beobachtung (Erhebung, Befragung, Messung, Experiment, Untersuchung etc.);

    Informationen über die Parameter der Umfrage (z. B. die Möglichkeit der Fälschung von Fragebögen);

    Codierungsschema für Variablen in der Datenbank des zur Verarbeitung ausgewählten Programms;

    Planschema der Datentransformation;

    Planschema der verwendeten statistischen Verfahren.

Zu dieser Phase gehört auch das eigentliche Befragungsverfahren. Natürlich werden Fragebögen nur entwickelt, um Primärinformationen zu erhalten.

Die empfangenen Daten sollten entsprechend aufbereitet und aufbereitet werden. Jeder Fragebogen bzw. jede Beobachtungsform wird geprüft und ggf. korrigiert. Jeder Antwort sind numerische oder alphabetische Codes zugeordnet - Informationen werden verschlüsselt. Die Datenvorbereitung umfasst die Bearbeitung, Entschlüsselung und Datenvalidierung, Codierung und notwendige Transformationen.

2.3 Charakterisierung der Probe

In der Regel handelt es sich bei den aufgrund statistischer Beobachtung für statistische Auswertungen erhobenen Daten um eine Stichprobe. Der Ablauf der Datentransformation in den Prozess der statistischen Forschung lässt sich wie folgt schematisch darstellen (Abb. 2.3):

Abbildung 2.3 Konvertierungsschema für statistische Daten

Durch die Analyse der Stichprobe können Rückschlüsse auf die durch die Stichprobe repräsentierte Allgemeinbevölkerung gezogen werden.

Abschließende Festlegung allgemeiner Probenahmeparameter erstellt, wenn alle Fragebögen gesammelt sind. Es enthält:

    Ermittlung der tatsächlichen Anzahl der Befragten,

    Bestimmung der Probenstruktur,

    Verteilung nach Erhebungsort,

    Festlegung eines Konfidenzniveaus der statistischen Zuverlässigkeit der Stichprobe,

    Berechnung des statistischen Fehlers und Bestimmung der Repräsentativität der Stichprobe.

Echte Menge Befragte können mehr oder weniger als geplant sein. Die erste Option ist besser für die Analyse, aber nachteilig für den Kunden der Studie. Der zweite kann die Qualität der Studie negativ beeinflussen und ist daher weder für Analysten noch für Kunden rentabel.

Beispielstruktur kann zufällig oder nicht zufällig sein (die Befragten wurden anhand eines zuvor bekannten Kriteriums ausgewählt, beispielsweise nach der Quotenmethode). Stichproben sind a priori repräsentativ. Nicht zufällige Stichproben sind möglicherweise absichtlich nicht repräsentativ für die Allgemeinbevölkerung, liefern jedoch wichtige Informationen für die Forschung. In diesem Fall sollten Sie auch die Filterfragen des Fragebogens sorgfältig prüfen, die speziell darauf ausgelegt sind, ungeeignete Befragte auszusortieren.

Zum Bestimmung der Schätzgenauigkeit, muss zunächst das Vertrauensniveau (95 % oder 99 %) ermittelt werden. Dann das Maximum statistischer Fehler Probe wird berechnet als

oder
,

wo - Probengröße, - die Wahrscheinlichkeit des Eintretens des untersuchten Ereignisses (der Befragte gelangt in die Stichprobe), - die Wahrscheinlichkeit des umgekehrten Ereignisses (der Befragte wird nicht in die Stichprobe aufgenommen), - Vertrauenskoeffizient,
ist die Varianz des Merkmals.

Tabelle 2.4 listet die am häufigsten verwendeten Werte der Konfidenzwahrscheinlichkeit und Konfidenzkoeffizienten auf.

Tabelle 2.4

2.5 Computergestützte Datenverarbeitung

Die Datenanalyse mit einem Computer umfasst eine Reihe notwendiger Schritte.

1. Bestimmung der Struktur der Ausgangsdaten.

2. Eingabe von Daten in einen Computer gemäß ihrer Struktur und Programmanforderungen. Bearbeitung und Transformation von Daten.

3. Festlegung der Datenverarbeitungsmethode gemäß den Zielen der Studie.

4. Erhalt des Ergebnisses der Datenverarbeitung. Bearbeiten und Speichern im gewünschten Format.

5. Interpretation des Verarbeitungsergebnisses.

Die Schritte 1 (Vorbereitung) und 5 (Abschluss) können von keinem Computerprogramm durchgeführt werden – der Forscher erledigt sie selbst. Die Schritte 2-4 werden vom Forscher durchgeführt, der das Programm verwendet, aber es ist der Forscher, der die notwendigen Datenbearbeitungs- und Transformationsverfahren, Datenverarbeitungsmethoden und das Format für die Präsentation der Verarbeitungsergebnisse bestimmt. Die Hilfe des Computers (Schritte 2-4) liegt letztlich im Übergang von einer langen Zahlenfolge zu einer kompakteren. Am „Eingang“ des Computers liefert der Forscher eine Reihe von Ausgangsdaten, die für das Verständnis unzugänglich sind, aber für die Computerverarbeitung geeignet sind (Schritt 2). Dann gibt der Forscher dem Programm einen Befehl, die Daten gemäß der Aufgabe und Datenstruktur zu verarbeiten (Schritt 3). Am „Ausgang“ erhält er das Ergebnis der Verarbeitung (Schritt 4) – ebenfalls ein Datenfeld, nur ein kleineres, dem Verständnis und einer sinnvollen Interpretation zugängliches Datenfeld. Gleichzeitig erfordert eine erschöpfende Analyse von Daten in der Regel deren wiederholte Verarbeitung mit unterschiedlichen Methoden.

2.6 Auswahl einer Datenanalysestrategie

Die Wahl einer Strategie zur Analyse der gesammelten Daten basiert auf Kenntnissen der theoretischen und praktischen Aspekte des untersuchten Fachgebiets, der Besonderheiten und bekannten Eigenschaften von Informationen, der Eigenschaften bestimmter statistischer Methoden sowie der Erfahrungen und Ansichten zu Der Forscher.

Es muss daran erinnert werden, dass die Datenanalyse nicht das ultimative Ziel der Studie ist. Sein Zweck besteht darin, Informationen zu erhalten, die bei der Lösung eines bestimmten Problems helfen und angemessene Managemententscheidungen treffen. Die Wahl der Analysestrategie sollte mit einer Untersuchung der Ergebnisse der vorangegangenen Phasen des Prozesses beginnen: Definition des Problems und Entwicklung eines Forschungsplans. Als "Entwurf" wird ein vorläufiger Datenanalyseplan verwendet, der als eines der Elemente des Studienplans entwickelt wurde. Wenn dann in späteren Phasen des Forschungsprozesses zusätzliche Informationen verfügbar werden, müssen möglicherweise bestimmte Änderungen vorgenommen werden.

Statistische Methoden werden in ein- und multivariate unterteilt. Eindimensionale Methoden (univariate Techniken) werden verwendet, wenn alle Elemente der Stichprobe durch einen Indikator bewertet werden oder wenn es für jedes Element mehrere dieser Indikatoren gibt, aber jede Variable getrennt von allen anderen analysiert wird.

Multivariate Techniken eignen sich hervorragend für die Datenanalyse, wenn zwei oder mehr Indikatoren zur Bewertung jedes Stichprobenelements verwendet werden und diese Variablen gleichzeitig analysiert werden. Solche Methoden werden verwendet, um Abhängigkeiten zwischen Phänomenen zu bestimmen.

Multivariate Methoden unterscheiden sich von univariaten Methoden hauptsächlich dadurch, dass sie den Fokus von den Niveaus (Durchschnittswerten) und Verteilungen (Varianzen) von Phänomenen verlagern und sich auf den Grad der Beziehung (Korrelation oder Kovarianz) zwischen diesen Phänomenen konzentrieren.

Univariate Methoden können danach klassifiziert werden, ob die analysierten Daten metrisch oder nicht metrisch sind (Abbildung 3). Metrikdaten werden auf einer Intervallskala oder einer relativen Skala gemessen. Nichtmetrische Daten werden auf einer nominalen oder ordinalen Skala ausgewertet

Darüber hinaus werden diese Methoden in Klassen eingeteilt, basierend darauf, wie viele Proben – eine, zwei oder mehr – während der Studien analysiert werden.

Die Einteilung eindimensionaler statistischer Verfahren ist in Abbildung 2.4 dargestellt.

Reis. 2.4 Einteilung eindimensionaler statistischer Methoden in Abhängigkeit von den analysierten Daten

Die Anzahl der Proben wird davon bestimmt, wie die Daten für eine bestimmte Analyse behandelt werden, nicht davon, wie die Daten gesammelt wurden. Beispielsweise können Daten über Männer und Frauen innerhalb derselben Stichprobe gewonnen werden, aber wenn ihre Analyse darauf abzielt, eine unterschiedliche Wahrnehmung aufgrund des Geschlechts aufzudecken, muss der Forscher mit zwei verschiedenen Stichproben arbeiten. Proben gelten als unabhängig, wenn sie nicht experimentell miteinander in Beziehung stehen. Messungen, die in einer Probe durchgeführt werden, wirken sich nicht auf die Werte von Variablen in einer anderen aus. Für die Analyse werden Daten, die sich auf verschiedene Gruppen von Befragten beziehen, wie z. B. die von Frauen und Männern erhobenen, in der Regel als unabhängige Stichproben behandelt.

Wenn sich die Daten für zwei Stichproben hingegen auf dieselbe Gruppe von Befragten beziehen, gelten die Stichproben als paarweise - abhängig.

Wenn es nur eine Stichprobe von metrischen Daten gibt, können der z- und der t-Test verwendet werden. Wenn es zwei oder mehr unabhängige Stichproben gibt, können Sie im ersten Fall den z- und t-Test für zwei Stichproben verwenden, im zweiten Fall die Methode der einfachen ANOVA. Für zwei verwandte Stichproben wird ein gepaarter t-Test verwendet. Wenn es um nicht-metrische Daten einer einzelnen Stichprobe geht, kann der Forscher die Häufigkeitsverteilungskriterien, Chi-Quadrat, Kolmogorov-Smirnov (K~S)-Test, Reihentest und Binomialtest verwenden. Für zwei unabhängige Stichproben mit nicht-metrischen Daten kann auf folgende Analysemethoden zurückgegriffen werden: Chi-Quadrat, Mann-Whitney, Mediane, K-S, Einweg-Varianzanalyse Kruskal-Wallis (DA K-U). Wenn es dagegen zwei oder mehr verwandte Stichproben gibt, sollten die Vorzeichen-, McNemar- und Wilcoxon-Tests verwendet werden.

Multivariate statistische Methoden zielen darauf ab, bestehende Muster zu identifizieren: die gegenseitige Abhängigkeit von Variablen, die Beziehung oder Abfolge von Ereignissen, die Ähnlichkeit zwischen Objekten.

Es ist eher bedingt möglich, fünf Standardtypen von Mustern herauszugreifen, deren Untersuchung von erheblichem Interesse ist: Assoziation, Sequenz, Klassifikation, Clustering und Vorhersage.

Eine Assoziation liegt vor, wenn mehrere Ereignisse miteinander in Beziehung stehen. Beispielsweise könnte eine in einem Supermarkt durchgeführte Studie zeigen, dass 65 % derjenigen, die Maischips kaufen, auch Coca-Cola nehmen, und wenn es einen Rabatt für ein solches Set gibt, kaufen sie in 85 % der Fälle Cola. Mit Informationen über eine solche Verbindung können Manager leicht einschätzen, wie effektiv der gewährte Rabatt ist.

Besteht eine zeitlich zusammenhängende Kette von Ereignissen, so spricht man von einer Abfolge. So wird beispielsweise nach dem Hauskauf in 45 % der Fälle innerhalb eines Monats auch ein neuer Herd angeschafft und innerhalb von zwei Wochen erwerben 60 % der Neuankömmlinge einen Kühlschrank.

Mit Hilfe der Klassifizierung werden Zeichen aufgedeckt, die die Gruppe charakterisieren, zu der dieses oder jenes Objekt gehört. Dies geschieht, indem bereits klassifizierte Objekte analysiert und ein bestimmtes Regelwerk formuliert werden.

Clustering unterscheidet sich von Klassifikation dadurch, dass die Gruppen selbst nicht vorbestimmt sind. Mit Hilfe des Clusterings werden verschiedene homogene Gruppen von Daten unterschieden.

Grundlage für Prognosesysteme aller Art sind historische Informationen, die in Form von Zeitreihen gespeichert sind. Wenn es möglich ist, Muster zu finden, die die Dynamik des Verhaltens von Zielindikatoren angemessen widerspiegeln, ist es wahrscheinlich, dass mit ihrer Hilfe das Verhalten des Systems in der Zukunft vorhergesagt werden kann.

Multivariate statistische Verfahren lassen sich in Beziehungsanalyseverfahren und Klassifikationsanalysen unterteilen (Abb. 2.5).

Abb.2.5 - Klassifikation multivariater statistischer Methoden

Das Ergebnis der ersten Stufe der statistischen Forschung – der statistischen Beobachtung – sind Informationen, die jede Einheit der statistischen Grundgesamtheit charakterisieren. Allerdings ist die Fähigkeit, die Muster und Trends in der Dynamik der untersuchten Phänomene mit Hilfe einer noch so vollständigen Charakterisierung einzelner Fakten widerzuspiegeln, begrenzt. Solche Daten werden nur als Ergebnis einer statistischen Zusammenfassung erhalten. Eine Zusammenfassung ist eine Ordnung, Systematisierung und Verallgemeinerung von statistischen Daten, die während einer statistischen Beobachtung gewonnen werden. Nur eine ordnungsgemäße Verarbeitung des statistischen Materials ermöglicht es, das Wesen sozioökonomischer Phänomene, die charakteristischen Merkmale und wesentlichen Merkmale einzelner Typen aufzudecken, Muster und Tendenzen in ihrer Entwicklung zu entdecken. Es wird zwischen einer einfachen und einer Gruppenzusammenfassung bzw. einer Zusammenfassung im engeren und weiteren Sinne unterschieden. Eine einfache Zusammenfassung ist die Berechnung der Summen in Gruppen und Untergruppen und die Darstellung dieses Materials in Tabellen. Durch eine einfache Zusammenfassung statistischer Daten ist es möglich, die Anzahl der Unternehmen, die Gesamtzahl der Beschäftigten und das Produktionsvolumen in Geld zu bestimmen. Diese Zusammenfassungen sind größtenteils informativ. Sie geben ein verallgemeinertes Merkmal der Bevölkerung in Form von absoluten Werten wieder.

Eine Gruppenzusammenfassung bzw. eine Zusammenfassung im weiteren Sinne ist ein komplexer Prozess zur multilateralen Verarbeitung primärstatistischer Daten, d.h. Daten, die durch Beobachtung gewonnen wurden. Es umfasst die Gruppierung statistischer Daten, die Entwicklung eines Indikatorensystems zur Charakterisierung von Gruppen, die Berechnung von Gruppen- und Gesamtergebnissen, die Berechnung von verallgemeinernden Indikatoren. Die Aufgabe einer statistischen Zusammenfassung als zweite Stufe einer statistischen Studie besteht darin, verallgemeinernde Indikatoren für Informations-, Referenz- und Analysezwecke zu erhalten. Die Zusammenfassung der statistischen Massendaten erfolgt nach einem zuvor entwickelten Programm und Plan. Bei der Entwicklung des Programms werden Thema und Prädikat der Zusammenfassung festgelegt. Das Fach ist der Gegenstand des Studiums, unterteilt in Gruppen und Untergruppen. Das Prädikat sind Indikatoren, die das Thema der Zusammenfassung charakterisieren. Das zusammenfassende Programm wird durch die Ziele der statistischen Studie bestimmt.

Die statistische Zusammenfassung erfolgt nach einem vorgegebenen Plan. Der Zusammenfassungsplan befasst sich mit Fragen zur Arbeit an der Zusammenfassung von Informationen - manuell oder maschinell, zur Abfolge einzelner Zusammenfassungsoperationen. Die Fristen für den Abschluss jeder Phase und der Zusammenfassung als Ganzes sowie die Methoden zur Präsentation der Ergebnisse der Zusammenfassung werden festgelegt. Dies können Verteilungsreihen, statistische Tabellen und statistische Grafiken sein.

Senden Sie Ihre gute Arbeit in die Wissensdatenbank ist einfach. Verwenden Sie das untenstehende Formular

Studenten, Doktoranden, junge Wissenschaftler, die die Wissensbasis in ihrem Studium und ihrer Arbeit nutzen, werden Ihnen sehr dankbar sein.

Veröffentlicht am http://www.allbest.ru/

Ministerium für Bildung und Wissenschaft der Russischen Föderation

"Rechtsinstitut"

Fakultät "Rechtswissenschaften"

abstrakt

nach Disziplin

"Rechtsstatistik"

Methoden und Hauptphasen der statistischen Forschung.

Die Arbeit wurde von einem Studenten durchgeführt

Gribanow A.S.

Moskau

Einführung

1. Das Konzept der statistischen Forschung

2. Methoden der statistischen Forschung

3. Organisation und Phasen der statistischen Forschung

Fazit

Verzeichnis der verwendeten Literatur

Einführung

Statistiken wissen alles“, stellten Ilf und Petrov in ihrem berühmten Roman „Die zwölf Stühle“ fest und fuhren fort: „Es ist bekannt, wie viel Nahrung der durchschnittliche Bürger der Republik pro Jahr isst … Es ist bekannt, wie viele Jäger, Ballerinas … . Werkzeugmaschinen, Fahrräder, Denkmäler, Leuchttürme und Nähmaschinen ... Wie viel Leben, voller Inbrunst, Leidenschaften und Gedanken, schaut uns aus statistischen Tabellen an! .. "Wozu werden diese Tabellen benötigt, wie werden sie erstellt und verarbeitet, welche Schlussfolgerungen daraus gezogen werden können – diese Fragen beantwortet die Statistik (von italienisch stato – Staat, lat. status – Staat) Die Statistik ist eine Wissenschaft, die quantitative Daten zu den unterschiedlichsten Massenphänomenen des Lebens untersucht, verarbeitet und analysiert.

Statistische Forschung ist fest in unseren Alltag eingezogen. Staatliche und kommerzielle Einrichtungen sammeln regelmäßig umfangreiche Informationen über Gesellschaft und Umwelt. Diese Daten werden in Form von Tabellen und Diagrammen veröffentlicht. Jede Person sollte sich mit dem Informationsfluss auskennen. Das bedeutet, dass er Informationen extrahieren, analysieren und verarbeiten muss, Entscheidungen in verschiedenen Situationen treffen muss.

In meiner Arbeit werde ich statistische Studien betrachten, was sie sind, was die Methoden der statistischen Forschung sind, wie diese Studien organisiert sind und aus welchen Phasen sie bestehen.

1. Das Konzept der statistischen Forschung

Die Beobachtung als Anfangsphase der Studie ist mit der Erhebung erster Daten zum untersuchten Thema verbunden. Sie ist charakteristisch für viele Wissenschaften. Jede Wissenschaft hat jedoch ihre eigenen Besonderheiten, die sich in ihren Beobachtungen unterscheiden. Daher ist nicht jede Beobachtung statistisch.

Statistische Forschung ist eine wissenschaftlich organisierte Sammlung, Zusammenfassung und Analyse von Daten (Fakten) über sozioökonomische, demografische und andere Phänomene und Prozesse des öffentlichen Lebens im Staat, mit Registrierung ihrer wichtigsten Merkmale in Buchhaltungsunterlagen, organisiert nach einem einzigen Programm.

Besonderheiten (Spezifika) statistischer Forschung sind: Zweckmäßigkeit, Organisation, Massencharakter, Konsistenz (Komplexität), Vergleichbarkeit, Dokumentation, Kontrollierbarkeit, Praktikabilität.

Im Allgemeinen sollte eine statistische Studie:

* ein gesellschaftlich nützliches Ziel und universelle (staatliche) Bedeutung haben;

* beziehen sich auf das Thema Statistik unter den spezifischen Bedingungen seines Ortes und seiner Zeit;

* Drücken Sie die statistische Art der Buchführung aus (und nicht Buchhaltung und nicht operativ);

* durchgeführt nach einem vorab entwickelten Programm mit seiner wissenschaftlich fundierten methodischen und sonstigen Unterstützung;

* die Sammlung von Massendaten (Fakten) durchzuführen, die den gesamten Satz von Ursache und Wirkung und anderen Faktoren widerspiegeln, die das Phänomen in vielerlei Hinsicht charakterisieren;

* in Form von Buchhaltungsunterlagen der festgelegten Form registriert werden;

* die Abwesenheit von Beobachtungsfehlern garantieren oder sie auf das mögliche Minimum reduzieren;

* Bereitstellung bestimmter Qualitätskriterien und Möglichkeiten zur Kontrolle der gesammelten Daten, um deren Zuverlässigkeit, Vollständigkeit und Inhalt sicherzustellen;

* Konzentration auf kostengünstige Technologie zur Erfassung und Verarbeitung von Daten;

* eine verlässliche Informationsbasis für alle nachfolgenden Stadien der statistischen Forschung und alle Nutzer statistischer Informationen sein.

Studien, die diese Anforderungen nicht erfüllen, sind nicht statistisch.

sind keine statistischen Studien, z.

Beobachtungen und Recherchen: Spielende Mütter mit einem Kind (persönliche Frage);

Zuschauer bei einer Theateraufführung (es gibt keine Abrechnungsdokumentation für das Spektakel);

ein Forscher für physikalische und chemische Experimente mit ihren Messungen, Berechnungen und dokumentarischen Registrierungen (keine massenöffentlichen Daten);

ein Arzt für Patienten mit Führung von Krankenkarten (Betriebsaufzeichnungen);

buchhalter für die Geldbewegungen auf dem Bankkonto des Unternehmens (Buchhaltung);

Journalisten für das öffentliche und private Leben von Regierungsbeamten oder anderen Prominenten (nicht Gegenstand der Statistik).

Statistische Population - eine Reihe von Einheiten, die Massencharakter, Typizität, qualitative Einheitlichkeit und das Vorhandensein von Variationen aufweisen.

Die statistische Grundgesamtheit besteht aus materiell existierenden Objekten (Beschäftigte, Unternehmen, Länder, Regionen), ist Gegenstand der statistischen Forschung.

Statistische Beobachtung ist die erste Stufe der statistischen Forschung, die eine wissenschaftlich organisierte Sammlung von Daten über die untersuchten Phänomene und Prozesse des sozialen Lebens ist.

2. Methoden der statistischen Forschung

Hervorzuheben ist, dass statistische Materialien als Materialien bezeichnet werden, die speziell nach vorgegebenen Prinzipien und Methoden erstellt werden, einer weiteren Verarbeitung durch mathematische Methoden unterliegen, d.h. wird die quantitativen Eigenschaften des untersuchten Objekts untersuchen. Sie werden in zwei Schritten erstellt:

1) Primärdokumente (Primärquellen) - Fragebögen, Listenblätter, Fragebögen usw.;

2) zusammenfassende Angaben, zusammenfassende Tabellen, die mit Methoden der mathematischen Statistik verarbeitet werden; diese zusammenfassenden Dokumente werden allgemein als "Statistiken" bezeichnet.

Jede statistische Studie geht von Folgendem aus:

1) seriöse Vorarbeit;

2) direkte Datenerhebung;

3) Arbeit an der Analyse der erhaltenen Daten.

Die Studie wird nach einem bestimmten Algorithmus durchgeführt, während das Durchlaufen jeder Phase die Verwendung spezieller Methoden erfordert und an den Inhalt der durchgeführten Arbeit gebunden ist.

Der Algorithmus zum Durchführen einer statistischen Studie kann wie folgt dargestellt werden.

1. Entwicklung eines Forschungsprogramms oder Beobachtungsprogramms. In dieser Phase sind die Ziele und Zielsetzungen der Erhebung, die Abdeckung der untersuchten Objekte, der Abdeckungsgrad der Objekte, der zeitliche und geografische Umfang, die Beobachtungseinheiten, die zu erfassenden Indikatoren, das Primärquellenformular zum Ausfüllen in den Daten bestimmt werden, und die Mechanismen für das Sammeln von Informationen, Überwachung der Qualität der Informationssammlung, Verarbeitung und Analyse der erhaltenen Daten.

Das Überwachungsprogramm ist eine Liste von zu registrierenden Merkmalen. Beobachtungsregistrierung Abrechnungsdokumentation

Der Beobachtungszeitraum ist die Zeit, in der Informationen aufgezeichnet werden.

Das kritische Beobachtungsdatum ist das Datum, ab dem Informationen gemeldet werden.

2. Die statistische Beobachtung kann kurzfristig oder langfristig (über einen bestimmten Zeitraum durchgeführt), kontinuierlich oder punktuell erfolgen. Als Ergebnis erscheint in der Regel ein Komplex von Massendokumenten.

3. Zusammenfassung und Gruppierung statistischer Daten - Berechnung und Gruppierung der gesammelten Daten, wodurch letztere in ein System statistischer Tabellen und Zwischensummen umgewandelt werden.

4. Datenanalyse, die eine vorläufige Aufgabenstellung vorsieht, die mit Methoden der statistischen Analyse durchgeführt wird.

5. Interpretation der Daten - Erläuterung der erhaltenen Ergebnisse, deren Vergleich mit ähnlichen Indikatoren.

Die Arten der statistischen Dokumente und Methoden für ihre nachfolgende Verarbeitung werden in Übereinstimmung mit den Methoden der Datenerhebung bestimmt, all dies wird von einem zuvor entwickelten Programm widergespiegelt und bestimmt und hängt von den Zielen der Studie ab.

In der Phase der Datenerhebung hat die statistische Beobachtung zwei Hauptformen:

1) Berichterstattung basierend auf aktueller Beobachtung, aktueller (dauerhafter) Registrierung von Tatsachen und Ereignissen;

2) speziell organisierte statistische Beobachtung.

Eine statistische Beobachtung kann durch die folgenden Verfahren durchgeführt werden.

1. Zum Zeitpunkt der Veranstaltung:

1) laufende (kontinuierliche) Beobachtung, systematisch durchgeführt;

2) periodische Beobachtung, wiederholt nach einer bestimmten Zeit (Viehzählung);

3) Einmalige Beobachtung, die bei Bedarf durchgeführt wird, ohne Berücksichtigung des Zeitintervalls (Belegflussrechnung).

2. Nach Erfassung der Beobachtungseinheiten:

1) kontinuierliche Beobachtung, wodurch alle Einheiten der untersuchten Bevölkerung befragt werden (allgemeine Volkszählung);

2) nichtkontinuierliche Beobachtung, wenn ein Teil der Einheiten des Untersuchungsobjekts, der auf eine bestimmte Weise ausgewählt wurde, untersucht wird; Arten der nicht kontinuierlichen Beobachtung sind:

a) die Methode der Hauptreihe, wenn ein Teil der Einheiten der Bevölkerung untersucht wird, der die am stärksten ausgeprägten untersuchten Merkmale aufweist;

b) Fragebogenbeobachtung, bei der eine Reihe von Merkmalen mit Hilfe von Erhebungsbögen untersucht und dann auf die gesamte Bevölkerung hochgerechnet wird;

c) monographische Beobachtung, d.h. Identifizierung verschiedener Trends in der Entwicklung von Phänomenen und Merkmalen in einem Satz;

d) selektive Beobachtung – ein Teil der untersuchten Einheiten wird nach dem Zufallsprinzip bearbeitet (Familienbudget);

e) direkte Beobachtung, bei der eine zu erfassende Tatsache festgestellt und auf dieser Grundlage Eintragungen in das Meldeprotokoll (Formular) vorgenommen werden.

In der Statistik gibt es die folgende Klassifizierung von Möglichkeiten, Informationen zu sammeln:

Korrespondent, durchgeführt von einem Stab freiwilliger Korrespondenten;

Weiterleitung, mündlich durchgeführt durch speziell geschulte Mitarbeiter;

Fragebogen (in Form von Fragebögen);

Selbstregistrierung (Ausfüllen der Formulare durch die Befragten selbst);

Privat (Ehen, Kinder, Scheidungen).

Die Verarbeitung von Informationen aus Primärquellen besteht in der Regel in der Systematisierung von Informationen. Im Laufe der Zeit haben sich die Methoden der Informationsverarbeitung stark verändert.

Ursprünglich als System der numerischen Beschreibung erschienen, das die Zählung der Bevölkerung und des Bodens im 18. Jahrhundert beinhaltete. Die in Gesetzgebungsakten verankerte inländische Statistik erfuhr im 19. und 20. Jahrhundert eine bedeutende Entwicklung, die sich als komplexes, verzweigtes System auf der Grundlage wissenschaftlicher mathematischer Methoden und Computertechnologie herausbildete.

Zu Beginn des 20. Jahrhunderts. Auf dem Gebiet der Statistik gab es eine ernsthafte Arbeitserfahrung, die Grundprinzipien für das Sammeln und Analysieren von Informationen wurden gebildet. Die Hauptrichtungen der Statistik, ihre Methoden (Berichte, Erhebungen, Volkszählungen; die Struktur des statistischen Materials und das System der statistischen Forschung), die im 19. Jahrhundert festgelegt und erprobt wurden, entwickelten sich im Laufe des 20. Jahrhunderts.

Statistische (quantitative) Beschreibungen im Rahmen von Regionalstudien mit einfachsten arithmetischen Berechnungen wurden nach und nach durch komplexe mathematische und computergestützte Methoden ersetzt, die es ermöglichen, detaillierte Statistiken zu erhalten und darauf basierend die Entwicklung statistischer Indikatoren vorherzusagen und zu modellieren .

Die ersten Forschungsgegenstände waren Bevölkerung und Grund und Boden, Aufgaben der Besteuerung wurden gelöst, für die die Gesamtzahl der Einwohner berechnet wurde, Muster in der Bevölkerungsentwicklung wurden aufgedeckt und Landzählungen durchgeführt. Das wichtigste demografische Merkmal war die Gesamtbevölkerung. Es wurden Daten über Geburten, Todesfälle, die Anzahl der Eheschließungen, Sterbetafeln, das Überleben bis zu einem bestimmten Alter erstellt, durch Berechnung der Differenz zwischen der Anzahl der Geburten und Todesfälle pro Jahr wurde das durchschnittliche Bevölkerungswachstum ermittelt.

Heutzutage verwendet die Statistik massenstatistische Beobachtungen, die Methode der Gruppierung, Durchschnittswerte, Indizes, die Bilanzmethode, die Methode der grafischen Darstellungen und andere Methoden zur Analyse statistischer Daten.

Nach und nach änderten sich auch die Arten von Dokumenten. Militärstatistische Beschreibungen und Beschreibungen der Provinz "in historischer, statistischer und ethnographischer Hinsicht", Schreibbücher und Revisionen wurden durch komplexe selektive und allgemeine Volkszählungen ("Die erste allgemeine Volkszählung der Bevölkerung des Russischen Reiches im Jahr 1897", eine Landwirtschaftszählung) ersetzt und Industriezählung), ein System von Multifaktor-Berichten und die Entwicklung einer branchenübergreifenden Bilanz der Volkswirtschaft nach Jahren.

3. Organisation und Phasen der statistischen Forschung

Um sich ein Bild von einem bestimmten Phänomen zu machen und Schlussfolgerungen zu ziehen, muss eine statistische Studie durchgeführt werden. Gegenstand der statistischen Forschung im Gesundheitswesen und in der Medizin können die Gesundheit der Bevölkerung, die Organisation der medizinischen Versorgung, verschiedene Bereiche der Tätigkeit medizinischer Einrichtungen und Umweltfaktoren sein, die den Gesundheitszustand beeinflussen.

Der methodische Ablauf einer statistischen Untersuchung besteht aus bestimmten Schritten.

Bühne 1. Erstellung eines Forschungsplans und -programms.

Stufe 2. Materialsammlung (statistische Beobachtung).

Stufe 3. Materialentwicklung, statistische Gruppierung und Zusammenfassung

Stufe 4. Statistische Analyse des untersuchten Phänomens, Formulierung von Schlussfolgerungen.

Stufe 5 Literarische Verarbeitung und Präsentation der Ergebnisse.

Nach Abschluss der statistischen Studie werden Empfehlungen und Managemententscheidungen entwickelt, die Ergebnisse der Studie in die Praxis umgesetzt und die Effizienz bewertet.

Das wichtigste Element bei der Durchführung einer statistischen Studie ist die Einhaltung einer strengen Reihenfolge bei der Durchführung dieser Phasen.

Die erste Phase einer statistischen Studie - Erstellung eines Plans und Programms - ist vorbereitend, in der der Zweck und die Ziele der Studie festgelegt werden, ein Plan und ein Programm der Studie erstellt werden, ein Programm zur Zusammenfassung statistischen Materials entwickelt wird, und organisatorische Probleme werden gelöst.

Das Ziel bestimmt die Hauptforschungsrichtung und ist in der Regel nicht nur theoretisch, sondern auch praktisch. Das Ziel ist klar, klar, eindeutig formuliert.

Zur Offenlegung des Ziels werden die Forschungsaufgaben definiert.

Ein wichtiger Aspekt der Vorbereitungsphase ist die Entwicklung eines Organisationsplans. Der Organisationsplan der Studie sieht die Festlegung von Ort (administrativ-territoriale Grenzen der Beobachtung), Zeit (konkrete Begriffe für die Durchführung der Beobachtung, Erarbeitung und Auswertung des Materials) und Gegenstand der Studie (Veranstalter, Performer, methodische und organisatorische Führung, Forschungsfinanzierungsquellen).

Der Studienplan beinhaltet:

Definition des Untersuchungsgegenstandes (Grundgesamtheit);

Umfang der Studie (kontinuierlich, nicht kontinuierlich);

Typen (aktuell, einmalig);

Möglichkeiten, statistische Informationen zu sammeln. Das Forschungsprogramm umfasst:

Definition der Beobachtungseinheit;

Liste der zu erfassenden Fragen (Rechnungszeichen) in Bezug auf jede Beobachtungseinheit*

Entwicklung eines individuellen Abrechnungs-(Melde-)Formulars mit Liste der zu erfassenden Fragen und Merkmale;

Entwicklung von Tabellenlayouts, in die dann die Ergebnisse der Studie eingetragen werden.

Für jede Beobachtungseinheit wird ein separates Formular ausgefüllt, das einen Passteil, klar formulierte Fragen des Programms in einer bestimmten Reihenfolge und das Datum des Ausfüllens des Dokuments enthält.

Um die statistische Datenerschließung aus diesen Dokumenten zu ermöglichen, werden Informationen auf speziell gestaltete Abrechnungsformulare kopiert, deren Inhalt im Einzelfall entsprechend der Zielsetzung der Studie festgelegt wird.

Gegenwärtig können im Zusammenhang mit der maschinellen Verarbeitung der Beobachtungsergebnisse mit einem Computer Programmfragen formalisiert werden, wenn die Fragen im Abrechnungsdokument in Form einer Alternative (Ja, Nein) oder vorgefertigter Antworten gestellt werden angeboten, aus denen eine bestimmte Antwort ausgewählt werden soll.

In der ersten Phase der statistischen Forschung wird zusammen mit dem Beobachtungsprogramm ein Programm zum Zusammenfassen der erhaltenen Daten zusammengestellt, das das Festlegen der Gruppierungsprinzipien, das Identifizieren von Gruppierungsmerkmalen, das Bestimmen von Kombinationen dieser Merkmale und das Erstellen von Layouts statistischer Tabellen umfasst.

Die zweite Stufe - die Sammlung statistischen Materials (statistische Beobachtung) - besteht in der Registrierung von Einzelfällen des untersuchten Phänomens und der sie charakterisierenden Buchungsmerkmale in Registrierungsformularen. Vor und während der Durchführung dieser Arbeiten erfolgt eine Instruktion (mündlich oder schriftlich) der Beobachter und sie erhalten Anmeldeformulare.

Zeitlich kann eine statistische Beobachtung aktuell und einmalig sein.

Bei laufender Beobachtung wird das Phänomen für einen bestimmten Zeitraum (Woche, Quartal, Jahr usw.) untersucht, indem das Phänomen in jedem Fall täglich aufgezeichnet wird.

Bei einer einmaligen Beobachtung werden statistische Daten zu einem bestimmten (kritischen) Zeitpunkt erhoben. Die einmalige Registrierung spiegelt den Stand des Phänomens zum Zeitpunkt des Studiums wider. Diese Art der Beobachtung wird verwendet, um sich langsam verändernde Phänomene zu untersuchen.

Die Wahl der Art der zeitlichen Beobachtung richtet sich nach dem Zweck und den Zielen der Untersuchung.

Je nach Vollständigkeit der Erfassung des untersuchten Phänomens wird zwischen kontinuierlicher und nichtkontinuierlicher Forschung unterschieden.

In einer kontinuierlichen Studie werden alle in der Grundgesamtheit enthaltenen Beobachtungseinheiten untersucht, d.h. die allgemeine Bevölkerung. Es wird eine kontinuierliche Studie durchgeführt, um die absoluten Dimensionen des Phänomens festzustellen. Die kontinuierliche Methode wird auch in Fällen verwendet, in denen Informationen für die operative Arbeit erforderlich sind.

In einer diskontinuierlichen Studie wird nur ein Teil der Allgemeinbevölkerung untersucht. Es ist in mehrere Typen unterteilt: Fragebogen, Monografie, Hauptreihe, Selektiv.

Monografische Methode - gibt eine detaillierte Beschreibung einzelner Einheiten der Bevölkerung, die in jeder Hinsicht charakteristisch sind, und eine tiefe, umfassende Beschreibung von Objekten.

Die Methode des Hauptarrays - beinhaltet die Untersuchung der Objekte, in denen sich die überwiegende Mehrheit der Beobachtungseinheiten konzentriert. Der Nachteil dieser Methode besteht darin, dass ein Teil der Bevölkerung von der Studie unbedeckt bleibt, obwohl er klein ist, sich aber erheblich vom Hauptarray unterscheiden kann.

Die Fragebogenmethode ist die Erhebung statistischer Daten durch speziell konzipierte Fragebögen, die sich an einen bestimmten Personenkreis richten. Diese Studie basiert auf dem Grundsatz der Freiwilligkeit, daher ist die Rücksendung der Fragebögen oft unvollständig. Oft sind die Antworten auf die gestellten Fragen von Subjektivität und Zufall geprägt. Diese Methode wird verwendet, um eine ungefähre Beschreibung des untersuchten Phänomens zu erhalten.

Stichprobenverfahren - wird auf die Untersuchung eines speziell ausgewählten Teils der Beobachtungseinheiten reduziert, um die gesamte allgemeine Bevölkerung zu charakterisieren. Dieses Verfahren hat den Vorteil, Ergebnisse mit einem hohen Maß an Zuverlässigkeit sowie deutlich geringeren Kosten zu erhalten. Die Studie beschäftigt eine geringere Anzahl von Darstellern, außerdem benötigt sie weniger Zeit.

Je nach Methode der Informationsbeschaffung im Rahmen der statistischen Beobachtung und der Art ihrer Umsetzung werden verschiedene Arten unterschieden:

1) direkte Beobachtung

2) soziologische Methoden: Interviewmethode (face-to-face Befragung), Befragung (Fernbefragung - anonym oder nicht anonym) etc.;

3) Dokumentenforschung.

Die dritte Stufe – das Gruppieren und Zusammenfassen des Materials – beginnt mit der Überprüfung und Klärung der Anzahl der Beobachtungen, der Vollständigkeit und Richtigkeit der erhaltenen Informationen, der Identifizierung und Beseitigung von Fehlern, doppelten Aufzeichnungen usw.

Für die korrekte Entwicklung des Materials wird die Verschlüsselung der primären Buchhaltungsbelege verwendet, d.h. Bezeichnung jedes Merkmals und seiner Gruppe mit einem Zeichen - alphabetisch oder numerisch. Verschlüsselung ist eine Technik, die die Materialentwicklung erleichtert und beschleunigt sowie die Qualität und Genauigkeit der Entwicklung verbessert. Chiffren - Symbole - werden willkürlich entwickelt. Bei der Codierung von Diagnosen wird empfohlen, die internationale Nomenklatur und Klassifikation von Krankheiten zu verwenden; beim Kodieren von Berufen - ein Berufslexikon.

Der Vorteil der Verschlüsselung besteht darin, dass Sie ggf. nach Abschluss der Hauptentwicklung zum Entwicklungsmaterial zurückkehren können, um neue Zusammenhänge und Abhängigkeiten zu klären. Verschlüsseltes Buchhaltungsmaterial ermöglicht Ihnen dies einfacher und schneller als unverschlüsseltes. Nach der Überprüfung werden die Merkmale gruppiert.

Gruppierung - die Aufteilung der Gesamtheit der untersuchten Daten in homogene, typische Gruppen nach den wichtigsten Merkmalen. Die Gruppierung kann nach qualitativen und quantitativen Gesichtspunkten erfolgen. Die Wahl eines Gruppierungsmerkmals hängt von der Art der untersuchten Population und den Zielen der Studie ab.

Die typologische Gruppierung erfolgt nach qualitativen (deskriptiven, attributiven) Merkmalen.

Die Gruppierung nach quantitativen (Variations-) Merkmalen erfolgt anhand der numerischen Größe des Merkmals. Die quantitative Gruppierung erfordert eine Lösung der Frage nach der Größe des Gruppierungsintervalls: Das Intervall kann gleich und in einigen Fällen ungleich sein und sogar die sogenannten offenen Gruppen umfassen.

Gehen Sie bei der Bestimmung der Anzahl der Gruppen von Zweck und Ziel der Studie aus. Es ist notwendig, dass Gruppierungen die Muster des untersuchten Phänomens aufdecken können. Eine große Anzahl von Gruppen kann zu einer übermäßigen Zerkleinerung des Materials und unnötiger Detaillierung führen. Eine kleine Anzahl von Gruppen führt zu einer Verschleierung charakteristischer Merkmale.

Nachdem Sie das Material gruppiert haben, fahren Sie mit der Zusammenfassung fort.

Zusammenfassung - eine Verallgemeinerung von Einzelfällen, die als Ergebnis einer statistischen Untersuchung bestimmter Gruppen, ihrer Zählung und Eingabe in Tabellenlayouts erhalten wurden.

Eine Zusammenfassung des statistischen Materials erfolgt anhand statistischer Tabellen. Eine Tabelle, die nicht mit Zahlen gefüllt ist, wird als Layout bezeichnet.

Statistische Tabellen sind Listen, chronologisch, territorial.

Die Tabelle hat ein Subjekt und ein Prädikat. Das statistische Thema wird normalerweise auf horizontalen Linien auf der linken Seite der Tabelle platziert und spiegelt das Hauptmerkmal wider. Das statistische Prädikat wird von links nach rechts entlang der vertikalen Spalten platziert und spiegelt zusätzliche Abrechnungsmerkmale wider.

Statistische Tabellen sind in einfache, Gruppen- und Kombinationstabellen unterteilt.

In einfachen Tabellen wird die zahlenmäßige Verteilung des Materials nach einem Merkmal, seinen Bestandteilen, dargestellt. Eine einfache Tabelle enthält normalerweise eine einfache Liste oder Zusammenfassung der Gesamtheit des untersuchten Phänomens.

Beim Erstellen von Tabellen müssen bestimmte Anforderungen erfüllt werden:

Jede Tabelle sollte eine Überschrift haben, die ihren Inhalt widerspiegelt;

Auch innerhalb der Tabelle sollten alle Spalten klare, prägnante Titel haben;

Beim Ausfüllen der Tabelle müssen alle Zellen der Tabelle die entsprechenden numerischen Daten enthalten. Die Zellen der Tabelle, die aufgrund des Fehlens dieser Kombination leer bleiben, werden durchgestrichen ("-"), und bei fehlender Information in der Zelle wird "n.s." oder "...";

Nach dem Ausfüllen der Tabelle in der unteren horizontalen Zeile und in der letzten vertikalen Spalte rechts werden die Ergebnisse der vertikalen Spalten und horizontalen Zeilen summiert.

Tabellen müssen eine einzige fortlaufende Nummerierung haben.

Bei Studien mit wenigen Beobachtungen erfolgt die Zusammenfassung manuell. Alle Buchhaltungsbelege werden gemäß dem Zeichencode in Gruppen zerlegt. Als nächstes werden die Daten berechnet und in die entsprechende Zelle der Tabelle eingetragen.

Die vierte Phase – die statistische Analyse – ist eine entscheidende Phase der Studie. In dieser Phase werden statistische Indikatoren (Häufigkeit, Struktur, durchschnittliche Größe des untersuchten Phänomens) berechnet, ihre grafische Darstellung gegeben, Dynamik, Trends untersucht und Verbindungen zwischen Phänomenen hergestellt. Prognosen werden gegeben usw. Die Analyse beinhaltet die Interpretation der erhaltenen Daten, die Bewertung der Zuverlässigkeit der Ergebnisse der Studie. Abschließend werden Schlussfolgerungen gezogen.

Die fünfte Stufe - die literarische Verarbeitung ist abgeschlossen. Es handelt sich um die Finalisierung der Ergebnisse einer statistischen Studie. Die Ergebnisse können in Form eines Artikels, Berichts, Berichts, einer Dissertation etc. präsentiert werden. Für jede Art von Design gibt es bestimmte Anforderungen, die bei der literarischen Aufbereitung der Ergebnisse einer statistischen Studie beachtet werden müssen.

Fazit

Um verschiedene soziale und sozioökonomische Phänomene sowie einige in der Natur ablaufende Prozesse zu untersuchen, werden spezielle statistische Studien durchgeführt. Jede statistische Forschung beginnt mit einer gezielten Sammlung von Informationen über das untersuchte Phänomen oder den untersuchten Prozess.

Der Zweck einer statistischen Studie besteht wie bei jeder wissenschaftlichen Studie darin, das Wesen von Massenphänomenen und -prozessen sowie deren inhärenten Mustern aufzudecken. Eine Besonderheit dieser Muster besteht darin, dass sie nicht für jede einzelne Einheit der Bevölkerung gelten, sondern für die gesamte Masse der Einheiten als Ganzes. Das allgemeine Prinzip, das dem Studium statistischer Regelmäßigkeiten zugrunde liegt, ist das sogenannte Gesetz der großen Zahlen.

Um die als Ergebnis der statistischen Beobachtung erhaltenen Daten zu verallgemeinern und zu systematisieren, werden sie nach bestimmten Kriterien in Gruppen eingeteilt und die Ergebnisse der Gruppierung in Tabellen zusammengefasst.

Wenn sie eine statistische Studie durchführen, fahren sie nach dem Sammeln und Gruppieren von Daten mit ihrer Analyse fort, wobei sie verschiedene verallgemeinernde Indikatoren dafür verwenden.

Verzeichnis der verwendeten Literatur

1. Eliseeva I.I. Sozialstatistik-Lehrbuch 3. Aufl., überarbeitet. und zusätzlich -M.: Finanzen und Statistik, 2003.

2. Methoden der statistischen Forschung / Elektronische Quelle (http://studme.org/43731/istoriya/metody_statisticheskih_issledovaniy).

3. Rechtsstatistik: Lehrbuch / Ed. v. Chr. Lyalina, A.V. Simonenko. -2. Aufl., überarbeitet. und zusätzlich M.: UNITY-DANA, 2010.

4. Savyuk L.K. Rechtsstatistik / Lehrbuch, M.: Jurist, 2004.

5. Statistik: Lehrbuch für Bachelor / Hrsg. I. I. Eliseeva. -- 3. Aufl., überarbeitet. und zusätzlich -- M.: Yurait-Verlag, 2014.

6. Enzyklopädie statistischer Begriffe. v.1. Methodische Grundlagen der Statistik. FSGS, 2012.

Gehostet auf Allbest.ru

Ähnliche Dokumente

    Die statistische Beobachtung ist eine grundlegende Methode zur Datenerhebung bei der Umsetzung staatlicher Maßnahmen zur Kriminalitätsbekämpfung. Definition und Phasen der statistischen Beobachtung: Vorbereitungsphase, Entwicklung eines Programms und von Instrumenten.

    Zusammenfassung, hinzugefügt am 12.02.2008

    Methoden, Techniken und Forschungsmethoden der Rechtsstatistik: Erhebung, Zusammenfassung und Verarbeitung, Verallgemeinerung und Interpretation statistischer Informationen. Die Hauptaufgaben der statistischen Gruppierung. Leistungswerte, Vergleiche, arithmetisches Mittel.

    Test, hinzugefügt am 07.07.2009

    Das Konzept und der Zweck staatlicher Prognosen und Planungen bei der Steuerung sozioökonomischer Prozesse. Inhalt und Hauptetappen soziologischer Forschung. Ebenen und Aspekte der Prognose sozioökonomischer Prozesse.

    Vorlesungsreihe, hinzugefügt am 10.11.2013

    Berücksichtigung des Konzepts einer Umfrage als eine der Methoden zur Erhebung kriminologischer Daten. Studieren der Arten von Interviews und Fragebögen. Beobachtung als Methode der Informationsbeschaffung durch direkte Wahrnehmung und Registrierung. Kriminologisches Experiment und Untersuchung.

    Präsentation, hinzugefügt am 20.04.2015

    Erforschung und Analyse des Konzepts der Gesellschaft und des öffentlichen Lebens. Identifizierung der Elemente der moralischen und rechtlichen Regulierung als Bestandteile einheitlicher sozialer Normen und der Merkmale ihrer Funktion als Mechanismen zur Stabilisierung des sozialen Lebens als Ganzes.

    Seminararbeit, hinzugefügt am 18.05.2011

    Die Theorie der forensischen Handschriftenerkennung. Aufgaben der Handschriftenforschung in der Praxis. Die Bedingung für die Verwendung der Eigenschaften der Handschrift und ihrer Funktionen. Der Prozess des Funktionierens und der Entwicklung des modernen Schreibens und die Hauptstadien des Studiums der Handschrift.

    Zusammenfassung, hinzugefügt am 27.08.2009

    Das Studium der rechtlichen Konsolidierung und der Natur der sozioökonomischen Grundlagen der Verfassungsordnung der Russischen Föderation. Probleme der Umsetzung sozialer Garantien und Faktoren erfolgreicher Modernisierung der Marktwirtschaft im Staat und in der Region Woronesch.

    Dissertation, hinzugefügt am 02.08.2011

    Allgemeine Lehre von Verbrechen und Strafe. Regelung des Begriffs, der Zeichen und der Art der Gesamtheit der Straftaten nach dem Strafgesetzbuch der Russischen Föderation und der Gesetzgebung der Nachbarländer (Weißrussland, Moldawien, Kasachstan und Ukraine).

    Seminararbeit, hinzugefügt am 25.04.2014

    Das Konzept, die wichtigsten Arten und Merkmale der Qualifizierung von Straftaten mit wertenden Merkmalen. Qualifikationen von bewertenden Anzeichen von sozialem und moralischem Schaden. Schwierigkeiten bei der Qualifizierung soziokultureller Bewertungszeichen bei Pornographie.

    Seminararbeit, hinzugefügt am 08.03.2011

    Das Konzept, Merkmale der sozioökonomischen Rechte. Gesetzliche Garantien für die Umsetzung der sozioökonomischen Rechte und Freiheiten der Bürger. Gewährleistung der verfassungsmäßigen Rechte der Bürger in der sektoralen Gesetzgebung. Gerichtlicher Schutz der sozialen und wirtschaftlichen Rechte der Bürger.

Statistische Methodik- ein System von Techniken, Methoden und Methoden zur Untersuchung quantitativer Muster, die sich in der Struktur, Dynamik und Beziehung sozioökonomischer Phänomene manifestieren. Die Methodik ist Grundlage statistischer Forschung.

Stadien der statistischen Forschung:

1. statistische Beobachtung oder Sammlung von Informationen;

2. Zusammenfassung und Gruppierung der Ergebnisse der statistischen Beobachtung oder Verarbeitung von Informationen;

3. Analyse der erhaltenen Informationen.

Statistische Beobachtung- Dies ist eine systematische, wissenschaftlich organisierte Massenbeobachtung der Phänomene des sozialen und wirtschaftlichen Lebens, die darin besteht, ausgewählte Merkmale für jede Bevölkerungseinheit zu registrieren.

Verfahren statistische Beobachtung umfasst die folgenden Schritte:

1) Vorbereitung der Beobachtung;

2) Durchführung einer Massendatenerfassung;

3) Aufbereitung von Daten für die automatisierte Verarbeitung;

4) Entwicklung von Vorschlägen zur Verbesserung der statistischen Beobachtung.

Zusammenfassung- eine Reihe aufeinanderfolgender Operationen zur Zusammenfassung statistischer Beobachtungsdaten zur Charakterisierung der statistischen Grundgesamtheit und ihrer einzelnen Teile (Berechnung von Zwischen- und Gesamtergebnissen). Gruppierung - Abgrenzung der gesamten statistischen Grundgesamtheit in Gruppen qualitativ homogener Einheiten. Die Ergebnisse der statistischen Zusammenfassung und Gruppierung werden in Form von statistischen Tabellen dargestellt.

Analyse oder Recherche die Essenz der untersuchten Phänomene, erforscht die Struktur, Dynamik und Wechselbeziehungen sozialer Phänomene und Prozesse.

Hat folgende Schritte:

1) Sachverhaltsdarstellung und deren Bewertung;

2) Bestimmung der charakteristischen Merkmale und Ursachen jedes Phänomens;

3) Vergleich eines Phänomens mit anderen (einschließlich mit dem Standard);

4) Formulierung von Hypothesen, Schlussfolgerungen und Vorschlägen.

5) Statistische Überprüfung der aufgestellten Hypothesen anhand spezieller statistischer Indikatoren

38. Statistische Prognosemethoden auf der Grundlage von Indikatoren einer Reihe von Dynamiken. Der auf statistischen Methoden basierende Prognoseprozess gliedert sich in zwei Stufen. Der Erste, induktiv, besteht darin, die über einen mehr oder weniger langen Zeitraum beobachteten Daten zu verallgemeinern und die relevanten statistischen Muster in Form eines Modells darzustellen. Ein statistisches Modell wird entweder in Form eines analytisch ausgedrückten Entwicklungstrends oder in Form einer Gleichung in Abhängigkeit von einem oder mehreren Faktorenargumenten erhalten. In einer Reihe von Fällen greifen sie bei der Untersuchung komplexer Komplexe ökonomischer Indikatoren auf die Entwicklung sogenannter interdependenter Gleichungssysteme zurück, die wiederum hauptsächlich aus Gleichungen bestehen, die statistische Abhängigkeiten charakterisieren. Der Prozess der Konstruktion und Anwendung eines statistischen Modells für Vorhersagen, egal in welcher Form, beinhaltet notwendigerweise die Wahl der Form einer Gleichung, die die Dynamik oder die Beziehung von Phänomenen beschreibt, und die Schätzung ihrer Parameter mit der einen oder anderen Methode. Die zweite Stufe, die Vorhersage selbst, ist deduktiv. In diesem Stadium wird basierend auf den gefundenen statistischen Mustern der erwartete Wert des vorhergesagten Merkmals bestimmt.

Es sollte betont werden, dass die erzielten Ergebnisse nicht als etwas Endgültiges betrachtet werden können. Bei ihrer Bewertung und Verwendung sollten Faktoren, Bedingungen oder Einschränkungen berücksichtigt werden, die bei der Entwicklung eines statistischen Modells nicht berücksichtigt wurden, und die erfassten statistischen Merkmale sollten entsprechend der erwarteten Änderung der Umstände ihrer Entstehung angepasst werden. Kurz gesagt, die mit Hilfe statistischer Methoden gefundenen prognostischen Schätzungen sind wichtiges Material, das jedoch kritisch betrachtet werden muss. Gleichzeitig geht es vor allem darum, mögliche Änderungen der Trends in der Entwicklung wirtschaftlicher Phänomene und Objekte zu berücksichtigen.

39. Statistische Tabellen, ihre Typen, Bestandteile und Regeln für den Aufbau von Tabellen. Statistische Tabelle - eine Form der rationellsten Darstellung der resultierenden statistischen Zusammenfassung und Gruppierung numerischer (numerischer) Daten. Im Aussehen ist es eine Kombination aus vertikalen und horizontalen Linien, die seitliche und obere Kopfzeilen enthalten. Die Statistiktabelle enthält das Subjekt und das Prädikat.

Das Thema der Tabelle stellt die statistische Grundgesamtheit dar, auf die in der Tabelle Bezug genommen wird, d. h. eine Liste einzelner oder aller Einheiten der Grundgesamtheit oder ihrer Gruppen. Meistens wird das Thema auf der linken Seite der Tabelle platziert und enthält eine Liste von Zeichenfolgen.

41. STRUKTURELLE MEAN FASHION UND IHRE DEFINITION. Der Wert des Durchschnitts wird durch alle Werte des Attributs bestimmt, die in der angegebenen Verteilungsreihe gefunden werden. Es gibt solche strukturellen Durchschnitte wie: (1) Modus (2) Median (3) Quartil (4) Dezil (5) Perzentil Modus ist die häufigste Variante der Reihe. Mode wird zum Beispiel zur Bestimmung der Größe von Kleidung und Schuhen verwendet, die bei Käufern am gefragtesten sind. Der Modus für eine diskrete Reihe ist die Variante mit der höchsten Frequenz. Bei der Berechnung des Modus für die Intervallvariationsreihe müssen Sie zuerst das modale Intervall (durch die maximale Häufigkeit) und dann den Wert des modalen Werts des Attributs gemäß der Formel bestimmen: wobei:

Prädikat der Tabelle - Indikatoren, mit deren Hilfe die Charakteristik des in der Tabelle angezeigten Phänomens angegeben wird.

Wenn das Subjekt der Tabelle eine einfache Liste beliebiger Objekte enthält, heißt die Tabelle einfach. Das Thema einer einfachen Tabelle enthält keine Gruppierungen statistischer Daten. Wenn das Subjekt einer einfachen Tabelle eine Liste von Gebieten enthält, wird eine solche Tabelle als territorial bezeichnet.

Eine einfache Tabelle enthält nur beschreibende Informationen, ihre analytischen Möglichkeiten sind begrenzt. Eine gründliche Analyse der untersuchten Bevölkerung, die Beziehung der Zeichen, beinhaltet die Konstruktion komplexerer Tabellen - Gruppe und Kombination.

Gruppentabellen enthalten im Subjekt eine Gruppierung von Einheiten des Betrachtungsgegenstandes nach einem wesentlichen Merkmal. Die einfachste Art von Gruppentabellen sind Tabellen, die Verteilungsreihen darstellen. Die Gruppentabelle kann komplexer werden, wenn das Prädikat nicht nur die Anzahl der Einheiten in jeder Gruppe enthält, sondern auch eine Reihe anderer wichtiger Indikatoren, die die Fächergruppen quantitativ und qualitativ charakterisieren. Solche Tabellen werden häufig verwendet, um zusammenfassende Indikatoren gruppenübergreifend zu vergleichen, wodurch bestimmte praktische Schlussfolgerungen gezogen werden können.

Kombinationstabellen werden als statistische Tabellen bezeichnet, deren Gegenstand eine Gruppe von Einheiten ist, die nach einem Attribut gebildet und nach einem oder mehreren Merkmalen in Untergruppen unterteilt sind. Im Gegensatz zu einfachen Tabellen und Gruppentabellen ermöglichen Kombinationstabellen, die Abhängigkeit der Prädikatenindikatoren von mehreren Merkmalen zu verfolgen, die die Grundlage der kombinatorischen Gruppierung im Fach bildeten.

Grundregeln für den Aufbau statistischer Tabellen:

1) der Titel sollte Gegenstand, Zeichen, Zeit und Ort der Veranstaltung widerspiegeln;

2) Spalten und Zeilen sollten nummeriert werden;

3) Spalten und Zeilen müssen Maßeinheiten enthalten;

4) die während der Analyse verglichenen Informationen werden in benachbarte Spalten (oder untereinander) platziert;

5) Die Zahlen in der Tabelle werden in der Mitte der Spalte eingetragen, streng untereinander; es ist ratsam, Zahlen mit der gleichen Genauigkeit zu runden;

6) das Fehlen von Daten wird durch das Multiplikationszeichen ( ) angezeigt, wenn diese Position nicht ausgefüllt werden soll, wird das Fehlen von Informationen durch Auslassungspunkte (...) oder n.d. oder n angezeigt. St., in Abwesenheit eines Phänomens wird ein Bindestrich (-) gesetzt;

7) Um sehr kleine Zahlen anzuzeigen, verwenden Sie die Bezeichnung 0.0 oder 0.00; Wenn die Nummer auf der Grundlage von bedingten Berechnungen erhalten wird, wird sie in Klammern gesetzt, zweifelhafte Nummern werden von einem Fragezeichen und vorläufige Nummern von einem Zeichen (*) begleitet.

40. Struktureller mittlerer Median und seine Definition. Median- Dies ist der numerische Wert des Merkmals für die Einheit der Bevölkerung, die sich in der Mitte der Rangfolge befindet (aufgebaut in aufsteigender oder absteigender Reihenfolge der Werte des untersuchten Merkmals). Median manchmal genannt mittlere Option, Weil sie teilt die Bevölkerung so in zwei gleiche Teile, dass sich auf beiden Seiten gleich viele Einheiten der Bevölkerung befinden. Wenn allen Einheiten einer Serie Seriennummern zugeordnet sind, wird die Seriennummer des Medians durch die Formel (n + 1) bestimmt: 2 für Serie, wobei n ist seltsam. Wenn eine Reihe mit eben Anzahl der Einheiten, dann Median ist der Durchschnittswert zwischen zwei benachbarten Optionen, bestimmt durch die Formel: n:2, (n+1):2, (n:2)+1.

Bei diskreten Variationsreihen mit einer ungeraden Anzahl von Bevölkerungseinheiten ist dies ein bestimmter Zahlenwert in der Mitte der Reihe.

Das Auffinden des Medians in Intervallvariationsreihen erfordert eine vorläufige Bestimmung des Intervalls, in dem sich der Median befindet, d. h. mittleres Intervall- Dieses Intervall ist dadurch gekennzeichnet, dass seine kumulative (kumulative) Häufigkeit gleich der halben Summe ist oder die halbe Summe aller Häufigkeiten der Reihe übersteigt.

X Me - die untere Grenze des Medianintervalls

h Me - der Wert des Medianintervalls;

S Me-1 - die Summe der akkumulierten Häufigkeiten des Intervalls vor dem Medianintervall;

  • f Me ist die lokale Frequenz des Medianintervalls.

Die Häufigkeit des Intervalls nach dem Modal

42. Das Wesen und die Bedeutung von Diagrammen, ihre Hauptelemente. Bei Statistiken zeitlicher Ablauf genannt illustratives Bild Die Darstellung statistischer Größen und ihrer Zusammenhänge durch geometrische Punkte, Linien, Figuren oder Landkarten.

Grafiken anfügen Präsentation von Statistiken größere Sichtbarkeit als Tabellen, Ausdruckskraft, erleichtern deren Wahrnehmung und Analyse. Ermöglicht die visuelle Beurteilung der Art des untersuchten Phänomens, seiner inhärenten Muster, Entwicklungstrends, Beziehungen zu anderen Indikatoren und der geografischen Auflösung der untersuchten Phänomene. Schon in der Antike sagten die Chinesen, dass ein Bild mehr als tausend Worte ersetzt, und es empfiehlt sich, die Analyse statistischer Daten möglichst immer mit ihrer grafischen Darstellung zu beginnen. Die Grafik ermöglicht es Ihnen, sich sofort einen Überblick über den gesamten Satz statistischer Indikatoren zu verschaffen. Die graphische Analysemethode wirkt als logische Fortsetzung der tabellarischen Methode und dient dem Zweck, verallgemeinernde statistische Kennwerte der Massenphänomenen inhärenten Prozesse zu gewinnen.
Mit Hilfe von Grafik Statistische Bilder p gelöste Aufgaben stat.studien:

1) eine visuelle Darstellung der Größenordnung von Indikatoren (Phänomenen) im Vergleich zueinander;

2) Charakterisierung der Struktur eines beliebigen Phänomens;

3) zeitliche Veränderung des Phänomens;

4) den Fortschritt des Plans;

5) die Abhängigkeit einer Änderung eines Phänomens von einer Änderung eines anderen;

6) die Prävalenz oder Verteilung beliebiger Mengen im gesamten Gebiet

In jedem Diagramm wird Folgendes unterschieden (ausgezeichnet): Hauptelemente:

  • 1) Raumbezugspunkte (Koordinatensystem);
  • 2) grafisches Bild;
  • 3) Diagrammfeld;
  • 4) Orientierungspunkte skalieren;
  • 5) Zeitplanerläuterung;
  • 6) Name des Diagramms

43. Wesen und Bedeutung von Durchschnittswerten. Durchschnittswert- ein verallgemeinertes Merkmal des Niveaus von Attributwerten, das pro Bevölkerungseinheit erhalten wird. Der Durchschnittswert wird für qualitativ homogene und sich nur quantitativ unterscheidende Zeichen berechnet, die allen Phänomenen einer bestimmten Menge innewohnen.

Durchschnittswerte sind gemeinsames (spiegeln die Bevölkerung als Ganzes wider) und Gruppe (reflektieren Sie die Funktion durch Gruppen). Sie sind in 2 Kategorien unterteilt - Kraft und Struktur .

antreiben umfassen - harmonisches Mittel, geometrisches Mittel, arithmetisches Mittel, mittleres Quadrat. Das Üblichste - vgl. Arithmetik. Mi harmonisch als Umkehrung der Arithmetik verwendet. Effektivwert zur Berechnung der Variationsindikatoren verwendet, vgl. geometrisch– in der Analyse der Dynamik.

zu strukturell sind der Modus und der Median. Mode- der Wert des untersuchten Merkmals mit der höchsten Häufigkeit. Median- der Wert des Merkmals, das in die Mitte der Reihe kommt. Mode wird in der kommerziellen Praxis verwendet, um die Verbrauchernachfrage zu untersuchen und Preise zu erfassen. In einer diskreten Reihe ist der Modus die Variante mit der höchsten Frequenz. In der Intervallvariationsreihe ist der Modus die zentrale Variante des Intervalls, das die höchste Frequenz aufweist. Mit dem Median erhalten Sie genauere Ergebnisse als mit anderen Formen von Durchschnittswerten. Die Eigenschaft des Medians ist, dass die Summe der absoluten Abweichungen der Merkmalswerte vom Median geringer ist als von jedem anderen Wert. Bestimmen Sie die akkumulierten Häufigkeiten für diese Rangfolge; Gemäß den akkumulierten Häufigkeiten finden wir das Medianintervall.