Anpassungskriterien in statistischen Innovationstechnologien. Pearson-Anpassungstest

In diesem Abschnitt werden wir eines der Probleme im Zusammenhang mit dem Testen der Wahrscheinlichkeit von Hypothesen betrachten, nämlich das Problem der Konsistenz zwischen theoretischen und statistischen Verteilungen.

Nehmen Sie an, dass eine gegebene statistische Verteilung durch eine theoretische Kurve abgeflacht wird f(x)(Abb. 7.6.1). Unabhängig davon, wie gut die theoretische Kurve gewählt wird, sind einige Diskrepanzen zwischen ihr und der statistischen Verteilung unvermeidlich. Es stellt sich natürlich die Frage: Sind diese Diskrepanzen nur auf zufällige Umstände zurückzuführen, die mit einer begrenzten Anzahl von Beobachtungen verbunden sind, oder sind sie signifikant und hängen damit zusammen, dass die von uns gewählte Kurve diese statistische Verteilung nicht richtig ausgleicht. Zur Beantwortung dieser Frage werden sogenannte „Einwilligungskriterien“ herangezogen.

Gesetze der Verteilung von Zufallsvariablen



Die Idee hinter der Anwendung der Kriterien für die Güte der Anpassung ist die folgende.

Anhand dieses statistischen Materials müssen wir die Hypothese testen H, darin besteht, dass die Zufallsvariable X gehorcht einem bestimmten Verteilungsgesetz. Dieses Gesetz kann in der einen oder anderen Form angegeben werden: zum Beispiel in Form einer Verteilungsfunktion F(x) oder in Form der Verteilungsdichte f(x), oder in Form einer Reihe von Wahrscheinlichkeiten p t , wo Punkt- die Wahrscheinlichkeit, dass der Wert X wird hineinfallen lch etwas Entladung.

Denn aus diesen bildet sich die Verteilungsfunktion F(x) die allgemeinste ist und alle anderen bestimmt, werden wir die Hypothese formulieren H, als darin bestehend, dass der Wert X hat eine Verteilungsfunktion ^(d:).

Annahme oder Ablehnung einer Hypothese H, Betrachten Sie eine gewisse Menge du, Charakterisierung des Grads der Diskrepanz zwischen der theoretischen und der statistischen Verteilung. Wert U kann auf verschiedene Arten ausgewählt werden; zum Beispiel als U man kann die Summe der quadrierten Abweichungen der theoretischen Wahrscheinlichkeiten nehmen Punkt aus den entsprechenden Frequenzen R* oder die Summe der gleichen Quadrate mit einigen Koeffizienten („Gewichte“), oder die maximale Abweichung der statistischen Verteilungsfunktion F*(x) von theoretisch F(x) usw. Nehmen wir an, dass die Menge U auf die eine oder andere Weise gewählt. Offensichtlich gibt es einige Zufallswert. Das Verteilungsgesetz dieser Zufallsvariablen hängt vom Verteilungsgesetz der Zufallsvariablen ab x, an denen Experimente durchgeführt wurden, und aus der Anzahl der Experimente P. Wenn die Hypothese H gilt, dann gilt das Verteilungsgesetz der Menge U durch das Verteilungsgesetz der Menge bestimmt X(Funktion F(x)) und Nummer P.

Nehmen wir an, dieses Verteilungsgesetz sei uns bekannt. Als Ergebnis dieser Versuchsreihe wurde festgestellt, dass die von uns gewählte Maßnahme



ZUSTIMMUNGSKRITERIEN


Abweichungen U einen gewissen Wert angenommen a. Die Frage ist, ob dies durch zufällige Ursachen erklärt werden kann oder ob diese Diskrepanz zu groß ist und auf einen signifikanten Unterschied zwischen theoretischer und statistischer Verteilung und damit auf die Untauglichkeit der Hypothese hinweist H? Um diese Frage zu beantworten, nehmen Sie an, dass die Hypothese H richtig ist, und unter dieser Annahme berechnen wir die Wahrscheinlichkeit, dass aufgrund zufälliger Ursachen, die mit einer unzureichenden Menge an experimentellem Material verbunden sind, das Maß der Diskrepanz entsteht U wird nicht kleiner sein als der von uns im Experiment beobachtete Wert und, d.h. wir berechnen die Wahrscheinlichkeit eines Ereignisses:

Wenn diese Wahrscheinlichkeit sehr klein ist, dann die Hypothese H ist als wenig plausibel abzulehnen; Wenn diese Wahrscheinlichkeit signifikant ist, sollte anerkannt werden, dass die experimentellen Daten der Hypothese nicht widersprechen N.

Es stellt sich die Frage, wie das Diskrepanzmaß £/ gewählt werden soll? Es stellt sich heraus, dass für einige Möglichkeiten der Wahl das Gesetz der Verteilung der Menge gilt U hat sehr einfache Eigenschaften und ist dafür ausreichend groß P praktisch unabhängig von der Funktion F(x). Gerade solche Diskrepanzmaße werden in der mathematischen Statistik als Übereinstimmungskriterien verwendet.

Betrachten wir eines der am häufigsten verwendeten Zustimmungskriterien – das sogenannte „Kriterium“. bei?" Pearson.

Nehmen Sie an, dass es ha unabhängige Experimente gibt, in denen jeweils die Zufallsvariable X einen bestimmten Wert angenommen. Die Ergebnisse der Versuche sind in zusammengefasst k Ziffern und werden in Form einer statistischen Reihe dargestellt.

Null(Basic) Nennen Sie die aufgestellte Hypothese über die Form der unbekannten Verteilung oder über die Parameter bekannter Verteilungen. im Wettbewerb (Alternative) heißt die Hypothese, die der Null widerspricht.

Zum Beispiel, wenn die Nullhypothese davon ausgehen soll, dass die Zufallsvariable X nach dem Gesetz verteilt ist, dann kann die konkurrierende Hypothese in der Annahme bestehen, dass die Zufallsvariable X nach einem anderen Gesetz verteilt.

Statistisches Kriterium(oder einfach Kriterium) wird eine Zufallsvariable genannt Zu, die zum Testen der Nullhypothese dient.

Nach Auswahl eines bestimmten Kriteriums, z. B. Kriterium , wird die Menge aller möglichen Werte in zwei nicht überlappende Teilmengen unterteilt: Eine davon enthält die Kriteriumswerte, unter denen die Nullhypothese abgelehnt wird, und die andere - unter was akzeptiert wird.

Kritischen Bereich ist die Menge der Testwerte, für die die Nullhypothese abgelehnt wird. Akzeptanzbereich der Hypothese bezeichnet den Wertesatz des Kriteriums, unter dem die Hypothese akzeptiert wird. kritische Punkte die Punkte, die den kritischen Bereich vom Akzeptanzbereich der Nullhypothese trennen, werden genannt.

Für unser Beispiel entspricht bei einem Wert von der aus der Stichprobe errechnete Wert dem Akzeptanzbereich der Hypothese: Die Zufallsvariable wird nach dem Gesetz verteilt. Ist der errechnete Wert , dann fällt er in den kritischen Bereich, das heißt, die Hypothese über die Verteilung einer Zufallsvariablen nach dem Gesetz wird verworfen.

Bei einer Verteilung wird der kritische Bereich durch die Ungleichung bestimmt, der Akzeptanzbereich der Nullhypothese wird durch die Ungleichung bestimmt.

2.6.3. Gütekriterien Pearson.

Eine der Aufgaben der Zootechnik und Veterinärgenetik ist die Züchtung neuer Rassen und Arten mit den geforderten Eigenschaften. Zum Beispiel erhöhte Immunität, Krankheitsresistenz oder eine Veränderung der Fellfarbe.

In der Praxis stellt sich bei der Analyse der Ergebnisse oft heraus, dass die tatsächlichen Ergebnisse mehr oder weniger einem theoretischen Verteilungsgesetz entsprechen. Es ist notwendig, den Grad der Übereinstimmung zwischen tatsächlichen (empirischen) Daten und theoretischen (hypothetischen) Daten zu bewerten. Stellen Sie dazu eine Nullhypothese auf: Die resultierende Population wird nach dem Gesetz "A" verteilt. Die Überprüfung der Hypothese über das vorgeschlagene Verteilungsgesetz erfolgt anhand einer speziell ausgewählten Zufallsvariablen – dem Kriterium der Anpassungsgüte.

Übereinstimmungskriterium nannte das Kriterium zum Testen der Hypothese das angebliche Gesetz der unbekannten Verteilung.

Es gibt mehrere Anpassungskriterien: Pearson, Kolmogorov, Smirnov usw. Am häufigsten wird der Anpassungstest nach Pearson verwendet.

Betrachten Sie die Anwendung des Pearson-Kriteriums am Beispiel der Prüfung der Hypothese des Normalverteilungsgesetzes der Allgemeinbevölkerung. Dazu vergleichen wir empirische und theoretische (in Fortführung der Normalverteilung berechnete) Häufigkeiten.

Normalerweise besteht ein gewisser Unterschied zwischen theoretischen und empirischen Frequenzen. Zum Beispiel:

Erfahrungshäufigkeiten 7 15 41 93 113 84 25 13 5

Theoretische Frequenzen 5 13 36 89 114 91 29 14 6

Betrachten Sie zwei Fälle:

Die Diskrepanz zwischen theoretischen und empirischen Häufigkeiten ist zufällig (unsignifikant), d.h. es ist möglich, einen Vorschlag über die Verteilung empirischer Häufigkeiten nach dem normalen Gesetz zu machen;

Die Diskrepanz zwischen theoretischen und empirischen Häufigkeiten ist nicht zufällig (signifikant), d.h. theoretische Häufigkeiten werden auf der Grundlage der falschen Hypothese über die Normalverteilung der Allgemeinbevölkerung berechnet.

Mit Hilfe des Goodness-of-fit-Kriteriums von Pearson ist es möglich, zufällig oder nicht die Diskrepanz zwischen theoretischen und empirischen Häufigkeiten zu bestimmen, d.h. mit einer gegebenen Konfidenzwahrscheinlichkeit zu bestimmen, ob die Grundgesamtheit normalgesetzlich verteilt ist oder nicht.

Lassen Sie sich also die empirische Verteilung für eine Stichprobe der Größe n erhalten:

Optionen……

Empirische Frequenzen…….

Nehmen wir an, dass unter der Annahme einer Normalverteilung die theoretischen Häufigkeiten berechnet werden. Auf dem Signifikanzniveau muss die Nullhypothese getestet werden: Die Grundgesamtheit ist normalverteilt.

Als Kriterium zum Testen der Nullhypothese nehmen wir eine Zufallsvariable

(*)

Dieser Wert ist zufällig, da er in verschiedenen Experimenten unterschiedliche, bisher unbekannte Werte annimmt. Es ist klar, dass je weniger empirische und theoretische Häufigkeiten voneinander abweichen, desto geringer die Aussagekraft des Kriteriums ist und damit gewissermaßen die Nähe der empirischen und theoretischen Verteilungen charakterisiert.

Es ist bewiesen, dass bei , das Verteilungsgesetz der Zufallsvariablen (*), egal welchem ​​Verteilungsgesetz die allgemeine Bevölkerung unterliegt, zum Verteilungsgesetz mit Freiheitsgraden tendiert. Daher wird die Zufallsvariable (*) mit bezeichnet, und das Kriterium selbst wird als „Chi-Quadrat“-Anpassungstest bezeichnet.

Lassen Sie uns den aus den Beobachtungsdaten berechneten Wert des Kriteriums als bezeichnen. Die tabellierten kritischen Werte des Kriteriums für ein bestimmtes Signifikanzniveau und die Anzahl der Freiheitsgrade bezeichnen . In diesem Fall wird die Anzahl der Freiheitsgrade aus der Gleichheit bestimmt, wobei die Anzahl der Gruppen (Teilintervalle) der Stichprobe oder Klassen; - die Anzahl der Parameter der vorgeschlagenen Verteilung. Die Normalverteilung hat zwei Parameter – die mathematische Erwartung und die Standardabweichung. Daher wird die Anzahl der Freiheitsgrade für eine Normalverteilung aus der Gleichheit ermittelt

Wenn der berechnete Wert und der Tabellenwert die Ungleichung erfüllen , wird die Nullhypothese über die Normalverteilung der Allgemeinbevölkerung akzeptiert. Wenn , wird die Nullhypothese verworfen und die dazu alternative Hypothese akzeptiert (die Allgemeinbevölkerung ist nicht nach dem Normalgesetz verteilt).

Kommentar. Bei Verwendung des Pearson-Anpassungstests muss die Stichprobengröße mindestens 30 betragen. Jede Gruppe muss mindestens 5 Optionen enthalten. Wenn es weniger als 5 Frequenzen in den Gruppen gibt, werden sie mit benachbarten Gruppen kombiniert.

Im Allgemeinen ist die Anzahl der Freiheitsgrade für eine Chi-Quadrat-Verteilung definiert als die Gesamtzahl der Werte, aus denen die entsprechenden Maße berechnet werden, abzüglich der Anzahl derjenigen Bedingungen, die diese Werte verknüpfen, also reduzieren die Möglichkeit der Variation zwischen ihnen. Im einfachsten Fall entspricht die Anzahl der Freiheitsgrade bei der Berechnung der Anzahl der Klassen, reduziert um eins. So erhält man beispielsweise beim Dihybrid-Splitting 4 Klassen, aber nur die erste Klasse wird ohne Bezug erhalten, die nachfolgenden sind bereits mit den vorherigen verknüpft. Daher ist die Anzahl der Freiheitsgrade für die dihybride Aufspaltung .

Beispiel 1 Bestimmen Sie den Grad der Übereinstimmung zwischen der tatsächlichen Verteilung der Gruppen in Bezug auf die Anzahl der Kühe mit Tuberkulose und der theoretisch erwarteten, die unter Berücksichtigung der Normalverteilung berechnet wurde. Die Ausgangsdaten sind in der Tabelle zusammengefasst:

Lösung.

Entsprechend dem Signifikanzniveau und der Anzahl der Freiheitsgrade aus der Tabelle der kritischen Verteilungspunkte (siehe Anhang 4) finden wir den Wert . Weil die können wir schlussfolgern, dass der Unterschied zwischen theoretischer und tatsächlicher Häufigkeit zufällig ist. Somit entspricht die tatsächliche Verteilung der Gruppen nach der Zahl der Kühe mit Tuberkulose der theoretisch erwarteten.

Beispiel 2 Die theoretische Verteilung nach Phänotyp von Individuen, die in der zweiten Generation durch dihybride Kreuzung von Kaninchen nach dem Mendelschen Gesetz erhalten wurden, beträgt 9: 3: 3: 1. Es ist erforderlich, die Entsprechung der empirischen Verteilung von Kaninchen aus der Kreuzung schwarzer Individuen mit normalem Haar zu berechnen mit flaumigen Tieren - Albinos. Bei der Kreuzung in der zweiten Generation wurden 120 Nachkommen erhalten, darunter 45 schwarze mit kurzem Haar, 30 schwarze Flaumkaninchen, 25 weiße mit kurzen Haaren, 20 weiße Flaumkaninchen.

Lösung. Die theoretisch zu erwartende Segregation bei den Nachkommen sollte einem Verhältnis von vier Phänotypen (9:3:3:1) entsprechen. Berechnen Sie die theoretischen Häufigkeiten (Anzahl der Tore) für jede Klasse:

9 + 3 + 3 + 1 = 16, also können wir erwarten, dass es sich um schwarze Kurzhaar handelt ; schwarz flaumig - ; weiße Kurzhaar ; weiß flaumig -.

Die empirische (tatsächliche) phänotypische Verteilung war wie folgt: 45; dreißig; 25; zwanzig.

Fassen wir all diese Daten in der folgenden Tabelle zusammen:

Unter Verwendung des Pearson-Anpassungstests berechnen wir den Wert von:

Die Anzahl der Freiheitsgrade in einem Dihybridkreuz. Für das Signifikanzniveau Wert finden . Weil die können wir schlussfolgern, dass der Unterschied zwischen theoretischen und tatsächlichen Frequenzen kein Zufall ist. Folglich weicht die resultierende Gruppe von Kaninchen in Bezug auf die Verteilung der Phänotypen vom Mendelschen Gesetz während der Dihybridkreuzung ab und spiegelt den Einfluss bestimmter Faktoren wider, die die Art der Aufspaltung im Phänotyp in der zweiten Generation von Hybriden verändern.

Der Chi-Quadrat-Anpassungstest nach Pearson kann auch verwendet werden, um zwei homogene empirische Verteilungen miteinander zu vergleichen, d.h. diejenigen, die die gleichen Klassengrenzen haben. Die Nullhypothese ist die Hypothese, dass zwei unbekannte Verteilungsfunktionen gleich sind. Der Chi-Quadrat-Test wird in solchen Fällen durch die Formel bestimmt

(**)

wobei und die Volumina der verglichenen Verteilungen sind; und sind die Häufigkeiten der entsprechenden Klassen.

Betrachten Sie anhand des folgenden Beispiels einen Vergleich zweier empirischer Verteilungen.

Beispiel 3 Die Länge der Kuckuckseier wurde in zwei Territorialzonen gemessen. In der ersten Zone wurde eine Probe von 76 Eiern () untersucht, in der zweiten von 54 (). Folgende Ergebnisse werden erhalten:

Länge (mm)
Frequenzen
Frequenzen - - -

Auf dem Signifikanzniveau muss die Nullhypothese getestet werden, dass beide Eierproben zu derselben Kuckuckspopulation gehören.

Einführung

Die Relevanz dieses Themas besteht darin, dass wir während des Studiums der Grundlagen der Biostatistik davon ausgegangen sind, dass das Verteilungsgesetz der Allgemeinbevölkerung bekannt ist. Aber was ist, wenn das Verteilungsgesetz unbekannt ist, aber Grund zur Annahme besteht, dass es eine bestimmte Form hat (nennen wir es A), dann wird die Nullhypothese überprüft: Die allgemeine Bevölkerung ist nach dem Gesetz A verteilt. Diese Hypothese wird getestet unter Verwendung einer speziell ausgewählten Zufallsvariablen - dem Kriterium der Übereinstimmung.

Anpassungstests sind Kriterien zum Testen von Hypothesen über die Übereinstimmung der empirischen Verteilung mit der theoretischen Wahrscheinlichkeitsverteilung. Diese Kriterien fallen in zwei Kategorien:

  • III Allgemeine Anpassungskriterien gelten für die allgemeinste Formulierung einer Hypothese, nämlich die Hypothese, dass die beobachteten Ergebnisse mit einer a priori angenommenen Wahrscheinlichkeitsverteilung übereinstimmen.
  • III Spezielle Anpassungstests implizieren spezielle Nullhypothesen, die die Zustimmung zu einer bestimmten Form der Wahrscheinlichkeitsverteilung formulieren.

Gütekriterien

Die gebräuchlichsten Anpassungstests sind Omega-Quadrat, Chi-Quadrat, Kolmogorov und Kolmogorov-Smirnov.

Nicht-parametrische Übereinstimmungstests Kolmogorov, Smirnov, Omega-Quadrat sind weit verbreitet. Allerdings sind sie auch mit weit verbreiteten Fehlern in der Anwendung statistischer Methoden verbunden.

Tatsache ist, dass die aufgeführten Kriterien entwickelt wurden, um die Übereinstimmung mit einer vollständig bekannten theoretischen Verteilung zu testen. Berechnungsformeln, Verteilungstabellen und kritische Werte sind weit verbreitet. Die Hauptidee des Kolmogorov-, Omega-Quadrat- und ähnlicher Kriterien besteht darin, den Abstand zwischen der empirischen Verteilungsfunktion und der theoretischen Verteilungsfunktion zu messen. Diese Kriterien unterscheiden sich in Form von Abständen im Raum der Verteilungsfunktionen.

Pearsons p2-Anpassungstests für eine einfache Hypothese

Das Theorem von K. Pearson bezieht sich auf unabhängige Versuche mit einer endlichen Anzahl von Ergebnissen, d.h. zu den Bernoulli-Prozessen (in einem etwas erweiterten Sinne). Es ermöglicht zu beurteilen, ob Beobachtungen in einer großen Anzahl von Studien zur Häufigkeit dieser Ergebnisse mit ihren geschätzten Wahrscheinlichkeiten übereinstimmen.

Bei vielen praktischen Problemen ist das genaue Verteilungsgesetz unbekannt. Daher wird eine Hypothese über die Entsprechung des bestehenden empirischen Gesetzes aufgestellt, das auf der Grundlage von Beobachtungen aufgebaut ist, und einem theoretischen Gesetz. Diese Hypothese erfordert statistische Tests, deren Ergebnisse entweder bestätigt oder widerlegt werden.

Sei X die untersuchte Zufallsvariable. Es ist erforderlich, die Hypothese H0 zu testen, dass diese Zufallsvariable dem Verteilungsgesetz F(x) gehorcht. Dazu ist es notwendig, eine Stichprobe von n unabhängigen Beobachtungen zu machen und daraus ein empirisches Verteilungsgesetz F "(x) zu erstellen. Um die empirischen und hypothetischen Gesetze zu vergleichen, wird eine Regel verwendet, die als Anpassungsgüte bezeichnet wird. Eine der Am bekanntesten ist die Chi-Quadrat-Anpassungsgüte von K. Pearson, in der die Chi-Quadrat-Statistik berechnet wird:

wobei N die Anzahl der Intervalle ist, nach denen das empirische Verteilungsgesetz erstellt wurde (die Anzahl der Spalten des entsprechenden Histogramms), i die Nummer des Intervalls ist, pt i die Wahrscheinlichkeit ist, in die der Wert der Zufallsvariablen fallen wird das i-te Intervall für das theoretische Verteilungsgesetz, pe i ist die Wahrscheinlichkeit, dass der Wert der Zufallsvariablen in das i-te Intervall für das empirische Verteilungsgesetz fällt. Es muss der Chi-Quadrat-Verteilung gehorchen.

Wenn der berechnete Wert der Statistik das Chi-Quadrat-Verteilungsquantil mit k-p-1 Freiheitsgraden für ein bestimmtes Signifikanzniveau überschreitet, wird die H0-Hypothese zurückgewiesen. Andernfalls wird es auf dem angegebenen Signifikanzniveau akzeptiert. Dabei ist k die Anzahl der Beobachtungen, p die Anzahl der geschätzten Parameter des Verteilungsgesetzes.

Schauen wir uns die Statistiken an:

Die p2-Statistik wird Pearsons Chi-Quadrat-Statistik für die einfache Hypothese genannt.

Es ist klar, dass p2 das Quadrat eines gewissen Abstands zwischen zwei r-dimensionalen Vektoren ist: dem Vektor der relativen Häufigkeiten (mi /n, …, mr /n) und dem Wahrscheinlichkeitsvektor (pi , …, pr). Diese Distanz unterscheidet sich von der euklidischen Distanz nur dadurch, dass andere Koordinaten mit unterschiedlichen Gewichten in sie eingehen.

Diskutieren wir das Verhalten der h2-Statistik für den Fall, dass die Hypothese H wahr ist, und für den Fall, dass H falsch ist. Wenn H wahr ist, dann ist das asymptotische Verhalten von ch2 für n > ? gibt den Satz von K. Pearson an. Um zu verstehen, was mit (2.2) passiert, wenn H falsch ist, beachten Sie, dass nach dem Gesetz der großen Zahlen mi /n > pi für n > ?, für i = 1, …, r gilt. Daher gilt für n > ?:

Dieser Wert ist gleich 0. Wenn also H falsch ist, dann ist h2 >? (wenn n > ?).

Aus dem Gesagten folgt, dass H verworfen werden sollte, wenn der im Experiment erhaltene Wert von h2 zu groß ist. Die Worte "zu groß" bedeuten hier wie immer, dass der beobachtete Wert von n2 den kritischen Wert überschreitet, der in diesem Fall den Chi-Quadrat-Verteilungstabellen entnommen werden kann. Mit anderen Worten, die Wahrscheinlichkeit P(p2 npi p2) ist ein kleiner Wert und daher ist es unwahrscheinlich, dass sie versehentlich dieselbe wie im Experiment oder eine noch größere Diskrepanz zwischen dem Häufigkeitsvektor und dem Wahrscheinlichkeitsvektor erhält.

Die asymptotische Natur des Satzes von K. Pearson, der dieser Regel zugrunde liegt, erfordert Vorsicht bei seiner praktischen Anwendung. Es kann nur für große n verwendet werden. Um zu beurteilen, ob n groß genug ist, müssen die Wahrscheinlichkeiten pi , …, pr berücksichtigt werden. Daher kann man beispielsweise nicht sagen, dass hundert Beobachtungen ausreichen, da nicht nur n groß sein muss, sondern auch die Produkte npi , …, npr (erwartete Häufigkeiten) nicht klein sein dürfen. Daher stellte sich das Problem der Annäherung von ch2 (kontinuierliche Verteilung) an die Statistik ch2, deren Verteilung diskret ist, als schwierig heraus. Eine Kombination aus theoretischen und experimentellen Argumenten führte zu der Überzeugung, dass diese Näherung anwendbar ist, wenn alle erwarteten Frequenzen npi > 10 sind. wenn die Zahl r (die Anzahl der verschiedenen Ergebnisse) zunimmt, wird die Grenze für gesenkt (auf 5 oder sogar auf 3, wenn r in der Größenordnung von mehreren Zehn liegt). Um diesen Anforderungen gerecht zu werden, ist es in der Praxis manchmal notwendig, mehrere Ergebnisse zu kombinieren, d.h. gehe zum Bernoulli-Schema mit kleinerem r.

Das beschriebene Verfahren zur Überprüfung der Übereinstimmung lässt sich nicht nur auf Bernoulli-Tests, sondern auch auf Stichproben anwenden. Ihre Beobachtungen müssen zunächst durch Gruppierung in Bernoulli-Tests umgewandelt werden. Sie tun dies folgendermaßen: Der Beobachtungsraum wird in eine endliche Anzahl nicht überlappender Regionen unterteilt, und dann werden die beobachtete Häufigkeit und die hypothetische Wahrscheinlichkeit für jede Region berechnet.

In diesem Fall kommt zu den zuvor aufgeführten Näherungsschwierigkeiten eine weitere hinzu - die Wahl einer vernünftigen Aufteilung des ursprünglichen Raums. Gleichzeitig ist darauf zu achten, dass die Regel zur Überprüfung der Hypothese über die Ausgangsverteilung der Stichprobe im Allgemeinen ausreichend sensibel gegenüber möglichen Alternativen ist. Abschließend weise ich darauf hin, dass die statistischen Kriterien, die auf der Reduktion auf das Bernoulli-Schema basieren, in der Regel nicht gegen alle Alternativen gelten. Daher ist diese Methode zur Überprüfung der Zustimmung von begrenztem Wert.

Der Kolmogorov-Smirnov-Anpassungstest in seiner klassischen Form ist leistungsfähiger als der h2-Test und kann verwendet werden, um die Hypothese zu testen, dass die empirische Verteilung einer beliebigen theoretischen kontinuierlichen Verteilung F(x) mit bekannten Parametern entspricht. Der letztere Umstand schränkt die Möglichkeit einer breiten praktischen Anwendung dieses Kriteriums bei der Analyse der Ergebnisse mechanischer Tests ein, da die Parameter der Verteilungsfunktion der Eigenschaften mechanischer Eigenschaften in der Regel aus den Daten von geschätzt werden die Probe selbst.

Das Kolmogorov-Smirnov-Kriterium wird für nicht gruppierte Daten oder für gruppierte Daten bei kleiner Intervallbreite (z. B. gleich der Skalenteilung eines Kraftmessers, Lastwechselzählers usw.) verwendet. Das Testergebnis einer Reihe von n Proben sei eine Variationsreihe mechanischer Eigenschaften

x1? x2? ... ? xi? ... ? xn. (3,93)

Es ist erforderlich, die Nullhypothese zu testen, dass die Stichprobenverteilung (3.93) zum theoretischen Gesetz F(x) gehört.

Das Kolmogorov-Smirnov-Kriterium basiert auf der Verteilung der maximalen Abweichung der akkumulierten Einzelheit vom Wert der Verteilungsfunktion. Bei der Verwendung werden Statistiken berechnet

das ist eine Statistik des Kolmogorov-Tests. Wenn die Ungleichheit

Dnvn? Stirn (3,97)

bei großen Stichprobenumfängen (n > 35) bzw

Dn(vn + 0,12 + 0,11/vn) ? Stirn (3,98)

für n? 35 wird die Nullhypothese nicht verworfen.

Wenn die Ungleichungen (3.97) und (3.98) nicht erfüllt sind, wird die Alternativhypothese akzeptiert, dass die Stichprobe (3.93) zu einer unbekannten Verteilung gehört.

Die kritischen Werte von lb sind: л0,1 = 1,22; l0,05 = 1,36; l0,01 = 1,63.

Wenn die Parameter der Funktion F(x) nicht im Voraus bekannt sind, sondern aus den Stichprobendaten geschätzt werden, verliert das Kolmogorov-Smirnov-Kriterium seine Universalität und kann nur verwendet werden, um die Übereinstimmung der experimentellen Daten mit nur einer bestimmten Verteilung zu überprüfen Funktionen.

Bei Verwendung als Nullhypothese werden Statistiken berechnet, unabhängig davon, ob die experimentellen Daten zu einer normalen oder einer logarithmischen Normalverteilung gehören:

wobei Ö(zi) der Wert der Laplace-Funktion für ist

Ö(zi) = (xi - xср)/s Das Kolmogorov-Smirnov-Kriterium für jeden Stichprobenumfang n wird geschrieben als

Die kritischen Werte von lb sind in diesem Fall: л0,1 = 0,82; l0,05 = 0,89; l0,01 = 1,04.

Wenn die Hypothese über die Übereinstimmung der Stichprobe mit der *** Exponentialverteilung überprüft wird, deren Parameter aus experimentellen Daten geschätzt wird, werden ähnliche Statistiken berechnet:

Kriterium empirische Wahrscheinlichkeit

und bilden das Kolmogorov-Smirnov-Kriterium.

Die kritischen Werte von lb für diesen Fall sind: λ0,1 = 0,99; l0,05 = 1,09; l0,01 = 1,31.

Um die Hypothese über die Übereinstimmung der empirischen Verteilung mit dem theoretischen Verteilungsgesetz zu testen, werden spezielle statistische Indikatoren verwendet - Kriterien der Anpassungsgüte (oder Konformitätskriterien). Dazu gehören die Kriterien von Pearson, Kolmogorov, Romanovsky, Yastremsky usw. Die meisten Anpassungskriterien basieren auf der Verwendung von Abweichungen empirischer Häufigkeiten von theoretischen. Je kleiner diese Abweichungen sind, desto besser entspricht (oder beschreibt) die theoretische Verteilung natürlich der empirischen.

Zustimmungskriterien- dies sind die Kriterien zum Testen von Hypothesen über die Übereinstimmung der empirischen Verteilung mit der theoretischen Wahrscheinlichkeitsverteilung. Solche Kriterien werden in zwei Klassen eingeteilt: allgemeine und spezielle. Das allgemeine Kriterium der Anpassungsgüte gilt für die allgemeinste Formulierung der Hypothese, nämlich für die Hypothese, dass die beobachteten Ergebnisse mit jeder a priori angenommenen Wahrscheinlichkeitsverteilung übereinstimmen. Spezielle Anpassungstests implizieren spezielle Nullhypothesen, die eine Übereinstimmung mit einer bestimmten Form der Wahrscheinlichkeitsverteilung formulieren.

Die Übereinstimmungskriterien, basierend auf dem etablierten Verteilungsgesetz, ermöglichen es festzustellen, wann die Abweichungen zwischen theoretischen und empirischen Häufigkeiten als unbedeutend (zufällig) und wann als signifikant (nicht zufällig) anerkannt werden sollten. Daraus folgt, dass die Kriterien der Anpassungsgüte es ermöglichen, die Richtigkeit der aufgestellten Hypothese beim Nivellieren der Reihe über die Art der Verteilung in der empirischen Reihe zu verwerfen oder zu bestätigen und zu beantworten, ob a akzeptiert werden kann Modell, das durch ein theoretisches Verteilungsgesetz für eine gegebene empirische Verteilung ausgedrückt wird.

Pearson-Anpassungstest c 2 (Chi-Quadrat) ist eines der wichtigsten Kriterien für die Anpassungsgüte. Vom englischen Mathematiker Karl Pearson (1857-1936) vorgeschlagen, um die Zufälligkeit (Signifikanz) von Diskrepanzen zwischen den Häufigkeiten empirischer und theoretischer Verteilungen zu bewerten:

Das Schema zur Anwendung des c 2 -Kriteriums zur Beurteilung der Konsistenz der theoretischen und empirischen Verteilungen lautet wie folgt:

1. Das berechnete Diskrepanzmaß wird bestimmt.

2. Die Anzahl der Freiheitsgrade wird bestimmt.

3. Die Anzahl der Freiheitsgrade n wird anhand einer speziellen Tabelle ermittelt.

4. Wenn , dann wird für ein gegebenes Signifikanzniveau α und die Anzahl der Freiheitsgrade n die Hypothese der Geringfügigkeit (Zufälligkeit) der Diskrepanzen verworfen. Andernfalls kann die Hypothese als nicht widersprüchlich zu den erhaltenen experimentellen Daten erkannt werden, und mit einer Wahrscheinlichkeit (1 – α) kann argumentiert werden, dass die Diskrepanzen zwischen den theoretischen und empirischen Häufigkeiten zufällig sind.

Signifikanzniveau ist die Wahrscheinlichkeit einer fehlerhaften Ablehnung der aufgestellten Hypothese, d.h. die Wahrscheinlichkeit, dass die richtige Hypothese verworfen wird. In statistischen Studien werden je nach Wichtigkeit und Verantwortung der zu lösenden Aufgaben die folgenden drei Signifikanzebenen verwendet:

1) a = 0,1, dann R = 0,9;

2) a = 0,05, dann R = 0,95;

3) a = 0,01, dann R = 0,99.

Unter Verwendung des Gütekriteriums c 2 müssen folgende Bedingungen erfüllt sein:

1. Das Volumen der untersuchten Population sollte groß genug sein ( N≥ 50), wobei die Häufigkeit bzw. Größe der Gruppe mindestens 5 betragen muss. Wird diese Bedingung verletzt, müssen zunächst kleine Häufigkeiten (weniger als 5) zusammengeführt werden.

2. Die empirische Verteilung sollte aus zufällig ausgewählten Daten bestehen, d. h. sie müssen unabhängig sein.

Der Nachteil des Kriteriums der Anpassungsgüte nach Pearson ist der Verlust einiger anfänglicher Informationen, der mit der Notwendigkeit verbunden ist, die Beobachtungsergebnisse in Intervalle zu gruppieren und einzelne Intervalle mit einer kleinen Anzahl von Beobachtungen zu kombinieren. Insofern empfiehlt es sich, die Überprüfung der Übereinstimmung von Verteilungen nach dem Kriterium um 2 weitere Kriterien zu ergänzen. Dies ist besonders notwendig, wenn die Stichprobengröße relativ klein ist ( n ≈ 100).

Bei Statistiken Kolmogorovs Anpassungstest(auch bekannt als Kolmogorov-Smirnov-Anpassungstest) wird verwendet, um zu bestimmen, ob zwei empirische Verteilungen demselben Gesetz gehorchen, oder um zu bestimmen, ob die resultierende Verteilung dem vorgeschlagenen Modell gehorcht. Das Kolmogorov-Kriterium basiert auf der Bestimmung der maximalen Differenz zwischen den akkumulierten Häufigkeiten oder den Häufigkeiten empirischer oder theoretischer Verteilungen. Das Kolmogorov-Kriterium wird nach folgenden Formeln berechnet:

wo D und d- bzw. die maximale Differenz zwischen den akkumulierten Frequenzen ( ff¢) und zwischen akkumulierten Frequenzen ( pp¢) empirische und theoretische Verteilungsreihen; N- die Anzahl der Einheiten in der Bevölkerung.

Nachdem der Wert von λ berechnet wurde, bestimmt eine spezielle Tabelle die Wahrscheinlichkeit, mit der argumentiert werden kann, dass die Abweichungen der empirischen Häufigkeiten von den theoretischen zufällig sind. Wenn das Vorzeichen Werte bis 0,3 annimmt, bedeutet dies, dass die Frequenzen vollständig zusammenfallen. Mit einer großen Anzahl von Beobachtungen ist der Kolmogorov-Test in der Lage, jede Abweichung von der Hypothese zu erkennen. Das bedeutet, dass bei vielen Beobachtungen mit seiner Hilfe jeder Unterschied zwischen der Stichprobenverteilung und der theoretischen Verteilung erkannt wird. Die praktische Bedeutung dieser Eigenschaft ist nicht signifikant, da es in den meisten Fällen schwierig ist, unter konstanten Bedingungen mit einer großen Anzahl von Beobachtungen zu rechnen, die theoretische Vorstellung des Verteilungsgesetzes, dem die Probe gehorchen muss, immer ungefähr ist, und die Genauigkeit statistischer Überprüfungen sollte die Genauigkeit des gewählten Modells nicht übersteigen.

Romanovsky-Anpassungskriterium basierend auf der Verwendung des Pearson-Kriteriums, d.h. bereits gefundene Werte c 2 , und die Anzahl der Freiheitsgrade:

wobei n die Anzahl der Variationsfreiheitsgrade ist.

Das Romanovsky-Kriterium ist praktisch, wenn keine Tabellen für vorhanden sind. Wenn ein< 3, то расхождения распределений случайны, если же >3, dann sind sie nicht zufällig und die theoretische Verteilung kann nicht als Modell für die untersuchte empirische Verteilung dienen.

B. S. Yastremsky verwendete im Übereinstimmungskriterium nicht die Anzahl der Freiheitsgrade, sondern die Anzahl der Gruppen ( k), einen speziellen Wert q in Abhängigkeit von der Anzahl der Gruppen und einen Chi-Quadrat-Wert. Zustimmungskriterium von Yastremsky hat dieselbe Bedeutung wie das Romanovsky-Kriterium und wird durch die Formel ausgedrückt

wo c 2 - Pearsons Kriterium der Übereinstimmung; - Anzahl der Gruppen; q - Koeffizient, für die Anzahl der Gruppen von weniger als 20 gleich 0,6.

Wenn ein L fact > 3, die Diskrepanzen zwischen theoretischer und empirischer Verteilung sind nicht zufällig, d.h. die empirische Verteilung erfüllt nicht die Anforderungen einer Normalverteilung. Wenn ein L Tatsache< 3, расхождения между эмпирическим и теоретическим распределениями считаются случайными.

Durch die Verarbeitung unabhängiger Messungen der Zufallsvariablen ξ können wir eine statistische Verteilungsfunktion F*(x) konstruieren. Durch die Form dieser Funktion kann man die Hypothese akzeptieren, dass die wahre theoretische Verteilungsfunktion F(x) ist. Die die Stichprobe bildenden unabhängigen Messungen selbst (x 1 , x 2 ,…,x n ) können als identisch verteilte Zufallsvariablen mit einer hypothetischen Verteilungsfunktion F(x) betrachtet werden.

Offensichtlich wird es einige Diskrepanzen zwischen den Funktionen F * (x) und F (x) geben. Es stellt sich die Frage, ob diese Diskrepanzen eine Folge der begrenzten Stichprobengröße sind oder damit zusammenhängen, dass unsere Hypothese nicht richtig ist, d.h. die eigentliche Verteilungsfunktion ist nicht F(x), sondern eine andere. Um dieses Problem zu lösen, werden die Zustimmungskriterien verwendet, deren Kern wie folgt ist. Es wird ein bestimmter Wert Δ(F, F *) gewählt, der den Grad der Diskrepanz zwischen den Funktionen F * (x) und F(x) charakterisiert. Zum Beispiel Δ(F, F *) = Sup|F(x)-F * (x)|, d.h. die obere Grenze in x des Moduls der Differenz.

Angenommen, die Hypothese ist richtig, d.h. Wenn man die Verteilungsfunktion F(x) kennt, kann man das Verteilungsgesetz der Zufallsvariablen Δ(F, F *) finden (wir gehen nicht auf die Frage ein, wie das geht). Wir setzen die Zahl p 0 so klein, dass das Ereignis (Δ(F, F *) > Δ 0 ) mit dieser Wahrscheinlichkeit als praktisch unmöglich angesehen wird. Vom Zustand

Finden Sie den Wert Δ 0 . Dabei ist f(x) die Verteilungsdichte Δ(F,F *).

Berechnen wir nun aus den Ergebnissen den Wert Δ(F, F *)= Δ 1

Proben, d. h. Finden Sie einen der möglichen Werte der Zufallsvariablen Δ(F, F *). Wenn Δ 1 ≥ Δ 0 , bedeutet dies, dass ein fast unmögliches Ereignis eingetreten ist. Dies lässt sich dadurch erklären, dass unsere Hypothese nicht richtig ist. Wenn also Δ 1 ≥ Δ 0, dann wird die Hypothese verworfen, und wenn Δ 1<Δ 0 , гипотеза может оказаться неверной, но вероятность этого мала.

Als Maß für die Abweichung Δ(F, F *) kann man verschiedene Werte nehmen. Abhängig davon ergeben sich unterschiedliche Übereinstimmungskriterien. Beispielsweise der Anpassungstest nach Kolmogorov, Mises, Pearson oder der Chi-Quadrat-Test.

Die Ergebnisse von n Messungen seien als gruppierte statistische Reihe mit k Ziffern dargestellt.

ENTLADUNG (x 0 ,x 1) (tatsächlich nehmen wir an, dass die Messfehler gleichmäßig über ein bestimmtes Segment verteilt sind). Dann ist die Wahrscheinlichkeit, jede der sieben Ziffern zu treffen, gleich . Unter Verwendung der gruppierten Reihe aus §11 berechnen wir Δ(F, F *)= Δ 1 =durch Formel (1). In diesem Fall .

Da das hypothetische Verteilungsgesetz zwei unbekannte Parameter enthält, α und β - den Anfang und das Ende des Segments, beträgt die Anzahl der Freiheitsgrade 7-1-2=4. Gemäß der Chi-Quadrat-Verteilungstabelle mit der gewählten Wahrscheinlichkeit p 0 =10 -3 ergibt sich Δ 0 =18. Da Δ 1 > Δ 0 , so muss die Hypothese einer Gleichverteilung des Messfehlers verworfen werden.