Normalverteilung. Warum ist bei einer Normalverteilung nicht alles normal?

    So verwalten Sie die Finanzen Ihres Unternehmens richtig, wenn Sie kein Experte auf dem Gebiet der Finanzanalyse sind - Die Finanzanalyse

    Finanzmanagement - Finanzbeziehungen zwischen Subjekten, Finanzmanagement auf verschiedenen Ebenen, Portfoliomanagement, Methoden zur Verwaltung der Bewegung finanzieller Ressourcen - dies ist keine vollständige Liste des Themas " Finanzverwaltung"

    Reden wir darüber, was ist Coaching? Einige glauben, dass dies eine bürgerliche Marke ist, andere, dass es ein Durchbruch in der modernen Geschäftswelt ist. Coaching ist ein Regelwerk für erfolgreiches Business sowie die Fähigkeit, diese Regeln richtig zu handhaben.

4.1. Ist die Verteilung der Beobachtungen oft normal?

In ökonometrischen und wirtschaftsmathematischen Modellen, die insbesondere bei der Untersuchung und Optimierung von Marketing- und Managementprozessen, Unternehmens- und Regionalmanagement, Genauigkeit und Stabilität technologischer Prozesse, bei Problemen der Zuverlässigkeit, Sicherheit, einschließlich Umweltsicherheit, des Funktionierens von Technik verwendet werden Geräte und Objekte, die Entwicklung von Organigrammen wenden häufig die Konzepte und Ergebnisse der Wahrscheinlichkeitstheorie und der mathematischen Statistik an. In diesem Fall werden häufig bestimmte parametrische Familien von Wahrscheinlichkeitsverteilungen verwendet. Am bekanntesten ist die Normalverteilung. Die Lognormalverteilung, Exponentialverteilung, Gammaverteilung, Weibull-Gnedenko-Verteilung usw. werden ebenfalls verwendet.

Natürlich ist es immer notwendig, die Übereinstimmung von Modellen mit der Realität zu überprüfen. Es gibt zwei Fragen. Unterscheiden sich die tatsächlichen Verteilungen von den im Modell verwendeten? Inwieweit beeinflusst dieser Unterschied die Schlussfolgerungen?

Im Folgenden wird am Beispiel der Normalverteilung und der darauf basierenden Methoden zur Zurückweisung stark unterschiedlicher Beobachtungen (Ausreißer) gezeigt, dass sich reale Verteilungen fast immer von denen unterscheiden, die in den klassischen Parameterfamilien enthalten sind, und die vorhandenen Abweichungen von den gegebenen Familien aufgrund der Verwendung dieser Familien im vorliegenden Fall falsche Rückschlüsse auf die Zurückweisung ziehen.

Gibt es einen Grund, a priori von der Normalität der Messergebnisse auszugehen?

Es wird manchmal argumentiert, dass in dem Fall, in dem der Messfehler (oder eine andere Zufallsvariable) als Ergebnis der kumulativen Wirkung vieler kleiner Faktoren bestimmt wird, dieser Wert aufgrund des zentralen Grenzwertsatzes (CLT) der Wahrscheinlichkeitstheorie gilt gut angenähert (durch Verteilung) durch eine normale Zufallsvariable. Diese Aussage gilt, wenn die kleinen Faktoren additiv und unabhängig voneinander wirken. Wirken sie multiplikativ, so muss wegen gleicher CLT durch eine logarithmische Normalverteilung approximiert werden. Bei angewandten Problemen ist es meist nicht möglich, eher die Additivität als die Multiplikativität der Wirkung kleiner Faktoren zu belegen. Wenn die Abhängigkeit allgemeiner Natur ist, nicht auf eine additive oder multiplikative Form reduziert wird und es keinen Grund gibt, Modelle zu akzeptieren, die Exponential-, Weibull-Gnedenko-, Gamma- oder andere Verteilungen liefern, dann ist praktisch nichts über die Verteilung der bekannt endgültige Zufallsvariable, mit Ausnahme von intramathematischen Eigenschaften wie Regelmäßigkeit .

Bei der Verarbeitung bestimmter Daten wird manchmal angenommen, dass Messfehler normalverteilt sind. Unter der Annahme der Normalität werden klassische Regressions-, Dispersions-, Faktoranalyse- und metrologische Modelle erstellt, die sowohl in der nationalen behördlichen und technischen Dokumentation als auch in internationalen Standards immer noch zu finden sind. Die Modelle zur Berechnung der maximal erreichbaren Werte bestimmter Eigenschaften, die bei der Gestaltung von Systemen zur Gewährleistung der Funktionssicherheit von wirtschaftlichen Strukturen, technischen Geräten und Gegenständen verwendet werden, basieren auf der gleichen Annahme. Für eine solche Annahme gibt es jedoch keine theoretische Grundlage. Es ist notwendig, die Fehlerverteilung experimentell zu untersuchen.

Was zeigen die Versuchsergebnisse? Die in der Monographie gegebene Zusammenfassung lässt uns feststellen, dass die Verteilung der Messfehler in den meisten Fällen von der normalen abweicht. So wurde am Machine-Electrotechnical Institute (Varna, Bulgarien) die Verteilung von Kalibrierfehlern für die Skalen von analogen elektrischen Messgeräten untersucht. Untersucht wurden die in der Tschechoslowakei, der UdSSR und Bulgarien hergestellten Geräte. Das Fehlerverteilungsgesetz erwies sich als dasselbe. Es hat eine Dichte

Wir analysierten die Daten zu den Parametern von 219 tatsächlichen Fehlerverteilungen, die von verschiedenen Autoren untersucht wurden, wenn sowohl elektrische als auch nichtelektrische Größen mit einer Vielzahl von (elektrischen) Geräten gemessen wurden. Als Ergebnis dieser Studie stellte sich heraus, dass 111 Verteilungen, d.h. etwa 50 % gehören zur Klasse der Verteilungen mit Dichte

wo ist der Gradparameter; b - Verschiebungsparameter; - Skalenparameter; - Gamma-Funktion des Arguments;

(cm. ); 63 Ausschüttungen, d.h. 30 % haben Flat-Top-Dichten mit langen, sanften Hängen und können nicht als normal oder beispielsweise exponentiell bezeichnet werden. Die restlichen 45 Verteilungen erwiesen sich als bimodal.

Im Buch des berühmten Metrologen Prof. PV Novitsky stellt die Ergebnisse einer Untersuchung der Verteilungsgesetze verschiedener Arten von Messfehlern vor. Er untersuchte die Fehlerverteilung von elektromechanischen Instrumenten auf Kernen, elektronischen Instrumenten zur Messung von Temperaturen und Kräften, digitalen Instrumenten mit manuellem Abgleich. Das Volumen der Versuchsdatenproben für jede Probe betrug 100–400 Messwerte. Es stellte sich heraus, dass 46 von 47 Verteilungen signifikant von der Normalverteilung abwichen. Es wurde die Form der Fehlerverteilung in 25 Kopien von Shch-1411-Digitalvoltmetern an 10 Punkten des Bereichs untersucht. Die Ergebnisse sind ähnlich. Weitere Informationen sind in der Monographie enthalten.

Das Labor für Angewandte Mathematik der Staatlichen Universität Tartu analysierte 2.500 Proben aus dem Archiv echter statistischer Daten. Bei 92 % musste die Normalitätshypothese verworfen werden.

Die obigen Beschreibungen der experimentellen Daten zeigen, dass die Messfehler in den meisten Fällen von den normalen Verteilungen abweichen. Das bedeutet insbesondere, dass die meisten Anwendungen des Student's t-Tests, der klassischen Regressionsanalyse und anderer auf der Normalentheorie basierender statistischer Verfahren streng genommen nicht gerechtfertigt sind, da das zugrunde liegende Axiom der Normalverteilung den entsprechenden Zufallsverteilungen entspricht Variablen ist falsch.

Um die bestehende Praxis der Analyse statistischer Daten zu rechtfertigen oder sinnvoll zu ändern, ist es offensichtlich notwendig, die Eigenschaften von Datenanalyseverfahren in "illegalen" Anwendungen zu untersuchen. Die Untersuchung von Zurückweisungsverfahren hat gezeigt, dass sie extrem instabil gegenüber Abweichungen von der Normalität sind, und daher ist es nicht ratsam, sie für die Verarbeitung echter Daten zu verwenden (siehe unten); daher kann man nicht behaupten, dass ein willkürlich gewähltes Verfahren gegen Abweichungen von der Normalität stabil ist.

Manchmal wird empfohlen, vor der Anwendung beispielsweise des Student-Tests für die Homogenität zweier Proben die Normalität zu überprüfen. Obwohl es dafür viele Kriterien gibt, ist das Testen auf Normalität ein komplexeres und zeitaufwändigeres statistisches Verfahren als das Testen auf Homogenität (sowohl mit Student-Typ-Statistiken als auch mit nichtparametrischen Tests). Eine ziemlich große Anzahl von Beobachtungen ist erforderlich, um die Normalität hinreichend zuverlässig festzustellen. Um also zu garantieren, dass sich die Verteilungsfunktion der Beobachtungsergebnisse von einer normalen um nicht mehr als 0,01 unterscheidet (für jeden Wert des Arguments), sind etwa 2500 Beobachtungen erforderlich. In den meisten wirtschaftlichen, technischen, biomedizinischen und anderen angewandten Studien ist die Zahl der Beobachtungen deutlich geringer. Dies gilt insbesondere für Daten, die bei der Untersuchung von Problemen im Zusammenhang mit der Gewährleistung der Funktionssicherheit von Wirtschaftsstrukturen und technischen Objekten verwendet werden.

Manchmal versuchen sie, die CCT zu verwenden, um die Fehlerverteilung an die normale anzunähern, einschließlich spezieller Addierer im technologischen Schema des Messgeräts. Lassen Sie uns den Nutzen dieser Maßnahme bewerten. Seien Z1 , Z2 ,…, Zk unabhängige identisch verteilte Zufallsvariablen mit der Verteilungsfunktion H = H(x) so dass Betrachte

Der vom Addierer bereitgestellte Indikator für die Nähe zur Normalität ist

Die rechte Ungleichung in der letzten Relation folgt aus Schätzungen der Konstanten in der Berry-Essen-Ungleichung, die im Buch erhalten wurden, und die linke aus dem Beispiel in der Monographie. Für ein normales Gesetz = 1,6, für ein einheitliches Gesetz = 1,3, für ein Zweipunktgesetz = 1 (dies ist die untere Grenze für ). Um sicherzustellen, dass der Abstand (in der Kolmogorov-Metrik) zur Normalverteilung nicht mehr als 0,01 für "erfolglose" Verteilungen beträgt, sind daher mindestens k0 Terme erforderlich, wobei

In häufig verwendeten Addierern sind die Terme viel kleiner. Durch Einengen der Klasse möglicher Verteilungen H kann man, wie in der Monographie gezeigt, eine schnellere Konvergenz erreichen, aber hier verschmilzt die Theorie noch nicht mit der Praxis. Darüber hinaus ist nicht klar, ob die Nähe der Verteilung zur Normalverteilung (in einer bestimmten Metrik) auch die Nähe der Verteilung von Statistiken gewährleistet, die aus Zufallsvariablen mit dieser Verteilung konstruiert wurden, zu der Verteilung von Statistiken, die normalen Beobachtungen entsprechen. Offenbar sind für jede einzelne Statistik spezielle theoretische Studien notwendig, zu der auch der Autor der Monographie kommt. Bei Ausreißer-Zurückweisungsproblemen lautet die Antwort: „Bringt nicht vor“ (siehe unten).

Beachten Sie, dass das Ergebnis jeder realen Messung mit einer endlichen Anzahl von Dezimalstellen aufgezeichnet wird, normalerweise klein (2-5), daher ist es ratsam, alle realen Daten nur mit diskreten Zufallsvariablen zu modellieren, die eine endliche Anzahl von Werten annehmen. Die Normalverteilung ist nur eine Annäherung an die reale Verteilung. So nehmen beispielsweise die in der Arbeit angegebenen Daten einer bestimmten Studie Werte von 1,0 bis 2,2 an, d.h. es gibt insgesamt 13 mögliche Werte. Aus dem Dirichlet-Prinzip folgt, dass sich die nach den Arbeitsdaten konstruierte Verteilungsfunktion irgendwann um mindestens 1/26, also um 1/26, von der nächstliegenden Normalverteilungsfunktion unterscheidet. bis 0.04. Außerdem ist offensichtlich, dass für eine Normalverteilung einer Zufallsvariablen die Wahrscheinlichkeit, in eine diskrete Menge von Dezimalzahlen mit einer gegebenen Anzahl von Dezimalstellen zu fallen, 0 ist.

Aus dem oben Gesagten folgt, dass Messergebnisse und allgemein statistische Daten Eigenschaften aufweisen, die dazu führen, dass sie durch Zufallsvariablen mit mehr oder weniger von den Normalverteilungen abweichenden Verteilungen modelliert werden sollten. In den meisten Fällen unterscheiden sich die Verteilungen erheblich von Normalverteilungen, in anderen können Normalverteilungen scheinbar als eine Art Näherung angesehen werden, aber es gibt nie eine vollständige Übereinstimmung. Dies impliziert sowohl die Notwendigkeit, die Eigenschaften klassischer statistischer Verfahren in nichtklassischen probabilistischen Modellen zu untersuchen (ähnlich wie unten für das Student-Kriterium getan), als auch die Notwendigkeit, sich stabil zu entwickeln (unter Berücksichtigung des Vorhandenseins von Abweichungen von der Normalität) und nichtparametrische, einschließlich verteilungsfreie Verfahren, ihre breite Einführung in die Praxis der statistischen Datenverarbeitung.

Die hier weggelassenen Betrachtungen für andere Parameterfamilien führen zu ähnlichen Schlussfolgerungen. Das Ergebnis lässt sich wie folgt formulieren. Reale Datenverteilungen gehören fast nie zu einer bestimmten parametrischen Familie. Reelle Verteilungen unterscheiden sich immer von denen, die in den parametrischen Familien enthalten sind. Die Unterschiede können groß oder klein sein, aber es gibt sie immer. Versuchen wir zu verstehen, wie wichtig diese Unterschiede für die ökonometrische Analyse sind.

Alle Rechte vorbehalten. Materialien auf dieser Website dürfen nur mit einem Link zu dieser Website verwendet werden.

Die Normalverteilung (Gaußsche Verteilung) spielt in der Wahrscheinlichkeitstheorie seit jeher eine zentrale Rolle, da sie sehr häufig durch den Einfluss vieler Faktoren entsteht, von denen jeder vernachlässigbar ist. Der zentrale Grenzwertsatz (CLT) findet in praktisch allen angewandten Wissenschaften Anwendung und macht den Apparat der Statistik universell. Es gibt jedoch sehr häufig Fälle, in denen seine Anwendung unmöglich ist, und Forscher versuchen auf jede erdenkliche Weise, die Anpassung der Ergebnisse an die Gaußsche Funktion zu organisieren. Das ist ungefähr ein alternativer Ansatz im Falle des Einflusses auf die Verteilung vieler Faktoren, das erzähle ich Ihnen jetzt.

Kurze Geschichte des CPT. Zu Newtons Lebzeiten bewies Abraham de Moivre einen Satz über die Konvergenz einer zentrierten und normalisierten Anzahl von Beobachtungen eines Ereignisses in einer Reihe unabhängiger Versuche zu einer Normalverteilung. Während des gesamten 19. und frühen 20. Jahrhunderts diente dieses Theorem als wissenschaftliches Modell für Verallgemeinerungen. Laplace bewies den Fall der Gleichverteilung, Poisson - den lokalen Satz für den Fall mit unterschiedlichen Wahrscheinlichkeiten. Poincaré, Legendre und Gauss entwickelten eine reichhaltige Theorie der Beobachtungsfehler und die Methode der kleinsten Quadrate, die auf der Konvergenz von Fehlern zu einer Normalverteilung basiert. Chebyshev bewies einen noch stärkeren Satz für die Summe von Zufallsvariablen, indem er die Methode der Momente entwickelte. Lyapunov bewies 1900 unter Berufung auf Chebyshev und Markov die CLT in ihrer jetzigen Form, jedoch nur mit der Existenz von Momenten dritter Ordnung. Und erst 1934 machte Feller dem ein Ende, indem er zeigte, dass die Existenz von Momenten zweiter Ordnung sowohl eine notwendige als auch eine hinreichende Bedingung ist.

Die CLT kann wie folgt formuliert werden: Wenn Zufallsvariablen unabhängig und gleichverteilt sind und eine endliche Varianz ungleich Null haben, dann konvergieren die Summen (zentriert und normalisiert) dieser Variablen gegen das Normalgesetz. In dieser Form wird dieses Theorem an Universitäten gelehrt und so oft von Beobachtern und Forschern verwendet, die in Mathematik nicht professionell sind. Was ist falsch mit ihr? In der Tat hat der Satz hervorragende Anwendungen in den Bereichen, auf denen Gauß, Poincaré, Chebyshev und andere Genies des 19. Jahrhunderts gearbeitet haben, nämlich: die Theorie der Beobachtungsfehler, die statistische Physik, die kleinsten Quadrate, demografische Studien und vielleicht noch etwas anderes. Aber Wissenschaftler, denen die Originalität fehlt, diesen Satz zu entdecken, zu verallgemeinern und auf alles anwenden zu wollen, oder einfach die Normalverteilung an den Ohren zu zerren, wo es einfach nicht sein kann. Wenn Sie Beispiele wollen, ich habe sie.

Intelligenzquotient IQ. Zunächst impliziert es, dass die Intelligenz von Menschen normalverteilt ist. Sie führen einen Test durch, der so vorkompiliert ist, dass herausragende Fähigkeiten nicht berücksichtigt werden, sondern separat mit den gleichen Teilfaktoren berücksichtigt werden: logisches Denken, mentales Design, Rechenfähigkeiten, abstraktes Denken und etwas anderes. Die Fähigkeit, Probleme zu lösen, die für die meisten unerreichbar sind, oder einen Test in ultraschneller Zeit zu bestehen, wird in keiner Weise berücksichtigt, und das frühere Bestehen des Tests erhöht das Ergebnis (aber nicht die Intelligenz) in der Zukunft. Und dann glauben die Spießer, dass "niemand doppelt so schlau sein kann wie sie", "nehmen wir es den Weisen weg und teilen es".

Das zweite Beispiel: Änderungen der Finanzkennzahlen. Die Untersuchung von Aktienkursänderungen, Währungskursen, Rohstoffoptionen erfordert den Einsatz des Apparats der mathematischen Statistik, und gerade hier ist es wichtig, sich nicht mit der Art der Verteilung zu verwechseln. Ein typisches Beispiel: 1997 wurde der Nobelpreis für Wirtschaftswissenschaften für den Vorschlag des Black-Scholes-Modells gezahlt, das auf der Annahme einer Normalverteilung des Wachstums von Aktienindikatoren (dem sogenannten weißen Rauschen) basiert. Gleichzeitig wiesen die Autoren ausdrücklich darauf hin, dass dieses Modell verfeinert werden muss, aber die Mehrheit der weiteren Forscher entschied sich lediglich dafür, die Poisson-Verteilung einfach zur Normalverteilung hinzuzufügen. Hier wird es offensichtlich zu Ungenauigkeiten bei der Untersuchung langer Zeitreihen kommen, da die Poisson-Verteilung die CLT zu gut erfüllt und selbst mit 20 Termen nicht von der Normalverteilung zu unterscheiden ist. Schauen Sie sich das Bild unten an (und es stammt aus einer sehr seriösen Wirtschaftszeitschrift), es zeigt, dass trotz einer ziemlich großen Anzahl von Beobachtungen und offensichtlichen Verzerrungen angenommen wird, dass die Verteilung normal ist.


Es ist ziemlich offensichtlich, dass die Verteilung der Löhne unter der Bevölkerung der Stadt, die Größe der Dateien auf der Festplatte, die Bevölkerung der Städte und Länder nicht normal sein werden.

Die Verteilungen aus diesen Beispielen haben gemeinsam das Vorhandensein eines sogenannten "schweren Schwanzes", dh Werte weit vom Mittelwert entfernt, und eine auffällige Asymmetrie, normalerweise rechts. Betrachten wir, was solche Verteilungen außer normal sein könnten. Beginnen wir mit dem zuvor erwähnten Poisson: Es hat einen Schwanz, aber wir möchten, dass das Gesetz für eine Reihe von Gruppen wiederholt wird, in denen es eingehalten wird (Berechnung der Dateigröße für ein Unternehmen, Gehalt für mehrere Städte) oder skaliert (Willkürliches Erhöhen oder Verringern des Intervalls des Modells Black-Scholes), wie Beobachtungen zeigen, verschwinden Schwänze und Asymmetrie nicht, aber die Poisson-Verteilung sollte gemäß CLT normal werden. Aus den gleichen Gründen funktionieren die Erlang-Distribution, Beta, Logonormal und alle anderen mit Dispersion nicht. Es bleibt nur noch die Pareto-Verteilung abzuschneiden, die aber aufgrund der Koinzidenz der Mode mit dem Minimalwert, der bei der Analyse von Stichprobendaten fast nie vorkommt, nicht passt.

Distributionen mit den erforderlichen Eigenschaften existieren und werden stabile Distributionen genannt. Ihre Geschichte ist ebenfalls sehr interessant, und der Hauptsatz wurde ein Jahr nach Fellers Arbeit, im Jahr 1935, durch die gemeinsamen Anstrengungen des französischen Mathematikers Paul Levy und des sowjetischen Mathematikers A. Ya bewiesen. Chinchin. Der CLT wurde verallgemeinert, ihm wurde die Bedingung für das Vorliegen einer Streuung entzogen. Anders als normal werden weder die Dichte noch die Verteilungsfunktion stabiler Zufallsvariablen ausgedrückt (mit einer seltenen Ausnahme, die weiter unten besprochen wird), alles, was über sie bekannt ist, ist die charakteristische Funktion (die inverse Fourier-Transformation der Verteilungsdichte, sondern to die Essenz verstehen, das kann man nicht wissen).
Also das Theorem: Wenn Zufallsvariablen unabhängig und gleichverteilt sind, dann konvergieren die Summen dieser Variablen zu einem stabilen Gesetz.

Jetzt die Definition. Zufallswert X ist genau dann stabil, wenn der Logarithmus seiner charakteristischen Funktion dargestellt werden kann als:

wo .

Eigentlich ist hier nichts sehr kompliziertes, Sie müssen nur die Bedeutung der vier Parameter erklären. Die Parameter sigma und mu sind die übliche Skalierung und der Offset, da mu in der Normalverteilung gleich der Erwartung ist, wenn dies der Fall ist, und dies der Fall ist, wenn Alpha größer als eins ist. Der Beta-Parameter ist Asymmetrie; wenn er gleich Null ist, ist die Verteilung symmetrisch. Aber Alpha ist ein charakteristischer Parameter, der angibt, in welcher Reihenfolge die Momente einer Größe existieren, je näher es an zwei liegt, desto mehr sieht die Verteilung wie eine normale aus, wenn es gleich zwei ist, wird die Verteilung normal und nur in In diesem Fall hat es Momente großer Ordnung, auch im Fall der Normalverteilung degeneriert die Schiefe. Bei Alpha gleich Eins und Beta Null erhält man die Cauchy-Verteilung, bei Alpha gleich Halb und Beta Eins die Levy-Verteilung, in anderen Fällen keine Darstellung in Quadraturen für die Verteilungsdichte solcher Mengen.
Im 20. Jahrhundert wurde eine reichhaltige Theorie stabiler Größen und Prozesse (genannt Levy-Prozesse) entwickelt, ihre Verbindung mit gebrochenen Integralen aufgezeigt, verschiedene Methoden der Parametrisierung und Modellierung eingeführt, Parameter auf verschiedene Weise geschätzt und die Konsistenz und Stabilität ermittelt der Schätzungen wurden angezeigt. Schauen Sie sich das Bild an, es zeigt die simulierte Flugbahn des Levy-Prozesses mit einem 15-fach vergrößerten Fragment.


Während er sich mit solchen Prozessen und ihrer Anwendung im Finanzwesen beschäftigte, kam Benoit Mandelbrot auf Fraktale. Allerdings war nicht überall so gut. Die zweite Hälfte des 20. Jahrhunderts verlief unter dem allgemeinen Trend der angewandten und kybernetischen Wissenschaften, was eine Krise der reinen Mathematik bedeutete, alle wollten produzieren, aber nicht denken, die Geisteswissenschaften besetzten mit ihrem Journalismus die mathematischen Sphären. Beispiel: das Buch "Fifty unterhaltsame probabilistische Probleme mit Lösungen" des amerikanischen Mosteller, Problem Nummer 11:


Die Lösung des Autors für dieses Problem ist einfach eine Niederlage des gesunden Menschenverstandes:

Die gleiche Situation ist bei der 25. Aufgabe, wo DREI widersprüchliche Antworten gegeben werden.

Aber zurück zu stabilen Distributionen. Im Rest des Artikels werde ich versuchen zu zeigen, dass es bei der Arbeit mit ihnen keine zusätzlichen Schwierigkeiten geben sollte. Es gibt nämlich numerische und statistische Methoden, mit denen Sie die Parameter auswerten, die Verteilungsfunktion berechnen und simulieren können, dh wie bei jeder anderen Verteilung arbeiten.

Modellierung stabiler Zufallsvariablen. Da im Vergleich alles bekannt ist, erinnere ich zunächst an die rechnerisch bequemste Methode zur Erzeugung eines Normalwerts (die Box-Muller-Methode): if - grundlegende Zufallsvariablen (gleichmäßig verteilt auf )