Autokorrelationsfunktion. Berechnungsbeispiele

Periodische Abhängigkeit ist ein allgemeiner Typ von Zeitreihenkomponenten. Es ist leicht ersichtlich, dass jede Beobachtung ihrer Nachbarin sehr ähnlich ist; zusätzlich gibt es eine wiederkehrende periodische Komponente, was bedeutet, dass jede Beobachtung auch der Beobachtung zum gleichen Zeitpunkt vor einer Periode ähnlich ist. Im Allgemeinen kann eine periodische Beziehung formal als eine Korrelationsbeziehung der Ordnung k zwischen jedem i-ten Element der Reihe und dem (i-k)-ten Element definiert werden. Sie kann mittels Autokorrelation (d. h. Korrelation zwischen den Mitgliedern der Reihe selbst) gemessen werden; k wird normalerweise als Verzögerung bezeichnet (manchmal werden äquivalente Begriffe verwendet: Verschiebung, Verzögerung). Wenn der Messfehler nicht zu groß ist, kann die Periodizität visuell bestimmt werden, indem alle k Zeiteinheiten das Verhalten der Reihenglieder betrachtet wird.

Die periodischen Komponenten einer Zeitreihe können mithilfe eines Korrelogramms ermittelt werden. Korrelogramm (Autokorrelogramm) zeigt numerisch und grafisch die Autokorrelationsfunktion (ACF), also die Autokorrelationskoeffizienten für eine Folge von Lags aus einem bestimmten Bereich. Das Korrelogramm zeigt normalerweise einen Bereich von zwei Standardfehlern pro Verzögerung, aber normalerweise ist die Größe der Autokorrelation interessanter als ihre Zuverlässigkeit, da das Interesse hauptsächlich an sehr starken Autokorrelationen liegt.

Beim Studium von Korrelogrammen ist zu beachten, dass die Autokorrelationen aufeinanderfolgender Lags formal voneinander abhängig sind. Betrachten Sie das folgende Beispiel. Wenn das erste Glied einer Reihe eng mit dem zweiten verwandt ist und das zweite mit dem dritten, dann muss auch das erste Glied in irgendeiner Weise vom dritten abhängen und so weiter. Dies führt dazu, dass sich die periodische Abhängigkeit nach Entfernung der Autokorrelationen erster Ordnung (dh nach Differenzbildung mit einem Lag von 1) deutlich ändern kann.

Zielsetzung:

1. Geben Sie grundlegende theoretische Informationen

2. Nennen Sie Beispiele für die ACF-Berechnung

Kapitel 1. Theoretische Informationen

Autokorrelationskoeffizient und seine Schätzung

Für eine vollständige Charakterisierung eines zufälligen Prozesses reichen sein mathematischer Erwartungswert und seine Varianz nicht aus. Bereits 1927 führte E. E. Slutsky das Konzept einer „verbundenen Reihe“ für abhängige Beobachtungen ein: Die Wahrscheinlichkeit des Auftretens bestimmter spezifischer Werte an einem bestimmten Ort hängt davon ab, welche Werte die Zufallsvariable bereits früher erhalten hat oder erhalten wird später. Mit anderen Worten, es gibt ein Streufeld von Wertepaaren x(t), x(t+k) der Zeitreihe, wobei k ein konstantes Intervall oder eine Verzögerung ist, die die gegenseitige Abhängigkeit nachfolgender Implementierungen des Prozesses charakterisiert von den vorherigen. Die Enge dieser Beziehung wird durch die Koeffizienten der Autokovarianz geschätzt -

g (k) = E[(x(t) - m)(x(t + k) - m)] –

und Autokorrelationen

r (k) = E[(x(t) - m)(x(t + k) - m)] / D ,

wobei m und D die mathematische Erwartung und Varianz des Zufallsprozesses sind. Zur Berechnung der Autokovarianz und Autokorrelation realer Prozesse werden Informationen über die gemeinsame Wahrscheinlichkeitsverteilung der Stufen der Reihe p(x(t 1),x(t 2)) benötigt. Für stationäre Prozesse in einem bestimmten statistischen Gleichgewicht ist diese Wahrscheinlichkeitsverteilung jedoch für alle Zeiten t 1 , t 2 gleich, die durch das gleiche Intervall getrennt sind. Da die Varianz des stationären Prozesses zu jedem Zeitpunkt (sowohl bei t als auch bei t + k) D = g(0) ist, kann die Autokorrelation mit der Verzögerung k ausgedrückt werden als

r (k) = g (k) / g (0),

woraus folgt, dass r (0) = 1. Unter denselben Stationaritätsbedingungen hängt der Korrelationskoeffizient r (k) zwischen zwei Werten der Zeitreihe nur vom Wert des Zeitintervalls k ab und nicht von der Beobachtung Momente t sich.

In der Statistik gibt es mehrere Stichprobenschätzungen der theoretischen Werte der Autokorrelation r(k) eines Prozesses über eine endliche Zeitreihe von n Beobachtungen. Der beliebteste Schätzer ist der nichtzyklische Autokorrelationskoeffizient mit Verzögerung k (Anderson, 1976; Vainu, 1977):

Der wichtigste der verschiedenen Autokorrelationskoeffizienten ist der erste -r 1 , der die Enge der Beziehung zwischen den Ebenen x(1), x(2) ,..., x(n -1) und x(2) misst. , x(3), ..., x(n).

Die Verteilung der Autokorrelationskoeffizienten ist unbekannt, daher wird zur Beurteilung ihrer Zuverlässigkeit manchmal die nichtparametrische Theorie von Anderson (1976) verwendet, der die Statistik vorgeschlagen hat.

t \u003d r 1 (n -1) 0,5,

die bei ausreichend großer Stichprobe normalverteilt ist, einen Mittelwert von null und eine Varianz von eins hat (Tintner, 1965).

Autokorrelationsfunktionen

Die Folge von Korrelationskoeffizienten r k , wobei k = 1, 2, ..., n, als Funktion des Intervalls k zwischen Beobachtungen wird als Autokorrelationsfunktion (ACF) bezeichnet.

Die Form der Stichproben-Autokorrelationsfunktion hängt eng mit der Struktur der Reihe zusammen.

· Die Autokorrelationsfunktion r k für „weißes Rauschen“ bildet für k > 0 ebenfalls eine stationäre Zeitreihe mit einem Mittelwert von 0.

· Bei einer stationären Reihe nimmt die ACF mit steigendem k schnell ab. Bei Vorliegen eines ausgeprägten Trends nimmt die Autokorrelationsfunktion die charakteristische Form einer sehr langsam fallenden Kurve an.

· Bei ausgeprägter Saisonalität enthält das ACF-Diagramm auch Ausreißer für Verzögerungen, die ein Vielfaches der Saisonalitätsperiode sind, aber diese Ausreißer können durch das Vorhandensein eines Trends oder einer großen Streuung einer zufälligen Komponente verschleiert werden.

Betrachten Sie Beispiele für die Autokorrelationsfunktion:

in Abb. Fig. 1 einen Graphen des ACF, der durch einen moderaten Trend und unklare Saisonalität gekennzeichnet ist;

· Reis. 2 zeigt die ACF einer Reihe, die durch eine phänomenale saisonale Determinante gekennzeichnet ist;

· Die fast nicht abfallende Kurve des ACF der Reihe (Abb. 3) weist auf das Vorhandensein eines deutlichen Trends hin.




Im allgemeinen Fall kann davon ausgegangen werden, dass es keine Autokorrelation in Reihen von Abweichungen vom Trend gibt. Zum Beispiel in Abb. Abbildung 4 zeigt das ACF-Diagramm für die Residuen, die aus der Glättung der Reihe erhalten wurden, was sehr an den Prozess des "weißen Rauschens" erinnert. Es ist jedoch nicht ungewöhnlich, dass die Residuen (die Zufallskomponente h) beispielsweise aus folgenden Gründen autokorreliert sind:

in deterministischen oder stochastischen Modellen der Dynamik wird ein signifikanter Faktor nicht berücksichtigt

· das Modell berücksichtigt mehrere unbedeutende Faktoren nicht, deren gegenseitige Beeinflussung sich aufgrund der Koinzidenz der Phasen und Richtungen ihrer Veränderung als signifikant erweist;

Der falsche Modelltyp wird gewählt (das Prinzip der Kontraintuitivität wird verletzt);

Die Zufallskomponente hat eine spezifische Struktur.


Durbin-Watson-Test

Der Durbin-Watson-Test (Durbin, 1969) ist eine gängige Statistik zum Testen auf das Vorhandensein einer Autokorrelation erster Ordnung von Residuen nach Reihenglättung oder in Regressionsmodellen.

Der Zahlenwert des Koeffizienten ist

d = [(e(2)-e(1)) 2 + ... + (e(n)-e(n -1)) 2 ]/,

wobei e(t) die Reste sind.

Die möglichen Werte des Kriteriums liegen im Bereich von 0 bis 4, und seine tabellarischen Schwellenwerte für verschiedene Signifikanzniveaus sind tabelliert (Lizer, 1971).

Der Wert von d liegt nahe am Wert von 2*(1 - r 1), wobei r der Stichproben-Autokorrelationskoeffizient für die Residuen ist. Dementsprechend ist der Idealwert der Statistik 2 (keine Autokorrelation). Kleinere Werte entsprechen einer positiven Autokorrelation der Residuen, große einer negativen.

Beispielsweise hat die Reihe der Residuen nach dem Glätten der Reihe das Kriterium d = 1,912. Ähnliche Statistiken nach dem Glätten der Reihe – d = 1,638 – weisen auf eine gewisse Autokorrelation der Residuen hin.

Kapitel 2

Alle Daten stammen von der Website http://e3.prime-tass.ru/macro/

Beispiel 1. RF-BIP

Lassen Sie uns Daten über das BIP der Russischen Föderation geben

Jahr Quartal BIP erster Unterschied
2001 ich 1900,9
II 2105,0 204,1
III 2487,9 382,9
IV 2449,8 -38,1
2002 ich 2259,5 -190,3
II 2525,7 266,2
III 3009,2 483,5
IV 3023,1 13,9
2003 ich 2850,7 -172,4
II 3107,8 257,1
III 3629,8 522,0
IV 3655,0 25,2
2004 ich 3516,8 -138,2
II 3969,8 453,0
III 4615,2 645,4
IV 4946,4 331,2
2005 ich 4479,2 -467,2
II 5172,9 693,7
III 5871,7 698,8
IV 6096,2 224,5
2006 ich 5661,8 -434,4
II 6325,8 664,0
III 7248,1 922,3
IV 7545,4 297,3
2007 ich 6566,2 -979,2
II 7647,5 1081,3
Wie bereits erwähnt, wurde die partielle Autokorrelationsfunktion eingeführt, um die Ordnung des autoregressiven Prozesses zu bestimmen. Tatsache ist, dass im Verlauf des gleitenden Durchschnitts die Ordnung des Modells ziemlich einfach zu bestimmen ist, da die Autokorrelationsfunktion danach scharf gegen Null tendiert. Jedoch...
(Ökonometrie)
  • Von großer Bedeutung bei der Analyse von Zeitreihen sind stationäre Zeitreihen, deren probabilistische Eigenschaften sich über die Zeit nicht ändern. Stationäre Zeitreihen werden insbesondere bei der Beschreibung zufälliger Komponenten der analysierten Reihe verwendet. Zeitfolgen yt(t= 1,2,..., P) namens...
    (ÖKONOMETRISCH)
  • Um die Analyse zu vereinfachen, nehmen wir an, dass die Basis des Chirp-Signals groß genug ist und daher sein Energiespektrum gleichmäßig ist und sich nur im Band (co0 – cod/2, co0 + cod/2) um die Trägerfrequenz co0 herum befindet. Dann ist gemäß Ausdruck (2.61) die ACF des Chirp-Signals gleich Reis. 2.44. Diagramm des normalisierten ACF...
    (THEORIE DER TELEKOMMUNIKATION)
  • Offenlegung der Struktur der Zeitreihen. Autokorrelationsfunktion
    Wenn es Trends und zyklische Schwankungen in den Zeitreihen gibt, hängen die Werte jeder nachfolgenden Ebene der Reihe von den Werten der vorherigen Ebenen ab. Der Grad der Enge des Zusammenhangs zwischen den Beobachtungsfolgen der Zeitreihe (gegeneinander verschoben um L Einheiten oder, wie sie sagen, mit einer Verzögerung ...
    (ÖKONOMETRISCH)
  • Grundlegende Zeitreihenmodelle und Autokorrelationsanalyse
    1. Der einfachste Fall eines additiven Zeitreihenmodells ist zufälliges Änderungsmodell: Das Modell geht davon aus, dass sich die Werte des untersuchten Indikators relativ zu einem konstanten Mittelwert von q (kein Aufwärtstrend oder Abwärtstrend) mit konstanter Varianz ändern und nicht voneinander abhängen....
    (GRUNDLAGEN DER MATHEMATISCHEN MODELLIERUNG SOZIOÖKONOMISCHER PROZESSE)
  • Autokorrelationsfunktion (ACF) eines Chirp-Signals.
    Um die Analyse zu vereinfachen, nehmen wir an, dass die Basis des Chirp-Signals groß genug ist und daher sein Energiespektrum gleichmäßig ist und sich nur im Band (co0 - sod/2, co0 + sol/2) um die Trägerfrequenz co0 befindet . Dann ist gemäß Ausdruck (2.61) die ACF des Chirp-Signals gleich Graph der normalisierten ACF des Chirp-Impulses R( t)...
    (ALLGEMEINE KOMMUNIKATIONSTHEORIE)
  • Stationäre Zeitreihen und ihre Eigenschaften. Autokorrelationsfunktion
    Stationär Das Konzept einer stationären Zeitreihe ist eng verwandt mit dem Konzept des stationären Zufallsprozesses, der sie erzeugt (Abschnitt 7.2). Zeitreihen, deren probabilistische Eigenschaften sich im Laufe der Zeit nicht ändern. Es werden stationäre Zeitreihen verwendet...
    (Wahrscheinlichkeitstheorie und mathematische Statistik)
  • Einführung

    Periodische Abhängigkeit ist ein allgemeiner Typ von Zeitreihenkomponenten. Es ist leicht ersichtlich, dass jede Beobachtung ihrer Nachbarin sehr ähnlich ist; zusätzlich gibt es eine wiederkehrende periodische Komponente, was bedeutet, dass jede Beobachtung auch der Beobachtung zum gleichen Zeitpunkt vor einer Periode ähnlich ist. Im Allgemeinen kann eine periodische Beziehung formal als eine Korrelationsbeziehung der Ordnung k zwischen jedem i-ten Element der Reihe und dem (i-k)-ten Element definiert werden. Sie kann mittels Autokorrelation (d. h. Korrelation zwischen den Mitgliedern der Reihe selbst) gemessen werden; k wird normalerweise als Verzögerung bezeichnet (manchmal werden äquivalente Begriffe verwendet: Verschiebung, Verzögerung). Wenn der Messfehler nicht zu groß ist, kann die Periodizität visuell bestimmt werden, indem alle k Zeiteinheiten das Verhalten der Reihenglieder betrachtet wird.

    Die periodischen Komponenten einer Zeitreihe können mithilfe eines Korrelogramms ermittelt werden. Korrelogramm (Autokorrelogramm) zeigt numerisch und grafisch die Autokorrelationsfunktion (ACF), also die Autokorrelationskoeffizienten für eine Folge von Lags aus einem bestimmten Bereich. Das Korrelogramm zeigt normalerweise einen Bereich von zwei Standardfehlern pro Verzögerung, aber normalerweise ist die Größe der Autokorrelation interessanter als ihre Zuverlässigkeit, da das Interesse hauptsächlich an sehr starken und daher hochsignifikanten Autokorrelationen liegt.

    Beim Studium von Korrelogrammen ist zu beachten, dass die Autokorrelationen aufeinanderfolgender Lags formal voneinander abhängig sind. Betrachten Sie das folgende Beispiel. Wenn das erste Glied einer Reihe eng mit dem zweiten verwandt ist und das zweite mit dem dritten, dann muss auch das erste Glied in irgendeiner Weise vom dritten abhängen und so weiter. Dies führt dazu, dass sich die periodische Abhängigkeit nach Entfernung der Autokorrelationen erster Ordnung (dh nach Differenzbildung mit einem Lag von 1) deutlich ändern kann.

    Zielsetzung:

    1. Geben Sie grundlegende theoretische Informationen

    2. Nennen Sie Beispiele für die ACF-Berechnung

    Autokorrelationsfunktion

    Autokorrelationskoeffizient und seine Schätzung

    Für eine vollständige Charakterisierung eines zufälligen Prozesses reichen sein mathematischer Erwartungswert und seine Varianz nicht aus. Bereits 1927 führte E. E. Slutsky das Konzept einer „gekoppelten Reihe“ für abhängige Beobachtungen ein: Die Wahrscheinlichkeit des Auftretens bestimmter spezifischer Werte an einem bestimmten Ort hängt davon ab, welche Werte die Zufallsvariable bereits früher erhalten hat oder erhalten wird später. Mit anderen Worten, es gibt ein Streufeld von Wertepaaren x(t), x(t+k) der Zeitreihe, wobei k ein konstantes Intervall oder eine Verzögerung ist, die die gegenseitige Abhängigkeit nachfolgender Implementierungen des Prozesses charakterisiert von den vorherigen. Die Enge dieser Beziehung wird durch die Koeffizienten der Autokovarianz geschätzt -

    g (k) = E[(x(t) - m)(x(t + k) - m)] -

    und Autokorrelationen

    r (k) = E[(x(t) - m)(x(t + k) - m)] / D ,

    wobei m und D die mathematische Erwartung und Varianz des Zufallsprozesses sind. Zur Berechnung der Autokovarianz und Autokorrelation realer Prozesse werden Informationen über die gemeinsame Wahrscheinlichkeitsverteilung der Stufen der Reihe p(x(t 1),x(t 2)) benötigt. Für stationäre Prozesse in einem bestimmten statistischen Gleichgewicht ist diese Wahrscheinlichkeitsverteilung jedoch für alle Zeiten t 1 , t 2 gleich, die durch das gleiche Intervall getrennt sind. Da die Varianz des stationären Prozesses zu jedem Zeitpunkt (sowohl bei t als auch bei t + k) D = g(0) ist, kann die Autokorrelation mit der Verzögerung k ausgedrückt werden als

    r (k) = g (k) / g (0),

    woraus folgt, dass r (0) = 1. Unter denselben Stationaritätsbedingungen hängt der Korrelationskoeffizient r (k) zwischen zwei Werten der Zeitreihe nur vom Wert des Zeitintervalls k ab und nicht von der Beobachtung Momente t sich. Der Autokorrelationskoeffizient kann auch für eine nichtstationäre Reihe geschätzt werden, allerdings geht dann seine probabilistische Interpretation verloren.

    In der Statistik gibt es mehrere Stichprobenschätzungen der theoretischen Werte der Autokorrelation r(k) eines Prozesses über eine endliche Zeitreihe von n Beobachtungen. Der beliebteste Schätzer ist der nichtzyklische Autokorrelationskoeffizient mit Verzögerung k (Anderson, 1976; Vainu, 1977):

    Der wichtigste der verschiedenen Autokorrelationskoeffizienten ist der erste -r 1 , der die Enge der Beziehung zwischen den Ebenen x(1), x(2) ,..., x(n -1) und x(2) misst. , x(3), ..., x(n).

    Die Verteilung der Autokorrelationskoeffizienten ist unbekannt, daher wird zur Beurteilung ihrer Zuverlässigkeit manchmal die nichtparametrische Theorie von Anderson (1976) verwendet, der die Statistik vorgeschlagen hat.

    t \u003d r 1 (n -1) 0,5,

    die bei ausreichend großer Stichprobe normalverteilt ist, einen Mittelwert von null und eine Varianz von eins hat (Tintner, 1965).

    Kurze Theorie

    Wenn es einen Trend und zyklische Schwankungen in der Zeitreihe gibt, hängen die Werte jeder nachfolgenden Ebene der Reihe von den vorherigen ab. Die Korrelationsabhängigkeit zwischen aufeinanderfolgenden Stufen einer Zeitreihe wird als Autokorrelation der Stufen der Reihe bezeichnet. Sie kann quantitativ gemessen werden, indem ein linearer Korrelationskoeffizient zwischen den Pegeln der ursprünglichen Zeitreihe und den um mehrere Zeitschritte verschobenen Pegeln dieser Reihe verwendet wird.

    Die Anzahl der Perioden, über die der Autokorrelationskoeffizient berechnet wird, wird als Verzögerung bezeichnet. Mit zunehmender Verzögerung nimmt die Anzahl der Wertepaare ab, die zur Berechnung des Autokorrelationskoeffizienten verwendet werden. Einige Autoren halten es für sinnvoll, die Regel anzuwenden, um die statistische Zuverlässigkeit der Autokorrelationskoeffizienten sicherzustellen - die maximale Verzögerung sollte nicht mehr als betragen.

    Wir stellen zwei wichtige Eigenschaften des Autokorrelationskoeffizienten fest. Erstens wird er in Analogie zum linearen Korrelationskoeffizienten konstruiert und charakterisiert somit die Nähe einer nur linearen Beziehung zwischen dem aktuellen und dem vorherigen Niveau der Reihe. Daher kann der Autokorrelationskoeffizient verwendet werden, um das Vorhandensein eines linearen (oder nahezu linearen) Trends zu beurteilen. Bei einigen Zeitreihen mit einem starken nichtlinearen Trend (z. B. einer Parabel zweiter Ordnung oder einem Exponenten) kann der Autokorrelationskoeffizient der Niveaus der ursprünglichen Reihe gegen Null gehen.

    Zweitens lässt sich anhand des Vorzeichens des Autokorrelationskoeffizienten nicht auf einen steigenden oder fallenden Trend in den Niveaus der Reihen schließen. Die meisten Zeitreihen von Wirtschaftsdaten enthalten eine positive Autokorrelation von Niveaus, sie können jedoch einen abnehmenden Trend aufweisen.

    Die Folge von Autokorrelationskoeffizienten von Pegeln erster, zweiter usw. Ordnung wird als Autokorrelationsfunktion des zeitlichen Rads bezeichnet. Das Diagramm der Abhängigkeit seiner Werte von der Größe der Verzögerung (in der Größenordnung des Autokorrelationskoeffizienten) wird als Korrelogramm bezeichnet.

    Die Analyse der Autokorrelationsfunktion und des Korrelogramms ermöglicht es, die Verzögerung zu bestimmen, bei der die Autokorrelation am höchsten ist, und folglich die Verzögerung, bei der die Beziehung zwischen dem aktuellen und dem vorherigen Niveau der Reihe am engsten ist, d.h Durch die Analyse der Autokorrelationsfunktion und des Korrelogramms kann man die Struktur der Reihe aufdecken.

    Wenn der Autokorrelationskoeffizient erster Ordnung der höchste war, enthält die untersuchte Reihe nur einen Trend. Wenn der Autokorrelationskoeffizient der Ordnung am höchsten ist, enthält die Reihe zyklische Schwankungen mit einer Periodizität an Zeitpunkten. Wenn keiner der Autokorrelationskoeffizienten signifikant ist, kann eine von zwei Annahmen über die Struktur dieser Reihe getroffen werden: Entweder enthält die Reihe keinen Trend und keine zyklischen Schwankungen, oder die Reihe enthält einen starken nichtlinearen Trend, der eine zusätzliche Analyse erfordert zu identifizieren. Daher ist es ratsam, den Autokorrelationskoeffizienten der Niveaus und die Autokorrelationsfunktion zu verwenden, um das Vorhandensein oder Fehlen einer Trendkomponente () und einer zyklischen (saisonalen) Komponente () in einer Zeitreihe zu identifizieren.

    Es gibt mehrere Ansätze zur Analyse der Struktur von Zeitreihen, die saisonale oder zyklische Schwankungen enthalten. Der einfachste Ansatz besteht darin, die Werte der saisonalen Komponente mit der Methode des gleitenden Durchschnitts zu berechnen und ein additives oder multiplikatives Zeitreihenmodell aufzubauen. Die allgemeine Ansicht des additiven Modells ist wie folgt:

    Dieses Modell geht davon aus, dass jede Ebene der Zeitreihe als Summe der Trend-, Saison- und Zufallskomponenten dargestellt werden kann. Die allgemeine Ansicht des multiplikativen Modells sieht folgendermaßen aus:

    Dieses Modell geht davon aus, dass jede Ebene der Zeitreihe als Produkt einer Trend-, Saison- und Zufallskomponente dargestellt werden kann. Die Wahl eines der beiden Modelle basiert auf der Analyse der Struktur saisonaler Schwankungen. Ist die Schwankungsamplitude näherungsweise konstant, wird ein additives Modell der Zeitreihe aufgebaut, bei dem die Werte der saisonalen Komponente für verschiedene Zyklen als konstant angenommen werden. Nimmt die Amplitude saisonaler Schwankungen zu oder ab, wird ein multiplikatives Modell der Zeitreihe aufgebaut, das die Höhen der Reihe von den Werten der saisonalen Komponente abhängig macht.

    Die Konstruktion von additiven und multiplikativen Modellen reduziert sich auf die Berechnung von Werten und für jede Ebene der Reihe.

    Der Modellerstellungsprozess umfasst die folgenden Schritte.

    1. Angleichung der Originalreihe nach der Methode des gleitenden Durchschnitts.

    2. Berechnung der Werte der saisonalen Komponente.

    3. Eliminierung der saisonalen Komponente aus den Anfangsniveaus der Reihe und Erhalt ausgeglichener Daten in einem additiven oder multiplikativen Modell.

    4. Analytischer Abgleich von Pegeln oder Berechnung von Werten anhand der resultierenden Trendgleichung.

    5. Berechnung der vom Modell erhaltenen Werte oder .

    6. Berechnung absoluter und/oder relativer Fehler.

    Wenn die erhaltenen Fehlerwerte keine Autokorrelation enthalten, können sie die anfänglichen Ebenen der Reihe ersetzen und die Zeitreihe der Fehler weiter verwenden, um die Beziehung zwischen der ursprünglichen Reihe und anderen Zeitreihen zu analysieren.

    Beispiel Problemlösung

    Die Aufgabe

    Es gibt bedingte Daten über das Volumen des Stromverbrauchs der Einwohner der Region für 16 Quartale.

    Erforderlich:

    1. Erstellen Sie eine Autokorrelationsfunktion und ziehen Sie eine Schlussfolgerung über das Vorhandensein saisonaler Schwankungen.

    2. Erstellen Sie ein additives Zeitreihenmodell (für ungerade Optionen) oder ein multiplikatives Zeitreihenmodell (für gerade Optionen).

    3. Machen Sie eine Prognose für 2 Quartale im Voraus.

    Um die Lösung des ökonometrischen Problems so genau und korrekt wie möglich zu machen, bestellen viele Leute auf dieser Seite kostengünstige Tests. Details (Antragstellung, Preise, Konditionen, Zahlungsmodalitäten) finden Sie auf der Seite Ökonometrie-Test kaufen...

    1 5.5 9 8.2 2 4.8 10 5.5 3 5.1 11 6.5 4 9.0 12 11.0 5 7.1 13 8.9 6 4.9 14 6.5 7 6.1 15 7.3 8 10.0 16 11.2

    Die Lösung des Problems

    1) Lassen Sie uns das Korrelationsfeld erstellen:

    Bereits anhand der Grafik ist zu erkennen, dass die Werte eine Sägezahnfigur bilden. Lassen Sie uns mehrere aufeinanderfolgende Autokorrelationskoeffizienten berechnen. Dazu erstellen wir die erste Hilfstabelle:

    1 5.5 --- --- --- --- --- --- 2 4.8 5.5 -2.673 -1.593 4.260 7.147 2.539 3 5.1 4.8 -2.373 -2.293 5.443 5.633 5.259 4 9 5.1 1.527 -1.993 -3.043 2.331 3.973 5 7.1 9 -0.373 1.907 -0.712 0.139 3.635 6 4.9 7.1 -2.573 0.007 -0.017 6.622 0.000 7 6.1 4.9 -1.373 -2.193 3.012 1.886 4.811 8 10 6.1 2.527 -0.993 -2.510 6.384 0.987 9 8.2 10 0.727 2.907 2.112 0.528 8.449 10 5.5 8.2 -1.973 1.107 -2.184 3.894 1.225 11 6.5 5.5 -0.973 -1.593 1.551 0.947 2.539 12 11 6.5 3.527 -0.593 -2.092 12.437 0.352 13 8.9 11 1.427 3.907 5.574 2.035 15.262 14 6.5 8.9 -0.973 1.807 -1.758 0.947 3.264 15 7.3 6.5 -0.173 -0.593 0.103 0.030 0.352 16 11.2 7.3 3.727 0.207 0.770 13.888 0.043 Summe 112.1 106.4 0 0 10.507 64.849 52.689 Mittlere Bedeutung 7.473 7.093

    Es sollte notiert werden. dass der Mittelwert durch Division durch 15 und nicht durch 16 erhalten wird, da wir jetzt eine Beobachtung weniger haben.

    Autokorrelationskoeffizient erster Ordnung:

    Wir erstellen eine Hilfstabelle zur Berechnung des Autokorrelationskoeffizienten zweiter Ordnung:

    1 5.5 --- --- --- --- --- --- 2 4.8 --- --- --- --- --- --- 3 5.1 5.5 -2.564 -1.579 4.048 6.576 2.492 4 9 4.8 1.336 -2.279 -3.044 1.784 5.192 5 7.1 5.1 -0.564 -1.979 1.116 0.318 3.915 6 4.9 9 -2.764 1.921 -5.311 7.641 3.692 7 6.1 7.1 -1.564 0.021 -0.034 2.447 0.000 8 10 4.9 2.336 -2.179 -5.089 5.456 4.746 9 8.2 6.1 0.536 -0.979 -0.524 0.287 0.958 10 5.5 10 -2.164 2.921 -6.323 4.684 8.535 11 6.5 8.2 -1.164 1.121 -1.306 1.356 1.258 12 11 5.5 3.336 -1.579 -5.266 11.127 2.492 13 8.9 6.5 1.236 -0.579 -0.715 1.527 0.335 14 6.5 11 -1.164 3.921 -4.566 1.356 15.378 15 7.3 8.9 -0.364 1.821 -0.664 0.133 3.318 16 11.2 6.5 3.536 -0.579 -2.046 12.501 0.335 Summe 107.3 99.1 0 0 -29.721 57.192 52.644 Mittlere Bedeutung 7.664 7.079

    Somit:

    In ähnlicher Weise finden wir die Autokorrelationskoeffizienten höherer Ordnungen und geben alle erhaltenen Werte in die Pivot-Tabelle ein:

    Verzögerung Autokorrelationskoeffizient der Ebene 1 0.180 2 -0.542 3 0.129 4 0.980 5 0.987 6 -0.686 7 0.019 8 0.958 9 0.117 10 -0.707 11 -0.086 12 0.937

    Korrelogramm:

    Die Analyse des Korrelogramms und des Diagramms der Anfangsniveaus der Zeitreihen ermöglicht es uns, Rückschlüsse auf das Vorhandensein von saisonalen Schwankungen mit einer Häufigkeit von vier Quartalen in den untersuchten Zeitreihen zu ziehen.

    2) Richten wir die Anfangsniveaus der Reihe mit der Methode des gleitenden Durchschnitts aus. Dafür:

    Summieren wir die Höhen der Reihen sequentiell alle vier Quartale um einen Zeitpunkt verschoben und ermitteln die bedingten jährlichen Stromverbräuche.

    Wenn wir die resultierenden Summen durch 4 teilen, finden wir die gleitenden Durchschnitte. Die so gewonnenen bereinigten Werte enthalten keine saisonale Komponente mehr.

    Bringen wir diese Werte mit den tatsächlichen Zeitpunkten in Einklang, für die wir die Durchschnittswerte von zwei aufeinanderfolgenden gleitenden Durchschnitten finden - zentrierte gleitende Durchschnitte.

    Insgesamt für vier Quartale Gleitender Durchschnitt für vier Quartale Zentrierter gleitender Durchschnitt Schätzung der saisonalen Komponente 1 5.5 -- -- -- -- 2 4.8 24.4 6.1 -- -- 3 5.1 26 6.5 6.300 -1.200 4 9 26.1 6.525 6.513 2.488 5 7.1 27.1 6.775 6.650 0.450 6 4.9 28.1 7.025 6.900 -2.000 7 6.1 29.2 7.3 7.163 -1.063 8 10 29.8 7.45 7.375 2.625 9 8.2 30.2 7.55 7.500 0.700 10 5.5 31.2 7.8 7.675 -2.175 11 6.5 31.9 7.975 7.888 -1.388 12 11 32.9 8.225 8.100 2.900 13 8.9 33.7 8.425 8.325 0.575 14 6.5 33.9 8.475 8.450 -1.950 15 7.3 --- --- --- --- 16 11.2 --- --- --- ---

    Suchen wir Schätzungen der saisonalen Komponente als Differenz zwischen den tatsächlichen Niveaus der Reihe und den zentrierten gleitenden Durchschnitten. Wir verwenden diese Schätzungen, um die Werte der saisonalen Komponente zu berechnen. Dazu finden wir den Durchschnitt für jedes Quartal (für alle Jahre) Schätzungen der saisonalen Komponente:

    Indikatoren Jahr Blocknummer, ich II III IV 1 --- --- -1.2 2.488 2 0.45 -2 -1.063 2.625 3 0.7 -2.175 -1.388 2.9 4 0.575 -1.95 --- --- Summe für das i-te Quartal 1.725 -6.125 -3.651 8.013 Die durchschnittliche Schätzung der saisonalen Komponente für das -te Quartal, 0.575 -2.042 -1.217 2.671 bereinigte saisonale Komponente, 0.578 -2.039 -1.213 2.674

    Modelle mit saisonaler Komponente gehen in der Regel davon aus, dass sich die saisonalen Einflüsse über einen Zeitraum gegenseitig aufheben. Im additiven Modell drückt sich dies darin aus, dass die Summe der Werte der saisonalen Komponente für alle Quartale gleich Null sein soll.

    Für dieses Modell haben wir:

    Korrekturfaktor:

    Wir berechnen die angepassten Werte der saisonalen Komponente und tragen die erhaltenen Daten in die Tabelle ein.

    Prüfen wir, ob die Summe der Werte der saisonalen Komponente gleich Null ist:

    Lassen Sie uns den Einfluss der saisonalen Komponente ausschließen, indem wir ihre Werte von jeder Ebene der ursprünglichen Zeitreihe subtrahieren. Wir bekommen die Werte. Diese Werte werden für jeden Zeitpunkt berechnet und enthalten nur den Trend und den Zufallsanteil.

    1 5.5 0.578 4.922 5.853 6.431 -0.931 0.867 3.423 2 4.8 -2.039 6.839 6.053 4.014 0.786 0.618 6.503 3 5.1 -1.213 6.313 6.253 5.040 0.060 0.004 5.063 4 9 2.674 6.326 6.453 9.127 -0.127 0.016 2.723 5 7.1 0.578 6.522 6.653 7.231 -0.131 0.017 0.063 6 4.9 -2.039 6.939 6.853 4.814 0.086 0.007 6.003 7 6.1 -1.213 7.313 7.053 5.840 0.260 0.068 1.563 8 10 2.674 7.326 7.253 9.927 0.073 0.005 7.023 9 8.2 0.578 7.622 7.453 8.031 0.169 0.029 0.722 10 5.5 -2.039 7.539 7.653 5.614 -0.114 0.013 3.423 11 6.5 -1.213 7.713 7.853 6.640 -0.140 0.020 0.723 12 11 2.674 8.326 8.053 10.727 0.273 0.075 13.323 13 8.9 0.578 8.322 8.253 8.831 0.069 0.005 2.403 14 6.5 -2.039 8.539 8.453 6.414 0.086 0.007 0.723 15 7.3 -1.213 8.513 8.653 7.440 -0.140 0.020 0.003 16 11.2 2.674 8.526 8.853 11.527 -0.327 0.107 14.823 Gesamt 1.876 68.500

    Lassen Sie uns die Komponente dieses Modells definieren. Dazu führen wir eine analytische Ausrichtung der Reihen anhand eines linearen Trends durch. Die Ergebnisse der analytischen Ausrichtung lauten wie folgt:

    Wenn wir die Werte in diese Gleichung einsetzen, finden wir die Ebenen für jeden Zeitpunkt

    Null die Werte der Ebenen der Reihe, die durch das additive Modell erhalten wurden. Dazu addieren wir zu den Ebenen die Werte der saisonalen Komponente für die jeweiligen Quartale.

    In einem Diagramm tragen wir die tatsächlichen Werte der Ebenen der Zeitreihe und die theoretischen Werte des additiven Modells auf.

    Um die Qualität des konstruierten Modells zu beurteilen, wenden wir die Summe der Quadrate der erhaltenen absoluten Fehler an:

    Daher können wir sagen, dass das additive Modell 99,3 % der gesamten Variation in den Niveaus der Zeitreihen erklärt.

    3) Der Prognosewert der Zeitreihenebene im additiven Modell ist die Summe aus Trend- und Saisonkomponente. Um die Trendkomponente zu bestimmen, verwenden wir die Trendgleichung:

    Die Werte der saisonalen Komponenten für die jeweiligen Quartale sind:

    Auf diese Weise:

    Wenn es Schwierigkeiten bei der Lösung von Problemen gibt, bietet die Site Site den Studenten der Ökonometrie Online-Hilfe bei Tests oder Prüfungen.

    Mittel Die Kosten für die Lösung der Kontrollarbeiten betragen 700 - 1200 Rubel (aber nicht weniger als 300 Rubel für die gesamte Bestellung). Der Preis wird stark von der Dringlichkeit der Entscheidung (von Tagen bis zu mehreren Stunden) beeinflusst. Die Kosten für die Online-Hilfe bei der Prüfung / dem Test - ab 1000 Rubel. für die Ticketlösung.

    Die Bewerbung kann direkt im Chat hinterlassen werden, nachdem zuvor der Zustand der Aufgaben abgeworfen und Sie über die Fristen für die Lösung informiert wurden. Die Reaktionszeit beträgt mehrere Minuten.

    Beispiele für verwandte Aufgaben

    Regressionsmodell für lineare Paare
    Die Aufgabe, ein lineares Modell der gepaarten Regression zu berechnen. Im Zuge der Lösung wird die Berechnung der Regressionskoeffizienten angegeben, deren Signifikanz abgeschätzt, der mittlere Approximationsfehler berechnet und die Berechnung des Konfidenzintervalls der Prognose gezeigt.

    Multiples lineares Regressionsmodell
    Die Seite enthält eine konsistente und systematisierte Problemlösung zum Thema Korrelationsanalyse. Es wird ein lineares Modell der multiplen Regression betrachtet - Berechnung von Regressionskoeffizienten und Koeffizienten einer standardisierten Regressionsgleichung. Die Berechnung von gepaarten, partiellen und multiplen Korrelationskoeffizienten, Elastizitätskoeffizienten ist gegeben.

    Periodische Abhängigkeit ist ein allgemeiner Typ von Zeitreihenkomponenten. Es ist leicht ersichtlich, dass jede Beobachtung ihrer Nachbarin sehr ähnlich ist; zusätzlich gibt es eine wiederkehrende periodische Komponente, was bedeutet, dass jede Beobachtung auch der Beobachtung zum gleichen Zeitpunkt vor einer Periode ähnlich ist. Im Allgemeinen kann eine periodische Beziehung formal als eine Korrelationsbeziehung der Ordnung k zwischen jedem i-ten Element der Reihe und dem (i-k)-ten Element definiert werden. Sie kann mittels Autokorrelation (d. h. Korrelation zwischen den Mitgliedern der Reihe selbst) gemessen werden; k wird normalerweise als Verzögerung bezeichnet (manchmal werden äquivalente Begriffe verwendet: Verschiebung, Verzögerung). Wenn der Messfehler nicht zu groß ist, kann die Periodizität visuell bestimmt werden, indem alle k Zeiteinheiten das Verhalten der Reihenglieder betrachtet wird.

    Die periodischen Komponenten einer Zeitreihe können mithilfe eines Korrelogramms ermittelt werden. Korrelogramm (Autokorrelogramm) zeigt numerisch und grafisch die Autokorrelationsfunktion (ACF), also die Autokorrelationskoeffizienten für eine Folge von Lags aus einem bestimmten Bereich. Das Korrelogramm zeigt normalerweise einen Bereich von zwei Standardfehlern pro Verzögerung, aber normalerweise ist die Größe der Autokorrelation interessanter als ihre Zuverlässigkeit, da das Interesse hauptsächlich an sehr starken Autokorrelationen liegt.

    Beim Studium von Korrelogrammen ist zu beachten, dass die Autokorrelationen aufeinanderfolgender Lags formal voneinander abhängig sind. Betrachten Sie das folgende Beispiel. Wenn das erste Glied einer Reihe eng mit dem zweiten verwandt ist und das zweite mit dem dritten, dann muss auch das erste Glied in irgendeiner Weise vom dritten abhängen und so weiter. Dies führt dazu, dass sich die periodische Abhängigkeit nach Entfernung der Autokorrelationen erster Ordnung (dh nach Differenzbildung mit einem Lag von 1) deutlich ändern kann.

    Zielsetzung:

    1. Geben Sie grundlegende theoretische Informationen

    2. Nennen Sie Beispiele für die ACF-Berechnung

    Kapitel 1. Theoretische Informationen

    Autokorrelationskoeffizient und seine Schätzung

    Für eine vollständige Charakterisierung eines zufälligen Prozesses reichen sein mathematischer Erwartungswert und seine Varianz nicht aus. Bereits 1927 führte E. E. Slutsky das Konzept einer „verbundenen Reihe“ für abhängige Beobachtungen ein: Die Wahrscheinlichkeit des Auftretens bestimmter spezifischer Werte an einem bestimmten Ort hängt davon ab, welche Werte die Zufallsvariable bereits früher erhalten hat oder erhalten wird später. Mit anderen Worten, es gibt ein Streufeld von Wertepaaren x(t), x(t+k) der Zeitreihe, wobei k ein konstantes Intervall oder eine Verzögerung ist, die die gegenseitige Abhängigkeit nachfolgender Implementierungen des Prozesses charakterisiert von den vorherigen. Die Enge dieser Beziehung wird durch die Koeffizienten der Autokovarianz geschätzt -

    g (k) = E[(x(t) - m)(x(t + k) - m)] –

    und Autokorrelationen

    r (k) = E[(x(t) - m)(x(t + k) - m)] / D ,

    wobei m und D die mathematische Erwartung und Varianz des Zufallsprozesses sind. Zur Berechnung der Autokovarianz und Autokorrelation realer Prozesse werden Informationen über die gemeinsame Wahrscheinlichkeitsverteilung der Stufen der Reihe p(x(t 1),x(t 2)) benötigt. Für stationäre Prozesse in einem bestimmten statistischen Gleichgewicht ist diese Wahrscheinlichkeitsverteilung jedoch für alle Zeiten t 1 , t 2 gleich, die durch das gleiche Intervall getrennt sind. Da die Varianz des stationären Prozesses zu jedem Zeitpunkt (sowohl bei t als auch bei t + k) D = g(0) ist, kann die Autokorrelation mit der Verzögerung k ausgedrückt werden als

    r (k) = g (k) / g (0),

    woraus folgt, dass r (0) = 1. Unter denselben Stationaritätsbedingungen hängt der Korrelationskoeffizient r (k) zwischen zwei Werten der Zeitreihe nur vom Wert des Zeitintervalls k ab und nicht von der Beobachtung Momente t sich.

    In der Statistik gibt es mehrere Stichprobenschätzungen der theoretischen Werte der Autokorrelation r(k) eines Prozesses über eine endliche Zeitreihe von n Beobachtungen. Der beliebteste Schätzer ist der nichtzyklische Autokorrelationskoeffizient mit Verzögerung k (Anderson, 1976; Vainu, 1977):

    Der wichtigste der verschiedenen Autokorrelationskoeffizienten ist der erste -r 1 , der die Enge der Beziehung zwischen den Ebenen x(1), x(2) ,..., x(n -1) und x(2) misst. , x(3), ..., x(n).

    Die Verteilung der Autokorrelationskoeffizienten ist unbekannt, daher wird zur Beurteilung ihrer Zuverlässigkeit manchmal die nichtparametrische Theorie von Anderson (1976) verwendet, der die Statistik vorgeschlagen hat.

    t \u003d r 1 (n -1) 0,5,

    die bei ausreichend großer Stichprobe normalverteilt ist, einen Mittelwert von null und eine Varianz von eins hat (Tintner, 1965).

    Autokorrelationsfunktionen

    Die Folge von Korrelationskoeffizienten r k , wobei k = 1, 2, ..., n, als Funktion des Intervalls k zwischen Beobachtungen wird als Autokorrelationsfunktion (ACF) bezeichnet.

    Die Form der Stichproben-Autokorrelationsfunktion hängt eng mit der Struktur der Reihe zusammen.

    · Die Autokorrelationsfunktion r k für „weißes Rauschen“ bildet für k > 0 ebenfalls eine stationäre Zeitreihe mit einem Mittelwert von 0.

    · Bei einer stationären Reihe nimmt die ACF mit steigendem k schnell ab. Bei Vorliegen eines ausgeprägten Trends nimmt die Autokorrelationsfunktion die charakteristische Form einer sehr langsam fallenden Kurve an.

    · Bei ausgeprägter Saisonalität enthält das ACF-Diagramm auch Ausreißer für Verzögerungen, die ein Vielfaches der Saisonalitätsperiode sind, aber diese Ausreißer können durch das Vorhandensein eines Trends oder einer großen Streuung einer zufälligen Komponente verschleiert werden.

    Betrachten Sie Beispiele für die Autokorrelationsfunktion:

    in Abb. Fig. 1 einen Graphen des ACF, der durch einen moderaten Trend und unklare Saisonalität gekennzeichnet ist;

    · Reis. 2 zeigt die ACF einer Reihe, die durch eine phänomenale saisonale Determinante gekennzeichnet ist;

    · Die fast nicht abfallende Kurve des ACF der Reihe (Abb. 3) weist auf das Vorhandensein eines deutlichen Trends hin.

    Im allgemeinen Fall kann davon ausgegangen werden, dass es keine Autokorrelation in Reihen von Abweichungen vom Trend gibt. Zum Beispiel in Abb. Abbildung 4 zeigt das ACF-Diagramm für die Residuen, die aus der Glättung der Reihe erhalten wurden, was sehr an den Prozess des "weißen Rauschens" erinnert. Es ist jedoch nicht ungewöhnlich, dass die Residuen (die Zufallskomponente h) beispielsweise aus folgenden Gründen autokorreliert sind:

    in deterministischen oder stochastischen Modellen der Dynamik wird ein signifikanter Faktor nicht berücksichtigt

    · das Modell berücksichtigt mehrere unbedeutende Faktoren nicht, deren gegenseitige Beeinflussung sich aufgrund der Koinzidenz der Phasen und Richtungen ihrer Veränderung als signifikant erweist;

    Der falsche Modelltyp wird gewählt (das Prinzip der Kontraintuitivität wird verletzt);

    Die Zufallskomponente hat eine spezifische Struktur.

    Durbin-Watson-Test

    Der Durbin-Watson-Test (Durbin, 1969) ist eine gängige Statistik zum Testen auf das Vorhandensein einer Autokorrelation erster Ordnung von Residuen nach Reihenglättung oder in Regressionsmodellen.

    Der Zahlenwert des Koeffizienten ist

    d = [(e(2)-e(1)) 2 + ... + (e(n)-e(n -1)) 2 ]/,

    wobei e(t) die Reste sind.

    Die möglichen Werte des Kriteriums liegen im Bereich von 0 bis 4, und seine tabellarischen Schwellenwerte für verschiedene Signifikanzniveaus sind tabelliert (Lizer, 1971).

    Der Wert von d liegt nahe am Wert von 2*(1 - r 1), wobei r der Stichproben-Autokorrelationskoeffizient für die Residuen ist. Dementsprechend ist der Idealwert der Statistik 2 (keine Autokorrelation). Kleinere Werte entsprechen einer positiven Autokorrelation der Residuen, große einer negativen.

    Beispielsweise hat die Reihe der Residuen nach dem Glätten der Reihe das Kriterium d = 1,912. Ähnliche Statistiken nach dem Glätten der Reihe – d = 1,638 – weisen auf eine gewisse Autokorrelation der Residuen hin.

    Kapitel 2

    Alle Daten stammen von der Website http://e3.prime-tass.ru/macro/

    Beispiel 1. RF-BIP

    Lassen Sie uns Daten über das BIP der Russischen Föderation geben

    erster Unterschied

    Erkundung der Serie

    Die Diagramme zeigen: die ursprüngliche Reihe (oben) und die Autokorrelationsfunktion bis Lag 9 (unten). Im unteren Diagramm zeigt die gestrichelte Linie den Pegel des "weißen Rauschens" an - die Grenze der statistischen Signifikanz der Korrelationskoeffizienten. Es ist ersichtlich, dass es eine starke Korrelation der 1. und 2. Ordnung gibt, benachbarte Mitglieder der Reihe, aber auch um 1 Zeiteinheit voneinander entfernt. Korrelationskoeffizienten überschreiten das Niveau des "weißen Rauschens" erheblich. Gemäß dem Autokorrelationsdiagramm sehen wir das Vorhandensein eines klaren Trends.

    Nachfolgend sind die Werte der Autokorrelationsfunktion und der Pegel des weißen Rauschens aufgeführt

    ACF-Fehler

    Wenn wir uns für die interne Dynamik der Reihe interessieren, ist es notwendig, den ersten Unterschied ihrer Mitglieder zu finden, d.h. Ermitteln Sie für jedes Quartal die Wertänderung gegenüber dem Vorquartal. Für den ersten Unterschied konstruieren wir eine Autokorrelationsfunktion.

    Beispiel 2: Importieren

    Bedeutung

    Unterschied

    Lassen Sie uns eine Autokorrelationsfunktion erstellen

    ACF-Fehler

    Wir sehen, dass es eine Autokorrelation der 1. und 2. Ordnung gibt. Die Grafik zeigt das Vorhandensein eines Trends. Die positive Autokorrelation erklärt sich durch die falsch gewählte Spezifikation, da ein linearer Trend ist hier nicht geeignet, er ist eher exponentiell. Daher machen wir die Reihe stationär, indem wir die erste Differenz bilden.

    ACF-Fehler

    Wir sehen das Vorhandensein einer Autokorrelation 4. Ordnung, die der Korrelation von Daten entspricht, die ein Jahr entfernt sind. Wir haben keine Autokorrelation erster Ordnung.

    Durbin-Watson-Statistik (DW) = 2,023

    Beispiel 3: Exportieren

    Hier sind die Daten

    Bedeutung

    Unterschied


    Für die Originalserie haben wir:

    ACF-Fehler

    Es ist offensichtlich, dass es einen klaren Trend gibt, die Autokorrelationskoeffizienten der 1. und 2. Ordnung sind signifikant. Zum ersten Unterschied

    ACF-Fehler

    Autokorrelation ist nicht mehr sichtbar, die Residuen verteilen sich als „weißes Rauschen“.

    Fazit

    Eine weitere nützliche Methode zur Untersuchung der Periodizität ist die Untersuchung der partiellen Autokorrelationsfunktion (PACF), die eine Vertiefung des Konzepts der üblichen Autokorrelationsfunktion darstellt. Bei FACF wird die Abhängigkeit zwischen Zwischenbeobachtungen (Beobachtungen innerhalb der Verzögerung) eliminiert. Mit anderen Worten, die partielle Autokorrelation bei einer bestimmten Verzögerung ähnelt der regulären Autokorrelation, außer dass der Effekt von Autokorrelationen mit kleineren Verzögerungen bei der Berechnung entfernt wird. Bei Verzögerung 1 (wenn keine dazwischenliegenden Elemente innerhalb der Verzögerung vorhanden sind) ist die partielle Autokorrelation offensichtlich gleich der gewöhnlichen Autokorrelation. Tatsächlich ergibt die partielle Autokorrelation ein "saubereres" Bild periodischer Abhängigkeiten.

    Wie oben erwähnt, kann die periodische Komponente für eine gegebene Verzögerung k entfernt werden, indem die Differenz der geeigneten Ordnung genommen wird. Das bedeutet, dass von jedem i-ten Element der Reihe das (i-k)-te Element subtrahiert wird. Für solche Transformationen sprechen zwei Argumente. Zunächst können auf diese Weise die verborgenen periodischen Komponenten der Reihe bestimmt werden. Erinnern Sie sich, dass Autokorrelationen von aufeinanderfolgenden Verzögerungen abhängig sind. Wenn Sie also einige der Autokorrelationen entfernen, werden andere Autokorrelationen geändert, die sie möglicherweise unterdrückt haben, und einige andere saisonale Komponenten werden deutlicher. Zweitens macht die Entfernung periodischer Komponenten die Reihe stationär, was für die Anwendung einiger Analysemethoden notwendig ist.

    Literatur

    1. Gmurman V.E. Wahrscheinlichkeitstheorie und mathematische Statistik. Moskau: Höhere Schule, 1977.

    2. Gmurman V.E. Leitfaden zur Lösung von Problemen in der Wahrscheinlichkeitstheorie und mathematischen Statistik. Moskau: Höhere Schule, 1997.

    3. Kalinina V. N., Pankin V. F. Mathematische Statistiken. Moskau: Höhere Schule, 1994.

    4. Matskevich I.P., Svirid G.P., Buldyk G.M. Sammlung von Aufgaben und Übungen zur Höheren Mathematik (Wahrscheinlichkeitstheorie und Mathematische Statistik). Minsk: Höhere Schule, 1996.

    5. Timofeeva L.K., Sukhanova E.I., Safiulin G.G. Sammlung von Problemen der Wahrscheinlichkeitstheorie und mathematischen Statistik / Samarsk. Wirtschaft in-t. Samara, 1992.

    6. Timofeeva L.K., Sukhanova E.I., Safiulin G.G. Wahrscheinlichkeitstheorie und mathematische Statistik / Samarsk. Zustand Wirtschaft akad. Samara, 1994.

    7. Timofeeva L. K., Sukhanova E. I. Mathematik für Ökonomen. Sammlung von Problemen der Wahrscheinlichkeitstheorie und mathematischen Statistik. -M.: UMiITs „Bildungsliteratur“, 1998.


    Und daher höchst bedeutsam

    Der Autokorrelationskoeffizient kann auch für eine nichtstationäre Reihe geschätzt werden, allerdings geht dann seine probabilistische Interpretation verloren.

    Tatsächlich wird das Allmachtsprinzip verletzt