Tuesday, 9 May 2017

Gleitender Durchschnitt Der Kleinsten Fehlerquadrate

8.4 Verschieben von Durchschnittsmodellen Anstatt vergangene Werte der Prognosedatei in einer Regression zu verwenden, verwendet ein gleitendes Durchschnittsmodell vergangene Prognosefehler in einem Regressionsmodell. Y c et the theta e dots theta e, wobei et weißes Rauschen ist. Wir bezeichnen dies als MA (q) - Modell. Natürlich beobachten wir nicht die Werte von et, also ist es nicht wirklich Regression im üblichen Sinne. Man beachte, daß jeder Wert von yt als gewichteter gleitender Durchschnitt der letzten Prognosefehler betrachtet werden kann. Jedoch sollten gleitende Durchschnittsmodelle nicht mit der gleitenden glatten Glättung verwechselt werden, die wir in Kapitel 6 besprochen haben. Ein gleitendes Durchschnittsmodell wird für die Prognose zukünftiger Werte verwendet, während die gleitende gleitende Durchschnittskurve für die Abschätzung des Trendzyklus der vergangenen Werte verwendet wird. Abbildung 8.6: Zwei Beispiele für Daten aus gleitenden Durchschnittsmodellen mit unterschiedlichen Parametern. Links: MA (1) mit yt 20e t 0,8e t-1. Rechts: MA (2) mit y t e t - e t-1 0,8e t-2. In beiden Fällen ist e t normal verteiltes Weißrauschen mit Mittelwert Null und Varianz Eins. Abbildung 8.6 zeigt einige Daten aus einem MA (1) - Modell und einem MA (2) - Modell. Das Ändern der Parameter theta1, dots, thetaq führt zu unterschiedlichen Zeitreihenmustern. Wie bei autoregressiven Modellen wird die Varianz des Fehlerterms et nur den Maßstab der Reihe ändern, nicht die Muster. Es ist möglich, jedes stationäre AR (p) - Modell als MA (infty) - Modell zu schreiben. Beispielsweise können wir dies bei einem AR (1) - Modell demonstrieren: begin yt amp phi1y et amp phi1 (phi1y e) et amp phi12y phi1 e et amp phi13y phi12e phi1 e et amptext ende Provided -1 lt phi1 lt 1 wird der Wert von phi1k kleiner, wenn k größer wird. So erhalten wir schließlich yt und phi1 e phi12 e phi13 e cdots, ein MA (infty) Prozess. Das umgekehrte Ergebnis gilt, wenn wir den MA-Parametern einige Einschränkungen auferlegen. Dann wird das MA-Modell invertierbar. Das heißt, dass wir alle invertierbaren MA (q) Prozess als AR (infty) Prozess schreiben können. Invertible Modelle sind nicht einfach, damit wir von MA-Modellen auf AR-Modelle umwandeln können. Sie haben auch einige mathematische Eigenschaften, die sie in der Praxis einfacher zu verwenden. Die Invertibilitätsbedingungen sind den stationären Einschränkungen ähnlich. Für ein MA (1) Modell: -1lttheta1lt1. Für ein MA (2) - Modell: -1lttheta2lt1, theta2theta1 gt-1, theta1 - theta2 lt 1. Kompliziertere Bedingungen gelten für qge3. Wiederum wird R diese Einschränkungen bei der Schätzung der Modelle kümmern. Least-Quadrate-Schätzung im Regressionsmodell mit autoregressiv-gleitenden Durchschnittsfehlern Um das Problem korrelierter Fehler in der Regression zu behandeln, ein Modell, bei dem die Fehler einem stationären, autoregressiv-gleitenden Durchschnitt folgen Zeitreihen vorgeschlagen. Gleichzeitige Schätzungen der kleinsten Quadrate der Regression und der Zeitreihenparameter werden diskutiert, und es wird gezeigt, dass asymptotisch die auf diese Weise erhaltenen Schätzungen normale Verteilungen besitzen, unabhängig davon, ob die Fehler selbst normal verteilt sind oder nicht. Die Schätzungen der Regressionsparameter sind nicht korreliert mit denen der Zeitreihenparameter, die ersteren werden verteilt, als ob sie aus einem gewissen transformierten Modell mit unkorrelierten Fehlern entstanden wären, während die letzteren die gleiche Kovarianzmatrix wie jene aus einer stationären Reihe ohne deterministische haben Komponente. Die Schätzung der Varianz ist auch asymptotisch normal. Eine Monte-Carlo-Stichprobenuntersuchung zeigt, dass diese Ergebnisse als nützliche Annäherung für Proben von moderater Größe dienen können. Autorennachweise Federal Reserve Bank von Cleveland Oxford University PressOn Kleinstquadrate Schätzung der Restvarianz in der ersten Ordnung gleitenden Durchschnitt Modell In der ersten Ordnung gleitenden Durchschnittsmodell analysieren wir das Verhalten der Schätzer der Varianz des zufälligen Rests kommen Die Methode der kleinsten Quadrate. Dieses Verfahren ist in einigen weit verbreiteten Computerprogrammen enthalten. Wir zeigen durch Simulationen, dass die asymptotischen Formeln für die Bias und die Varianz des Maximum-Likelihood-Schätzers als Approximationen für die Kleinste-Quadrate-Schätzung verwendet werden können, zumindest wenn der Modellparameter weit von der Region der Nicht-Invertierbarkeit entfernt ist. Asymptotische Ergebnisse werden unter Verwendung der ldquolong-Autoregressionrdquo-Idee entwickelt, und dies führt zu einem geschlossenen Ausdruck für die kleinste Quadrate-Schätzfunktion. Dies wird wiederum mit dem Maximum-Likelihood-Schätzer unter Normalität verglichen, und zwar sowohl in seiner exakten als auch in einer angenäherten Version, die durch Approximieren der Matrix im Exponenten der Gaußschen Likelihood-Funktion erhalten wird. Dieser Vergleich wird durch einige numerische Beispiele veranschaulicht. Die Abhängigkeit der Ergebnisse von Vorspannungen von den Werten des Modellparameters wird betont. Moving Average Modell Residual Varianz Schätzung Least Quadrate Asymptotische Bias Asymptotische mittlere quadratische Fehler Korrespondenz Adresse. Facultad de Ciencias Economicas, Inst. De Investigaciones Estadisticas, Universidad Nacional de Tucuman, Casilla de Correo 209, 4000 Tucuman, Argentinien. Copyright 1999 Elsevier Science B. V. Alle Rechte vorbehalten.


No comments:

Post a Comment