Exploration der exponentiell gewichteten Moving Average Volatilität ist die häufigste Maßnahme für das Risiko, aber es kommt in mehreren Geschmacksrichtungen. In einem früheren Artikel haben wir gezeigt, wie man einfache historische Volatilität berechnet. (Um diesen Artikel zu lesen, finden Sie unter Verwenden der Volatilität, um zukünftiges Risiko zu messen.) Wir verwendeten Googles tatsächlichen Aktienkursdaten, um die tägliche Volatilität basierend auf 30 Tagen der Bestandsdaten zu berechnen. In diesem Artikel werden wir auf einfache Volatilität zu verbessern und diskutieren den exponentiell gewichteten gleitenden Durchschnitt (EWMA). Historische Vs. Implied Volatility Erstens, lassen Sie diese Metrik in ein bisschen Perspektive. Es gibt zwei breite Ansätze: historische und implizite (oder implizite) Volatilität. Der historische Ansatz geht davon aus, dass Vergangenheit ist Prolog Wir messen Geschichte in der Hoffnung, dass es prädiktive ist. Die implizite Volatilität dagegen ignoriert die Geschichte, die sie für die Volatilität der Marktpreise löst. Es hofft, dass der Markt am besten weiß und dass der Marktpreis, auch wenn implizit, eine Konsensschätzung der Volatilität enthält. (Für verwandte Erkenntnisse siehe Die Verwendungen und Grenzen der Volatilität.) Wenn wir uns auf die drei historischen Ansätze (auf der linken Seite) konzentrieren, haben sie zwei Schritte gemeinsam: Berechnen Sie die Reihe der periodischen Renditen Berechnen die periodische Rendite. Das ist typischerweise eine Reihe von täglichen Renditen, bei denen jede Rendite in kontinuierlich zusammengesetzten Ausdrücken ausgedrückt wird. Für jeden Tag nehmen wir das natürliche Protokoll des Verhältnisses der Aktienkurse (d. H. Preis heute geteilt durch den Preis gestern und so weiter). Dies erzeugt eine Reihe von täglichen Renditen, von u i bis u i-m. Je nachdem wie viele Tage (m Tage) wir messen. Das bringt uns zum zweiten Schritt: Hier unterscheiden sich die drei Ansätze. Wir haben gezeigt, dass die einfache Varianz im Rahmen einiger akzeptabler Vereinfachungen der Mittelwert der quadratischen Renditen ist: Beachten Sie, dass diese Summe die periodischen Renditen zusammenfasst und dann diese Summe durch die Anzahl der Tage oder Beobachtungen (m). Also, seine wirklich nur ein Durchschnitt der quadrierten periodischen kehrt zurück. Setzen Sie einen anderen Weg, jede quadratische Rückkehr wird ein gleiches Gewicht gegeben. Also, wenn alpha (a) ein Gewichtungsfaktor (speziell eine 1m) ist, dann eine einfache Varianz sieht etwa so aus: Die EWMA verbessert auf einfache Varianz Die Schwäche dieser Ansatz ist, dass alle Renditen das gleiche Gewicht zu verdienen. Yesterdays (sehr jüngste) Rückkehr hat keinen Einfluss mehr auf die Varianz als die letzten Monate zurück. Dieses Problem wird durch Verwendung des exponentiell gewichteten gleitenden Mittelwerts (EWMA), bei dem neuere Renditen ein größeres Gewicht auf die Varianz aufweisen, festgelegt. Der exponentiell gewichtete gleitende Durchschnitt (EWMA) führt Lambda ein. Die als Glättungsparameter bezeichnet wird. Lambda muss kleiner als eins sein. Unter dieser Bedingung wird anstelle der gleichen Gewichtungen jede quadratische Rendite durch einen Multiplikator wie folgt gewichtet: Beispielsweise neigt die RiskMetrics TM, eine Finanzrisikomanagementgesellschaft, dazu, eine Lambda von 0,94 oder 94 zu verwenden. In diesem Fall wird die erste ( (1 - 0,94) (94) 0 6. Die nächste quadrierte Rückkehr ist einfach ein Lambda-Vielfaches des vorherigen Gewichts in diesem Fall 6 multipliziert mit 94 5,64. Und das dritte vorherige Tagegewicht ist gleich (1-0,94) (0,94) 2 5,30. Das ist die Bedeutung von exponentiell in EWMA: jedes Gewicht ist ein konstanter Multiplikator (d. h. Lambda, der kleiner als eins sein muß) des vorherigen Gewichtes. Dies stellt eine Varianz sicher, die gewichtet oder zu neueren Daten voreingenommen ist. (Weitere Informationen finden Sie im Excel-Arbeitsblatt für die Googles-Volatilität.) Der Unterschied zwischen einfacher Volatilität und EWMA für Google wird unten angezeigt. Einfache Volatilität wiegt effektiv jede periodische Rendite von 0,196, wie in Spalte O gezeigt (wir hatten zwei Jahre täglich Aktienkursdaten, das sind 509 tägliche Renditen und 1509 0,196). Aber beachten Sie, dass die Spalte P ein Gewicht von 6, dann 5,64, dann 5,3 und so weiter. Das ist der einzige Unterschied zwischen einfacher Varianz und EWMA. Denken Sie daran: Nachdem wir die Summe der ganzen Reihe (in Spalte Q) haben wir die Varianz, die das Quadrat der Standardabweichung ist. Wenn wir Volatilität wollen, müssen wir uns daran erinnern, die Quadratwurzel dieser Varianz zu nehmen. Was ist der Unterschied in der täglichen Volatilität zwischen der Varianz und der EWMA im Googles-Fall? Bedeutend: Die einfache Varianz gab uns eine tägliche Volatilität von 2,4, aber die EWMA gab eine tägliche Volatilität von nur 1,4 (Details siehe Tabelle). Offenbar ließ sich die Googles-Volatilität in jüngster Zeit nieder, daher könnte eine einfache Varianz künstlich hoch sein. Die heutige Varianz ist eine Funktion der Pior Tage Variance Youll bemerken wir benötigt, um eine lange Reihe von exponentiell sinkende Gewichte zu berechnen. Wir werden die Mathematik hier nicht durchführen, aber eine der besten Eigenschaften der EWMA ist, daß die gesamte Reihe zweckmäßigerweise auf eine rekursive Formel reduziert: Rekursiv bedeutet, daß heutige Varianzreferenzen (d. h. eine Funktion der früheren Tagesvarianz) ist. Sie können diese Formel auch in der Kalkulationstabelle zu finden, und es erzeugt genau das gleiche Ergebnis wie die Langzeitberechnung Es heißt: Die heutige Varianz (unter EWMA) ist gleichbedeutend mit der gestrigen Abweichung (gewichtet mit Lambda) plus der gestrigen Rückkehr (gewogen durch ein Minus-Lambda). Beachten Sie, wie wir nur zwei Begriffe zusammenfügen: gestern gewichtet Varianz und gestern gewichtet, quadriert zurück. Dennoch ist Lambda unser Glättungsparameter. Ein höheres Lambda (z. B. wie RiskMetrics 94) deutet auf einen langsameren Abfall in der Reihe hin - in relativer Hinsicht werden wir mehr Datenpunkte in der Reihe haben, und sie fallen langsamer ab. Auf der anderen Seite, wenn wir das Lambda reduzieren, deuten wir auf einen höheren Abfall hin: die Gewichte fallen schneller ab, und als direkte Folge des schnellen Zerfalls werden weniger Datenpunkte verwendet. (In der Kalkulationstabelle ist Lambda ein Eingang, so dass Sie mit seiner Empfindlichkeit experimentieren können). Zusammenfassung Volatilität ist die momentane Standardabweichung einer Aktie und die häufigste Risikomessung. Es ist auch die Quadratwurzel der Varianz. Wir können Varianz historisch oder implizit messen (implizite Volatilität). Bei der historischen Messung ist die einfachste Methode eine einfache Varianz. Aber die Schwäche mit einfacher Varianz ist alle Renditen bekommen das gleiche Gewicht. So stehen wir vor einem klassischen Kompromiss: Wir wollen immer mehr Daten, aber je mehr Daten wir haben, desto mehr wird unsere Berechnung durch weit entfernte (weniger relevante) Daten verdünnt. Der exponentiell gewichtete gleitende Durchschnitt (EWMA) verbessert die einfache Varianz durch Zuordnen von Gewichten zu den periodischen Renditen. Auf diese Weise können wir beide eine große Stichprobengröße, sondern auch mehr Gewicht auf neuere Renditen. (Um ein Film-Tutorial zu diesem Thema zu sehen, besuchen Sie die Bionic Turtle.) Portfolio VaR Value at Risk ist ein Maß für den Worst-Case-Verlust, der über eine festgelegte Haltedauer für eine gegebene Wahrscheinlichkeit auftreten kann. Es ist eine Maßnahme, die weitgehend verwendet wird, um das Marktrisiko zu bewerten, das einer bestimmten Anlage oder einem Portfolio von Anlagen innewohnt. Portfolio VaR EXCEL Beispiel ist ein detailliertes Kalkulationsblatt, das die Berechnung des VaR für ein Portfolio von sechs Instrumenten, bestehend aus 3 Devisentermingeschäften (EUR, AUD und JPY) und drei Rohstoffen (WTI, Gold und Silver), darstellt. Vor der Berechnung des VaR für das Portfolio wird die Metrik für jedes Instrument im Portfolio mit dem Simple Moving Average Variance Covarianz-Ansatz und dem Historical Simulation Approach berechnet. Es zeigt, wie ein Graph der Trailing Volatilities erstellt wird und die Berechnung einer groben Schätzung der VaR-Zahl unter Verwendung der maximalen Volatilität aus dieser nachlaufenden Volatilitätsreihe. Die historische Simulationsmethode wird auch mit dem EXCEL-Datenanalyse-Tool für Histogramme, angewendet auf die tägliche Return-Serie, für jede der Währungen sowie für das Portfolio dargestellt. Die Ableitung von Portfolio VaR für Varianz-Kovarianz-Ansatz erfolgt unter Verwendung der traditionellen Varianz - und Kovarianzmatrixmethode sowie unter Verwendung eines Short Cut durch Berechnung einer gewichteten durchschnittlichen Return-Serie für das Portfolio. Die Datentabellenfunktionalität von EXCEL wird verwendet, um den 10-Tage-Halte-VaR für unterschiedliche Quoten zu berechnen (wie durch das verwendete Konfidenzniveau angegeben). Weitere Informationen zum Value-at-Risk-Konzept finden Sie in unserem Finanzkurs. Insbesondere: Verwandte Beiträge: Über den Autor Jawwad Farid Jawwad Farid baut und implementiert seit August 1998 Risikomodelle und Backoffice-Systeme. In Zusammenarbeit mit Kunden auf vier Kontinenten hilft er Bankern, Vorstandsmitgliedern und Regulierungsbehörden einen marktrelevanten Ansatz für das Risikomanagement . Er ist Autor von Models at Work und Option Greeks Primer, beide veröffentlicht von Palgrave Macmillan. Jawwad ist eine Fellow Society of Actuaries, (FSA, Schaumburg, IL), hält er einen MBA von der Columbia Business School und ist ein Informatik-Absolvent von (NUCES SCHNELL). Er ist Mitglied bei der SP Jain Global School of Management in Dubai und Singapur, wo er Risk Management, Derivative Pricing und Entrepreneurship unterrichtet. Ein Gedanke an ldquoPortfolio VaRrdquo Kommentare sind geschlossen. Moving Durchschnitte Moving Averages Bei herkömmlichen Datensätzen ist der Mittelwert oft die erste, und eine der nützlichsten, zusammenfassenden Statistiken zu berechnen. Wenn die Daten in Form einer Zeitreihe vorliegen, ist das Serienmittel eine nützliche Maßnahme, spiegelt aber nicht die dynamische Natur der Daten wider. Meanwerte, die über kurzgeschlossene Perioden berechnet werden, die entweder der aktuellen Periode vorangehen oder auf die aktuelle Periode zentriert sind, sind oft nützlicher. Weil solche Mittelwerte sich ändern oder sich bewegen, wenn sich die aktuelle Periode von der Zeit t & sub2 ;, t & sub3; usw. bewegt, werden sie als gleitende Durchschnittswerte (Mas) bezeichnet. Ein einfacher gleitender Durchschnitt ist (üblicherweise) der ungewichtete Durchschnitt von k vorherigen Werten. Ein exponentiell gewichteter gleitender Durchschnitt ist im Wesentlichen derselbe wie ein einfacher gleitender Durchschnitt, aber mit Beiträgen zum Mittelwert, der durch ihre Nähe zur aktuellen Zeit gewichtet wird. Da es keine einzige, sondern eine ganze Reihe von gleitenden Mittelwerten für eine beliebige Reihe gibt, kann der Satz von Mas selbst auf Graphen aufgetragen, als Serie analysiert und in der Modellierung und Prognose verwendet werden. Eine Reihe von Modellen kann mit gleitenden Durchschnitten konstruiert werden, und diese werden als MA-Modelle bekannt. Wenn solche Modelle mit autoregressiven (AR) Modellen kombiniert werden, sind die resultierenden zusammengesetzten Modelle als ARMA - oder ARIMA-Modelle bekannt (die I ist für integriert). Einfache gleitende Mittelwerte Da eine Zeitreihe als ein Satz von Werten betrachtet werden kann, können t 1,2,3,4, n der Mittelwert dieser Werte berechnet werden. Wenn wir annehmen, daß n ziemlich groß ist, so wählen wir eine ganze Zahl k, die viel kleiner als n ist. Können wir einen Satz von Blockdurchschnitten oder einfache Bewegungsdurchschnitte (der Ordnung k) berechnen: Jede Messung repräsentiert den Mittelwert der Datenwerte über ein Intervall von k Beobachtungen. Man beachte, daß das erste mögliche MA der Ordnung kgt0 dasjenige für tk ist. Allgemeiner können wir den zusätzlichen Index in die obigen Ausdrücke schreiben und schreiben: Dies bedeutet, daß der geschätzte Mittelwert zum Zeitpunkt t der einfache Mittelwert des beobachteten Wertes zum Zeitpunkt t und den vorhergehenden k -1 Zeitschritten ist. Wenn Gewichte angewandt werden, die den Beitrag von Beobachtungen verringern, die weiter weg in der Zeit sind, wird der gleitende Durchschnitt als exponentiell geglättet. Gleitende Mittelwerte werden häufig als eine Form der Prognose verwendet, wobei der Schätzwert für eine Reihe zum Zeitpunkt t 1, S t1. Wird als MA für den Zeitraum bis einschließlich der Zeit t genommen. z. B. Die heutige Schätzung basiert auf einem Durchschnitt der bisherigen aufgezeichneten Werte bis einschließlich gestern (für tägliche Daten). Einfache gleitende Mittelwerte können als eine Form der Glättung gesehen werden. In dem nachfolgend dargestellten Beispiel wurde der in der Einleitung zu diesem Thema gezeigte Luftverschmutzungs-Datensatz um eine 7-tägige gleitende Linie (MA) ergänzt, die hier in Rot dargestellt ist. Wie man sehen kann, glättet die MA-Linie die Spitzen und Täler in den Daten und kann sehr hilfreich sein, um Trends zu identifizieren. Die Standard-Vorwärtsberechnungsformel bedeutet, dass die ersten k-1-Datenpunkte keinen MA-Wert haben, aber danach rechnen sich die Berechnungen bis zum Enddatenpunkt in der Reihe. PM10 tägliche Mittelwerte, Greenwich Quelle: London Air Quality Network, londonair. org. uk Ein Grund für die Berechnung einfacher gleitender Mittelwerte in der beschriebenen Weise ist, dass es Werte für alle Zeitschlitze von der Zeit tk bis zur Gegenwart berechnet werden kann, und Wenn eine neue Messung für die Zeit t 1 erhalten wird, kann die MA für die Zeit t 1 zu dem bereits berechneten Satz addiert werden. Dies bietet eine einfache Vorgehensweise für dynamische Datensätze. Allerdings gibt es einige Probleme mit diesem Ansatz. Es ist vernünftig zu argumentieren, dass sich der Mittelwert der letzten 3 Perioden zum Zeitpunkt t -1, nicht zur Zeit t, befinden sollte. Und für eine MA über eine gerade Anzahl von Perioden vielleicht sollte sie sich in der Mitte zwischen zwei Zeitintervallen befinden. Eine Lösung für dieses Problem besteht darin, zentrierte MA-Berechnungen zu verwenden, bei denen der MA zum Zeitpunkt t der Mittelwert einer symmetrischen Menge von Werten um t ist. Trotz seiner offensichtlichen Verdienste wird dieser Ansatz nicht allgemein verwendet, weil er erfordert, dass Daten für zukünftige Ereignisse verfügbar sind, was möglicherweise nicht der Fall sein kann. In Fällen, in denen die Analyse vollständig aus einer bestehenden Serie besteht, kann die Verwendung von zentriertem Mas bevorzugt sein. Einfache gleitende Mittelwerte können als eine Form von Glättung, Entfernen einiger Hochfrequenzkomponenten einer Zeitreihe und Hervorhebung (aber nicht Entfernen) von Trends in einer ähnlichen Weise wie der allgemeine Begriff der digitalen Filterung betrachtet werden. Tatsächlich sind die gleitenden Mittelwerte eine Form eines linearen Filters. Es ist möglich, eine gleitende Durchschnittsberechnung auf eine Reihe anzuwenden, die bereits geglättet worden ist, d. h. Glätten oder Filtern einer bereits geglätteten Reihe. Zum Beispiel können wir mit einem gleitenden Mittelwert der Ordnung 2 die Berechnungen unter Verwendung von Gewichten betrachten, so daß die MA bei x 2 0,5 x 1 0,5 x 2 gilt. Ebenso ist die MA bei x 3 0,5 x 2 0,5 x 3 Eine zweite Glättungs - oder Filterstufe anwenden, so haben wir 0,5 x 2 0,5 x 3 0,5 (0,5 x 1 0,5 x 2) 0,5 (0,5 x 2 0,5 x 3) 0,25 x 1 0,5 x 2 0,25 x 3, dh die zweistufige Filterung Prozess (oder Faltung) einen variabel gewichteten symmetrischen gleitenden Durchschnitt mit Gewichten erzeugt hat. Mehrere Windungen können sehr komplexe gewichtete gleitende Durchschnittswerte erzeugen, von denen einige speziell in Spezialgebieten, wie etwa in Lebensversicherungsberechnungen, gefunden wurden. Bewegungsdurchschnitte können verwendet werden, um periodische Effekte zu entfernen, wenn sie mit der Länge der Periodizität als bekannt berechnet werden. Zum Beispiel können mit monatlichen Daten saisonale Schwankungen oft entfernt werden (wenn dies das Ziel ist), indem Sie eine symmetrische 12-monatigen gleitenden Durchschnitt mit allen Monaten gleich gewichtet, mit Ausnahme der ersten und letzten, die mit 12 gewichtet werden 13 Monate im symmetrischen Modell (aktuelle Zeit, t - 6 Monate). Die Gesamtzahl wird durch 12 geteilt. Ähnliche Verfahren können für jede wohldefinierte Periodizität angenommen werden. Exponentiell gewichtete Bewegungsdurchschnitte (EWMA) Mit der einfachen gleitenden Durchschnittsformel werden alle Beobachtungen gleich gewichtet. Wenn wir diese Gleichgewichte, alpha t. Jedes der k Gewichte würde 1 k betragen. So dass die Summe der Gewichte würde 1, und die Formel wäre: Wir haben bereits gesehen, dass mehrere Anwendungen dieses Prozesses in die Gewichte variieren führen. Bei exponentiell gewichteten Bewegungsdurchschnitten wird der Beitrag zum Mittelwert aus mehr zeitlich entfernten Beobachtungen verringert, wodurch neuere (lokale) Ereignisse hervorgehoben werden. Im wesentlichen wird ein Glättungsparameter 0lt alpha lt1 eingeführt und die Formel überarbeitet: Eine symmetrische Version dieser Formel würde die Form haben: Wenn die Gewichte im symmetrischen Modell als die Ausdrücke der Terme der Binomialdehnung ausgewählt werden, (1212) 2q. Sie summieren sich auf 1, und wenn q groß wird, nähert sich die Normalverteilung. Dies ist eine Form der Kerngewichtung, wobei das Binomial als Kernfunktion dient. Die im vorigen Teilabschnitt beschriebene zweistufige Faltung ist genau diese Anordnung, wobei q 1 die Gewichte ergibt. Bei der exponentiellen Glättung ist es notwendig, einen Satz von Gewichten zu verwenden, die auf 1 summieren und die geometrisch verkleinern. Die verwendeten Gewichte haben typischerweise die Form: Um zu zeigen, daß diese Gewichte zu 1 summieren, betrachten wir die Erweiterung von 1 als Reihe. Wir können den Ausdruck in Klammern schreiben und erweitern, indem wir die binomische Formel (1- x) p verwenden. Wobei x (1) und p -1, was ergibt, ergibt sich daraus ein gewichtetes gleitendes Mittel der Form: Diese Summation kann als Rekursionsrelation geschrieben werden, was die Berechnung stark vereinfacht und das Problem vermeidet, dass das Gewichtungsregime Sollte strikt unendlich sein, damit die Gewichte auf 1 summieren (für kleine Werte von Alpha ist dies typischerweise nicht der Fall). Die von verschiedenen Autoren verwendete Schreibweise variiert. Einige verwenden den Buchstaben S, um anzuzeigen, daß die Formel im wesentlichen eine geglättete Variable ist, und schreiben: während die kontrolltheoretische Literatur oft Z anstelle von S für die exponentiell gewichteten oder geglätteten Werte verwendet (siehe z. B. Lucas und Saccucci, 1990, LUC1) , Und die NIST-Website für weitere Details und bearbeitete Beispiele). Die Formeln, die oben zitiert wurden, stammen aus der Arbeit von Roberts (1959, ROB1), aber Hunter (1986, HUN1) verwendet einen Ausdruck der Form, die für die Verwendung in einigen Kontrollverfahren geeigneter sein kann. Bei alpha 1 ist die mittlere Schätzung einfach ihr gemessener Wert (oder der Wert des vorherigen Datenelements). Bei 0,5 ist die Schätzung der einfache gleitende Durchschnitt der aktuellen und vorherigen Messungen. In Prognosemodellen wird der Wert S t. Wird oft als Schätzwert oder Prognosewert für die nächste Zeitperiode, dh als Schätzung für x zum Zeitpunkt t 1, verwendet. Somit haben wir: Dies zeigt, dass der Prognosewert zum Zeitpunkt t 1 eine Kombination des vorherigen exponentiell gewichteten gleitenden Durchschnitts ist Plus eine Komponente, die den gewichteten Vorhersagefehler darstellt, epsilon. Zum Zeitpunkt t. Wenn eine Zeitreihe gegeben wird und eine Prognose erforderlich ist, ist ein Wert für alpha erforderlich. Dies kann aus den vorhandenen Daten geschätzt werden, indem die Summe der quadrierten Prädiktionsfehler mit unterschiedlichen Werten von alpha für jedes t 2,3 ausgewertet wird. Wobei der erste Schätzwert der erste beobachtete Datenwert x ist. Bei Steueranwendungen ist der Wert von alpha wichtig, da er bei der Bestimmung der oberen und unteren Steuergrenzen verwendet wird und die erwartete durchschnittliche Lauflänge (ARL) beeinflusst Bevor diese Kontrollgrenzen unterbrochen werden (unter der Annahme, dass die Zeitreihe eine Menge von zufälligen, identisch verteilten unabhängigen Variablen mit gemeinsamer Varianz darstellt). Unter diesen Umständen ist die Varianz der Kontrollstatistik: (Lucas und Saccucci, 1990): Kontrollgrenzen werden gewöhnlich als feste Vielfache dieser asymptotischen Varianz festgelegt, z. B. - 3-fache Standardabweichung. Wenn beispielsweise & alpha; 0,25 angenommen wird und die zu überwachenden Daten eine Normalverteilung N (0,1) haben, werden bei der Steuerung die Steuergrenzen - 1,134 und der Prozess eine oder andere Grenze in 500 Schritten erreichen im Durchschnitt. Lucas und Saccucci (1990 LUC1) leiten die ARLs für eine breite Palette von Alpha-Werten und unter verschiedenen Annahmen unter Verwendung von Markov-Chain-Prozeduren ab. Sie tabellieren die Ergebnisse, einschließlich der Bereitstellung von ARLs, wenn der Mittelwert des Kontrollprozesses um ein Vielfaches der Standardabweichung verschoben worden ist. Beispielsweise beträgt bei einer 0,5-Verschiebung mit alpha 0,25 die ARL weniger als 50 Zeitschritte. Die oben beschriebenen Ansätze sind als einzelne exponentielle Glättung bekannt. Da die Prozeduren einmal auf die Zeitreihe angewendet werden und dann Analysen oder Steuerprozesse auf dem resultierenden geglätteten Datensatz durchgeführt werden. Wenn der Datensatz einen Trend enthält unddie saisonalen Komponenten, können zwei - oder dreistufige exponentielle Glättungen angewendet werden, um diese Effekte zu entfernen (explizit modellieren) (siehe weiter unten im Abschnitt "Vorhersage" und "NIST"). CHA1 Chatfield C (1975) Die Analyse der Zeitreihen: Theorie und Praxis. Chapman und Hall, London HUN1 Hunter J S (1986) Der exponentiell gewichtete gleitende Durchschnitt. J von Qualitätstechnologie, 18, 203-210 LUC1 Lucas J M, Saccucci M S (1990) Exponentiell gewichtete gleitende durchschnittliche Kontrollschemata: Eigenschaften und Verbesserungen. Technometrics, 32 (1), 1-12 ROB1 Roberts S W (1959) Kontrolltests auf der Grundlage geometrischer Bewegungsdurchschnitte. Technometrics, 1, 239 & ndash; 250
No comments:
Post a Comment