Monday, 10 July 2017

Weighted Moving Average Technik


Vorhersage von Smoothing Techniques Diese Seite ist ein Teil der JavaScript E-Labs Lernobjekte für die Entscheidungsfindung. Andere JavaScript in dieser Serie sind unter verschiedenen Bereichen von Anwendungen im Abschnitt MENU auf dieser Seite kategorisiert. Eine Zeitreihe ist eine Folge von Beobachtungen, die zeitlich geordnet sind. Inhärent in der Sammlung von Daten über die Zeit genommen ist eine Form der zufälligen Variation. Es gibt Methoden zur Verringerung der Annullierung der Wirkung aufgrund zufälliger Variation. Weit verbreitete Techniken sind Glättung. Diese Techniken, wenn richtig angewandt, zeigt deutlicher die zugrunde liegenden Trends. Geben Sie die Zeitreihe Row-weise in der Reihenfolge beginnend mit der linken oberen Ecke und den Parametern ein, und klicken Sie dann auf die Schaltfläche Berechnen, um eine Prognose für eine Periode zu erhalten. Blank Boxen sind nicht in den Berechnungen, sondern Nullen enthalten. Wenn Sie Ihre Daten eingeben, um von Zelle zu Zelle in der Daten-Matrix zu bewegen, verwenden Sie die Tabulatortaste nicht Pfeil oder geben Sie die Tasten ein. Merkmale der Zeitreihen, die durch die Untersuchung seines Graphen aufgezeigt werden könnten. Mit den prognostizierten Werten und dem Residualverhalten, Condition Prognose Modellierung. Moving Averages: Gleitende Durchschnitte zählen zu den beliebtesten Techniken für die Vorverarbeitung von Zeitreihen. Sie werden verwendet, um zufälliges weißes Rauschen aus den Daten zu filtern, um die Zeitreihe glatter zu machen oder sogar bestimmte in der Zeitreihe enthaltene Informationskomponenten zu betonen. Exponentialglättung: Dies ist ein sehr populäres Schema, um eine geglättete Zeitreihe zu erzeugen. Während in den gleitenden Durchschnitten die früheren Beobachtungen gleich gewichtet werden, weist Exponentialglättung exponentiell abnehmende Gewichte zu, wenn die Beobachtung älter wird. Mit anderen Worten, die jüngsten Beobachtungen sind relativ mehr Gewicht in der Prognose gegeben als die älteren Beobachtungen. Double Exponential Smoothing ist besser im Umgang mit Trends. Triple Exponential Smoothing ist besser im Umgang mit Parabeltrends. Ein exponentiell gewichteter gleitender Durchschnitt mit einer Glättungskonstanten a. Entspricht in etwa einem einfachen gleitenden Durchschnitt der Länge (d. h. Periode) n, wobei a und n durch a 2 (n1) OR n (2 - a) a verknüpft sind. So würde beispielsweise ein exponentiell gewichteter gleitender Durchschnitt mit einer Glättungskonstante gleich 0,1 etwa einem 19 Tage gleitenden Durchschnitt entsprechen. Und ein 40 Tage einfacher gleitender Durchschnitt würde etwa einem exponentiell gewichteten gleitenden Durchschnitt mit einer Glättungskonstanten gleich 0,04878 entsprechen. Holts Lineare Exponentialglättung: Angenommen, die Zeitreihe ist nicht saisonal, sondern zeigt Trend. Holts-Methode schätzt sowohl das aktuelle Niveau als auch den aktuellen Trend. Beachten Sie, dass der einfache gleitende Durchschnitt ein Spezialfall der exponentiellen Glättung ist, indem die Periode des gleitenden Mittelwertes auf den ganzzahligen Teil von (2-Alpha) Alpha gesetzt wird. Für die meisten Geschäftsdaten ist ein Alpha-Parameter kleiner als 0,40 oft effektiv. Man kann jedoch eine Gittersuche des Parameterraums mit 0,1 bis 0,9 mit Inkrementen von 0,1 durchführen. Dann hat das beste Alpha den kleinsten mittleren Absolutfehler (MA Error). Wie man mehrere Glättungsmethoden miteinander vergleicht: Obwohl es numerische Indikatoren für die Beurteilung der Genauigkeit der Prognosetechnik gibt, besteht der am weitesten verbreitete Ansatz darin, einen visuellen Vergleich mehrerer Prognosen zu verwenden, um deren Genauigkeit zu bewerten und unter den verschiedenen Prognosemethoden zu wählen. Bei diesem Ansatz muss man auf demselben Graphen die ursprünglichen Werte einer Zeitreihenvariablen und die vorhergesagten Werte aus verschiedenen Prognoseverfahren aufzeichnen und damit einen visuellen Vergleich erleichtern. Sie können die Vergangenheitsvorhersage von Smoothing Techniques JavaScript verwenden, um die letzten Prognosewerte basierend auf Glättungstechniken zu erhalten, die nur einen einzigen Parameter verwenden. Holt - und Winters-Methoden zwei bzw. drei Parameter, daher ist es keine leichte Aufgabe, die optimalen oder sogar nahezu optimalen Werte durch Versuch und Fehler für die Parameter auszuwählen. Die einzelne exponentielle Glättung betont die kurzreichweite Perspektive, die sie den Pegel auf die letzte Beobachtung setzt und basiert auf der Bedingung, dass es keinen Trend gibt. Die lineare Regression, die auf eine Linie der kleinsten Quadrate zu den historischen Daten (oder transformierten historischen Daten) passt, repräsentiert die lange Reichweite, die auf dem Grundtrend konditioniert ist. Holts lineare exponentielle Glättung erfasst Informationen über die jüngsten Trend. Die Parameter im Holts-Modell sind Ebenenparameter, die verringert werden sollten, wenn die Menge der Datenvariation groß ist, und der Trends-Parameter sollte erhöht werden, wenn die jüngste Trendrichtung durch das Kausale beeinflusst wird. Kurzfristige Prognose: Beachten Sie, dass jeder JavaScript auf dieser Seite eine einstufige Prognose zur Verfügung stellt. Um eine zweistufige Prognose zu erhalten. Fügen Sie einfach den prognostizierten Wert an das Ende der Zeitreihendaten und klicken Sie dann auf die Schaltfläche Berechnen. Sie können diesen Vorgang einige Male wiederholen, um die benötigten kurzfristigen Prognosen zu erhalten. MPR2 - Forecasting Demand Eine Art von Prognose, die Ursache-Wirkungs-Assoziationen verwendet, um Zusammenhänge zwischen unabhängigen und abhängigen Variablen vorherzusagen und zu erklären. Ein Beispiel eines Kausalmodells ist ein ökonometrisches Modell, das verwendet wird, um die Nachfrage nach Wohnungsbeginn anhand der Verbraucherbasis, der Zinssätze, des persönlichen Einkommens und der Landverfügbarkeit zu erläutern. CPFR (Collaborative Planning, Forecasting amp Replenishment) Ein Kooperationsprozess, bei dem Supply-Chain-Handelspartner gemeinsam wichtige Supply-Chain-Aktivitäten von der Produktion und Lieferung von Rohstoffen bis hin zur Produktion und Lieferung von Endprodukten an Endkunden planen. Collaboration umfasst Unternehmensplanung, Verkaufsprognosen und alle Operationen, die erforderlich sind, um Rohstoffe und fertige Erzeugnisse wieder aufzufüllen. Historie und Hintergrund, die zuerst mit bewegten Durchschnitten kamen Technische Analytiker verwenden schon jetzt gleitende Durchschnitte für mehrere Jahrzehnte. Sie sind so allgegenwärtig in unserer Arbeit, dass die meisten von uns nicht wissen, woher sie kamen. Statistiker kategorisieren Moving Averages als Teil einer Familie von Werkzeugen für ldquoTime Series Analysisrdquo. Andere in dieser Familie sind: ANOVA, Arithmetisches Mittel, Korrelationskoeffizient, Kovarianz, Differenztabelle, Kleinste Quadrate Anpassung, Maximale Wahrscheinlichkeit, Gleitender Durchschnitt, Periodogramm, Prognosetheorie, Zufallsvariable, Random Walk, Residual, Varianz. Lesen Sie mehr über jede dieser und ihre Definitionen bei Wolfram. Die Entwicklung des ldquomoving averagerdquo geht auf das Jahr 1901 zurück, obwohl der Name später angewendet wurde. Vom Mathematikhistoriker Jeff Miller: BEWEGLICHES DURCHSCHNITT. Diese Technik zum Glätten von Datenpunkten wurde jahrzehntelang verwendet, bevor dieses oder irgendein allgemeiner Begriff in Gebrauch kam. 1909 GU Yule (Journal of the Royal Statistical Society. 72, 721-730) beschreiben die ldquoinstantaneous averagesrdquo RH Hooker 1901 berechnet als ldquomoving-averages. rdquo Yule nicht den Begriff in seinem Lehrbuch übernehmen, aber es trat Zirkulation durch WI Kingrsquos Elemente der statistischen Methode (1912). ldquoMoving averagerdquo auf eine Art von stochastischen Prozess bezieht, ist eine Abkürzung von H. Woldrsquos ldquoprocess averagerdquo (Eine Studie in der Analyse von stationären Zeitreihen (1938)) zu bewegen. Wold beschrieb, wie spezielle Fälle des Prozesses in den 1920er Jahren von Yule (in Verbindung mit den Eigenschaften der variierenden Differenzkorrelationsmethode) und Slutsky John Aldrich untersucht worden waren. Von StatSoft Inc. kommt diese Beschreibung von Exponential Smoothing. Die eine von mehreren Techniken für die Gewichtung von Vergangenheit Daten unterschiedlich ist: ldquoExponentielle Glättung hat sich als Prognosemethode für eine Vielzahl von Zeitreihen-Daten sehr beliebt. Historisch wurde das Verfahren unabhängig von Robert Goodell Brown und Charles Holt entwickelt. Brown arbeitete für die US-Marine während des Zweiten Weltkriegs, wo seine Aufgabe war es, ein Tracking-System für Brandbekämpfung Informationen zur Berechnung der Lage der U-Boote zu entwerfen. Später setzte er diese Technik auf die Prognose der Ersatzteilnachfrage (ein Bestandskontrollproblem). Er beschrieb diese Ideen in seinem Buch 1959 über die Bestandskontrolle. Holtrsquos Forschung durch das Office of Naval Research unabhängig gesponsert wurde, entwickelte er Modelle der exponentiellen Glättung für konstante Prozesse verarbeitet, mit linearen Trends und saisonale data. rdquo Holtrsquos Papier, ldquoForecasting Seasonals und Trends von Exponentiell gewichtete gleitende Averagesrdquo 1957 in O. N.R. veröffentlicht wurde Forschung Memorandum 52, Carnegie Institute of Technology. Es gibt es nicht online kostenlos, aber kann von denen mit Zugang zu akademischen Papier Ressourcen zugänglich sein. Nach unserem Wissen war P. N. (Pete) Haurlan die erste, die exponentielle Glättung für die Verfolgung der Aktienkurse verwendet. Haurlan war ein tatsächlicher Raketenwissenschaftler, der für JPL in den frühen sechziger Jahren arbeitete und folglich hatte er Zugang zu einem Computer. Er nannte sie nicht ldquoexponential Moving Averages (EMAs) rdquo oder mathematisch modischen ldquoexponentially gewichteten gleitenden Durchschnitte (EWMAs) rdquo. Stattdessen nannte er sie ldquoTrend Valuesrdquo und nannte sie durch ihre Glättungskonstanten. So, was heute allgemein als eine 19-Tage-EMA bezeichnet wird, nannte er ein ldquo10 Trendrdquo. Da seine Terminologie das Original für eine solche Verwendung bei der Aktienkursverfolgung war, verwenden wir daher diese Terminologie in unserer Arbeit weiter. Haurlan hatte EMAs verwendet, um die Verfolgungssysteme für Raketen in der Gestaltung, welche könnte beispielsweise benötigen ein sich bewegendes Objekt wie ein Satellit abzufangen, einem Planeten usw. Wenn der Pfad an das Ziel ausgeschaltet war, dann eine Art von Eingang angelegt werden müssten An den Lenkmechanismus, aber sie wollten nicht übertreiben oder untertreiben, dass Eingang und entweder instabil oder nicht drehen. Daher war die richtige Art der Glättung von Dateneingaben hilfreich. Haurlan nannte dieses ldquoProportional Controlrdquo, was bedeutet, dass der Lenkmechanismus nicht versuchen würde, den gesamten Tracking-Fehler auf einmal auszugleichen. EMAs waren leichter in frühe analoge Schaltungen als andere Filtertypen zu codieren, da sie nur zwei Stücke von variablen Daten benötigen: den aktuellen Eingangswert (z. B. Preis, Position, Winkel usw.) und den vorherigen EMA-Wert. Die Glättungskonstante wäre fest verdrahtet in die Schaltungsanordnung, so daß der ldquomemoryrdquo nur diese beiden Variablen verfolgen muß. Ein einfacher gleitender Durchschnitt erfordert andererseits das Verfolgen aller Werte innerhalb der Rückblickperiode. Also ein 50-SMA würde bedeuten, die Verfolgung von 50 Datenpunkten, dann Mittelung sie. Es bindet viel mehr Rechenleistung. Mehr über EMAs im Vergleich zu Simple Moving Averages (SMAs) bei Exponential versus Simple. Haurlan gründete den Trade Levels-Newsletter in den 1960er Jahren, so dass JPL für die lukrativere Arbeit. Sein Rundschreiben war ein Sponsor der Charting The Market TV-Show auf KWHY-TV in Los Angeles, die erste TA-TV-Show, die von Gene Morgan. Die Arbeit von Haurlan und Morgan waren ein großer Teil der Inspiration hinter Sherman und Marian McClellanrsquos Entwicklung der McClellan-Oszillator und Summation Index, der exponentielle Glättung von Advance-Decline Daten beziehen. Sie können ein 1968-Heft mit dem Titel Measuring Trend Values ​​lesen, das von Haurlan ab Seite 8 des MTA Award Handout veröffentlicht wird. Die wir für die Teilnehmer der MTA-Konferenz 2004 vorbereiteten, wo Sherman und Marian mit dem MTArsquos Lifetime Achievement Award ausgezeichnet wurden. Haurlan listet nicht die Herkunft dieser mathematischen Technik auf, stellt aber fest, dass sie seit vielen Jahren in der Luft - und Raumfahrttechnik verwendet wurde.

No comments:

Post a Comment