Sunday 19 March 2017

Moving Average As Dependent Variabel

Diese Datenstruktur ist unzweckmäßig. Angenommen, eine ID-ID müssen Sie umformen. z. B. Dann ist ein gleitender Durchschnitt einfach. Verwenden Sie tssmooth oder einfach nur generieren. z. B. Mehr darüber, warum Ihre Datenstruktur ist ziemlich unfit: Nicht nur würde die Berechnung eines gleitenden Durchschnitt benötigen eine Schleife (nicht unbedingt mit egen), aber Sie würden mehrere neue zusätzliche Variablen erstellen. Mit denen in einer späteren Analyse wäre irgendwo zwischen ungeschickt und unmöglich. EDIT Ill geben eine Probe-Schleife, während sich nicht aus meiner Haltung, dass es schlechte Technik. Ich sehe nicht einen Grund für Ihre Namenskonvention, wobei P1947 ist ein Mittel für 1943-1945 Ich nehme an, das ist nur ein Tippfehler. Nehmen wir an, dass wir Daten für 1913-2012 haben. Für Mittel von 3 Jahren verlieren wir ein Jahr an jedem Ende. Das könnte prägnanter geschrieben werden, auf Kosten einer Flut von Makros innerhalb von Makros. Mit ungleichen Gewichten ist einfach, wie oben. Der einzige Grund, egen verwenden ist, dass es nicht aufgeben, wenn es Versäumnisse, die die oben genannten tun wird. Der Vollständigkeit halber sei bemerkt, dass es leicht ist, Fehler zu behandeln, ohne auf egen zurückzugreifen. Und dem Nenner Wenn alle Werte fehlen, reduziert sich dies auf 00 oder fehlt. Andernfalls, wenn ein Wert fehlt, fügen wir 0 auf den Zähler und 0 auf den Nenner, die die gleiche wie Ignorieren ist. Natürlich ist der Code erträglich wie oben für Mittelwerte von 3 Jahren, aber entweder für diesen Fall oder für die Mittelung über mehr Jahre, würden wir ersetzen die Zeilen oben durch eine Schleife, was ist, was egen does. I haben eine Zeitreihe ich verwenden möchten Als Antwort in einem Regressionsmodell. Das Problem ist, dass ich vermute, dass die Änderungen in dieser Variable auf einen Stichprobenfehler zurückzuführen sein könnten. Infolgedessen verursachte ich einen gleitenden Durchschnitt dieser Zeitreihe, um die Schocks zu glätten. Ich erwäge jetzt, dieses als die Antwort in meinem Regressionsmodell und nicht die ursprüngliche Reihe zu verwenden. Hinweis: Ich bin nicht der Aufbau eines ARMA-Modells. Meine Prädiktoren sind auch Zeitreihen wie Medienausgaben und Verbrauchervertrauenswerte. Sie sollten die Form der Polynome (Zähler und Nenner) für den Fehler zu identifizieren, wie es eine AR-Struktur oder eine MA-Struktur oder eine Kombination dieser beiden sein kann. Eine Möglichkeit (nicht notwendigerweise optimal) ist es, eine Übertragungsfunktion mit einem weißen Rauschfehler (d. h. kein ARIMA) zu leiten und dann eine mögliche ARIMA-Struktur aus den Resten zu identifizieren. Ndash IrishStat Dez 8 14 um 15: 09 Ich habe ein monatliches unausgeglichenes Datenpanel der Bilanzdaten von 70 Banken (durchschnittlich 170 Beobachtungen pro Bank) über 20 Jahre. Ich habe Autokorrelation und Heteroskedastizität innerhalb Panels. Ich versuche, die Hypophyse zu testen, dass es eine Beziehung zwischen Transaktions-Einlagen und Kredit-Engagement (Grenze der Kreditlinie). Ich möchte sagen, alle gleich zu sein, im Durchschnitt eine Bank mit mehr Transaktionsgebühren würde mehr Kreditverpflichtungen gegenüber ihren Kunden. Das heißt, das Argument ist, dass eine Bank zur Erstellung von Kreditverpflichtungen transaktionale Depostis benötigt. In einem weiteren Schritt der Forschung ist das Endziel, eine Art Produktionsfunktion für Kreditverpflichtungen aufzubauen. Meine abhängige Variable ist das Verhältnis von Kreditverpflichtungen zu Gesamtdarlehen (comitRatio). Meine unabhängige Variable (Regressor) ist das Verhältnis der transaktionalen Einlagen zu den gesamten Einlagen (depRatio). Ich verwende natürliche Logarithmen dieser Variablen, weil ich die geschätzten Koeffizienten als Elastizitäten interpretieren möchte. So habe ich ln (comitRatio) und ln (depRatio). Ln (comitRatio) b0 b1 ln (depRatio) b2 X e wobei X Kontrollvariablen sind, die meisten davon zeitinvariant. Ich wählte für die unabhängige Variable ln (depRatio) einen gleitenden Durchschnitt von 3, 6 und 12 Monaten. Denn die Hypothese besagt, dass zum Zeitpunkt t in der Zeit Verpflichtungsangebote (comitRatio) auf Basis von depRatio aus früheren Perioden entschieden werden. Da der Regressor depRatio für einige Banken (besonders die kleineren) zu viel von einem Monat zum anderen variiert, vermute ich, dass ein gleitender Durchschnitt mir ein besseres Bild zeigen würde. Mein Hauptanliegen ist die ceteris paribus Wirkung der unabhängigen Variablen über die abhängigen. Ich arbeite mit einem festen Effekt Modell mit Autokorrelation (AR (1) - Modell) und robuste Standard-Fehler (xtpcse Befehl in Stata). Das Modell funktioniert besser (höherer R2, höhere Koeffizientenschätzungen, höhere z-Statistiken), wenn ich einen gleitenden Durchschnitt benutze als wenn ich die ursprünglichen Werte verwende (auch wenn ich verzögerte Werte wie L. depRatio verwende). Meine Frage ist, angesichts dieser Einstellung kann ich gleitenden Durchschnitt nur auf unabhängige Variable Shall Ich glatte unabhängige sowie abhängige Variable, oder wäre es nicht ratsam, die abhängige Variable zu glätten Der Zweck Ihrer Modellierung könnte z. (1) beschreibend, (2) erläuternd oder (3) prädiktiv. Wenn (1), kann Glättung nützlich sein. Sie könnten die langsame Tendenz auslösen und diese für Datenvisualisierungen nutzen. Sie würden die Beziehungen zwischen den sich langsam bewegenden Trendkomponenten der verschiedenen Serien deutlicher erkennen als die ursprüngliche Serie. Natürlich müssten Sie erkennen, dass Glättung stattgefunden hat und dass die Beziehungen, die Sie ausgelöst haben, nur für geglättete Komponenten gelten, während die reellen Variablen unregelmäßiger sind. Wenn (2), direkt mit geglätteten Variablen Chaospunkt Schätzungen und ihre Standard-Fehler in Ihren Modellen. Daher konnten Sie keine Hypothesen auf einfache Weise testen. Zeitreihenzerlegung (su) dürfte hier hilfreich sein. Wenn (3), anstatt zu glätten, könnten Sie versuchen, die Zerlegung der Zeitreihen in der langsamen Trend-, Saison-und Rest-Komponenten. Dann könnten Sie versuchen, Modellierung und Prognose jeder von ihnen separat, und dann diese Prognosen zusammen, um eine Prognose der ursprünglichen Variable zu erhalten. Auf der anderen Seite, reine Glättung könnte Sie verlieren wertvolle Informationen. Ihr Fall scheint erklärend zu sein. Wenn Sie sich für die langfristige Beziehung zwischen Variablen interessieren, sollten Sie wahrscheinlich Zeitreihenzerlegung verwenden und Ihre Erkenntnisse entsprechend interpretieren. Das heißt, Sie sollten nicht behaupten, eine Beziehung zwischen den ursprünglichen Variablen, sondern nur zwischen bestimmten Komponenten. Man sollte dann auch darüber nachdenken, ob das eine sinnvolle Subjekt-Interpretation hat. Edit (nach Bearbeiten der Frage): Das Entfernen der Rauschen aus der unabhängigen Variablen durch Glättung gibt Ihnen höhere R2 (wie Sie beachten), aber dies ist ein Artefakt der Glättung, so dass es mit einem Körnchen Salz aufgenommen werden sollte. Sobald Sie die unabhängige Variable geglättet haben, sollten Sie nicht direkte Schlussfolgerung w. r.t. Die ursprüngliche Variable. Das ist etwas, vorsichtig zu sein - siehe mein Punkt (2) oben. Aber . In Ihrem Fall scheint es, dass die Glättung sinnvoll sein könnte, da die abhängige Variable zum Zeitpunkt t nicht vom regressor abhängt, sondern von einem präzisen Zeitpunkt in der Vergangenheit, sondern über ein Zeitintervall. So würden Sie explizit definieren Sie Ihre Regressor als eine reibungslose Version der ursprünglichen Variable und Sie würden Schlussfolgerung in Bezug auf diese geglättete Regressor. Das könnte funktionieren. Wenn Sie die abhängige Variable glätten, werden Sie wahrscheinlich die R2 noch mehr erhöhen, aber Sie werden noch weiter von der direkten Interpretation abweichen, denn wieder wird die Änderung in R2 ein Artefakt der Glättung sein. Alternativ können Sie Ihre Daten seltener abfragen. Dann sollten Sie mehr Signal relativ zum Rauschen sehen (da sich das Signal zwischen den seltenen Abtastpunkten ansammeln würde, während das Rauschen nicht so wäre), aber Sie könnten die Ergebnisse auch direkt interpretieren (anders als bei Glättung). Allerdings könnte dieser Ansatz sofort als Wegwerfen von Daten kritisiert werden. Vielleicht gibt es bessere Alternativen. Wenn der geglättete Regressor sinnvoll ist, müssen Sie das nicht tun. Ich habe meine ursprüngliche Frage erweitert. Mein Hauptziel in diesem Stadium ist zu prüfen, gibt es eine stabile Beziehung zwischen den Variablen. Ich bin nicht bereit, vorherzusagen. Wenn Sie Quottime Serie decompositionquot erwähnen Sie beziehen sich auf spezifische Regressionsmodelle oder zum Beispiel mit Monat und Jahr Dummy-Variablen in einem festen Effekt-Modell ist eine Quottime-Serie decompositionquot ndash Emiliano A. Carlevaro Kurz gesagt, können Sie Blick auf Zeitreihenzerlegung in ökonometrischen Lehrbüchern, z Forecasting: Principles and Practicequot von Hyndman amp Athanasopoulos (frei verfügbar online), Abschnitt 6.1. Ich habe keine besondere Art, die Serie zu zerlegen. Ndash Richard Hardy Aug 1 16 bei 18:07


No comments:

Post a Comment