Standardisierte Regressionskoeffizienten. Was ist der standardisierte Regressionskoeffizient?

In Anteilen der Standardabweichung der faktoriellen und effektiven Vorzeichen;

6. Wenn der Parameter a in der Regressionsgleichung größer als Null ist, dann:

7. Die Abhängigkeit des Angebots von den Preisen wird durch eine Gleichung der Form y \u003d 136 x 1,4 charakterisiert. Was bedeutet das?

Bei einer Preiserhöhung um 1 % erhöht sich das Angebot um durchschnittlich 1,4 %;

8. In Power-Funktion Parameter b ist:

Elastizitätskoeffizient;

9. Die verbleibende Standardabweichung wird durch die Formel bestimmt:

10. Die auf 15 Beobachtungen aufgebaute Regressionsgleichung hat die Form: y = 4 + 3x +? 6, der Wert des t-Kriteriums beträgt 3,0

Auf der Stufe der Modellbildung, insbesondere im Faktor-Screening-Verfahren, verwendet man

Partielle Korrelationskoeffizienten.

12. „Strukturvariablen“ werden aufgerufen:

Dummy-Variablen.

13. Gegeben sei eine Matrix gepaarter Korrelationskoeffizienten:

Y xl x2 x3

J 1,0 - - -

XL 0,7 1,0 - -

X2 -0,5 0,4 1,0 -

Х3 0,4 0,8 -0,1 1,0

Welche Faktoren sind kollinear?

14. Die Autokorrelationsfunktion einer Zeitreihe ist:

die Folge der Autokorrelationskoeffizienten für die Ebenen der Zeitreihe;

15. Der Vorhersagewert des Niveaus der Zeitreihe im additiven Modell beträgt:

Die Summe der Trend- und Saisonkomponenten.

16. Eine der Methoden zum Testen der Hypothese der Zeitreihen-Kointegration ist:

Engel-Granger-Kriterium;

17. Die Kointegration von Zeitreihen ist:

Kausale Abhängigkeit in den Ebenen zweier (oder mehrerer) Zeitreihen;

18. Die Koeffizienten für exogene Variablen im Gleichungssystem werden bezeichnet:



19. Eine Gleichung ist überidentifizierbar, wenn:

20. Ein Modell gilt als nicht identifizierbar, wenn:

Mindestens eine Modellgleichung ist nicht identifizierbar;

OPTION 13

1. Die erste Stufe der ökonometrischen Forschung ist:

Formulierung des Problems.

Welche Abhängigkeit verschiedene Werte Hat eine Variable unterschiedliche Werteverteilungen für eine andere Variable?

Statistisch;

3. Wenn der Regressionskoeffizient größer als Null ist, dann:

Der Korrelationskoeffizient ist größer als Null.

4. Der klassische Ansatz zur Schätzung von Regressionskoeffizienten basiert auf:

Methode kleinsten Quadrate;

Der Fisher-F-Test charakterisiert

Verhältnis der Faktor- und Restvarianzen, berechnet pro Freiheitsgrad.

6. Der standardisierte Regressionskoeffizient ist:

Mehrfachkorrelationskoeffizient;

7. Um die Signifikanz der Koeffizienten zu beurteilen, tun Sie dies nicht lineare Regression Berechnung:

F – Fisher-Kriterium;

8. Die Methode der kleinsten Quadrate bestimmt die Parameter:

Lineare Regression;

9. Der zufällige Fehler des Korrelationskoeffizienten wird durch die Formel bestimmt:

M= √(1-r 2)/(n-2)

10. Gegeben: Dfact = 120;Doct = 51. Wie hoch wird der tatsächliche Wert des Fisher-F-Tests sein?

11. Fishers privater F-Test bewertet:

Die statistische Signifikanz des Vorhandenseins des entsprechenden Faktors in der Gleichung multiple Regression;

12. Die unvoreingenommene Schätzung bedeutet das:

Der mathematische Erwartungswert der Residuen ist Null.

13. Bei der Berechnung eines multiplen Regressions- und Korrelationsmodells in Excel wird Folgendes verwendet, um eine Matrix gepaarter Korrelationskoeffizienten abzuleiten:

Korrelation von Datenanalysetools;

14. Die Summe der Werte der Saisonkomponente für alle Quartale im additiven Modell sollte gleich sein:

15. Der Vorhersagewert des Niveaus der Zeitreihe im multiplikativen Modell beträgt:

Das Produkt der Trend- und Saisonkomponenten;

16. Eine falsche Korrelation wird durch das Vorhandensein von Folgendem verursacht:

Trends.

17. Um die Autokorrelation von Residuen zu bestimmen, verwenden Sie:

Durbin-Watson-Test;

18. Die Koeffizienten für endogene Variablen im Gleichungssystem werden angegeben:

19 . Die Bedingung ist, dass sich der Rang der Matrix aus den Koeffizienten der Variablen zusammensetzt. In der untersuchten Gleichung fehlt nicht weniger als die Anzahl der endogenen Variablen des Systems pro Einheit - das ist:

Zusätzlicher Zustand Identifizieren einer Gleichung in einem Gleichungssystem

20. Die indirekte Methode der kleinsten Quadrate wird verwendet, um Folgendes zu lösen:

Ein identifizierbares Gleichungssystem.

OPTION 14

1. Mathematische und statistische Ausdrücke, die wirtschaftliche Phänomene und Prozesse quantitativ charakterisieren und ein ausreichend hohes Maß an Zuverlässigkeit aufweisen, heißen:

ökonometrische Modelle.

2. Aufgabe Regressionsanalyse Ist:

Bestimmen der Enge der Beziehung zwischen Merkmalen;

3. Der Regressionskoeffizient zeigt:

Die durchschnittliche Änderung des Ergebnisses bei einer Änderung des Faktors um eine Maßeinheit.

4. Durchschnittlicher Fehler Näherungen sind:

Die durchschnittliche Abweichung der berechneten Werte des effektiven Merkmals von den tatsächlichen Werten;

5. Die falsche Wahl einer mathematischen Funktion weist auf Fehler hin:

Modellspezifikationen;

6. Wenn der Parameter a in der Regressionsgleichung größer als Null ist, dann:

Die Variation des Ergebnisses ist geringer als die Variation des Faktors;

7. Welche Funktion wird durch Ändern von Variablen linearisiert: x=x1, x2=x2

Polynom zweiten Grades;

8. Die Abhängigkeit der Nachfrage von den Preisen wird durch eine Gleichung der Form y \u003d 98 x - 2,1 charakterisiert. Was bedeutet das?

Bei einem Preisanstieg um 1 % sinkt die Nachfrage um durchschnittlich 2,1 %;

9. Der durchschnittliche Prognosefehler wird durch die Formel bestimmt:

- σres=√(∑(у-ỹ) 2 / (n-m-1))

10. Es sei eine gepaarte Regressionsgleichung: y = 13 + 6 * x, basierend auf 20 Beobachtungen, während r = 0,7. Definieren Standart Fehler für den Korrelationskoeffizienten:

11. Standardisierte Regressionskoeffizienten zeigen:

Um wie viele Sigma ändert sich das Ergebnis im Durchschnitt, wenn sich der entsprechende Faktor um ein Sigma ändert, während das durchschnittliche Niveau der anderen Faktoren unverändert bleibt;

12. Eine der fünf Prämissen der Methode der kleinsten Quadrate ist:

Homoskedastizität;

13. Zur Berechnung Mehrfachkoeffizient Korrelation in Excel wird verwendet:

Regression des Datenanalysetools.

14. Die Summe der Werte der Saisonkomponente für alle Perioden im multiplikativen Modell im Zyklus sollte gleich sein:

Vier.

15. Bei der analytischen Ausrichtung der Zeitreihe ist die unabhängige Variable:

16. Autokorrelation in Residuen ist ein Verstoß gegen die OLS-Prämisse:

Die Zufälligkeit der aus der Regressionsgleichung erhaltenen Residuen;

Allgemeine Intensivkoeffizienten (Fruchtbarkeit, Mortalität, Kindersterblichkeit, Morbidität usw.) spiegeln die Häufigkeit von Ereignissen beim Vergleich nur dann korrekt wider, wenn die Zusammensetzung der verglichenen Populationen homogen ist. Wenn sie eine heterogene Alters-Geschlechts- oder Berufszusammensetzung, einen Unterschied in der Schwere der Erkrankung, in nosologischen Formen oder aus anderen Gründen aufweisen, können Sie sich auf allgemeine Indikatoren konzentrieren und diese vergleichen falsche Schlussfolgerungüber die Trends der untersuchten Phänomene und die wahren Gründe für den Unterschied in den allgemeinen Indikatoren der verglichenen Populationen.

Beispielsweise betrug die Krankenhaussterblichkeit in der therapeutischen Abteilung Nr. 1 im Berichtsjahr 3 % und in der therapeutischen Abteilung Nr. 2 im selben Jahr 6 %. Wenn wir die Aktivitäten dieser Abteilungen anhand allgemeiner Indikatoren bewerten, können wir auf ein Problem in der 2. therapeutischen Abteilung schließen. Und wenn wir davon ausgehen, dass sich die Zusammensetzung der in diesen Abteilungen Behandelten in nosologischen Formen oder in der Schwere der Erkrankungen der Krankenhauspatienten unterscheidet, dann am meisten der richtige Weg Die Analyse ist ein Vergleich spezieller Koeffizienten, die für jede Gruppe von Patienten mit denselben nosologischen Formen oder Schweregraden der Erkrankungen separat berechnet werden, den sogenannten „altersspezifischen Koeffizienten“.

In den verglichenen Populationen werden jedoch häufig widersprüchliche Daten beobachtet. Darüber hinaus ist es nicht immer praktisch, eine Reihe von Indikatoren zu verwenden, selbst wenn in allen verglichenen Gruppen derselbe Trend zu beobachten ist, sondern es ist vorzuziehen, eine einzige zusammenfassende Schätzung zu erhalten. In all diesen Fällen greifen sie auf die Standardisierungsmethode zurück, das heißt, den Einfluss der Zusammensetzung (Struktur) der Aggregate auf den gesamten Endindikator zu eliminieren (zu eliminieren).

Daher wird die Standardisierungsmethode verwendet, wenn die bestehenden Unterschiede in der Zusammensetzung der verglichenen Populationen die Größe der Gesamtkoeffizienten beeinflussen können.

Um den Einfluss der Heterogenität der Zusammensetzungen der verglichenen Populationen auf den Wert der erhaltenen Koeffizienten zu eliminieren, werden diese auf einen einzigen Standard gebracht, d. h. es wird bedingt angenommen, dass die Zusammensetzung der verglichenen Populationen gleich ist. Als Standard kann man die Zusammensetzung einer im Wesentlichen nahe beieinander liegenden dritten Population, die durchschnittliche Zusammensetzung zweier verglichener Gruppen oder, am einfachsten, die Zusammensetzung einer der verglichenen Gruppen nehmen.

Die standardisierten Koeffizienten zeigen, wie die allgemeinen Intensivindikatoren (Fruchtbarkeit, Morbidität, Mortalität, Mortalität usw.) aussehen würden, wenn ihr Wert nicht durch die Heterogenität in der Zusammensetzung der verglichenen Gruppen beeinflusst würde. Standardisierte Koeffizienten sind fiktive Werte und werden ausschließlich zu Analysezwecken und zum Vergleich verwendet.



Es gibt drei Methoden der Standardisierung: direkte, indirekte und umgekehrte (Kerridge).

Betrachten wir die Anwendung dieser drei Standardisierungsmethoden anhand von Beispielen aus der Statistik bösartiger Neubildungen. Wie Sie wissen, steigt die Sterblichkeitsrate durch bösartige Neubildungen mit zunehmendem Alter deutlich an. Daraus folgt, dass, wenn in einer Stadt der Anteil älterer Menschen relativ hoch ist und in einer anderen die Bevölkerung mittleren Alters vorherrscht, dies auch bei völliger Gleichheit der sanitären Lebensbedingungen der Fall ist medizinische Versorgung in beiden verglichenen Städten zwangsläufig Gesamtverhältnis Die Sterblichkeitsrate der Bevölkerung aufgrund bösartiger Neubildungen wird in der ersten Stadt höher sein als in der zweiten Stadt.

Um den Einfluss des Alters auf die Gesamtsterblichkeitsrate der Bevölkerung durch bösartige Neubildungen auszugleichen, ist eine Standardisierung erforderlich. Erst danach ist es möglich, die erhaltenen Koeffizienten zu vergleichen und eine vernünftige Schlussfolgerung über eine höhere oder niedrigere Sterblichkeitsrate durch bösartige Neubildungen im Allgemeinen in den verglichenen Städten zu ziehen.

Direkte Methode der Standardisierung. In unserem Beispiel kann es verwendet werden, wenn die Alterszusammensetzung der Bevölkerung bekannt ist und Informationen zur Berechnung der altersspezifischen Sterblichkeitsraten der Bevölkerung aufgrund bösartiger Neubildungen (die Anzahl der Todesfälle aufgrund bösartiger Neubildungen in jedem Fall) vorliegen Altersgruppe).

Die Methodik zur Berechnung standardisierter Koeffizienten nach der direkten Methode besteht aus vier aufeinanderfolgenden Stufen (Tabelle 5.1).

Erste Stufe. Berechnung „altersspezifischer“ Sterblichkeitsraten durch bösartige Neubildungen (getrennt für jede Altersgruppe).

Zweite Phase. Die Wahl des Standards ist willkürlich. In unserem Beispiel wird die Alterszusammensetzung der Bevölkerung in der Stadt „A“ als Maßstab genommen.

Tabelle 5.1

Standardisierung der Sterblichkeitsraten durch bösartige Neubildungen in den Städten „A“ und „B“ (direkte Methode)


Dritter Abschnitt. Berechnung „erwarteter“ Zahlen. Wir ermitteln, wie viele Menschen in jeder Altersgruppe der Bevölkerung der Stadt „B“ an bösartigen Neubildungen sterben würden, wenn man die altersspezifischen Sterblichkeitsraten durch bösartige Neubildungen in dieser Stadt berücksichtigt, jedoch mit der Alterszusammensetzung der Stadt „A“ (Standard).

Beispielsweise in der Altersgruppe „bis 30 Jahre“:

oder in der Altersgruppe „40-49 Jahre“:

Vierte Stufe. Berechnung standardisierter Koeffizienten. Wir schlagen vor, die Summe der „erwarteten“ Zahlen (1069,0) aus der Gesamtbevölkerung der Stadt „A“ (700000) zu ermitteln. Und wie viele Todesfälle durch bösartige Neubildungen pro 100.000 Einwohner?

Aus unseren Ergebnissen können wir folgende Schlussfolgerung ziehen: Wenn die Alterszusammensetzung der Bevölkerung „B“ die gleiche wäre wie in der Stadt „A“ (Standard), dann wäre die Sterblichkeit der Bevölkerung durch bösartige Neubildungen in der Stadt „B.“ " wäre deutlich höher (152,7 %ooo gegenüber 120,2 %ooo).

Indirekte Methode der Standardisierung. Es wird verwendet, wenn die speziellen Koeffizienten in den verglichenen Gruppen unbekannt oder bekannt, aber nicht sehr zuverlässig sind. Dies ist beispielsweise dann zu beobachten, wenn die Fallzahlen sehr gering sind und daher die berechneten Koeffizienten je nach Hinzunahme eines oder mehrerer Krankheitsfälle erheblich variieren.

Die Berechnung standardisierter Koeffizienten auf indirektem Weg kann in drei Stufen unterteilt werden (siehe Tabelle 5.2).

Erste Stufe. Es besteht in der Auswahl eines Standards. Da uns die Sonderkoeffizienten der verglichenen Gruppen (Kollektive) in der Regel nicht bekannt sind, werden die Sonderkoeffizienten einiger gut untersuchter Kollektive als Standard herangezogen. Im betrachteten Beispiel können altersspezifische Sterblichkeitsraten durch bösartige Neubildungen in der Stadt „C“ als solche dienen.

Zweite Phase beinhaltet die Berechnung der „erwarteten“ Anzahl von Todesfällen durch bösartige Neubildungen. Unter der Annahme, dass die altersspezifischen Sterblichkeitsraten in beiden Vergleichsstädten den Standardraten entsprechen, ermitteln wir, wie viele Menschen in jeder Altersgruppe an bösartigen Neubildungen sterben würden.

In der dritten Stufe Es werden standardisierte Sterblichkeitsraten der Bevölkerung durch bösartige Neubildungen berechnet. Dazu wird die tatsächliche Zahl der Todesfälle auf die „erwartete“ Gesamtzahl bezogen und das Ergebnis mit der Gesamtsterblichkeitsrate des Standards multipliziert.


Die tatsächliche Zahl der Todesfälle Allgemeine Quoten Sterblichkeitsstandard

„Erwartete“ Zahl der Todesfälle

D. Dieser Indikator ist ein standardisierter Regressionskoeffizient, d. h. ein Koeffizient, der nicht in absoluten Maßeinheiten der Vorzeichen, sondern in Anteilen der Standardabweichung des effektiven Vorzeichens ausgedrückt wird

Die bedingt reinen Regressionskoeffizienten bf sind benannte Zahlen, die in unterschiedlichen Maßeinheiten ausgedrückt werden und daher nicht miteinander vergleichbar sind. Um sie in vergleichbare relative Indikatoren umzuwandeln, wird die gleiche Transformation wie bei der Ermittlung des Paarkorrelationskoeffizienten angewendet. Der resultierende Wert wird als standardisierter Regressionskoeffizient oder -koeffizient bezeichnet.

In der Praxis ist es häufig erforderlich, die Wirkung verschiedener erklärender Variablen auf die abhängige Variable zu vergleichen, wenn diese in unterschiedlichen Maßeinheiten ausgedrückt werden. In diesem Fall sind standardisierte Regressionskoeffizienten b j und Elastizitätskoeffizienten Ej Q = 1,2,..., p)

Der standardisierte Regressionskoeffizient b j zeigt, um wie viele Werte sy sich die abhängige Variable Y im Durchschnitt ändert, wenn nur die j-te erklärende Variable um sx, a erhöht wird

Lösung. Um den Einfluss der einzelnen erklärenden Variablen gemäß der Formel (4.10) zu vergleichen, berechnen wir die standardisierten Regressionskoeffizienten

Bestimmen Sie die standardisierten Regressionskoeffizienten.

В парной зависимости стандартизованный коэффициент регрессии есть не что иное, как линейный коэффициент корреляции fa Подобно тому, как в парной зависимости коэффициенты регрессии и корреляции связаны между собой, так и во множественной регрессии коэффициенты чистой регрессии й, связаны со стандартизованными коэффициентами регрессии / ,-, nämlich

Die berücksichtigte Bedeutung der standardisierten Regressionskoeffizienten ermöglicht deren Verwendung beim Herausfiltern von Faktoren – Faktoren mit der kleinste Wert jQy.

Wie oben gezeigt, kann die Rangfolge der an der multiplen linearen Regression beteiligten Faktoren durch standardisierte Regressionskoeffizienten (/-Koeffizienten) erfolgen. Das gleiche Ziel kann mit Hilfe partieller Korrelationskoeffizienten erreicht werden – für lineare Zusammenhänge. Bei einem nichtlinearen Zusammenhang der untersuchten Merkmale wird diese Funktion durch Teilbestimmungsindizes übernommen. Darüber hinaus werden Teilkorrelationsindikatoren häufig zur Lösung des Problems der Auswahl von Faktoren verwendet. Die Zweckmäßigkeit der Einbeziehung des einen oder anderen Faktors in das Modell wird durch den Wert des Teilkorrelationsindikators nachgewiesen.

Mit anderen Worten: Bei der Zwei-Faktor-Analyse sind partielle Korrelationskoeffizienten standardisierte Regressionskoeffizienten, multipliziert mit der Quadratwurzel des Verhältnisses der Anteile der Restvarianzen des festen Faktors zum Faktor und zum Ergebnis.

Im Rahmen der Entwicklung von Personalbestandsstandards werden erste Daten zum Personalbestand von Führungskräften und den Werten von Faktoren für ausgewählte Basisunternehmen erhoben. Als nächstes werden für jede Funktion auf der Grundlage einer Korrelationsanalyse signifikante Faktoren ausgewählt, die auf dem Wert der Korrelationskoeffizienten basieren. Faktoren auswählen mit Höchster Wert Paarweiser Korrelationskoeffizient mit Funktion und standardisierter Regressionskoeffizient.

Standardisierte Regressionskoeffizienten (p) werden für jede Funktion durch die Gesamtheit aller Argumente gemäß der Formel berechnet

Dennoch geben die Statistiken nützliche Empfehlungen, um zumindest eine Einschätzung zu diesem Thema zu erhalten. Machen wir uns als Beispiel mit einer dieser Methoden vertraut – dem Vergleich standardisierter Regressionskoeffizienten.

Der standardisierte Regressionskoeffizient wird berechnet, indem der Regressionskoeffizient bi mit der Standardabweichung Sn (für unsere -Variablen bezeichnen wir ihn als Sxk) multipliziert und das resultierende Produkt durch Sy dividiert wird. Dies bedeutet, dass jeder standardisierte Regressionskoeffizient als b Sxk / gemessen wird. In Bezug auf unser Beispiel erhalten wir die folgenden Ergebnisse (Tabelle 10).

Standardisierte Regressionskoeffizienten

Somit ermöglicht der obige Vergleich der Absolutwerte der standardisierten Regressionskoeffizienten, eine zwar eher grobe, aber recht klare Vorstellung von der Bedeutung der betrachteten Faktoren zu gewinnen. Wir erinnern noch einmal daran, dass diese Ergebnisse nicht ideal sind, da sie den tatsächlichen Einfluss der untersuchten Variablen nicht vollständig widerspiegeln (wir ignorieren die Tatsache der möglichen Wechselwirkung dieser Faktoren, die das ursprüngliche Bild verzerren kann).

Die Koeffizienten dieser Gleichung (blf 62, b3) werden durch die Lösung bestimmt standardisierte Gleichung Rückschritt

Operator 5. Berechnung von -Koeffizienten - Regressionskoeffizienten auf einer standardisierten Skala.

Es ist leicht zu erkennen, dass man durch den Wechsel zu 2 und weitere einfache Transformationen zu einem System normaler Gleichungen auf einer standardisierten Skala gelangen kann. Wir werden eine solche Transformation in Zukunft anwenden, da wir durch die Normalisierung einerseits zu große Zahlen vermeiden können und andererseits das Rechenschema selbst zum Standard bei der Bestimmung der Regressionskoeffizienten wird.

Die Form des Diagramms der direkten Verbindungen legt nahe, dass sich die Restvarianz von st.z4 nicht von der Restvarianz von a.23456 unterscheiden würde, wenn die Regressionsgleichung nur für zwei Faktoren erstellt wird – die Anzahl der Schleppnetze und die Zeit der reinen Schleppnetzfischerei. wird aus der Regressionsgleichung ermittelt, die auf allen Faktoren basiert. Zur Beurteilung der Differenz greifen wir in diesem Fall auf eine Stichprobenschätzung zurück. 1,23456 = 0,907 und 1,34 = 0,877. Wenn wir jedoch die Koeffizienten gemäß Formel (38) korrigieren, dann 1,23456=0,867, a / i.34= = 0,864. Der Unterschied kann kaum als signifikant angesehen werden. Außerdem ist r14 = 0,870. Dies deutet darauf hin, dass die Anzahl der Hols fast keinen direkten Einfluss auf die Größe des Fangs hat. Tatsächlich ist auf einer standardisierten Skala 1,34 = 0,891 4 - 0,032 3- leicht zu erkennen, dass der Regressionskoeffizient bei t3 selbst bei einem sehr niedrigen Konfidenzintervall unzuverlässig ist.

Rx/. - entsprechender Faktor

Schätzung der Parameter der Regressionsgleichung auf einer standardisierten Skala

Die Parameter der multiplen Regressionsgleichung bei ökonometrischen Problemen werden ähnlich wie bei der Paarregression mit der Methode der kleinsten Quadrate (LSM) geschätzt. Bei der Anwendung dieser Methode wird ein System von Normalgleichungen aufgebaut, dessen Lösung es ermöglicht, Schätzungen der Regressionsparameter zu erhalten.

Bei der Bestimmung der Parameter der multiplen Regressionsgleichung basierend auf der Matrix gepaarter Korrelationskoeffizienten bauen wir die Regressionsgleichung auf einer standardisierten Skala auf:

in der Gleichung standardisierte Variablen

Wenn wir die Methode der kleinsten Quadrate auf mehrere Regressionsmodelle auf einer standardisierten Skala anwenden, erhalten wir nach bestimmten Transformationen ein System von Normalgleichungen der Form

Wenn wir Systeme mit der Determinantenmethode lösen, finden wir die Parameter – standardisierte Regressionskoeffizienten (Beta-Koeffizienten). Durch den Vergleich der Koeffizienten untereinander ist es möglich, die Faktoren nach der Stärke ihres Einflusses auf das Ergebnis zu ordnen. Dies ist der Hauptvorteil standardisierter Koeffizienten im Gegensatz zu herkömmlichen Regressionskoeffizienten, die nicht miteinander vergleichbar sind.

In einer Paarbeziehung steht der standardisierte Regressionskoeffizient durch die Abhängigkeit mit dem entsprechenden Koeffizienten der Gleichung in Beziehung

Dadurch können Sie von einer Gleichung auf einer standardisierten Skala zu einer Regressionsgleichung auf einer natürlichen Variablenskala wechseln:

Der Parameter a wird aus der folgenden Gleichung bestimmt

Die standardisierten Regressionskoeffizienten geben an, um wie viele Sigmas sich das Ergebnis im Durchschnitt ändert, wenn sich der entsprechende Faktor xj um ein Sigma ändert, während das durchschnittliche Niveau der anderen Faktoren unverändert bleibt. Da alle Variablen zentriert und normalisiert eingestellt sind, sind die standardisierten Regressionskoeffizienten untereinander vergleichbar.

Die berücksichtigte Bedeutung der standardisierten Koeffizienten ermöglicht deren Verwendung beim Herausfiltern von Faktoren, wobei die Faktoren mit dem kleinsten Wert aus dem Modell ausgeschlossen werden.

Computerprogramme zur Erstellung einer multiplen Regressionsgleichung ermöglichen es, entweder nur eine Regressionsgleichung für die Originaldaten oder eine Regressionsgleichung auf einer standardisierten Skala zu erhalten.

19. Charakteristik der Elastizität nach dem Modell der multiplen Regression. STR 132-136

http://math.semester.ru/regress/mregres.php

20. Zusammenhang zwischen standardisierten Regressionskoeffizienten und Elastizitätskoeffizienten. STR 120-124

21. Indikatoren für multiple und partielle Korrelationen. Ihre Rolle bei der Konstruktion ökonometrischer Modelle

Korrelation -Das statistische Beziehung zwischen zwei oder mehr zufällige Variablen(oder Werte, die mit einiger akzeptabler Genauigkeit als solche betrachtet werden können). Gleichzeitig führen Änderungen einer oder mehrerer dieser Größen zu einer systematischen Änderung der anderen oder anderen Größen. Der Korrelationskoeffizient dient als mathematisches Maß für die Korrelation zweier Zufallsvariablen. Konzept Zusammenhänge erschien Mitte des 19. Jahrhunderts in den Werken der englischen Statistiker F. Galton und K. Pearson.

Koeffizient Mehrfachkorrelation (R) charakterisiert die Enge der Beziehung zwischen dem Leistungsindikator und einer Reihe von Faktorindikatoren:

wo σ 2 - die Gesamtstreuung der empirischen Reihe, die die allgemeine Streuung des Ergebnisindikators charakterisiert (y) aufgrund von Faktoren

σ Ost 2 – Restvarianz in der Reihe ja, spiegelt den Einfluss aller Faktoren außer x wider;

bei- der Durchschnittswert des effektiven Indikators, berechnet auf der Grundlage der ersten Beobachtungen;

S- der Durchschnittswert des effektiven Indikators, berechnet durch die Regressionsgleichung.

Der Mehrfachkorrelationskoeffizient nimmt nur positive Werte im Bereich von 0 bis 1 an. Je näher der Wert des Koeffizienten an 1 liegt, desto enger ist die Beziehung. Umgekehrt gilt: Je näher an 0, desto geringer ist die Abhängigkeit. Mit R-Wert< 0,3 говорят о малой зависимости между величинами. При значении 0,3 < R< 0,6 gibt die durchschnittliche Dichtheit der Verbindung an. Bei R > 0,6 spricht man vom Vorliegen eines signifikanten Zusammenhangs.

Das Quadrat des multiplen Korrelationskoeffizienten wird aufgerufen Bestimmungskoeffizient (D): D=R2. Das Bestimmtheitsmaß gibt an, welcher Anteil der Variation des Effektivindikators mit der Variation der Faktorindikatoren zusammenhängt. Die Berechnung des Bestimmungskoeffizienten und des Mbasiert auf der Regel zur Addition von Varianzen, nach der die Gesamtvarianz (σ 2) gleich der Summe der Intergruppenvarianz (δ 2) und dem Durchschnitt der Gruppenvarianzen ist σ i 2):

σ2 = δ 2 + σ i 2 .

Die Intergruppenvarianz charakterisiert die Schwankung des effektiven Indikators aufgrund des untersuchten Faktors und des Durchschnitts davon Gruppenvarianzen spiegelt die Schwankung des effektiven Indikators aufgrund aller anderen Faktoren mit Ausnahme des untersuchten wider.

Partielle Korrelationsindikatoren. Basierend auf dem Verhältnis der Verringerung der Restvariation aufgrund des zusätzlich in das Modell einbezogenen Faktors zur Restvariation vor der Aufnahme des entsprechenden Faktors in das Modell





Die betrachteten Indikatoren können auch zum Vergleich von Faktoren verwendet werden, d. h. Sie können die Faktoren in eine Rangfolge bringen (d. h. der 2. Faktor ist enger miteinander verbunden).

Partielle Koeffizienten können im Verfahren zum Screening von Faktoren beim Aufbau eines Modells verwendet werden.

Die oben diskutierten Indikatoren sind Korrelationskoeffizienten erster Ordnung, d. h. sie charakterisieren die Beziehung zwischen zwei Faktoren bei der Festlegung eines Faktors (yx1). . x2). Sie können jedoch Koeffizienten zweiter oder höherer Ordnung bilden (yx1 . x2x3, yx1 . x2x3x4).

22. Bewertung der Zuverlässigkeit der Ergebnisse der multiplen Regression.

Strukturmodellkoeffizienten können je nach Art der simultanen Gleichungen auf unterschiedliche Weise geschätzt werden.
Methoden zur Schätzung der Koeffizienten eines Strukturmodells:
1) Indirekter MNC (CMNC)

2) Zweistufiger MNC (DMNC)

3)Dreistufiges MNK(TMNK)

4) MNP mit vollständigen Informationen

5) MNP im begrenzten Umfang. Information

Anwendung von CMNC:

Zur genauen Identifizierung des Strukturmodells kommt CMLS zum Einsatz.

CMNC-Bewerbungsverfahren:
1. Strukturell Konvertierungsmodell. in Führung Modellform.

2. Für jede Gleichung wird die reduzierte Form des Modells durch die Methode der kleinsten Quadrate geschätzt. Koeffizient

3. Die Koeffizienten der reduzierten Form des Modells werden in die Parameter des Strukturmodells transformiert.

Wenn das System überidentifizierbar ist, wird QLS nicht verwendet, da es keine eindeutigen Schätzungen für die Parameter des Strukturmodells liefert. In diesem Fall können Sie verwenden verschiedene Bewertungsmethoden, von denen DMNC am häufigsten vorkommt.
Die Hauptidee von DMNC auf der Grundlage des obigen Modells besteht darin, eine Überidentifikation zu erhalten. Theoriegleichungen. Werte endogener Variablen, enthaltend. auf der rechten Seite der Gleichung. Darüber hinaus werden beim Ersetzen der gefundenen Werte anstelle der tatsächlichen Werte die üblichen kleinsten Quadrate und Strukturwerte verwendet. Superidentform. ur-tion.
1. Schritt: bei der Antriebsbestimmung. die Form des Modells und das Finden von Schätzungen der Theorie auf seiner Grundlage. Werte der endogenen Variablen

Schritt 2: Wie auf die strukturelle Überidentifizierungsgleichung angewendet, wenn die Strukturkoeffizienten des Modells gemäß den theoretischen Werten endogener Variablen bestimmt werden.

23. Varianzanalyse der Ergebnisse der multiplen Regression.

Aufgabe Varianzanalyse bei der Überprüfung der Hypothesen H0 über die Fremdartigkeit der Regressionsgleichungen insgesamt und werden enge Zusammenhänge aufzeigen. Es wird auf der Grundlage eines Vergleichs der Fakten und Tabellenwerte durchgeführt. F-Krit-Katze wird aus dem Verhältnis der Faktor- und Restvarianzen bestimmt, berechnet für einen Freiheitsgrad

Analyse der Varianztabelle
Varu df RMS,S Disp pro df,S 2 Tatsache
gemeinsam n-1 d y 2 * n - -
Tatsache M d y 2 * n*R 2 yx1x2
Ost n-m-1 d y 2 * n*(1-R 2 yx 1 x 2) =Stotal-Sfact -

Sie können auch eine Tabelle erstellen private Varianzanalyse, und finden Sie den privaten F-Krit, der die Machbarkeit der Einbeziehung des Faktors in das Modell nach Einbeziehung der dr-Variablen bewertet

24. Teilweiser F-Test nach Fisher, t-Test nach Student. Ihre Rolle beim Aufbau von Regressionsmodellen.

Fishers F-Kriterium.

Um die statistische Zweckmäßigkeit des Hinzufügens neuer Faktoren zum Regressionsmodell zu beurteilen, verwenden Sie ein bestimmtes Fisher-Kriterium, da die Ergebnisse der Regressionsanalyse nicht nur von der Zusammensetzung der Faktoren beeinflusst werden, sondern auch von der Reihenfolge, in der der Faktor in das Modell einbezogen wird . Dies liegt an der Beziehung zwischen den Faktoren.

F xj =((R 2 mal yx1x2...xm – R 2 mal yx1x2…xj-1,хj+1…xm)/(1- R 2 mal yx1x2...xm))*((n-m-1) /1)

F-Tabelle (alpha,1, n-m-1) F xj ist größer als F-Tabelle – es empfiehlt sich, den Faktor x j nach anderen Faktoren in das Modell einzubeziehen.

Betrachtet man die Gleichung y=a+b1x1+b2+b3x3+e, so wird das F-Kriterium für die Gleichung mit einem Faktor x1 sequentiell ermittelt, dann das F-Kriterium für die zusätzliche Einbeziehung des Faktors x2 in das Modell, d.h. für den Übergang von der Ein-Faktor-Regressionsgleichung zur Zwei-Faktor-Regressionsgleichung und schließlich der F-Test für die zusätzliche Einbeziehung des x3-Faktors in das Modell, d.h. Eine Schätzung der Signifikanz des Faktors x3 erfolgt nach Einbeziehung der Faktoren x1 x2 in das Modell. In diesem Fall ist das F-Kriterium für die zusätzliche Einbeziehung des Faktors x2 nach x1 sequentiell, im Gegensatz zum F-Kriterium für die zusätzliche Einbeziehung des Faktors x3 in das Modell, das ein besonderes F-Kriterium ist, weil es bewertet die Signifikanz des Faktors unter der Annahme, dass er zuletzt in das Modell einbezogen wird. Es ist der spezielle F-Test, der mit dem Student-t-Test verknüpft ist. Ein konsistenter F-Test kann für einen Forscher in der Phase der Modellbildung von Interesse sein. Für die Gleichung y=a+b1x1+b2+b3x3+e umfasst die Beurteilung der Signifikanz der Regressionskoeffizienten b1, b2, b3 die Berechnung von drei interfaktoriellen Bestimmtheitskoeffizienten.

Zum Preis statistische Signifikanz Regressions- und Korrelationskoeffizienten berechnet T -Kriterium des Schülers Und Vertrauensintervalle jeden der Indikatoren.


Vergleich der tatsächlichen und kritischen (tabellarischen) Werte von T-Statistik und Tabl. eine Hypothese annehmen oder ablehnen H0 . Verbindung zwischen Fishers F-Test Und T-Statistik des Schülers wird durch die Gleichheit ausgedrückt

Wenn t-Registerkarte.< tфакт ., Das H0 weicht ab, d.h. a, b Und r xy Es ist kein Zufall, dass sie von Null abweichen und unter dem Einfluss eines systematisch wirkenden Faktors entstanden sind X.

Wenn, t tab.> Takt. dann die Hypothese H0 wird nicht abgelehnt und die Zufälligkeit der Entstehung wird anerkannt a, b oder r xy.

25. Bewertung der Qualität von Regressionsmodellen. Der Standardfehler der Regressionslinie.

Bewertung der Qualität der linearen Regression: Bestimmtheitsmaß R 2

Aufgrund der linearen Beziehung von und erwarten wir, dass sich diese ändert, und nennen diese Variation, die auf Regression zurückzuführen ist oder durch diese erklärt wird. Die Restvariation sollte möglichst gering sein.

Wenn ja, wird der größte Teil der Variation durch die Regression erklärt und die Punkte liegen nahe an der Regressionslinie, d. h. Die Linie passt gut zu den Daten.

Aktie Gesamtvarianz, was durch Regression erklärt wird, heißt Bestimmungskoeffizient, normalerweise als Prozentsatz ausgedrückt und bezeichnet R2(Bei der gepaarten linearen Regression ist dies der Wert r2, das Quadrat des Korrelationskoeffizienten), ermöglicht eine subjektive Beurteilung der Qualität der Regressionsgleichung.

Der Unterschied ist der Prozentsatz der Varianz, der nicht durch Regression erklärt werden kann.

Da es keinen formalen Test zur Auswertung gibt, sind wir gezwungen, uns auf die subjektive Beurteilung zu verlassen, um die Qualität der Anpassung der Regressionsgeraden zu bestimmen.

Anwenden einer Regressionslinie auf eine Prognose

Anwenden einer Regressionslinie auf eine Prognose

Sie können eine Regressionslinie verwenden, um einen Wert aus einem Wert innerhalb des beobachteten Bereichs vorherzusagen (extrapolieren Sie niemals über diese Grenzen hinaus).

Wir sagen den Mittelwert für Observablen voraus, die einen bestimmten Wert haben, indem wir diesen Wert in die Regressionsgeradengleichung einsetzen.

Wenn wir also vorhersagen, verwenden wir diesen vorhergesagten Wert und seinen Standardfehler zur Schätzung Konfidenzintervall für den wahren Bevölkerungsmittelwert.

Durch Wiederholen dieses Vorgangs für verschiedene Werte können Sie Vertrauensgrenzen für diese Linie erstellen. Dies ist ein Band oder Bereich, der beispielsweise eine echte Linie mit einem Konfidenzniveau von 95 % enthält.

26. Wechselbeziehung zwischen privatem F-Test, Student-T-Test und partiellem Korrelationskoeffizienten.

Aufgrund der Korrelation der m/y-Faktoren ist die Bedeutung desselben Faktors m/b je nach Reihenfolge seiner Einführung in das Modell unterschiedlich. Das Maß zur Beurteilung der Einbeziehung eines Faktors in das Modell ist häufiger F-Test, d.h. Fx ich. IN Gesamtansicht für Faktor x ich Der häufige F-Test ist definiert als:

Wenn wir die Gleichung betrachten y=a+b 1 x 1 +b 2 +b 3 x 3 +e, dann wird sequentiell das F-Kriterium für eine Gleichung mit einem Faktor x 1 bestimmt, dann das F-Kriterium für die zusätzliche Einbeziehung des Faktors x 2 in das Modell, also für den Übergang von einer Ein-Faktor-Regressionsgleichung zu einer Zwei-Faktor-Regressionsgleichung -Faktor eins und schließlich ein F-Kriterium für eine zusätzliche Einbeziehung des Faktors x 3 in das Modell, d das Model. In diesem Fall lautet das F-Kriterium für die zusätzliche Einbeziehung des Faktors x 2 nach x 1 konsistent im Gegensatz zum F-Kriterium für die zusätzliche Einbeziehung des Faktors x 3 in das Modell, der ist Privatgelände F-Kriterium, da es die Signifikanz eines Faktors unter der Annahme bewertet, dass er zuletzt in das Modell aufgenommen wird. Es ist der spezielle F-Test, der mit dem Student-t-Test verknüpft ist. Ein konsistenter F-Test kann für einen Forscher in der Phase der Modellbildung von Interesse sein. Für die Gleichung y=a+b 1 x 1 +b 2 +b 3 x 3 +e Einschätzung der Bedeutung von Regressionskoeffizienten b 1 ,b 2,b 3 beinhaltet die Berechnung von drei interfaktoriellen Bestimmtheitskoeffizienten, nämlich:

Basierend auf dem Verhältnis b i und wir erhalten:

27. Optionen zum Aufbau eines Regressionsmodells. Ihre kurze Beschreibung.

28. Interpretation der Parameter der linearen und nichtlineare Regression.

B A
Dampfraum linear Regressionskoeffizienten b zeigt die durchschnittliche Änderung des effektiven Indikators (in Maßeinheiten y) bei einer Zunahme oder Abnahme des Wertes des Faktors x pro Maßeinheit. Die Beziehung zwischen y und x bestimmt das Vorzeichen des Regressionskoeffizienten b (wenn > 0 - direkte Beziehung, andernfalls - inverse). nicht interpretiert, nur das Vorzeichen >0 - das Ergebnis ändert sich langsamer als der Faktor,<0 рез-т изм быстрее фактора
nichtlinear im Potenzgesetz der Elastizitätskoeffizient, d.h. auf sk % meas rez-t im Durchschnitt, wenn sich der Faktor um 1 % ändert, ist die Umkehrfunktion dieselbe wie im linearen, nicht interpretiert
Plural linear Bei der linearen multiplen Regression charakterisieren die Koeffizienten bei хi die durchschnittliche Änderung des Ergebnisses bei einer Änderung des entsprechenden Faktors um eins, wobei unveränderte Werte anderer Faktoren auf dem Durchschnittsniveau fixiert werden nicht interpretiert

29. Matrix von Paar- und Teilkorrelationskoeffizienten bei der Konstruktion von Regressionsmodellen.

30. Voraussetzungen der Methode der kleinsten Quadrate.

Voraussetzungen der Methode der kleinsten Quadrate (Gauss-Markov-Bedingungen)

1. Die mathematische Erwartung einer zufälligen Abweichung ist für alle Beobachtungen Null. Diese Bedingung bedeutet, dass die zufällige Abweichung im Durchschnitt keinen Einfluss auf die abhängige Variable hat. In jeder gegebenen Beobachtung kann der Zufallsterm entweder positiv oder negativ sein, er darf jedoch nicht systematisch verzerrt sein.

2. Die Streuung zufälliger Abweichungen ist für alle Beobachtungen konstant. Diese Bedingung impliziert, dass, obwohl die zufällige Abweichung für eine bestimmte Beobachtung entweder groß oder klein sein kann, es keine a priori Ursache geben darf, die einen großen Fehler (Abweichung) verursacht.

Die Machbarkeit dieser Prämisse wird Homoskedastizität (Konstanz der Varianz von Abweichungen) genannt. Die Unmöglichkeit dieser Prämisse wird Heteroskedastizität (Variabilität der Varianz von Abweichungen) genannt.

3. Zufällige Abweichungen u i und u j sind für i¹j unabhängig voneinander. Die Machbarkeit dieser Prämisse geht davon aus, dass zwischen zufälligen Abweichungen kein systematischer Zusammenhang besteht. Mit anderen Worten: Die Größe und das eindeutige Vorzeichen einer zufälligen Abweichung dürfen nicht die Ursache für die Größe und das Vorzeichen einer anderen Abweichung sein. Die Machbarkeit dieser Prämisse bringt die folgende Beziehung mit sich:

Wenn diese Bedingung erfüllt ist, sagen wir daher, dass keine Autokorrelation vorliegt.

4. Die zufällige Abweichung muss unabhängig von den erklärenden Variablen sein.

Diese Bedingung ist normalerweise automatisch erfüllt, wenn die erklärenden Variablen im gegebenen Modell nicht zufällig sind. Diese Bedingung impliziert die Machbarkeit der folgenden Beziehung:

5. Das Modell ist bezüglich der Parameter linear.

Satz von Gauß-Markov. Wenn die Voraussetzungen 1–5 erfüllt sind, haben die durch die Methode der kleinsten Quadrate erhaltenen Schätzungen die folgenden Eigenschaften:

  1. Die Schätzungen sind erwartungstreu, d. h. M(b 0) = b 0 , M(b 1) = b 1 , wobei b 0 , b 1) die Koeffizienten der empirischen Regressionsgleichung und b 0 , b 1 deren Koeffizienten sind theoretische Prototypen. Dies ergibt sich aus der ersten Prämisse und weist darauf hin, dass bei der Bestimmung der Position der Regressionsgeraden kein systematischer Fehler vorliegt.
  2. Die Schätzungen sind konsistent, da die Varianz der Parameterschätzungen mit zunehmender Anzahl n der Beobachtungen gegen Null tendiert. Mit anderen Worten: Mit zunehmender Stichprobengröße steigt die Zuverlässigkeit der Schätzungen (die Koeffizienten der theoretischen und empirischen Regressionsgleichungen stimmen praktisch überein).
  3. Die Schätzungen sind effizient, das heißt, sie weisen die geringste Varianz im Vergleich zu allen Schätzungen dieser Parameter auf, die in Bezug auf die Werte von y i linear sind.

Wenn die Voraussetzungen 2 und 3 verletzt werden, das heißt, die Varianz der Abweichungen ist nicht konstant und (oder) die Werte der zufälligen Abweichungen stehen in Beziehung zueinander, dann bleiben die Eigenschaften der Unvoreingenommenheit und der Konsistenz erhalten, die Effizienzeigenschaft jedoch nicht.

Neben der Machbarkeit dieser Voraussetzungen werden bei der Konstruktion klassischer linearer Regressionsmodelle noch einige weitere Annahmen getroffen. Zum Beispiel:

  • erklärende Variablen sind keine Lebensläufe;
  • zufällige Abweichungen haben eine Normalverteilung;
  • Die Anzahl der Beobachtungen ist deutlich größer als die Anzahl der erklärenden Variablen.

ANDERE TICKET-OPTION 30.

Die Methode der kleinsten Quadrate ist eine der Methoden der Regressionsanalyse zur Schätzung unbekannter Werte aus Messungen, die zufällige Fehler enthalten.

LSM wird auch verwendet, um eine bestimmte Funktion durch andere (einfachere) Funktionen anzunähern, und ist häufig bei der Verarbeitung von Beobachtungen nützlich.

Wenn der gewünschte Wert direkt gemessen werden kann, beispielsweise die Länge eines Segments oder ein Winkel, wird zur Erhöhung der Genauigkeit die Messung mehrmals durchgeführt und als Endergebnis das arithmetische Mittel aller Einzelmessungen gebildet. Diese Regel des arithmetischen Mittels basiert auf Überlegungen aus der Wahrscheinlichkeitstheorie; Es lässt sich leicht zeigen, dass die Summe der quadrierten Abweichungen der Einzelmessungen vom arithmetischen Mittel kleiner sein wird als die Summe der quadrierten Abweichungen der Einzelmessungen von jeder anderen Größe. Die Regel des arithmetischen Mittels selbst ist daher der einfachste Fall der Methode der kleinsten Quadrate.

Mit LSM können Sie solche Schätzungen der Parameter für Kat. erhalten. Summe der quadrierten Abweichungen der tatsächlichen Werte ergibt. Zeichen aus dem Theoretischen minimal.

Modell d.b. linear in den Parametern

X – Zufallsvariable

Der Wert des Fehlers ist zufällig, ihre Änderungen bilden kein spezifisches Modell (Restmodelle)

Anzahl der Beobachtungen z.B. mehr numerische Parameter (in 5-6r)

Die Werte der x-Variablen sollten nicht sein das gleiche

Die Sammlung muss homogen sein.

Fehlende Beziehung zwischen m / y f-rum x und dem Rest

Das Regressionsmodell d.b. richtig angegeben

Das Modell sollte nicht. enge Beziehung m / y fac-mi (für multiple Regression)

Grundvoraussetzungen für MNCs:

 Zufällige Natur der Rückstände

 Nulldurchschnitt der Residuen, unabhängig vom Faktor x

 Homoskedastizität (die Varianz jeder Abweichung ist für alle x-Werte gleich)

 keine Autokorrelation von Residuen

Residuen müssen einer Normalverteilung folgen

 Wenn das Regressionsmodell y = a + bx + E die Gauß-Markov-Bedingung erfüllt, weisen die OLS-Schätzungen a und b die beste Varianz in der Klasse aller linearen, erwartungstreuen Schätzungen auf.

31. Untersuchung der Residuen der multiplen Regressionsgleichung.

Rückstandsstudien prüfen das Vorhandensein der folgenden fünf OLS-Prämissen:

1) die zufällige Natur der Rückstände;

2) Nulldurchschnittswert der Residuen, unabhängig von ;

3) Homoskedastizität – die Varianz jeder Abweichung ist für alle Werte von gleich;

4) das Fehlen einer Autokorrelation der Residuen – die Werte der Residuen sind unabhängig voneinander verteilt;

5) Die Residuen folgen einer Normalverteilung.

Wenn die Verteilung der zufälligen Residuen einige der OLS-Annahmen nicht erfüllt, sollte das Modell korrigiert werden.

Zunächst wird die Zufälligkeit der Residuen überprüft – die erste Prämisse der kleinsten Quadrate. Zu diesem Zweck gibt es eine grafische Darstellung der Abhängigkeit der Residuen von den theoretischen Werten des effektiven Attributs (Abb. 2.1). Wenn im Diagramm ein horizontaler Balken erhalten wird, handelt es sich bei den Residuen um Zufallsvariablen und die Methode der kleinsten Quadrate ist gerechtfertigt. Die theoretischen Werte nähern sich den tatsächlichen Werten gut an.

32. Heteroskedastizität und ihre Berücksichtigung beim Aufbau eines multiplen Regressionsmodells. Qualitative Schätzung der Greteroskedastizität.

Heteroskedastizität manifestiert sich, wenn der Ausgangsdatensatz Folgendes umfasst qualitativ heterogen Bereiche. Heteroskedastizität bedeutet ungleiche Varianz Residuen für verschiedene Werte von x. Wenn Heteroskedastizität vorliegt, dann:

  • OLS-Schätzungen werden es tun unwirksam.
  • Kann sein versetzt Regressionskoeffizientenschätzungen und sie werden es tun unwirksam.
  • Es ist schwierig, die Standardfehlerformel zu verwenden, da sie eine gleichmäßige Varianz der Residuen annimmt.

Maßnahmen zur Beseitigung der Heteroskedastizität

p Erhöhung der Anzahl der Beobachtungen

p Ändern der funktionalen Form des Modells

p Aufteilung der Ausgangspopulation in qualitativ homogene Gruppen und Analyse in jeder Gruppe

p Die Verwendung von Dummy-Variablen, die die Heterogenität berücksichtigen

p Ausschluss aus der Menge der Einheiten, die Heterogenität verleihen

Tests zur Erkennung von Heteroskedastizität

p Goldfeld-Quandt

p Glaser

p Spearman-Rangkorrelation

33. Autokorrelation von Residuen und ihre Rolle beim Aufbau eines Regressionsmodells.

Abhängigkeit zwischen aufeinanderfolgenden Zeitebenen. Zeile aufgerufen Autokorrelation Zeilenebene. In der Ökonometrie In Studien kommt es häufig vor, dass die Varianz der Residuen konstant ist, ihre Kovarianz jedoch beobachtet wird. Dieses Phänomen nennt man Autokorrelation von Residuen.

Eine der gebräuchlichsten Methoden zur Bestimmung der Autokorrelation in Residuen ist − Durbin-Watson-Kriterium:

d= ;

d ist das Verhältnis der Quadratsumme der Differenzen aufeinanderfolgender Werte zur Restquadratsumme gemäß dem Regressionsmodell.

Es gibt eine Spur. das Verhältnis zwischen dem D-U-Kriterium „d“ und dem Autokorrelationskoeffizienten der Residuen 1. Ordnung r 1:

d = 2 * (1-r 1) .

Wenn in den Überresten ein vollständiger Zustand vorliegt. Autokorrelation und r 1 = 1, dann d = 0.

Wenn die Salden vollständig negativ sind. Autokorrelation, dann r 1 = -1 und d = 4.

Wenn keine Autokorrelation vorliegt, dann ist r 1 = 0 und d = 2.

Diese. 0≤d≤4.

Betrachten Sie einen Algorithmus zur Erkennung der Autokorrelation von Residuen basierend auf dem D-U-Kriterium.

vorgebracht wird Hypothese H 0 über das Fehlen einer Autokorrelation von Residuen . Alternativhypothesen H 1 und H 1 * gehen vom Vorhandensein einer positiven oder negativen Autokorrelation in den Residuen aus. Dann im Sonderangebot Tabellen sind definiert kritische Werte des Durbin-Watson-Kriteriums d L und d u für eine gegebene Anzahl von Beobachtungen n, die Anzahl der modellunabhängigen Variablen k auf einem Signifikanzniveau ɑ (normalerweise 0,95). Entsprechend dieser Werte wird das Intervall in fünf Segmente unterteilt. Die Annahme oder Ablehnung jeder der Hypothesen mit der Wahrscheinlichkeit (1-ɑ) ist in der folgenden Abbildung dargestellt:

+ ja ? NEIN ? - Es gibt
d L du 4-du 4-d L

Wenn die tatsächliche der Wert des Durbin-Watson-Kriteriums sinkt in die Zone der Unsicherheit, dann wird in der Praxis die Existenz einer Autokorrelation von Residuen angenommen und die Hypothese H 0 abgelehnt.

34. Auswahl der besten Version des Regressionsmodells.



35. Nichtlineare multiple Regressionsmodelle, ihre allgemeinen Eigenschaften.

Wenn es nichtlineare Beziehungen zwischen wirtschaftlichen Phänomenen gibt, werden diese durch die entsprechenden nichtlinearen Funktionen ausgedrückt: zum Beispiel eine gleichseitige Hyperbel , Parabeln zweiten Grades usw.

Es gibt zwei Klassen nichtlinearer Regressionen:

Regressionen, die nichtlinear in Bezug auf die in die Analyse einbezogenen erklärenden Variablen, aber linear in Bezug auf die geschätzten Parameter sind;

Regressionen, die in den geschätzten Parametern nichtlinear sind.
Die folgenden Funktionen können als Beispiel für eine nichtlineare Regression auf die darin enthaltenen erklärenden Variablen dienen:

  • Polynome unterschiedlichen Grades
  • gleichseitige Übertreibung

Nichtlineare Regressionen nach geschätzten Parametern umfassen die folgenden Funktionen:

  • Leistung
  • Demonstration
  • exponentiell ICH

36. Modelle vom hyperbolischen Typ. Engel-Kurven, Phillips-Kurven und andere Beispiele für die Verwendung von Modellen dieses Typs.

Engel-Kurven (Engel-Kurve) veranschaulichen den Zusammenhang zwischen dem Konsumvolumen von Gütern ( C) und Verbrauchereinkommen ( ICH) zu konstanten Preisen und Präferenzen. Benannt ist es nach dem deutschen Statistiker Ernst Engel, der die Auswirkungen von Einkommensänderungen auf die Struktur der Konsumausgaben analysierte.

Die Abszisse zeigt das Einkommensniveau des Verbrauchers und die Ordinate zeigt die Kosten für den Konsum dieses Gutes.

Die Grafik zeigt eine ungefähre Ansicht der Engel-Kurven:

  • E 1 - Kurve für normale Güter;
  • E 2 – Kurve für Luxusgüter;
  • E 3 - Kurve für minderwertige Ware.

Die Philips-Kurve spiegelt den Zusammenhang zwischen Inflation und Arbeitslosigkeit wider.

Das keynesianische Wirtschaftsmodell zeigt, dass eine Volkswirtschaft entweder Arbeitslosigkeit (verursacht durch einen Produktionsrückgang und damit einen Rückgang der Nachfrage nach Arbeitskräften) oder Inflation (wenn die Wirtschaft Vollbeschäftigung aufweist) erleben kann.

Hohe Inflation und hohe Arbeitslosigkeit können nicht gleichzeitig existieren.

Die Philips-Kurve wurde von A.U. gebaut. Phillips basiert auf britischen Lohn- und Arbeitslosendaten von 1861 bis 1957.

Der Phillips-Kurve folgend kann der Staat seine Wirtschaftspolitik gestalten. Durch die Stimulierung der Gesamtnachfrage kann der Staat die Inflation erhöhen und die Arbeitslosigkeit senken und umgekehrt.

Bis Mitte der 70er Jahre war die Phillips-Kurve völlig korrekt. In diesem Zeitraum kam es zu einer Stagnation (gleichzeitiger Anstieg von Inflation und Arbeitslosigkeit), die mit der Phillips-Kurve nicht erklärt werden konnte.

Anwendung der Philips-Kurve


©2015-2019 Website
Alle Rechte liegen bei ihren Autoren. Diese Seite erhebt keinen Anspruch auf Urheberschaft, stellt die Nutzung jedoch kostenfrei zur Verfügung.
Erstellungsdatum der Seite: 16.02.2016

Seite 1


Die standardisierten Regressionskoeffizienten geben an, um wie viele Sigmas sich das Ergebnis im Durchschnitt ändert, wenn sich der entsprechende Faktor x um ein Sigma ändert, während das durchschnittliche Niveau der anderen Faktoren unverändert bleibt. Aufgrund der Tatsache, dass alle Variablen zentriert und normalisiert eingestellt sind, sind die standardisierten Reness-Koeffizienten D miteinander vergleichbar. Durch den Vergleich untereinander können Sie die Faktoren nach der Stärke ihres Einflusses auf das Ergebnis einordnen. Dies ist der Hauptvorteil der standardisierten Regresskoeffizienten im Gegensatz zu den reinen Regresskoeffizienten, die untereinander nicht vergleichbar sind.

Die Konsistenz der partiellen Korrelations- und standardisierten Regressionskoeffizienten wird am deutlichsten aus einem Vergleich ihrer Formeln in einer Zwei-Faktor-Analyse ersichtlich.

Die Konsistenz der partiellen Korrelations- und standardisierten Regressionskoeffizienten wird am deutlichsten aus einem Vergleich ihrer Formeln in einer Zwei-Wege-Analyse ersichtlich.

Um die Werte von Schätzungen bei standardisierten Regressionskoeffizienten zu bestimmen a (Am häufigsten werden die folgenden Methoden zur Lösung eines Systems normaler Gleichungen verwendet: die Determinantenmethode, die Quadratwurzelmethode und die Matrixmethode. In letzter Zeit wurde die Matrixmethode verwendet wurde häufig zur Lösung von Problemen der Regressionsanalyse verwendet. Hier betrachten wir die Lösung eines Systems normaler Gleichungen durch die Methode der Determinanten.

Mit anderen Worten: Bei der Zwei-Faktor-Analyse sind partielle Korrelationskoeffizienten standardisierte Regressionskoeffizienten, multipliziert mit der Quadratwurzel des Verhältnisses der Anteile der Restvarianzen des festen Faktors zum Faktor und zum Ergebnis.

Es gibt eine weitere Möglichkeit, die Rolle von Gruppierungsmerkmalen und ihre Bedeutung für die Klassifizierung zu beurteilen: auf der Grundlage standardisierter Regressionskoeffizienten oder separater Bestimmungskoeffizienten (siehe Kap.

Wie aus der Tabelle ersichtlich ist. 18 wurden die Komponenten der untersuchten Zusammensetzung entsprechend dem Absolutwert der Regressionskoeffizienten (b5) mit ihrem quadratischen Fehler (sbz) in einer Reihe von Kohlenmonoxid und organischen Säuren bis hin zu Aldehyden und Öldämpfen verteilt. Bei der Berechnung der normierten Regressionskoeffizienten (p) stellte sich heraus, dass unter Berücksichtigung der Konzentrationsschwankungen Ketone und Kohlenmonoxid bei der Bildung der Toxizität des Gesamtgemisches im Vordergrund stehen, während organische Säuren verbleiben auf dem dritten Platz.

Die bedingt reinen Regressionskoeffizienten bf sind benannte Zahlen, die in unterschiedlichen Maßeinheiten ausgedrückt werden und daher nicht miteinander vergleichbar sind. Um sie in vergleichbare relative Indikatoren umzuwandeln, wird die gleiche Transformation wie bei der Ermittlung des Paarkorrelationskoeffizienten angewendet. Der resultierende Wert wird als standardisierter Regressionskoeffizient oder -koeffizient bezeichnet.

Koeffizienten der bedingt reinen Regression A; sind benannte Zahlen, die in unterschiedlichen Maßeinheiten ausgedrückt werden und daher nicht miteinander vergleichbar sind. Um sie in vergleichbare relative Indikatoren umzuwandeln, wird die gleiche Transformation wie bei der Ermittlung des Paarkorrelationskoeffizienten angewendet. Der resultierende Wert wird als standardisierter Regressionskoeffizient oder -koeffizient bezeichnet.

Im Rahmen der Entwicklung von Personalbestandsstandards werden erste Daten zum Personalbestand von Führungskräften und den Werten von Faktoren für ausgewählte Basisunternehmen erhoben. Als nächstes werden für jede Funktion signifikante Faktoren ausgewählt Korrelationsanalyse, basierend auf dem Wert der Korrelationskoeffizienten. Es werden die Faktoren mit dem höchsten Wert ausgewählt Paarkoeffizient Korrelation mit Funktion und standardisiertem Regressionskoeffizienten.

Die Ergebnisse der obigen Berechnungen ermöglichen es, die dem untersuchten Gemisch entsprechenden Regressionskoeffizienten in absteigender Reihenfolge anzuordnen und so den Grad ihrer Gefährlichkeit zu quantifizieren. Der so ermittelte Regressionskoeffizient berücksichtigt jedoch nicht die Bandbreite möglicher Schwankungen der einzelnen Komponenten in der Zusammensetzung der Mischung. Infolgedessen können Abbauprodukte mit hohen Regressionskoeffizienten, die jedoch in einem kleinen Konzentrationsbereich schwanken, einen geringeren Einfluss auf die gesamte toxische Wirkung haben als Inhaltsstoffe mit relativ kleinem b, deren Gehalt in der Mischung über einen größeren Bereich schwankt. Daher erscheint es angebracht, eine zusätzliche Operation durchzuführen – die Berechnung der sogenannten standardisierten Regressionskoeffizienten p (J.

Seiten:      1



Fehler: Der Inhalt ist geschützt!!