In der Statistik und dort insbesondere in der parametrischen Regressionsanalyse ist ein linearer Prädiktor eine Linearko
Linearer Prädiktor

In der Statistik und dort insbesondere in der parametrischen Regressionsanalyse ist ein linearer Prädiktor eine Linearkombination einer Reihe von Koeffizienten (Regressionskoeffizienten) und erklärenden Variablen (unabhängige Variablen), deren Wert zur Vorhersage (Prädiktion) einer Antwortvariablen verwendet wird. Diese additiv-lineare systematische Komponente ist ein Hauptbestandteil von linearen Regressionsmodellen.
Definition
In der parametrischen Regressionsanalyse wird mittels mehrerer Regressionsparameter ein Suchraum aus potenziellen Regressionsfunktionen gebildet. Im Anschluss soll diejenige Parameterkonfiguration bestimmt werden, die die höchste Anpassungsgüte für die beobachteten Werte der Antwortvariablen und erklärenden Variablen liefert. Die wichtigsten Modellklassen der parametrischen Regressionsanalyse sind zum einen die Klasse der linearen Modelle und zum anderen die Klasse der verallgemeinerten linearen Modelle. Das Beiwort „linear“ resultiert daraus, dass die beiden Modellklassen auf dem linearen Prädiktor aufbauen, der wie folgt definiert ist
- .
Dieser linearen Prädiktor wird aus den erklärenden Variablen und den festen, aber unbekannten Regressionsparametern gebildet, wobei für gewöhnlich gleich eins gesetzt wird (). Der Parameter ist somit der Achsenabschnitt der Regressionsgerade bzw. genauer „Regressionshyperebene“. Er bestimmt das Niveau des linearen Prädiktors und wird folglich auch Niveauparameter genannt. In der Regressionsanalyse geht es darum den Achsenabschnitt , die Steigungsparameter und die Varianz der Störgrößen zu schätzen.
Lineare Modelle vs. verallgemeinerte lineare Modelle
Lineare Modelle gehen vom folgenden Zusammenhang zwischen der Regressionsfunktion und dem linearen Prädiktor aus
- .
Verallgemeinerte lineare Modelle dagegen gehen von aus, dass der Erwartungswert der Antwortvariablen erst durch eine geeignete invertierbare Kopplungsfunktion die Form eines linearen Prädiktors annimmt
- .
Mit der Umkehrfunktion der Kopplungsfunktion, der Antwortfunktion ergibt sich für die Regressionsfunktion in diesem Fall
- .
Vektor-Matrix-Schreibweise
Mittels Vektor-Matrix-Schreibweise lässt sich der lineare Prädiktor wie folgt schreiben:
- , wobei und .
Hierbei ist ein -Spaltenvektor und ist ein transponierter -Spaltenvektor, sodass das Produkt eine -Matrix bzw. ein Skalar ergibt.
Verwendung in der linearen Regression
Ein Beispiel für die Verwendung eines linearen Prädiktors ist die lineare Regression, bei der jeder die Beziehung zwischen erklärenden Variablen und Antwortvariablen durch eine additive Störgröße überlagert wird. In der multiple lineare Regression lässt sich der Zusammenhang wie folgt schreiben:
- .
Einzelnachweise
- Torsten Becker et al.: Stochastische Risikomodellierung und statistische Methoden. Springer Spektrum, 2016. S. 288.
- Torsten Becker et al.: Stochastische Risikomodellierung und statistische Methoden. Springer Spektrum, 2016. S. 288.
Autor: www.NiNa.Az
Veröffentlichungsdatum:
wikipedia, wiki, deutsches, deutschland, buch, bücher, bibliothek artikel lesen, herunterladen kostenlos kostenloser herunterladen, MP3, Video, MP4, 3GP, JPG, JPEG, GIF, PNG, Bild, Musik, Lied, Film, Buch, Spiel, Spiele, Mobiltelefon, Mobil, Telefon, android, ios, apple, samsung, iphone, xiomi, xiaomi, redmi, honor, oppo, nokia, sonya, mi, pc, web, computer, komputer, Informationen zu Linearer Prädiktor, Was ist Linearer Prädiktor? Was bedeutet Linearer Prädiktor?
In der Statistik und dort insbesondere in der parametrischen Regressionsanalyse ist ein linearer Pradiktor eine Linearkombination einer Reihe von Koeffizienten Regressionskoeffizienten und erklarenden Variablen unabhangige Variablen deren Wert zur Vorhersage Pradiktion einer Antwortvariablen verwendet wird Diese additiv lineare systematische Komponente ist ein Hauptbestandteil von linearen Regressionsmodellen DefinitionIn der parametrischen Regressionsanalyse wird mittels mehrerer Regressionsparameter ein Suchraum aus potenziellen Regressionsfunktionen gebildet Im Anschluss soll diejenige Parameterkonfiguration bestimmt werden die die hochste Anpassungsgute fur die beobachteten Werte der Antwortvariablen und erklarenden Variablen liefert Die wichtigsten Modellklassen der parametrischen Regressionsanalyse sind zum einen die Klasse der linearen Modelle und zum anderen die Klasse der verallgemeinerten linearen Modelle Das Beiwort linear resultiert daraus dass die beiden Modellklassen auf dem linearen Pradiktor aufbauen der wie folgt definiert ist hi xi0b0 xi1b1 xi2b2 xikbk j 0kxijbj displaystyle eta i colon x i0 beta 0 x i1 beta 1 x i2 beta 2 ldots x ik beta k sum nolimits j 0 k x ij beta j Dieser linearen Pradiktor wird aus den erklarenden Variablen xi0 xi1 xik displaystyle x i0 x i1 ldots x ik und den festen aber unbekannten Regressionsparametern b0 b1 b2 bk displaystyle beta 0 beta 1 beta 2 ldots beta k gebildet wobei xi0 displaystyle x i0 fur gewohnlich gleich eins gesetzt wird xi0 1 displaystyle x i0 equiv 1 Der Parameter b0 displaystyle beta 0 ist somit der Achsenabschnitt der Regressionsgerade bzw genauer Regressionshyperebene Er bestimmt das Niveau des linearen Pradiktors und wird folglich auch Niveauparameter genannt In der Regressionsanalyse geht es darum den Achsenabschnitt b0 displaystyle beta 0 die Steigungsparameter b1 b2 bk displaystyle beta 1 beta 2 ldots beta k und die Varianz der Storgrossen zu schatzen Lineare Modelle vs verallgemeinerte lineare ModelleLineare Modelle gehen vom folgenden Zusammenhang zwischen der Regressionsfunktion und dem linearen Pradiktor aus f xi1 xi2 xik j 0kxijbj hi displaystyle f x i1 x i2 ldots x ik sum nolimits j 0 k x ij beta j eta i Verallgemeinerte lineare Modelle dagegen gehen von aus dass der Erwartungswert der Antwortvariablen m E Yi displaystyle mu operatorname E Y i erst durch eine geeignete invertierbare Kopplungsfunktion g displaystyle g cdot die Form eines linearen Pradiktors annimmt g m j 0kxijbj hi displaystyle g mu sum nolimits j 0 k x ij beta j eta i Mit der Umkehrfunktion der Kopplungsfunktion der Antwortfunktion h g 1 displaystyle h cdot g 1 cdot ergibt sich fur die Regressionsfunktion in diesem Fall f xi1 xi2 xik h j 0kxijbj h hi displaystyle f x i1 x i2 ldots x ik h left sum nolimits j 0 k x ij beta j right h eta i Vektor Matrix SchreibweiseMittels Vektor Matrix Schreibweise lasst sich der lineare Pradiktor wie folgt schreiben hi b0 xi1b1 xi2b2 xikbk xi b displaystyle eta i beta 0 x i1 beta 1 x i2 beta 2 dotsc x ik beta k mathbf x i top boldsymbol beta quad wobei xi 1 xi1 xik k 1 1 displaystyle quad mathbf x i top 1 x i1 ldots x ik k 1 times 1 quad und b b0 b1 bk k 1 1 displaystyle quad boldsymbol beta beta 0 beta 1 ldots beta k k 1 times 1 top Hierbei ist b displaystyle boldsymbol beta ein k 1 1 displaystyle k 1 times 1 Spaltenvektor und xi displaystyle mathbf x i top ist ein transponierter k 1 1 displaystyle k 1 times 1 Spaltenvektor sodass das Produkt xi b displaystyle mathbf x i top boldsymbol beta eine 1 1 displaystyle 1 times 1 Matrix bzw ein Skalar ergibt Verwendung in der linearen Regression Hauptartikel Lineare Regression Ein Beispiel fur die Verwendung eines linearen Pradiktors ist die lineare Regression bei der jeder die Beziehung zwischen erklarenden Variablen und Antwortvariablen durch eine additive Storgrosse uberlagert wird In der multiple lineare Regression lasst sich der Zusammenhang wie folgt schreiben Yi hi ei xi b ei displaystyle Y i eta i varepsilon i mathbf x i top boldsymbol beta varepsilon i EinzelnachweiseTorsten Becker et al Stochastische Risikomodellierung und statistische Methoden Springer Spektrum 2016 S 288 Torsten Becker et al Stochastische Risikomodellierung und statistische Methoden Springer Spektrum 2016 S 288