Multinomiale logistische Regression

Aus testwiki
Zur Navigation springen Zur Suche springen

In der Statistik ist die multinomiale logistische Regression, auch multinomiales Logit-Modell[1], multinomiale Logit-Regression (MNL), polytome logistische Regression, polychotome logistische Regression, Softmax-Regression oder Maximum-Entropie-Klassifikator genannt, ein regressionsanalytisches Verfahren. Sie „dient zur Schätzung von Gruppenzugehörigkeiten bzw. einer entsprechenden Wahrscheinlichkeit hierfür.“[2] Die Antwortvariable (auch abhängige Variable, AV) ist dabei eine nominalskalierte Variable (Unterform der kategorialen Variable, bei der die Kategorien nicht in eine sinnvolle Reihenfolge zu bringen sind). Im Falle einer ordinalskalierten AV (ebenfalls kategorial, aber in Reihenfolge mit gleichmäßigen Abständen zwischen den Kategorien zu bringen) spricht man von einer geordneten (bzw. ordinalen) logistischen Regression. Bei gegebener verhältnis- oder intervallskalierter AV kann dagegen eine (Multiple) Lineare Regression gerechnet werden.

Beschreibung des Verfahrens

Es handelt sich um eine spezielle Form der logistischen Regression, bei der die Antwortvariable Yi ein nominales Skalenniveau mit mehr als zwei Ausprägungen haben darf Yi{1,,c+1}. Zusätzlich ist der Vektor der Regressoren 𝐱i=(1,xi1,,xik) gegeben. Dabei wird für jede der Ausprägungen der abhängigen Variablen (bis auf eine Referenzkategorie) ein eigenes Regressionsmodell ausgegeben. Die Eintrittswahrscheinlichkeit für jede Kategorie r ist wie folgt spezifiziert:[3]Vorlage:Rp

πir=Pr(Yi=r)=exp(𝐱iβr)1+s=1cexp(𝐱iβs),r=1,,c,

mit den linearen Prädiktoren 𝐱iβr und πir=hr(ηir,,ηic),r=1,,c als der Antwortfunktion, d. h. der Umkehrfunktion der Kopplungsfunktion.[3]Vorlage:Rp Für die Referenzkategorie gilt somit:

πi,c+1=1πi1πic=11+s=1cexp(𝐱iβs).

Likelihood-Funktion

Die beobachteten Werte yi{0,1,K} für i=1,,n der erklärten Variablen werden als Realisierungen stochastisch unabhängiger kategorial verteilter Zufallsvariablen Y1,,Yn aufgefasst.

Die Likelihood-Funktion ist für dieses Modell definiert durch:

L=i=1nP(Yi=yi)=i=1n(j=1KP(Yi=j)δj,yi),

wobei der Index i die Beobachtungen 1 bis n bezeichnet und der Index j die Klassen 1 bis K. δj,yi={1 für j=yi0 sonst ist das Kronecker-Delta.

Die mit minus 1 multiplizierte log Likelihood-Funktion ist daher die bekannte Kreuzentropie:

logL=i=1nj=1Kδj,yilog(P(Yi=j)).

Beispiel

Das Beispiel behandelt die Wahlabsicht einer Person in Abhängigkeit personenspezifischer Faktoren. Aus Umfragedaten sei die Wahlabsicht einer Person nach verschiedenen Parteien bekannt (abhängige kategoriale Variable). Diese soll erklärt werden durch verschiedene Faktoren (deren Skalenniveau unerheblich ist), beispielsweise Alter, Geschlecht und Bildung.

Literatur

Einzelnachweise

  1. Vorlage:Literatur
  2. Vorlage:Webarchiv
  3. 3,0 3,1 Ludwig Fahrmeir, Thomas Kneib, Stefan Lang, Brian Marx: Regression: models, methods and applications. Springer Science & Business Media, 2013, ISBN 978-3-642-34332-2