Rangkorrelationskoeffizient

Aus testwiki
Zur Navigation springen Zur Suche springen

Ein Rangkorrelationskoeffizient ist ein parameterfreies Maß für Korrelationen. Das heißt, er misst, wie gut eine beliebige monotone Funktion den Zusammenhang zwischen zwei Variablen beschreiben kann, ohne irgendwelche Annahmen über die Wahrscheinlichkeitsverteilung der Variablen zu machen. Die namensgebende Eigenschaft dieser Maßzahlen ist es, dass sie nur den Rang der beobachteten Werte berücksichtigen, also nur ihre Position in einer geordneten Liste.

Anders als der Pearson’sche Korrelationskoeffizient benötigen Rangkorrelationskoeffizienten nicht die Annahme, dass die Beziehung zwischen den Variablen linear ist. Sie sind robust gegenüber Ausreißern.

Es gibt zwei bekannte Rangkorrelationskoeffizienten: den Spearman’schen Rangkorrelationskoeffizienten (Spearman’sches Rho) und den Kendall’schen Rangkorrelationskoeffizienten (Kendall’sches Tau). Zur Ermittlung der Übereinstimmung zwischen mehreren Beobachtern (Interrater-Reliabilität) auf Ordinalskalenniveau wird dagegen auf den mit den Rangkorrelationskoeffizienten verwandten Konkordanzkoeffizienten, auch Kendall’scher Konkordanzkoeffizient, nach dem Statistiker Maurice George Kendall (1907–1983), zurückgegriffen.

Konzept

Wir beginnen mit N Paaren von Messungen (xi,yi). Das Konzept der nichtparametrischen Korrelation besteht darin, den Wert xi einer jeden Messung durch den Rang relativ zu allen anderen xj in der Messung zu ersetzen, also 1,2,3,,N. Nach dieser Operation stammen die Werte von einer wohlbekannten Verteilung, nämlich einer Gleichverteilung von Zahlen zwischen 1 und N. Falls die xi alle unterschiedlich sind, kommt jede Zahl genau einmal vor. Falls manche xi identische Werte haben, wird ihnen der Mittelwert der Ränge zugewiesen, die sie erhalten hätten, wenn sie leicht unterschiedlich gewesen wären. In diesem Fall wird von Bindungen oder Ties gesprochen.[1] Dieser gemittelte Rang ist manchmal eine ganze Zahl, manchmal ein „halber“ Rang. In allen Fällen ist die Summe aller zugewiesenen Ränge gleich der Summe aller Zahlen von 1 bis N, nämlich N(N+1)/2.

Anschließend wird genau dieselbe Prozedur mit den yi durchgeführt und jeder Wert durch seinen Rang unter allen yj ersetzt.

Durch das Ersetzen intervallskalierter Messwerte durch die entsprechenden Ränge geht Information verloren. Die Anwendung bei intervallskalierten Daten kann aber dennoch sinnvoll sein, da eine nichtparametrische Korrelation robuster ist als die lineare Korrelation, widerstandsfähiger gegen ungeplante Fehler und Ausreißerwerte in den Daten, genau wie der Median robuster ist als der Mittelwert. Liegen als Daten nur Rangreihen, also Daten auf Ordinalniveau vor, gibt es zudem keine Alternative zu Rangkorrelationen.

Spearman’scher Rangkorrelationskoeffizient

Der Spearman’sche Rangkorrelationskoeffizient ist benannt nach Charles Spearman und wird oft mit dem griechischen Buchstaben ρ (rho) oder – in Abgrenzung zum Pearson’schen Produkt-Moment-Korrelationskoeffizienten – als rs bezeichnet.

Spearman’scher Rangkorrelationskoeffizient für Zufallsvariablen

Definition

Gegeben sei ein Zufallsvektor (X1,X2) mit den stetigen Randverteilungsfunktionen F1,F2. Definiere den Zufallsvektor (U1,U2):=(F1(X1),F2(X2)). Dann ist der Spearmansche Rangkorrelationskoeffizient ρS für den Zufallsvektor (X1,X2) gegeben durch:

ρS:=ρS(X1,X2):=ρ(U1,U2)=ρ(F1(X1),F2(X2))

Dabei handelt es sich bei ρ um den gewöhnlichen Pearson'schen Korrelationskoeffizienten.

Man beachte, dass der Wert von ρS(X1,X2) unabhängig von den konkreten (Rand-)Verteilungsfunktionen F1,F2 ist. Tatsächlich hängt der stochastische Rangkorrelationskoeffizient nur von der Copula ab, die dem Zufallsvektor (X1,X2) zugrunde liegt. Ein weiterer Vorteil im Vergleich zum Pearson’schen Korrelationskoeffizient ist die Tatsache, dass ρS immer existiert, da die U1,U2 quadratisch integrierbar sind.

Unabhängigkeit von den Randverteilungen

Dass der Spearman’scher Rangkorrelationskoeffizient nicht von den Randverteilungen des Zufallsvektors beeinflusst wird, lässt sich wie folgt illustrieren: Gemäß dem Satz von Sklar existiert für den Zufallsvektor (X1,X2) mit der gemeinsamen Verteilungsfunktion F und den stetigen univariaten Randverteilungsfunktionen F1,F2 eine eindeutige Copula C:[0,1]2[0,1], so dass gilt:

C(F1(x1),F2(x2))=F(x1,x2).

Nun wird der Zufallsvektor (X1,X2) auf den Zufallsvektor (U1,U2):=(F1(X1),F2(X2)) transformiert. Da Copulas invariant unter strikt monoton steigenden Transformation sind, und wegen der Stetigkeit von F1,F2 hat (U1,U2) dieselbe Copula wie (X1,X2). Darüber hinaus sind die Randverteilungen von (U1,U2) uniform verteilt, da

P(Uix)=P(Fi(Xi)x)=P(XiFi1(x))=Fi(Fi1(x))=x

für alle i{1,2} und x(0,1).

Aus diesen beiden Beobachtungen folgt, dass ρS(X1,X2) zwar von der Copula von (X1,X2) abhängt, aber nicht von seinen Randverteilungen.

Empirischer Spearman’scher Rangkorrelationskoeffizient

Im Prinzip ist rs ein Spezialfall des Pearson’schen Produkt-Moment-Korrelationskoeffizienten, bei dem die Daten in Ränge konvertiert werden, bevor der Korrelationskoeffizient berechnet wird:

rs=i(R(xi)Rx)(R(yi)Ry)i(R(xi)Rx)2i(R(yi)Ry)2=1ni(R(xi)R(yi))RxRysRxsRy=sRx,RysRxsRy.

Dabei ist

R(xi) der Rang von xi,
Rx der Mittelwert der Ränge von x,
sRx die Standardabweichung der Ränge von x und
sRx,Ry die Stichprobenkovarianz von R(x) und R(y).

In der Praxis wird meistens eine einfachere Formel zur Berechnung von rs benutzt, die aber nur korrekt ist, wenn alle Ränge genau einmal vorkommen. Es liegen für zwei metrische Merkmale X und Y die verbundenen Stichproben x1,x2,,xn bzw. y1,y2,,yn vor. Durch Rangskalierung der X- bzw. Y-Werte ergeben sich die (verbundenen) Rangreihen R(x1),R(x2),,R(xn) bzw. R(y1),R(y2),,R(yn). Wenn die X- und Y-Reihe so verbunden sind, dass jeweils die kleinsten Werte, die zweitkleinsten Werte usw. miteinander korrespondieren, dann gilt R(xi)=R(yi), d. h., die beiden Rangreihen sind identisch. Stellt man nun die Rangzahlenpaare in der (x,y)-Ebene als Punkte dar, indem man horizontal R(xi) und vertikal R(yi) aufträgt, so liegen die Punkte auf einer Geraden mit der Steigung +1. In diesem Fall spricht von einer perfekten positiven Rangkorrelation, der der maximale Korrelationswert rs=+1 zugeordnet ist. Um die Abweichung von der perfekten positiven Rangkorrelation zu erfassen, ist nach Spearman die Quadratsumme:[2]

Q=i=1n(R(xi)R(yi))2

der Rangdifferenzen di=R(xi)R(yi) zu bilden. Der Spearman’sche Rangkorrelationskoeffizient rs ist dann gegeben durch:

rs=16Qn(n1)(n+1)

Sind alle Ränge verschieden, ergibt diese einfache Formel exakt dasselbe Ergebnis.

Bei Bindungen

Wenn identische Werte für X oder Y (also Bindungen) existieren, wird die Formel etwas komplizierter. Aber solange nicht sehr viele Werte identisch sind, ergeben sich nur kleine Abweichungen:[3]

rs=n3n12Tx12Ty6Q(n3nTx)(n3nTy)

mit T=k(t,k3t,k). Dabei ist t,k die Anzahl der Beobachtungen mit gleichem Rang; wobei entweder für X oder für Y steht.

Beispiele

Beispiel 1

Als Beispiel sollen Größe und Körpergewicht verschiedener Menschen untersucht werden. Die Paare von Messwerten seien 175 cm, 178 cm und 190 cm und 65 kg, 70 kg und 98 kg.

In diesem Beispiel besteht die maximale Rangkorrelation: Die Datenreihe der Körpergrößen wird nach Rang geordnet, und die Rangzahlen der Körpergrößen entsprechen auch den Rangzahlen der Körpergewichte. Eine niedrige Rangkorrelation herrscht, wenn etwa die Körpergröße im Verlauf der Datenreihe größer wird, das Gewicht jedoch abnimmt. Dann kann man nicht „Der schwerste Mensch ist der größte“ sagen. Der Rangkorrelationskoeffizient ist der zahlenmäßige Ausdruck des Zusammenhanges zweier Rangordnungen.

Beispiel 2

Vorlage:Überarbeiten Gegeben sind acht Beobachtungen zweier Variablen a und b:

i 1 2 3 4 5 6 7 8
ai 2,0 3,0 3,0 5,0 5,5 8,0 10,0 10,0
bi 1,5 1,5 4,0 3,0 1,0 5,0 5,0 9,5

Um den Rang für die Beobachtungen von b zu ermitteln, wird folgendermaßen vorgegangen: Zunächst wird nach dem Wert sortiert, dann wird der Rang vergeben (d. h. neu durchnummeriert) und normiert, d. h. bei gleichen Werten wird der Mittelwert gebildet. Zuletzt wird die Eingangsreihenfolge wiederhergestellt, damit dann die Differenzen der Ränge gebildet werden können.

Eingang Sort(Wert) Rang ermitteln Sort(Index)
IndexWert11,521,534,043,051,065,075,089,5 IndexWert51,011,521,543,034,065,075,089,5 IndexWertRangNormiert51,01111,52(2+3)/221,53=2,543,04434,05565,06(6+7)/275,07=6,589,588 IndexWertRang Normiert11,52,521,52,534,05,043,04,051,01,065,06,575,06,589,58,0

Aus den zwei Datenreihen a und b ergibt sich folgende Zwischenrechnung:

Werte von a Werte von b Rang von a Rang von b d=R(a)R(b) (R(a)R(b))2
2,0 1,5 1,0 2,5 −1,5 2,25
3,0 1,5 2,5 2,5 0,0 0,00
3,0 4,0 2,5 5,0 −2,5 6,25
5,0 3,0 4,0 4,0 0,0 0,00
5,5 1,0 5,0 1,0 4,0 16,00
8,0 5,0 6,0 6,5 −0,5 0,25
10,0 5,0 7,5 6,5 1,0 1,00
10,0 9,5 7,5 8,0 −0,5 0,25
        =26

Die Tabelle ist nach der Variablen a geordnet. Wichtig ist, dass sich Einzelwerte einen Rang teilen können. In der Reihe a gibt es zweimal „3“, und sie haben jeweils den „durchschnittlichen“ Rang (2+3)/2 = 2,5. Dasselbe geschieht bei der Reihe b.

Werte von a Werte von b ta,k ta,k3ta,k tb,k tb,k3tb,k
2,0 1,5 1 0 2 6
3,0 1,5 2 6 - -
3,0 4,0 - - 1 0
5,0 3,0 1 0 1 0
5,5 1,0 1 0 1 0
8,0 5,0 1 0 2 6
10,0 5,0 2 6 - -
10,0 9,5 - - 1 0
    Ta=12 Tb=12

Mit der Korrektur nach Horn ergibt sich schließlich

rs=83866626(83812)(83812)=3364920,6829.

Bestimmung der Signifikanz

Der moderne Ansatz für den Test, ob der beobachtete Wert von ρ sich signifikant von null unterscheidet führt zu einem Permutationstest. Dabei wird die Wahrscheinlichkeit berechnet, dass ρ für die Nullhypothese größer oder gleich dem beobachteten ρ ist.

Dieser Ansatz ist traditionellen Methoden überlegen, wenn der Datensatz nicht zu groß ist, um alle notwendigen Permutationen zu erzeugen, und weiterhin, wenn klar ist, wie man für die gegebene Anwendung sinnvolle Permutationen für die Nullhypothese erzeugt (was aber normalerweise recht einfach ist).

Kendall’sches Tau

Im Gegensatz zum Spearman’schen ρ nutzt das Kendall’sche τ nur den Unterschied in den Rängen und nicht die Differenz der Ränge. In der Regel ist der Wert des Kendall’schen τ etwas kleiner als der Wert des Spearman’schen ρ. τ erweist sich darüber hinaus auch für intervallskalierte Daten als hilfreich, wenn die Daten nicht normalverteilt sind, die Skalen ungleiche Teilungen aufweisen oder bei sehr kleinen Stichprobengrößen.

Kendall’sches Tau für Zufallsvariable

Sei (X1,X2) ein bivariater Zufallsvektor mit Copula C und Randverteilungsfunktionen F1,F2. Damit hat (X1,X2) gemäß dem Satz von Sklar die gemeinsame Verteilungsfunktion F(x1,x2)=C(F1(x1),F2(x2)). Das Kendall'sches Tau für den Zufallsvektor (X1,X2) ist dann definiert als:

τ:=τC:=40101C(u1,u2)dC(u1,u2)1=4𝔼[C(F1(X1),F2(X2))]1

Man bemerke, dass τ unabhängig von den Randverteilungen des Zufallsvektors (X1,X2) ist. Der Wert hängt daher nur von seiner Copula ab.

Empirisches Kendall’sches Tau

Um das empirische τ zu berechnen, betrachten wir Paare von nach x sortierten Beobachtungen (xi,yi) und (xj,yj) mit i=1,,n1 und j=i+1,,n. Es gilt also:

x1x2xn.

Dann wird das Paar 1 mit allen folgenden Paaren (2,3,,n) verglichen, das Paar 2 mit allen folgenden Paaren (3,,n) usw. Es werden also insgesamt n(n1)/2 Paarvergleiche durchgeführt. Gilt für ein Paar:

  • xi<xj und yi<yj, so heißt es konkordant oder übereinstimmend,
  • xi<xj und yi>yj, so heißt es diskordant oder uneinig,
  • xixj und yi=yj, so ist es eine Bindung in Y,
  • xi=xj und yiyj, so ist es eine Bindung in X und
  • xi=xj und yi=yj, so ist es eine Bindung in X und Y.

Die Anzahl der Paare, die

  • konkordant oder übereinstimmend sind, wird mit C,
  • diskordant oder uneinig sind, wird mit D,
  • die Bindungen in Y sind, wird mit TY,
  • die Bindungen in X sind, wird mit TX und
  • die Bindungen in X und Y sind, wird mit TXY bezeichnet.

Das Kendall’sche τ Werte vergleicht nun die Zahl der konkordanten und der diskordanten Paare:

τ=CD(C+D+TX)(C+D+TY)

Ist das Kendall’sche τ positiv, so gibt es mehr konkordante Paare als diskordante, d. h. es ist wahrscheinlich, dass wenn xixj ist, dann auch yiyj gilt. Ist das Kendall’sche Tau τ negativ, so gibt es mehr diskordante Paare als konkordante, d. h. es ist wahrscheinlich, dass wenn xixj ist, dann auch yiyj gilt. Der Wert (C+D+TX)(C+D+TY) normiert das Kendall’sche τ, so dass gilt:

1τ+1.

Test des Kendall’schen Taus

Betrachtet man die Zufallsvariable τ, so hat Kendall herausgefunden, dass für den Test

H0:τ=0 vs. H1:τ0

diese unter Nullhypothese approximativ normalverteilt ist: T𝒩(0;4n+109n(n1)). Neben dem approximativen Test kann auch ein exakter Permutationstest durchgeführt werden.

Weitere τ-Koeffizienten

Mit den obigen Definitionen hatte Kendall insgesamt drei τ-Koeffizienten definiert:

Kendallsτa=CDn(n1)/2
Kendallsτb=CDC+D+TxC+D+Ty (siehe oben)
Kendallsτc=2m(CD)(m1)n2

Das Kendall’sche Tau τa kann nur auf Daten ohne Bindungen angewandt werden. Das Kendall’sche τb erreicht auf nicht quadratischen Kontingenztabellen nicht die Extremwerte +1 bzw. 1 und berücksichtigt, da Txy nicht einfließt, keine Bindungen in X und Y. Bei Vierfeldertafeln ist τb mit dem Vierfelderkoeffizienten Φ (Phi) und, wenn die Ausprägungen der beiden dichotomen Variablen jeweils mit 0 und 1 kodiert sind, auch mit dem Pearson’schen Korrelationskoeffizienten identisch.

Tetra- und polychorische Korrelation

Im Zusammenhang mit Likert-Items wird oft auch die tetra- (bei zwei binären Variablen) oder polychorische Korrelation berechnet. Dabei geht man davon aus, dass z. B. bei einer Frage mit der Antwortform (Trifft überhaupt nicht zu, …, Trifft vollständig zu) die Befragten eigentlich in einem metrischen Sinn geantwortet hätten, aber aufgrund der Antwortform sich für eine der Alternativen entscheiden mussten.

Das heißt hinter den beobachteten Variablen Xi, die ordinal sind, stehen also unbeobachtete intervallskalierte Variablen Xi*. Die Korrelation zwischen den unbeobachteten Variablen heißt tetra- oder polychorische Korrelation.

Die Anwendung der tetra- bzw. polychorischen Korrelation bei Likert-Items empfiehlt sich, wenn die Zahl der Kategorien bei den beobachteten Variablen kleiner als sieben ist.[4] In der Praxis wird stattdessen oft der Bravais-Pearson-Korrelationskoeffizient zu Berechnung der Korrelation benutzt, jedoch kann man zeigen, dass damit die wahre Korrelation unterschätzt wird.[5]

Schätzverfahren für die tetra- oder polychorische Korrelation

Unter der Annahme, dass die unbeobachteten Variablen Xi* paarweise bivariat normalverteilt sind, kann man mit Hilfe der Maximum-Likelihood-Methode die Korrelation zwischen den unbeobachteten Variablen schätzen. Dafür gibt es zwei Verfahren:

  1. Man schätzt zuerst die Intervallgrenzen für jede Kategorie für jede unbeobachtete Variable Xi* (unter Annahme der univariaten Normalverteilung für die jeweilige unbeobachtete Variable). Danach wird in einem zweiten Schritt die Korrelation mit den zuvor geschätzten Intervallgrenzen nur noch die Korrelation mit der Maximum-Likelihood-Methode geschätzt (twostep Methode).
  2. Sowohl die unbekannten Intervallgrenzen als auch die unbekannte Korrelation gehen als Parameter in die Maximum-Likelihood-Funktion ein. Sie werden dann in einem Schritt geschätzt.

Approximationsformel für die tetrachorische Korrelation

X1\X2 0 1
0 n00 n10
1 n01 n11

Für zwei binäre Variablen kann mit Hilfe der Kreuztabelle rechts eine Näherungsformel für die tetrachorische Korrelation angegeben werden:

rtet=cos(π1+n00n11n01n10)

Eine Korrelation von rtet=1 liegt genau dann vor, wenn n00=n11=0. Entsprechend liegt eine Korrelation von rtet=+1 genau dann vor, wenn n01=n10=0.

Einzelnachweise

  1. Fahrmeir et al.: Statistik. 2004, S. 142.
  2. Werner Timischl: Angewandte Statistik. Eine Einführung für Biologen und Mediziner. 3. Auflage. 2013, S. 303.
  3. D. Horn: A correction for the effect of tied ranks on the value of the rank difference correlation coefficient. In: Educational and Psychological Measurement, 3, 1942, S. 686–690.
  4. D. J. Bartholomew, F. Steele, J. I. Galbraith, I. Moustaki: The Analysis and Interpretation of Multivariate Data for Social Scientists. Chapman & Hall / CRC, 2002
  5. K. G. Jöreskog, D. Sorbom: PRELIS, a program for multivariate data screening and data summarization. Scientific Software, Mooresville 1988