Korrelationskoeffizient nach Bravais-Pearson

Aus testwiki
Version vom 21. Januar 2025, 23:55 Uhr von imported>Thomas Dresler (Kommasetzung)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Zur Navigation springen Zur Suche springen

Der Korrelationskoeffizient nach Bravais-Pearson, auch Produkt-Moment-Korrelation,[A 1] ist ein Maß für den Grad des linearen Zusammenhangs zwischen zwei mindestens intervallskalierten Merkmalen, das nicht von den Maßeinheiten der Messung abhängt und somit dimensionslos ist. Er kann Werte zwischen 1 und +1 annehmen. Bei einem Wert von +1 (bzw. 1) besteht ein vollständig positiver (bzw. negativer) linearer Zusammenhang zwischen den betrachteten Merkmalen. Wenn der Korrelationskoeffizient den Wert 0 aufweist, hängen die beiden Merkmale überhaupt nicht linear voneinander ab. Allerdings können diese ungeachtet dessen in nichtlinearer Weise voneinander abhängen. Damit ist der Korrelationskoeffizient kein geeignetes Maß für die (reine) stochastische Abhängigkeit von Merkmalen. Das Quadrat des Korrelationskoeffizienten stellt das Bestimmtheitsmaß dar. Der Korrelationskoeffizient wurde erstmals vom britischen Naturforscher Sir Francis Galton (1822–1911) in den 1870er Jahren verwendet. Karl Pearson lieferte schließlich eine formal-mathematische Begründung für den Korrelationskoeffizienten.[1] Da er von Auguste Bravais und Pearson populär gemacht wurde, wird der Korrelationskoeffizient auch Pearson-Korrelation oder Bravais-Pearson-Korrelation genannt.

Je nachdem, ob der lineare Zusammenhang zwischen zeitgleichen Messwerten zweier verschiedener Merkmale oder derjenige zwischen zeitlich verschiedenen Messwerten eines einzigen Merkmals betrachtet wird, spricht man entweder von der Kreuzkorrelation oder von der Kreuzautokorrelation (siehe auch Zeitreihenanalyse).

Korrelationskoeffizienten wurden mehrfach – so schon von Ferdinand Tönnies – entwickelt, heute wird allgemein jener von Pearson verwendet.

Definitionen

Korrelationskoeffizient für Zufallsvariablen

Konstruktion

Als Ausgangspunkt für die Konstruktion des Korrelationskoeffizienten für zwei Zufallsvariablen X und Y betrachtet man die beiden standardisierten (auf die Standardabweichung bezogenen) Zufallsvariablen X~:=(XμX)/σX und Y~:=(YμY)/σY. Die Kovarianz dieser standardisierten Zufallsvariablen ergibt sich aus dem Satz für lineare Transformationen von Kovarianzen zu

Cov(X~,Y~)=1σXσYCov(X,Y)=ρX,Y.

Der Korrelationskoeffizient lässt sich als die Kovarianz der standardisierten Zufallsvariablen X~ und Y~ auffassen.[2]

Definition

Für zwei quadratisch integrierbare Zufallsvariablen X und Y mit jeweils positiver Standardabweichung σX bzw. σY und Kovarianz Cov(X,Y) ist der Korrelationskoeffizient (Pearsonscher Maßkorrelationskoeffizient) definiert durch:

Korr(X,Y)=Cov(X,Y)Var(X)Var(Y)=σX,YσXσY=:ρX,Y.

Dieser Korrelationskoeffizient wird auch Korrelationskoeffizient der Grundgesamtheit genannt. Durch die Definitionen der stochastischen Varianz und Kovarianz lässt sich der Korrelationskoeffizient für Zufallsvariablen auch wie folgt darstellen:[3]

Korr(X,Y)=E((XE(X))(YE(Y)))E((XE(X))2)E((YE(Y))2),

wobei E() den Erwartungswert darstellt.

Ferner heißen X,Y unkorreliert, falls Cov(X,Y)=0 gilt. Für positive σX und σY ist das genau dann der Fall, wenn ρX,Y=0 ist. Sind X,Y unabhängig, so sind sie auch unkorreliert, die Umkehrung gilt im Allgemeinen nicht.

Schätzung

Im Rahmen der induktiven Statistik ist man an einer erwartungstreuen Schätzung ρ^X,Y des Korrelationskoeffizienten der Grundgesamtheit ρX,Y interessiert. Daher werden in die Formel des Korrelationskoeffizienten der Grundgesamtheit erwartungstreue Schätzer der Varianzen und der Kovarianz eingesetzt. Dies führt zum Stichprobenkorrelationskoeffizienten:

RX,Y:=SX,YSXSY=i=1n(XiX)(YiY)i=1n(XiX)2i=1n(YiY)2

Empirischer Korrelationskoeffizient

Sei (xi,yi),i=1,,n eine zweidimensionale Stichprobe zweier kardinalskalierter Merkmale mit den empirischen Mitteln x=1ni=1nxi und y=1ni=1nyi der Teilstichproben x=(x1,,xn) und y=(y1,,yn). Weiterhin gelte für die empirischen Varianzen sx2:=1n1i=1n(xix)2 und sy2:=1n1i=1n(yiy)2 der Teilstichproben sx2sy20. Dann ist der empirische Korrelationskoeffizient – analog zum Korrelationskoeffizienten für Zufallsvariablen, nur dass man statt der theoretischen Momente nun die empirische Kovarianz und die empirischen Varianzen verwendet – definiert durch:[4]

rx,y:=i=1n(xix)(yiy)i=1n(xix)2i=1n(yiy)2=SPx,ySQxSQy
Verschiedene Werte des Korrelationskoeffizienten

Hierbei ist SQx die Summe der Abweichungsquadrate und SPx,y die Summe der Abweichungsprodukte.

Mithilfe der empirischen Kovarianz sx,y:=1n1i=1n(xix)(yiy) und den empirischen Standardabweichungen

sx:=1n1i=1n(xix)2 und sy:=1n1i=1n(yiy)2

der Teilstichproben x und y ergibt sich die folgende Darstellung:

rx,y=sx,ysxsy

Sind diese Messreihenwerte z-transformiert, das heißt, zi:=xixsx, wobei sx die erwartungstreue Schätzung der Varianz bezeichnet, gilt auch:

ρ^=1n1zxzy

Da man in der deskriptiven Statistik nur den Zusammenhang zwischen zwei Variablen als normierte mittlere gemeinsame Streuung in der Stichprobe beschreiben will, wird die Korrelation auch berechnet als

rx,y=1ni=1n(xix)(yiy)1ni=1n(xix)21ni=1n(yiy)2.

Da sich die Faktoren 1n bzw. 1n1 aus den Formeln herauskürzen, ergibt sich in beiden Fällen der gleiche Wert des Koeffizienten.

Eine „Vereinfachung“ der obigen Formel zur leichteren Berechnung einer Korrelation lautet wie folgt:[5]

rx,y=ni=1n(xiyi)(i=1nxi)(i=1nyi)[ni=1nxi2(i=1nxi)2][ni=1nyi2(i=1nyi)2]

Diese Transformation der Formel ist aber numerisch instabil und sollte daher nicht mit Gleitkommazahlen verwendet werden, wenn die Mittelwerte nicht nahe null sind.[6]

Beispiel

Streudiagramm mit Mittelwerten und dem Wert des Korrelationskoeffizienten

Für die elf Beobachtungspaare (xi,yi) sind die Werte in der unten stehenden Tabelle in der zweiten und dritten Spalte gegeben. Die Mittelwerte ergeben sich zu x=99/11=9,0 und y=82,51/11=7,5 und damit können die vierte und fünfte Spalte der Tabelle berechnet werden. Die sechste Spalte enthält das Produkt der vierten mit der fünften Spalte und damit ergibt sich i=111(xix)(yiy)=55,01. Die beiden letzten Spalten enthalten jeweils die Quadrate der vierten und fünften Spalte und es ergibt sich i=111(xix)2=110,00 und i=111(yiy)2=41,27.

Damit ergibt sich für die Korrelation rx,y=55,01110,0041,27=0,816.

i xi yi xix yiy (xix)(yiy) (xix)2 (yiy)2
1 10,00 8,04 1,00 0,54 0,54 1,00 0,29
2 8,00 6,95 −1,00 −0,55 0,55 1,00 0,30
3 13,00 7,58 4,00 0,08 0,32 16,00 0,01
4 9,00 8,81 0,00 1,31 0,00 0,00 1,71
5 11,00 8,33 2,00 0,83 1,66 4,00 0,69
6 14,00 9,96 5,00 2,46 12,30 25,00 6,05
7 6,00 7,24 −3,00 −0,26 0,78 9,00 0,07
8 4,00 4,26 −5,00 −3,24 16,20 25,00 10,50
9 12,00 10,84 3,00 3,34 10,02 9,00 11,15
10 7,00 4,82 −2,00 −2,68 5,36 4,00 7,19
11 5,00 5,68 −4,00 −1,82 7,28 16,00 3,32
Σ 99,00 82,51 55,01 110,00 41,27
Alle Werte in der Tabelle sind auf zwei Stellen nach dem Komma gerundet!

Eigenschaften

Mit der Definition des Korrelationskoeffizienten gilt unmittelbar

  • Korr(X,Y)=Korr(Y,X) bzw. rx,y=ry,x,
  • Korr(X,X)=1,
  • Korr(aX+b,Y)=sgn(a)Korr(X,Y).

Dabei sind a und b reelle Zahlen (mit a0 wegen der definitorisch vorausgesetzten Positivität der Varianz von aX+b) und sgn ist die Signumfunktion.[A 2]

Aus der Cauchy-Schwarzschen Ungleichung folgt

  • Korr(X,Y)[1,1].

Man erkennt:

Das lässt sich zum Beispiel durch Lösen der Gleichung E((XaYb)2)=0 einsehen. In dem Fall ist a=Korr(X,Y)σYσX und b=E(Y)aE(X).

Sind die Zufallsgrößen X und Y stochastisch voneinander unabhängig, dann gilt:

  • Korr(X,Y)=0

Der Umkehrschluss ist allerdings nicht zulässig, denn es können Abhängigkeitsstrukturen vorliegen, die der Korrelationskoeffizient nicht erfasst. Für die multivariate Normalverteilung gilt jedoch: Die Zufallsvariablen X und Y sind genau dann stochastisch unabhängig, wenn sie unkorreliert sind. Wichtig ist hierbei die Voraussetzung, dass X und Y gemeinsam normalverteilt sind. Es reicht nicht aus, dass sowohl X als auch Y normalverteilt sind.

Voraussetzungen für die Pearson-Korrelation

Der Korrelationskoeffizient nach Pearson erlaubt Aussagen über statistische Zusammenhänge unter folgenden Bedingungen:

Skalierung

Der Pearsonsche Korrelationskoeffizient liefert korrekte Ergebnisse bei intervallskalierten und bei dichotomen Daten. Für niedrigere Skalierungen existieren andere Korrelationskonzepte (z. B. Rangkorrelationskoeffizienten).

Normalverteilung

Für die Durchführung von standardisierten Signifikanztests über den Korrelationskoeffizienten in der Grundgesamtheit müssen beide Variablen annähernd normalverteilt sein. Bei zu starken Abweichungen von der Normalverteilung muss auf den Rangkorrelationskoeffizienten zurückgegriffen werden. (Alternativ kann man auch, falls die Verteilung bekannt ist, angepasste (nichtstandardisierte) Signifikanztests verwenden.)

Linearitätsbedingung

Zwischen den Variablen x und y wird ein linearer Zusammenhang vorausgesetzt. Diese Bedingung wird in der Praxis häufig ignoriert; daraus erklären sich mitunter enttäuschend niedrige Korrelationen, obwohl der Zusammenhang zwischen x und y bisweilen trotzdem hoch ist. Ein einfaches Beispiel für einen hohen Zusammenhang trotz eines niedrigen Korrelationskoeffizienten ist die Fibonacci-Folge. Alle Zahlen der Fibonacci-Folge sind durch ihre Position in der Reihe durch eine mathematische Formel exakt determiniert (siehe die Formel von Binet). Der Zusammenhang zwischen der Positionsnummer einer Fibonacci-Zahl und der Größe der Zahl ist vollkommen determiniert. Dennoch beträgt der Korrelationskoeffizient zwischen den Ordnungsnummern der ersten 360 Fibonacci-Zahlen und den betreffenden Zahlen nur 0,20; das bedeutet, dass in erster Näherung nicht viel mehr als 0,22=4% der Varianz durch den Korrelationskoeffizienten erklärt werden und 96 % der Varianz „unerklärt“ bleiben. Der Grund ist die Vernachlässigung der Linearitätsbedingung, denn die Fibonacci-Zahlen wachsen progressiv an: In solchen Fällen ist der Korrelationskoeffizient nicht korrekt interpretierbar.

Es wurden viele Alternativen entwickelt, die ohne die Annahme der Linearität auskommen (siehe [7] und die dort zitierten Referenzen für einen Überblick). Sie alle teilen die wichtige Eigenschaft, dass ein Wert von null Unabhängigkeit impliziert. Dies veranlasste einige Autoren[7][8], deren routinemäßige Verwendung zu empfehlen, insbesondere der Distanzkorrelation[9][10]. Eine weitere prominente Alternative ist die Transinformation. Ein wichtiger Nachteil der Alternativen ist, dass sie, wenn sie verwendet werden, um zu testen, ob zwei Variablen miteinander assoziiert sind, im Vergleich zur Pearson-Korrelation tendenziell eine geringere Teststärke haben, wenn die Daten einer multivariaten Normalverteilung folgen[7]. Dies ist eine Implikation des "No free lunch" Theorems. Um alle Arten von Beziehungen zu erkennen, müssen diese Maße an anderen Beziehungen an Teststärke einbüßen, insbesondere im wichtigen Sonderfall einer linearen Beziehung mit gaußschen Marginalverteilungen, für die die Pearson-Korrelation optimal ist. Ein weiteres Problem betrifft die Interpretation. Während die Pearson-Korrelation für alle Werte interpretierbar ist, können die alternativen Maße in der Regel nur an den Extremen sinnvoll interpretiert werden[11].

Signifikanzbedingung

Ein Korrelationskoeffizient > 0 bei positiver Korrelation bzw. < 0 bei negativer Korrelation zwischen x und y berechtigt nicht a priori zur Aussage, es bestehe ein statistischer Zusammenhang zwischen x und y. Eine solche Aussage ist nur gültig, wenn der ermittelte Korrelationskoeffizient signifikant ist. Der Begriff „signifikant“ bedeutet hier „signifikant von Null verschieden“. Je höher die Anzahl der Wertepaare (x,y) und das Signifikanzniveau sind, desto niedriger darf der Absolutbetrag eines Korrelationskoeffizienten sein, um zur Aussage zu berechtigen, zwischen x und y gebe es einen linearen Zusammenhang. Ein t-Test zeigt, ob die Abweichung des ermittelten Korrelationskoeffizienten von Null auch signifikant ist.

Bildliche Darstellung und Interpretation

Verschiedene Punktwolken zusammen mit dem für sie jeweils berechenbaren Pearson’schen Korrelationskoeffizienten. Man beachte, dass Letzterer zwar die Streuung der Punktwolke sowie die generelle Richtung der linearen Abhängigkeit von x und y widerspiegelt (obere Zeile), nicht aber deren Steilheit (mittlere Zeile). Verläuft die Punktwolke beispielsweise exakt waagerecht (mittleres Bild), kann aufgrund von Var(Y)=0 gar kein Korrelationskoeffizient berechnet werden. Da der Pearson’schen Korrelationskoeffizienten ein Maß für lineare Abhängigkeit ist, werden nichtlineare Abhängigkeiten (untere Zeile) mit Hilfe dieses Koeffizienten nicht erfasst.

Sind zwei Merkmale vollständig miteinander korreliert (d. h. |r|=1), so liegen alle Messwerte in einem 2-dimensionalen Koordinatensystem auf einer Geraden. Bei einer perfekten positiven Korrelation (r=+1) steigt die Gerade. Wenn die Merkmale perfekt negativ miteinander korreliert sind (r=1), sinkt die Gerade. Besteht zwischen zwei Merkmalen eine sehr hohe Korrelation, sagt man oft auch, sie erklären dasselbe.

Je näher der Betrag von r bei 0 liegt, desto kleiner der lineare Zusammenhang. Für r=0 kann der statistische Zusammenhang zwischen den Messwerten nicht mehr durch eine eindeutig steigende oder sinkende Gerade dargestellt werden. Dies ist z. B. der Fall, wenn die Messwerte rotationssymmetrisch um den Mittelpunkt verteilt sind. Dennoch kann dann ein nichtlinearer statistischer Zusammenhang zwischen den Merkmalen gegeben sein. Umgekehrt gilt jedoch: Wenn die Merkmale statistisch unabhängig sind, nimmt der Korrelationskoeffizient stets den Wert 0 an.

Korrelation: Koinzidenz oder Kausalzusammenhang

In der Monographie „Kontrazeption mit Hormonen“ von Hans-Dieter Taubert und Herbert Kuhl (Abteilung für gynäkologische Endokrinologie, Zentrum der Frauenheilkunde und Geburtshilfe der J.W. Goethe-Universität), die 1981 im Georg Thieme Verlag Stuttgart erschien, wurde das Problem der Bedeutung von Korrelationen bei medizinischen Studien angesprochen. Es ist bekannt, dass Korrelationen (z. B. zwischen Hormondosierungen oder -serumkonzentrationen und dem Auftreten bestimmter Erkrankungen), die bei solchen Untersuchungen ermittelt werden, häufig als Beleg für einen Kausalzusammenhang interpretiert werden. Unabhängig von den zahlreichen methodischen Problemen solcher Studien werden selbst offensichtlich fragwürdige Ergebnisse gerne von den Medien kolportiert.

In dem Abschnitt „Aussagekraft verschiedener Untersuchungskonzepte“ wurde auf den Seiten 207–208 (in der 2. Auflage von 1995 auf den Seiten 239–240) als Beispiel die Bedeutung einer extrem engen Korrelation zwischen der Zahl der Storchenpaare und der Geburtenzahl in der Bevölkerung in Baden-Württemberg in dem Zeitraum zwischen 1966 und 1975 diskutiert. Aus den Daten über die kontinuierliche Abnahme der Storchenpopulation, die dem Journal für Ornithologie von 1979 entnommen wurden und dem Rückgang der Geburtenrate, der sich aus den Zahlen des Statistischen Jahrbuchs der Bundesrepublik Deutschland ergab, wurden

  • die Regressionsgerade mit y=0,719x55,205 und
  • der Korrelationskoeffizient mit r=0,9655 berechnet (p<0,001).

Das Ergebnis ist in Abb. 46 auf S. 208 (bzw. in Abb. 60 auf S. 240 der 2. Auflage 1995) dargestellt. In dem begleitenden Text ist u. a. zu lesen: „Grundsätzlich sollten alle Aussagen über vermutete Zusammenhänge zwischen der Anwendung hormonaler Kontrazeptiva und dem Auftreten bestimmter Erkrankungen aus dem Blickwinkel erfolgen, dass die Wahrscheinlichkeit einer zufälligen Koinzidenz mit der Häufigkeit der Vergleiche steigt. So konnte mit Hilfe kontrollierter prospektiver Untersuchungen in vielen Fällen nachgewiesen werden, dass sich die Häufigkeit bestimmter Erkrankungen bei Einnahme von Ovulationshemmern nicht von der in der Gesamtbevölkerung unterscheidet. Andererseits bedeutet selbst eine hoch signifikante Korrelation zwischen zwei Parametern noch keinen Kausalzusammenhang, auch wenn dieser plausibel erscheint. Dies sei anhand der Beobachtung demonstriert, dass die Zahl der Storchenpaare in Baden-Württemberg von 67 im Jahre 1965 auf 15 im Jahre 1975 abnahm und gleichzeitig die Geburtenzahl in diesem Bundesland von 159.000 auf 97.000 zurück ging (s. Abb.). Zwischen beiden Parametern wurde eine Korrelation ermittelt, die hoch signifikant (p<0,001) ist. Trotzdem wäre es voreilig, daraus zu schließen, dass für den Geburtenrückgang die Abnahme der Storchenpopulation kausal verantwortlich ist.“ Übrigens ist zur Frage der Plausibilität anzumerken, dass diese grundsätzlich vom aktuellen Kenntnisstand abhängig ist.

Der Korrelationskoeffizient ist kein Indiz eines ursächlichen (d. h. kausalen) Zusammenhangs zwischen den beiden Merkmalen: Die Besiedlung durch Störche im Südburgenland korreliert zwar positiv mit der Geburtenzahl der dortigen Einwohner, doch das bedeutet noch keinen „kausalen Zusammenhang“, trotzdem ist ein „statistischer Zusammenhang“ gegeben. Dieser leitet sich aber aus einem anderen, weiteren Faktor ab, wie dies im Beispiel durch Industrialisierung oder der Wohlstandssteigerung begründet sein kann, die einerseits den Lebensraum der Störche einschränkten und andererseits zu einer Verringerung der Geburtenzahlen führten. Korrelationen dieser Art werden Scheinkorrelationen genannt.

Der Korrelationskoeffizient kann kein Indiz über die Richtung eines Zusammenhanges sein: Steigen die Niederschläge durch die höhere Verdunstung oder steigt die Verdunstung an, weil die Niederschläge mehr Wasser liefern? Oder bedingen sich beide gegenseitig, also möglicherweise in beiderlei Richtung?

Ob ein gemessener Korrelationskoeffizient als groß oder klein interpretiert wird, hängt stark von der Art der untersuchten Daten ab. Bei psychologischen Untersuchungen gelten Werte ab |r|=0,1 als kleine, |r|=0,3 als mittlere und |r|=0,5 als große Effekte.[12][13]

Das Quadrat des Korrelationskoeffizienten r2 nennt man Bestimmtheitsmaß. Es gibt in erster Näherung an, wie viel Prozent der Varianz (d. h. des Streuungsquadrats), der einen Variable durch die Varianz der anderen Variable erklärt werden können. Beispiel: Bei r=0,3 werden 9 % (=0,32=0,09) der gesamten auftretenden Varianz im Hinblick auf einen statistischen Zusammenhang erklärt.

Allgemeiner empirischer Korrelationskoeffizient

Der empirische Pearson-Korrelationskoeffizient bedingt, wie oben erwähnt, einen linearen Zusammenhang, um brauchbare Werte zu liefern. Es existiert jedoch auch ein allgemeiner empirischer Korrelationskoeffizient, der für jede beliebige Funktion y^i=f(xi) brauchbare Werte liefert:

R=i=1N(yiy)2i=1N(yiy^i)2i=1n(yiy)2

Der Bruch unter der Wurzel entspricht dem empirischen Bestimmtheitsmaß R2. Für den Spezialfall einer linearen Funktion y^i=axi+b geht der allgemeine empirische Korrelationskoeffizient R wieder in den empirischen Pearson-Korrelationskoeffizienten rx,y über.

Fisher-Transformation

Empirische Korrelationskoeffizienten sind nicht normalverteilt. Vor der Berechnung von Konfidenzintervallen muss daher erst eine Korrektur der Verteilung mit Hilfe der Fisher-Transformation vorgenommen werden. Wenn die Daten x und y aus einer zumindest annähernd bivariat normalverteilten Grundgesamtheit stammen, dann ist der empirische Korrelationskoeffizient ρ^ rechtssteil unimodal verteilt.

Die Fisher-Transformation des Korrelationskoeffizienten ρ^ lautet dann

z:=f(ρ^)=0,5ln(1+ρ^1ρ^)=artanh(ρ^)

z ist annähernd normalverteilt mit der Standardabweichung 1/n3 und Mittelwert

12ln(1+ρ1ρ),

wobei ρ hier für den Korrelationskoeffizienten der Grundgesamtheit steht. Die auf Basis dieser Normalverteilung errechnete Wahrscheinlichkeit, dass der Mittelwert von den beiden Grenzen z1 und z2 umschlossen wird beträgt

P(f(r)z1α/2n3z1μf(r)+z1α/2n3z2)=1α,

und wird sodann retransformiert zu

r1=(e2z11)/(e2z1+1)r2=(e2z21)/(e2z2+1).

Das (1α)-Konfidenzintervall für die Korrelation lautet sodann

r1ρ^r2.

Konfidenzintervalle von Korrelationen liegen in aller Regel unsymmetrisch bezüglich ihres Mittelwerts.

Test des Korrelationskoeffizienten / Steigers Z-Test

Folgende Tests (Steigers Z-Test)[14] können durchgeführt werden, wenn die Variablen X und Y annähernd bivariat normalverteilt sind:

H0:ρ=ρ0 vs. H1:ρρ0 (zweiseitige Hypothese)
H0:ρρ0 vs. H1:ρ>ρ0 (rechtsseitige Hypothese)
H0:ρρ0 vs. H1:ρ<ρ0 (linksseitige Hypothese)

Die Teststatistik

T(r)=f(r)f(ρ0)ρ0/(n2)1/n3𝒩(0,1)

ist standardnormalverteilt (f() ist die Fisher-Transformation, siehe vorherigen Abschnitt).

Im Spezialfall der Hypothese H0:ρ=0 vs. H1:ρ0 ergibt sich die Teststatistik als t-verteilt mit n2 Freiheitsgraden:

T0(r)=rn21r2t(n2)

Matthews Korrelationskoeffizient

Betrachtet man zwei binäre Variablen X und Y, so ist der Pearson-Korrelationskoeffizient dieser Variablen

rX,Y=ϕ=n11n00n10n01n1n0n0n1

und kann direkt aus der Konfusionsmatrix berechnet werden, wobei in der 2×2 Konfusionsmatrix

y = 1 y = 0 total
x = 1 n11 n10 n1
x = 0 n01 n00 n0
total n1 n0 n

n11, n10, n01, n00, die nicht negativen absoluten Häufigkeiten der Beobachtungen sind (deren Summe die Zahl der Beobachtungen n ist). Dieser Wert ist auch als Mathews Korrelationskoeffizient (MCC) bekannt und kann unter Umständen numerisch schneller berechenbar sein.

Partieller Korrelationskoeffizient

Vorlage:Hauptartikel

Die partielle Korrelation kontrolliert den Einfluss von Störvariablen.

Robuste Korrelationskoeffizienten

Der Korrelationskoeffizient nach Pearson ist empfindlich gegenüber Ausreißern. Deswegen wurden verschiedene robuste Korrelationskoeffizienten entwickelt, z. B.

Quadrantenkorrelation

Die Quadrantenkorrelation ergibt sich aus der Anzahl der Beobachtungen in den vier vom Medianenpaar bestimmten Quadranten. Dazu zählt man, wie viele der Beobachtungen in den Quadranten I und III liegen (N+) bzw. wie viele sich in den Quadranten II und IV befinden (N). Die Beobachtungen in den Quadranten I und III liefern jeweils einen Beitrag von +1/n und die Beobachtungen in den Quadranten II und IV von 1/n:

rquad=N+NN++N=1ni=1nsgn(xix~)sgn(yiy~)

mit der Signumfunktion sgn(), der Zahl n der Beobachtungen sowie den Medianen x~ und y~ der Beobachtungen. Da jeder Wert von sgn(xix~)sgn(yiy~) entweder 1, 0 oder +1 ist, spielt es keine Rolle, wie weit eine Beobachtung von den Medianen entfernt ist.

Über die Quadrantenkorrelation kann mit Hilfe des Median-Tests die Hypothesen H0:rquad=0 vs. H1:rquad0 überprüft werden. Ist n+ die Zahl der Beobachtungen mit sgn(xix~)sgn(yiy~)=+1, n die Zahl der Beobachtungen mit sgn(xix~)sgn(yiy~)=1 und ne:=(n++n)/2>5, dann ist folgende Teststatistik Chi-Quadrat-verteilt mit einem Freiheitsgrad von

(n+ne)2+(nne)2neχ2(1).

Schätzung der Korrelation zwischen nicht-metrischen Variablen

Die Schätzung der Korrelation mit dem Korrelationskoeffizienten nach Pearson setzt voraus, dass beide Variablen intervallskaliert und normalverteilt sind. Dagegen können die Rangkorrelationskoeffizienten immer dann zur Schätzung der Korrelation verwendet werden, wenn beide Variablen mindestens ordinalskaliert sind. Die Korrelation zwischen einer dichotomen und einer intervallskalierten und normalverteilten Variablen kann mit der punktbiserialen Korrelation geschätzt werden. Die Korrelation zwischen zwei dichotomen Variablen kann mit dem Vierfelderkorrelationskoeffizienten geschätzt werden. Hier kann man die Unterscheidung treffen, dass bei zwei natürlich dichotomen Variablen die Korrelation sowohl durch das Chancenverhältnis als auch durch den Phi-Koeffizient berechnet werden kann. Eine Korrelation aus zwei ordinal- oder einer intervall- und einer ordinal-gemessenen Variablen ist mit dem Spearman’schen Rho oder dem Kendall’schen Tau berechenbar.

Multipler Korrelationskoeffizient

Vorlage:Hauptartikel

Der multiple Korrelationskoeffizient ist eine multivariate Verallgemeinerung des Korrelationskoeffizienten nach Bravais-Pearson.

Probleme

Das Anscombe-Quartett zeigt Datensätze mit exakt gleichem Korrelationskoeffizient, aber sehr unterschiedlichem Verhalten. Auch andere Probleme sind in der Literatur bekannt.[15]

Siehe auch

Literatur

Vorlage:Wikibooks Vorlage:Wikibooks

Anmerkungen

  1. Der Name Produkt-Moment-Korrelation für den Korrelationskoeffizienten für Zufallsvariablen rührt daher, dass ρX,Y die auf das Produkt der Varianzen – die im Sinne der Stochastik Momente darstellen – von X und Y bezogene Kovarianz ist.
  2. Für alle a{0} und b gilt:
    Korr(aX+b,Y)=Cov(aX+b,Y)Var(aX+b)Var(Y)=aCov(X,Y)a2Var(X)Var(Y)=a|a|Cov(X,Y)Var(X)Var(Y)=sgn(a)Korr(X,Y)

Einzelnachweise

  1. Franka Miriam Brückler: Geschichte der Mathematik kompakt. Das Wichtigste aus Analysis, Wahrscheinlichkeitstheorie, angewandter Mathematik, Topologie und Mengenlehre. Springer-Verlag, 2017, ISBN 978-3-662-55573-6, S. 116.
  2. L. Fahrmeir, R. Künstler u. a.: Statistik. Der Weg zur Datenanalyse. 8. Auflage. Springer 2016, S. 326.
  3. Bayer, Hackel: Wahrscheinlichkeitsrechnung und mathematische Statistik, S. 86.
  4. Torsten Becker u. a.: Stochastische Risikomodellierung und statistische Methoden. Springer Spektrum, 2016. S. 79.
  5. Vorlage:Literatur
  6. Vorlage:Literatur
  7. 7,0 7,1 7,2 Vorlage:Cite journal
  8. Vorlage:Literatur
  9. Vorlage:Cite journal
  10. Vorlage:Cite journal
  11. Vorlage:Cite journal
  12. Vorlage:Literatur
  13. Vorlage:Internetquelle
  14. J. H. Steiger: Tests for comparing elements of a correlation matrix. 1980. Psychological Bulletin, 87, 245–251, doi:10.1037/0033-2909.87.2.245.
  15. Vorlage:Literatur

Vorlage:Normdaten