Zufallsvariable

Aus testwiki
Version vom 4. Februar 2025, 17:39 Uhr von imported>UbiquitousMatroid (growthexperiments-addlink-summary-summary:1|1|0)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Zur Navigation springen Zur Suche springen

In der Stochastik ist eine Zufallsvariable eine Größe, deren Wert vom Zufall abhängig ist.[1] Formal ist eine Zufallsvariable eine Funktion, die jedem möglichen Ergebnis eines Zufallsexperiments eine Größe zuordnet.[2] Ist diese Größe eine reelle Zahl, so spricht man von einer reellen Zufallsvariablen oder Zufallsgröße[3]. Beispiele für reelle Zufallsvariablen sind die Augensumme von zwei geworfenen Würfeln und die Gewinnhöhe in einem Glücksspiel. Zufallsvariablen können aber auch komplexere mathematische Objekte sein, wie Zufallsfelder, Zufallsbewegungen, Zufallspermutationen oder Zufallsgraphen. Über verschiedene Zuordnungsvorschriften können einem Zufallsexperiment auch verschiedene Zufallsvariablen zugeordnet werden.[2]

Den einzelnen Wert, den eine Zufallsvariable bei der Durchführung eines Zufallsexperiments annimmt, nennt man Realisierung[4] oder im Falle eines stochastischen Prozesses einen Pfad. Bei der Zufallszahlenerzeugung werden Realisierungen spezieller Zufallsexperimente als Zufallszahlen bezeichnet.

Alternative Bezeichnungen

Heutzutage ist Zufallsvariable die gängigste Bezeichnung; in älterer Literatur finden sich aber auch zufällige Variable[3], zufällige Größe[2], zufällige Veränderliche[3], zufälliges Element[3], Zufallselement[5] und Zufallsveränderliche[6][7]

Während A. N. Kolmogorow zunächst von durch den Zufall bestimmten Größen sprach[8][9], führte er 1933 den Begriff zufällige Größe ein[10] und sprach später von Zufallsgrößen.[11] Im Jahr 1933 ist auch schon der Begriff Zufallsvariable in Gebrauch.[12] Bereits 1935 ist der Begriff zufällige Variable nachweisbar.[13] Später hat sich (ausgehend vom englischen random variable, das sich gegen chance variable und stochastic Variable durchsetzte[14]) der etwas irreführende Begriff[15] Zufallsvariable durchgesetzt.

Einführung

Die Grundidee hinter der Zufallsvariable ist es, den Zufall mit Hilfe des Begriffes der Funktion zu modellieren. Dies wird einige Vorteile mit sich bringen. Angenommen, wir betrachten ein Zufallsexperiment, welches nur zwei Ausgänge hat, welche wir mit ω1 und ω2 notieren. Mit Hilfe der Funktion können wir nun eine „zufällige Variable“ definieren, die berücksichtigt, ob ω1 oder ω2 eingetroffen ist.

Ein Beispiel einer Zufallsvariable. Die Menge E steht für eine beliebige Menge, welche die Zahlen 1,0,1 enthält.

Dies geschieht durch die Funktion

X(ω)={a1,wenn ω=ω1,a2,wenn ω=ω2.

wobei die Werte a1 und a2 vom Experiment abhängen, welches man modelliert. Man nennt

  • ω1 und ω2 Ergebnisse und zusammen bilden sie den Ergebnisraum Ω={ω1,ω2}. Welches dieser Ergebnisse eintritt, wissen wir a priori nicht.
  • a1 und a2 Realisierungen der Zufallsvariable.

Wir notieren die Menge der Realisierungen mit E={a1,a2}. In den meisten Fällen wählt man für E entweder die reellen Zahlen oder eine diskrete Menge wie zum Beispiel oder . Allgemeiner kann E aber auch n, ein Banach-Raum oder ein topologischer Vektorraum sein.

Eine Zufallsvariable ist somit eine Abbildung der Form X:ΩE.

  • Beispiel (Münzwurf): Wir möchten einen Münzwurf modellieren. Seien ω1=Kopf und ω2=Zahl das zufällige Ergebnis des Münzwurfs und Ω={ω1,ω2}. Nun können wir verschiedene Zufallsvariablen bilden, zum Beispiel eine Wette, bei der 1 EUR ausgezahlt wird, wenn Zahl erscheint und sonst nichts. Dann ist die Auszahlungssumme die Zufallsvariable
X(ω)={0,wenn ω=ω1,1,wenn ω=ω2,
Wir haben also a1=0 und a2=1 gewählt, hätten wir hingegen bei falscher Wette 1 EUR bezahlen müssen, dann hätten wir uns für a1=1 entschieden.
  • Beispiel (Würfelwurf): Wir möchten einen Würfelwurf modellieren. Seien ω1=1,ω2=2,,ω6=6, dann ist Ω={ω1,ω2,,ω6} und der Würfel die Zufallsvariable
X(ω)=ω.
  • Beispiel (2-facher Münzwurf): Wir möchten den 2-fachen Münzwurf modellieren. Die Ergebnismenge ist Ω={(K,K),(K,Z),(Z,Z),(Z,K)}, ihre Elemente haben die Form ω=(ω1,ω2). Wettet man bei zwei Münzwürfen beide Male auf Kopf, so lassen sich beispielsweise folgende Zufallsvariablen untersuchen:
  1. X1(ω):=X(ω1){0,1} als Auszahlung nach der ersten Wette,
  2. X2(ω):=X(ω2){0,1} als Auszahlung nach der zweiten Wette,
  3. S(ω):=X(ω1)+X(ω2){0,1,2} als Summe der beiden Auszahlungen.

Zufallsvariablen werden üblicherweise mit einem Großbuchstaben bezeichnet (hier X,X1,X2,S), während man für die Realisierungen die entsprechenden Kleinbuchstaben verwendet (zum Beispiel x=0, x1=1, x2=0, s=1).

Im Münzwurf-Beispiel hat die Menge Ω={Kopf,Zahl} eine konkrete Interpretation. In der weiteren Entwicklung der Wahrscheinlichkeitstheorie ist es oft zweckmäßig, die Elemente von Ω als abstrakte Repräsentanten des Zufalls zu betrachten, ohne ihnen eine konkrete Bedeutung zuzuweisen, und dann sämtliche zu modellierende Zufallsvorgänge als Zufallsvariable zu erfassen.

Notation

Häufig verzichtet man auf die Schreibweise X(ωi)=ai und benützt stattdessen die Kurzschreibweise X=ai. Dies sollte aber nicht falsch verstanden werden, denn es handelt sich hier nur um eine Abkürzung für X(ωi)=ai respektive für die Menge aller ω, so dass X(ω)=ai.

Elemente der Maßtheorie

Damit man über Wahrscheinlichkeiten sprechen kann, müssen die Räume Ω und E noch mit zusätzlichen Strukturen ausgestattet sein. Für Ω brauchen wir

  • ein System Σ, welches alle möglichen Ereignisse enthält,
  • eine Funktion P:Σ[0,1], welche den möglichen Ereignissen aus Σ eine Wahrscheinlichkeit zuordnet.

Aus technischer Sicht verwendet man hierfür die Maßtheorie, was zum Begriff des Wahrscheinlichkeitsraumes (Ω,Σ,P) führt, wobei Σ eine sogenannte σ-Algebra und P ein Wahrscheinlichkeitsmaß ist. Für E brauchen wir etwas ähnliches, welches mit der Struktur auf Ω verträglich ist.

Konkret brauchen wir für E ein System Σ, welches mit dem System Σ von Ω verträglich ist. Dies führt zum Begriff der Messbarkeit. Es soll gelten

  • für jedes Element AΣ muss das Urbild unter der Zufallsvariable, das bedeutet die Menge B:=X1(A), ein Ereignis in dem System Σ sein, das bedeutet BΣ.

Wenn diese Eigenschaft gilt, dann nennen wir X eine (Σ,Σ)-messbare Funktion. Zufallsvariablen erfüllen diese Eigenschaft (für ein Σ und Σ) und sind messbare Funktionen.

Als Letztes ermöglicht uns die Messbarkeit, das Wahrscheinlichkeitsmaß P auf den Raum (E,Σ) zu übertragen. Dies führt zum Begriff der Wahrscheinlichkeitsverteilung, welche als sogenanntes Bildmaß unter der Zufallsvariable X durch PX(A)=P(X1(A)) für alle AΣ definiert ist.

Definition

Als Zufallsvariable bezeichnet man eine messbare Funktion von einem Wahrscheinlichkeitsraum in einen Messraum.

Eine formale mathematische Definition lässt sich wie folgt geben:[16]

Es seien (Ω,Σ,P) ein Wahrscheinlichkeitsraum und (E,Σ) ein Messraum. Eine (Σ,Σ)-messbare Funktion X:ΩE heißt dann eine E-Zufallsvariable auf Ω oder einfach nur Zufallsvariable.

Beispiel: Zweimaliger Würfelwurf

Summe von zwei Würfeln:(Ω,Σ,P)S(E,Σ,PS)

Das Experiment, mit einem fairen Würfel zweimal zu würfeln, lässt sich mit folgendem Wahrscheinlichkeitsraum (Ω,Σ,P) modellieren:

  • Ω ist die Menge der 36 möglichen Ergebnisse Ω={(1,1),(1,2),,(6,5),(6,6)}
  • Σ ist die Potenzmenge von Ω
  • Will man zwei unabhängige Würfe mit einem fairen Würfel modellieren, so setzt man alle 36 Ergebnisse gleich wahrscheinlich, wählt also das Wahrscheinlichkeitsmaß P als P({(n1,n2)})=136 für n1,n2{1,2,3,4,5,6}.

Die Zufallsvariablen X1 (gewürfelte Zahl des ersten Würfels), X2 (gewürfelte Zahl des zweiten Würfels) und S (Augensumme des ersten und zweiten Würfels) werden als folgende Funktionen definiert:

  1. X1:Ω;(n1,n2)n1,
  2. X2:Ω;(n1,n2)n2, und
  3. S:Ω;(n1,n2)n1+n2,

wobei für Σ die borelsche σ-Algebra auf den reellen Zahlen gewählt wird.

Bemerkungen

In der Regel wird auf die konkrete Angabe der zugehörigen Räume verzichtet; es wird angenommen, dass aus dem Kontext klar ist, welcher Wahrscheinlichkeitsraum auf Ω und welcher Messraum auf E gemeint ist.

Bei einer endlichen Ergebnismenge Ω wird Σ meistens als die Potenzmenge von Ω gewählt. Die Forderung, dass die verwendete Funktion messbar ist, ist dann immer erfüllt. Messbarkeit wird erst wirklich bedeutsam, wenn die Ergebnismenge Ω überabzählbar viele Elemente enthält.

Einige Klassen von Zufallsvariablen mit bestimmten Wahrscheinlichkeits- und Messräumen werden besonders häufig verwendet. Diese werden teilweise mit Hilfe alternativer Definitionen eingeführt, die keine Kenntnisse der Maßtheorie voraussetzen:

Reelle Zufallsvariable

Bei reellen Zufallsvariablen ist der Bildraum die Menge der reellen Zahlen versehen mit der borelschen σ-Algebra. Die allgemeine Definition von Zufallsvariablen lässt sich in diesem Fall zur folgenden Definition vereinfachen:

Eine reelle Zufallsvariable ist eine Funktion X:Ω, die jedem Ergebnis ω aus einer Ergebnismenge Ω eine reelle Zahl X(ω) zuordnet und die folgende Messbarkeitsbedingung erfüllt:
x: {ωX(ω)x}Σ

Das bedeutet, dass die Menge aller Ergebnisse, deren Realisierung unterhalb eines bestimmten Wertes liegt, ein Ereignis bilden muss.

Im Beispiel des zweimaligen Würfelns sind X1, X2 und S jeweils reelle Zufallsvariablen.

Mehrdimensionale Zufallsvariable

Vorlage:Hauptartikel Eine mehrdimensionale Zufallsvariable ist eine messbare Abbildung X:Ωn für eine Dimension n. Sie wird auch als Zufallsvektor bezeichnet. Damit ist X=(X1,,Xn) gleichzeitig ein Vektor von einzelnen reellen Zufallsvariablen Xi:Ω, die alle auf dem gleichen Wahrscheinlichkeitsraum definiert sind. Die Verteilung von X wird als multivariat bezeichnet, die Verteilungen der Komponenten Xi nennt man auch Randverteilungen. Die mehrdimensionalen Entsprechungen von Erwartungswert und Varianz sind der Erwartungswertvektor und die Kovarianzmatrix.

Im Beispiel des zweimaligen Würfelns ist X=(X1,X2) eine zweidimensionale Zufallsvariable.

Zufallsvektoren sollten nicht mit Wahrscheinlichkeitsvektoren (auch stochastische Vektoren genannt) verwechselt werden. Diese sind Elemente des n, deren Komponenten positiv sind und deren Summe 1 ergibt. Sie beschreiben die Wahrscheinlichkeitsmaße auf Mengen mit n Elementen.

Komplexe Zufallsvariable

Bei komplexen Zufallsvariablen ist der Bildraum die Menge der komplexen Zahlen versehen mit der durch die kanonische Vektorraumisomorphie zwischen und 2 „geerbten“ borelschen σ-Algebra. X ist genau dann eine Zufallsvariable, wenn Realteil Re(X) und Imaginärteil Im(X) jeweils reelle Zufallsvariablen sind.

Numerische oder erweiterte Zufallsvariable

Vorlage:Hauptartikel Der Begriff Zufallsvariable ohne weitere Charakterisierung bedeutet meistens – und fast immer in anwendungsnahen Darstellungen – reelle Zufallsvariable. Zur Unterscheidung von einer solchen wird eine Zufallsvariable mit Werten in den erweiterten reellen Zahlen {,} als numerische Zufallsvariable[17] – entsprechend der Terminologie der numerischen Funktion – oder als erweiterte Zufallsvariable[17] (engl. extended random variable[18]) bezeichnet. Es gibt aber auch eine abweichende Terminologie, bei der Zufallsvariable eine numerische Zufallsvariable bezeichnet und eine reelle Zufallsvariable immer als solche bezeichnet wird.[19]

Zufallselement

In der Literatur wird die obige Definition der Zufallsvariable manchmal für den Begriff Zufallselement oder zufälliges Element (resp. Vorlage:EnS) verwendet, um reelle Zufallsvariablen Ω von allgemeineren Objekten wie dem Zufallsvektor, dem zufälligen Maß, der Zufallsfunktion, der Zufallsmenge, der Zufallsmatrix usw. zu unterscheiden.

Die Verteilung von Zufallsvariablen, Existenz

Vorlage:Hauptartikel Eng verknüpft mit dem eher technischen Begriff einer Zufallsvariablen ist der Begriff der auf dem Bildraum von X induzierten Wahrscheinlichkeitsverteilung. Mitunter werden beide Begriffe auch synonym verwendet. Formal wird die Verteilung PX einer Zufallsvariablen X als das Bildmaß des Wahrscheinlichkeitsmaßes P definiert, also

PX(A)=P(X1(A)) für alle AΣ, wobei Σ die auf dem Bildraum der Zufallsvariable X gegebene σ-Algebra ist.

Statt PX werden in der Literatur für die Verteilung von X auch die Schreibweisen PX,X(P) oder PX1 verwendet.

Spricht man also beispielsweise von einer normalverteilten Zufallsvariablen, so ist damit eine Zufallsvariable mit Werten in den reellen Zahlen gemeint, deren Verteilung einer Normalverteilung entspricht.

Eigenschaften, welche sich allein über gemeinsame Verteilungen von Zufallsvariablen ausdrücken lassen, werden auch wahrscheinlichkeitstheoretisch genannt.[20] Für Behandlung solcher Eigenschaften ist es nicht notwendig, die konkrete Gestalt des (Hintergrund-)Wahrscheinlichkeitsraumes zu kennen, auf dem die Zufallsvariablen definiert sind.

Häufig wird deswegen von einer Zufallsvariablen lediglich die Verteilungsfunktion angegeben und der zu Grunde liegende Wahrscheinlichkeitsraum offen gelassen. Dies ist vom Standpunkt der Mathematik erlaubt, sofern es tatsächlich einen Wahrscheinlichkeitsraum gibt, der eine Zufallsvariable mit der gegebenen Verteilung erzeugen kann. Ein solcher Wahrscheinlichkeitsraum (Ω,Σ,P) lässt sich aber zu einer konkreten Verteilung leicht angeben, indem beispielsweise Ω=, Σ als die Borelsche σ-Algebra auf den reellen Zahlen und P als das durch die Verteilungsfunktion induzierte Lebesgue-Stieltjes-Maß gewählt wird. Als Zufallsvariable kann dann die identische Abbildung X: mit X(ω)=ω gewählt werden.[21]

Wenn eine Familie von Zufallsvariablen betrachtet wird, reicht es aus wahrscheinlichkeitstheoretischer Perspektive genauso, die gemeinsame Verteilung der Zufallsvariablen anzugeben, die Gestalt des Wahrscheinlichkeitsraums kann wiederum offen gelassen werden.

Die Frage nach der konkreten Gestalt des Wahrscheinlichkeitsraumes tritt also in den Hintergrund, es ist jedoch von Interesse, ob zu einer Familie von Zufallsvariablen mit vorgegebenen endlichdimensionalen gemeinsamen Verteilungen ein Wahrscheinlichkeitsraum existiert, auf dem sie sich gemeinsam definieren lassen. Diese Frage wird für unabhängige Zufallsvariablen durch einen Existenzsatz von É. Borel gelöst, der besagt, dass man im Prinzip auf den von Einheitsintervall und Lebesgue-Maß gebildeten Wahrscheinlichkeitsraum zurückgreifen kann. Ein möglicher Beweis nutzt, dass sich die binären Nachkommastellen der reellen Zahlen in [0,1] als ineinander verschachtelte Bernoulli-Folgen betrachten lassen (ähnlich Hilberts Hotel).[22]

Mathematische Attribute für Zufallsvariablen

Verschiedene mathematische Attribute, die teilweise denen für allgemeine Funktionen entlehnt sind, finden bei Zufallsvariablen Anwendung. Die häufigsten werden in der folgenden Zusammenstellung kurz erklärt:

Diskret

Eine Zufallsvariable wird als diskret bezeichnet, wenn sie nur endlich viele oder abzählbar unendlich viele Werte annimmt, oder etwas allgemeiner, wenn ihre Verteilung eine diskrete Wahrscheinlichkeitsverteilung ist.[23] Im obigen Beispiel des zweimaligen Würfelns sind alle drei Zufallsvariablen X1, X2 und S diskret. Ein weiteres Beispiel für diskrete Zufallsvariablen sind zufällige Permutationen.

Konstant

Eine Zufallsvariable wird als konstant bezeichnet, wenn sie nur einen Wert annimmt: X(ω)=c für alle ωΩ. Sie ist ein Spezialfall einer diskreten Zufallsvariable.

Es gilt

(ωΩ:X(ω)=c)P(X=c)=1,[24]

die Umkehrung gilt im Allgemeinen nicht. Eine Zufallsvariable, die nur die rechte Seite erfüllt, heißt fast sicher konstant.

Unabhängig

Vorlage:Hauptartikel Zwei reelle Zufallsvariablen X,Y heißen unabhängig, wenn für je zwei Intervalle [a1,b1] und [a2,b2] die Ereignisse EX:={ω|X(ω)[a1,b1]} und EY:={ω|Y(ω)[a2,b2]} stochastisch unabhängig sind. Das sind sie, wenn gilt: P(EXEY)=P(EX)P(EY).

In obigem Beispiel sind X1 und X2 unabhängig voneinander; die Zufallsvariablen X1 und S hingegen nicht.

Unabhängigkeit mehrerer Zufallsvariablen X1,X2,,Xn bedeutet, dass das Wahrscheinlichkeitsmaß PX des Zufallsvektors X=(X1,X2,,Xn) dem Produktmaß der Wahrscheinlichkeitsmaße der Komponenten, also dem Produktmaß von PX1,PX2,,PXn entspricht.[25] So lässt sich beispielsweise dreimaliges unabhängiges Würfeln durch den Wahrscheinlichkeitsraum (Ω,Σ,P) mit

Ω={1,2,3,4,5,6}3,
Σ der Potenzmenge von Ω und
P((n1,n2,n3))=163=1216

modellieren; die Zufallsvariable „Ergebnis des k-ten Wurfes“ ist dann

Xk(n1,n2,n3)=nk für k{1,2,3}.

Die Konstruktion eines entsprechenden Wahrscheinlichkeitsraums für eine beliebige Familie unabhängiger Zufallsvariable mit gegebenen Verteilungen ist ebenfalls möglich.[26]

Identisch verteilt

Zwei oder mehr Zufallsvariablen heißen identisch verteilt (bzw. i.d. für identically distributed), wenn ihre induzierten Wahrscheinlichkeitsverteilungen gleich sind. In Beispiel des zweimaligen Würfelns sind X1, X2 identisch verteilt; die Zufallsvariablen X1 und S hingegen nicht.

Unabhängig und identisch verteilt

Vorlage:Hauptartikel Häufig werden Folgen von Zufallsvariablen untersucht, die sowohl unabhängig als auch identisch verteilt sind; demnach spricht man von unabhängigen, identisch verteilten Zufallsvariablen, üblicherweise mit u.i.v. bzw. i.i.d. (für independent and identically distributed) abgekürzt.

In obigem Beispiel des dreimaligen Würfelns sind X1, X2 und X3 u.i.v. Die Summe der ersten beiden Würfe S1,2=X1+X2 und die Summe des zweiten und dritten Wurfs S2,3=X2+X3 sind zwar identisch verteilt, aber nicht unabhängig. Dagegen sind S1,2 und X3 unabhängig, aber nicht identisch verteilt.

Austauschbar

Austauschbare Familien von Zufallsvariablen sind Familien, deren Verteilung sich nicht ändert, wenn man endlich viele Zufallsvariablen in der Familie vertauscht. Austauschbare Familien sind stets identisch verteilt, aber nicht notwendigerweise unabhängig.

Mathematische Attribute für reelle Zufallsvariablen

Kenngrößen

Zur Charakterisierung von Zufallsvariablen dienen einige wenige Funktionen, die wesentliche mathematische Eigenschaften der jeweiligen Zufallsvariable beschreiben. Die wichtigste dieser Funktionen ist die Verteilungsfunktion, die Auskunft darüber gibt, mit welcher Wahrscheinlichkeit die Zufallsvariable einen Wert bis zu einer vorgegebenen Schranke annimmt, beispielsweise die Wahrscheinlichkeit, höchstens eine Vier zu würfeln. Bei stetigen Zufallsvariablen wird diese durch die Wahrscheinlichkeitsdichte ergänzt, mit der die Wahrscheinlichkeit berechnet werden kann, dass die Werte einer Zufallsvariablen innerhalb eines bestimmten Intervalls liegen. Des Weiteren sind Kennzahlen wie der Erwartungswert, die Varianz oder höhere mathematische Momente von Interesse.

Stetig oder kontinuierlich

Das Attribut stetig wird für unterschiedliche Eigenschaften verwendet.

  • Eine reelle Zufallsvariable wird als stetig (oder auch absolut stetig) bezeichnet, wenn sie eine Dichte besitzt (ihre Verteilung absolutstetig bezüglich des Lebesgue-Maßes ist).[27]
  • Eine reelle Zufallsvariable wird als stetig bezeichnet, wenn sie eine stetige Verteilungsfunktion besitzt.[28] Insbesondere bedeutet das, dass P({X=x})=0 für alle x gilt.

Verteilungsfunktion

Vorlage:Hauptartikel Eine reelle Zufallsvariable X mit der Wahrscheinlichkeitsverteilung PX hat die Verteilungsfunktion

FX(x)=PX((,x]),x.

Transformation

Wenn eine reelle Zufallsvariable X auf dem Ergebnisraum Ω und eine messbare Funktion g: gegeben ist, dann ist auch Y=g(X) eine Zufallsvariable auf demselben Ergebnisraum, da die Verknüpfung messbarer Funktionen wieder messbar ist. g(X) wird auch als Transformation der Zufallsvariablen X unter g bezeichnet. Die gleiche Methode, mit der man von einem Wahrscheinlichkeitsraum (Ω,Σ,P) nach (,(),PX) gelangt, kann benutzt werden, um die Verteilung von Y zu erhalten.

Die Verteilungsfunktion FY der transformierten Zufallsvariablen Y=g(X) kann mit der Wahrscheinlichkeitsverteilung PX bestimmt werden

FY(y)=P(g(X)y),y.

Beispiel

Es sei X eine reelle Zufallsvariable mit stetiger Verteilungsfunktion FX. Dann ist die Verteilungsfunktion FY der Zufallsvariablen Y=X2 durch

FY(y)=P(X2y)={0falls y<0FX(y)FX(y)falls y0

gegeben.[29]

Erwartungswert

Vorlage:Hauptartikel Der Erwartungswert einer quasi-integrierbaren Zufallsgröße X von (Ω,Σ,P) nach (¯,(¯)) mit der Verteilung PX ist

E[X]=ΩX(ω)dP(ω)=xdPX(x).

Integrierbar und quasi-integrierbar

Eine Zufallsvariable heißt integrierbar, wenn der Erwartungswert der Zufallsvariable existiert und endlich ist. Die Zufallsvariable heißt quasi-integrierbar, wenn der Erwartungswert existiert, möglicherweise aber unendlich ist. Jede integrierbare Zufallsvariable ist folglich auch quasi-integrierbar.

Standardisierung

Vorlage:Hauptartikel Eine Zufallsvariable nennt man standardisiert, wenn ihr Erwartungswert 0 und ihre Varianz 1 ist. Die Transformation einer Zufallsvariable Y in eine standardisierte Zufallsvariable

Z=YE(Y)Var(Y)

bezeichnet man als Standardisierung der Zufallsvariable Y.

Sonstiges

  • Zeitlich zusammenhängende Zufallsvariablen können auch als stochastischer Prozess aufgefasst werden.
  • Eine Folge von Realisierungen einer Zufallsvariable nennt man auch Zufallsfolge oder Zufallssequenz.
  • Eine Zufallsvariable X:Ωn erzeugt eine σ-Algebra X():={X1(B)|B(n)}, wobei (n) die Borelsche σ-Algebra des n ist.
  • Es gibt Zufallsvariablen, die weder diskret noch stetig sind. Ein Beispiel ist die Lebensdauer T einer Maschine. T ist eine Zufallsvariable mit 0<P(T=0)<1 (und daher nicht stetig), weil eine Maschine eine Wahrscheinlichkeit hat, von Anfang nicht zu funktionieren. Außerdem ist P(T=t0)=0 für alle t0>0 (und daher ist T nicht diskret).[30] Ein anderes Beispiel ist die Wartezeit eines Autos vor einer Ampel.[31] Man kann in diesen Fällen eine Zerlegung in eine Summe aus einer stetigen und einer diskreten Zufallsvariablen vornehmen.

Literatur

Vorlage:Commonscat Vorlage:Wikibooks Vorlage:Wikibooks

Einzelnachweise

  1. Norbert Henze: Stochastik für Einsteiger: Eine Einführung in die faszinierende Welt des Zufalls. Vieweg+Teubner Verlag, 2010, ISBN 978-3-8348-0815-8, doi:10.1007/978-3-8348-9351-2, S. 12.
  2. 2,0 2,1 2,2 Vorlage:Literatur
  3. 3,0 3,1 3,2 3,3 Vorlage:Literatur
  4. Vorlage:Literatur
  5. Vorlage:Literatur
  6. Vorlage:Literatur
  7. Vorlage:Literatur
  8. Vorlage:Literatur
  9. Vorlage:Literatur
  10. Vorlage:Literatur
  11. Vorlage:Literatur
  12. Vorlage:Literatur
  13. Vorlage:Literatur
  14. Jeff Miller: Earliest Known Uses of Some of the Words of Mathematics. Abschnitt R.
  15. Eine Zufallsvariable ist weder zufällig noch eine Variable, siehe Vorlage:Literatur
  16. Karl Hinderer: Grundbegriffe der Wahrscheinlichkeitstheorie. Springer, Berlin 1980, ISBN 3-540-07309-4 (nicht überprüft)
  17. 17,0 17,1 Vorlage:Literatur
  18. Vorlage:Literatur
  19. Vorlage:Literatur
  20. Loève: Probability Theory. 4. Auflage. Band 1, Springer 1977, ISBN 0-387-90210-4, S. 172f.
  21. Robert B. Ash: Real Analysis and Probability. Academic Press, New York 1972, ISBN 0-12-065201-3, Definition 5.6.2.
  22. Olav Kallenberg: Foundations of Modern Probability. 2. Ausgabe. Springer, New York 2002, ISBN 0-387-95313-2, S. 55.
  23. Vorlage:Literatur
  24. Diese Implikation gilt, da P(X=c)=P({ωX(ω)=c})=P(Ω)=1.
  25. Robert B. Ash: Real Analysis and Probability. Academic Press, New York 1972, ISBN 0-12-065201-3 (Definition 5.8.1)
  26. Klaus D. Schmidt: Maß und Wahrscheinlichkeit. Springer-Verlag, Berlin/ Heidelberg 2009, ISBN 978-3-540-89729-3, Kapitel 11.4.
  27. Marek Fisz: Wahrscheinlichkeitsrechnung und mathematische Statistik. 11. Auflage. VEB Deutscher Verlag der Wissenschaften, Berlin 1989, Definition 2.3.3.
  28. Robert B. Ash: Real Analysis and Probability. Academic Press, New York 1972, ISBN 0-12-065201-3, S. 210.
  29. Für y<0 ist P(X2y)=P({ωX2(ω)y})=P()=0. Für y0 gilt
    P(X2y)=P({ωX2(ω)y})=P({ωyX(ω)y})=P({ωX(ω)y}{ωX(ω)<y})=P({ωX(ω)y})P({ωX(ω)<y})=FX(y)FX(y)+P({ωX(ω)=y})=FX(y)FX(y).
    Das letzte Gleichheitszeichen folgt, da die Verteilungsfunktion von FX als stetig vorausgesetzt ist, woraus P(X=y)=P({ωX(ω)=y})=0 folgt.
    Typischerweise werden solche Berechnungen in der Statistik mit etwas Übung ohne expliziten Rückgriff auf die zugrundeliegende Ergebnismenge Ω und damit den zugrundeliegenden Wahrscheinlichkeitsraum durchgeführt, z. B. für den Fall y0 in der Form
    P(X2y)=P(yXy)=P(Xy)P(Xy)+P(X=y)=FX(y)FX(y).
  30. Vorlage:Literatur
  31. Vorlage:Literatur

Vorlage:Normdaten