Quadratische Formen von Zufallsvariablen

Aus testwiki
Zur Navigation springen Zur Suche springen

Eine quadratische Form von n reellen Zufallsvariablen X1,,Xn, die eine gemeinsame Wahrscheinlichkeitsverteilung besitzen, ist eine Zufallsvariable, die sich additiv aus Summanden der Form aijXiXj mit reellen Konstanten aij für i,j=1,,n zusammensetzt.

Notation

Vektoren werden standardmäßig als Spaltenvektoren aufgefasst. Der hochgestellte Index T kennzeichnet die Transponierung eines Vektors oder einer Matrix. m×n bezeichnet die Menge der reellwertigen Matrizen mit m Zeilen und n Spalten. 𝐈n sei die Einheitsmatrix der Ordnung n. Für eine quadratische Matrix 𝐀n×n bezeichnet Spur(𝐀) die Spur der Matrix 𝐀, das ist die Summe der Diagonaleinträge.

Definition

𝐗=(X1,,Xn)T sei ein Zufallsvektor mit Werten in n. 𝐀n×n sei eine quadratische Matrix mit Elementen aij für i,j=1,,n. Dann heißt

𝐗T𝐀𝐗=i=1nj=1naijXiXj

quadratische Form der reellen Zufallsvariablen X1,,Xn.[1]

Eigenschaften

  • 𝐗T𝐀𝐗 ist eine reelle Zufallsvariable.
  • Falls 𝐀 eine positiv semidefinite Matrix ist, gilt 𝐗T𝐀𝐗0.
  • Es gilt 𝐗T𝐀𝐗=𝐗T𝐀T𝐗. Daher gilt auch 𝐗T𝐀𝐗=𝐗T𝐁𝐗 für die symmetrische Matrix 𝐁=(𝐀+𝐀T)/2. Für viele Eigenschaften quadratischer Formen von Zufallsvariablen stellt daher die Beschränkung auf symmetrische Matrizen 𝐀 keine Einschränkung dar.
  • Es gilt
𝐗T𝐈n𝐗=i=1nXi2.

Erwartungswert einer quadratischen Form

Satz: 𝐗 sei ein n-dimensionaler Zufallsvektor mit dem Erwartungswertvektor μ=(μ1,,μn)Tn und der Kovarianzmatrix Σn×n. Für jede Matrix 𝐀n×n gilt

𝔼[𝐗T𝐀𝐗]=Spur(𝐀Σ)+μTΣμ.[2]

Diese Aussage gilt unabhängig davon, ob 𝐀 symmetrisch ist und ob Σ invertierbar ist. Unmittelbar aus diesem Satz ergeben sich die folgenden Spezialfälle:

  • Der zentrierte Zufallsvektor 𝐗μ hat den Erwartungswertvektor 𝟎=(0,,0)Tn und dieselbe Kovarianzmatrix Σ wie der Zufallsvektor 𝐗, so dass sich
𝔼[(𝐗μ)T𝐀(𝐗μ)]=Spur(𝐀Σ)
ergibt.
  • Ein wichtiger Spezialfall ergibt sich, wenn die Kovarianzmatrix Σ invertierbar ist. Dann gilt
𝔼[(𝐗μ)TΣ1(𝐗μ)]=n,
denn Spur(Σ1Σ)=Spur(𝐈𝐧)=n.
  • Für einen Vektor 𝐛n hat der Zufallsvektor 𝐗𝐛 den Erwartungswertvektor μ𝐛 und dieselbe Kovarianzmatrix Σ wie der Zufallsvektor 𝐗, so dass sich
𝔼[(𝐗𝐛)T𝐀(𝐗𝐛)]=Spur(𝐀Σ)+(μ𝐛)TΣ(μ𝐛)
ergibt.

Wahrscheinlichkeitsungleichungen für quadratische Formen

Satz: 𝐗 sei ein n-dimensionaler Zufallsvektor mit dem Erwartungswertvektor μn und der Kovarianzmatrix Σn×n. Es sei 𝐛n und die quadratischen reellen Matrizen 𝐁jn×n für j=1,,m seien positiv semidefinit. Mit positiven Konstanten δj>0 für j=1,,m seien die m Ereignisse

Aj:={(𝐗𝒃)T𝐁j(𝐗𝒃)δj},j=1,,m

definiert. Dann gilt

P(j=1mAj)1(γ1δ1++γmδm)

mit

γj=Spur(𝐁jΣ)+(μ𝒃)TBj(μ𝒃),j=1,,m.[3][4]

Ein wichtiger Spezialfall ergibt sich für m=1, 𝒃=μ, 𝐁1=Σ1 und δ1=δ>0. Dann gelten die Ungleichungen

P((𝐗μ)TΣ1(𝐗μ)δ)1nδ

und

P((𝐗μ)TΣ1(𝐗μ)>δ)nδ.

Die letzte Ungleichung wurde bereits 1962 von Samuel Stanley Wilks angegeben[5] und ist eine multivariate Verallgemeinerung der Tschebyscheffschen Ungleichung, die für eine reelle Zufallsvariable X mit dem Erwartungswert μ und der Varianz 0<σ2< in der Form

P((Xμ)2σ2>δ)1δ,δ>0

geschrieben werden kann.

Literatur

Einzelnachweise