(image)

Rachunek prawdopodobieństwa 1, 2

6.3 Kowariancja i korelacja

Iloczyn skalarny - przypomnienie \(X\) – przestrzeń wektorowa, \(\f :X\times X: \str \r \) – iloczyn skalarny, to znaczy \(\f (x,x) \ge 0\), \(\f (x,x) = 0 \rwn x = 0\), \(\f \) – dwuliniowe, \(\f \) – symetryczne.

  • Twierdzenie – 6.22 (Nierówność Cauchy’ego-Schwartza) Dla każdych \(x,y \in X\)

    \[ \f (x,y)^2 \le \f (x,x)\f (y,y). \]

    \(\f (x,y)^2 = \f (x,x)\f (y,y) \rwn x, y\) liniowo zależne.

Jeżeli \(x \neq 0\) oraz \(y \neq 0\), to są one liniowo zależne \(\rwn \) istnieje takie \(t \neq 0\), że \(y = tx\). Wtedy \(\f (x,y) = t\f (x,x)\). Zatem znak \(\f (x,y)\) = znak \(t\).

Wiadomo też, że \(\sqrt {\f (x,x)}\) jest normą \(x\).

Dane są dwie zmienne losowe \(X\), \(Y\). Oznaczmy \(m_X = E(X)\), \(m_Y = E(Y)\).

  • Definicja – 6.23 (Kowariancja)

    \[\mbox {cov}(X,Y) = E((X-m_x)(Y-m_Y)) = E(XY) - m_Xm_Y.\]

Zauważmy, że odwzorowanie

\[\f : (X,Y) \to E(XY)\]

jest iloczynem skalarnym na przestrzeni \(L^2(\Omega ) = \{X : \Omega \to \r : E(X^2) \in \r \}\) (ćwiczenie).

W takim razie \(cov(X,Y)\) jest iloczynem skalarnym odchyleń \(X - m_X\), \(Y-m_Y\): \(cov(X,Y) = \f (X-m_X,Y-m_Y)\), a wariancje są ich kwadratami norm. Z Nierówności Cauchye’go-Schwartza:

  • Wniosek – 6.24

    \[\mbox {cov}(X,Y)^2 \le D^2(X)D^2(Y),\]

    przy czym:

    \(\mbox {cov}(X,Y)^2 = D^2(X)D^2(Y) \rwn X- m_X\), \(Y- m_Y\) są liniowo zależne.

    Wtedy, jeżeli \(X\) oraz \(Y\) nie są stałymi, to istnieje liczba \(t\) taka, że \(Y-m_Y = t (X-m_X)\), a znak \(t\) = znak \(\mbox {cov}(X,Y)\).

    Ogólnie: \(\mbox {cov}(X,Y)^2 = D^2(X)D^2(Y) \rwn \) Wartości \((X,Y)\) zawarte są w pewnej prostej.

  • Definicja – 6.25 (Korelacja)

    Mówimy, że zmienne losowe są nieskorelowane \(\rwn \mbox {cov}(X,Y) = 0\).

    Współczynnik korelacji:

    \[ \varrho (X,Y) = \frac {\mbox {cov}(X,Y)}{\sqrt {D^2(X)} \sqrt {D^2(Y)}}; \]

  • Wniosek – 6.26

    \[ - 1 \le \varrho (X,Y) \le 1. \]

    \[ |\varrho (X,Y)| = 1 \ \rwn \ \mbox { wartoÅŻci } (X,Y) \mbox { zawierajÄĚ siÄŹ w pewnej prostej.} \]

    Jeżeli \(X\), \(Y\) są niezależne, to \(\mbox {cov}(X,Y) = 0\).

Związek między wariancją sumy i kowariancją

  • Uwaga – 6.27

    \[D^2(X+Y) = E\left ( (X+Y -(m_X+m_Y))^2 \right ) = \]

    \[ E\left ( ( (X-m_X) + (Y - m_Y) )^2 \right ) = D^2(X) +D^2(Y) + 2\mbox {cov}(X,Y).\]

  • Twierdzenie – 6.28 (Wariancja sumy zmiennych niezależnych) Jeżeli \(X\), \(Y\) są niezależne, to

    \[ D^2(X+Y) = D^2(X) + D^2(Y). \]

  • Twierdzenie – 6.29 Twierdzenie Jeżeli \(X_1, X_2, \dots , X_n\), są niezależne, to

    \[ D^2(X_1+ \dots + X_n) = D^2(X_1) + \dots + D^2(X_n). \]

  • Wniosek – 6.30 (Nadzieja i wariancja sumy oraz średniej) Niech \(X_1, X_2, \dots , X_n\), będą niezależne i mają wspólną nadzieję matematyczną \(m\) oraz wariancję \(\sigma ^2\). Niech

    \[S_n = X_1 + \dots + X_n, \ \ \ \ \bar {X}_n = \frac {X_1 + \dots + X_n}{n}.\]

    Wtedy:

    \[ E(S_n) = nm, \ \ \ D^2(S_n) = n \sigma ^2, \ \ \ \sigma (S_n) = \sqrt {n}\sigma . \]

    \[ E(\bar {X}_n) = m, \ \ \ D^2(\bar {X}_n) = \frac {\sigma ^2}{n}, \ \ \ \sigma (\bar {X}_n) = \frac {\sigma }{\sqrt {n}}. \]