Iloczyn skalarny - przypomnienie \(X\) – przestrzeń wektorowa, \(\f :X\times X: \str \r \) – iloczyn skalarny, to znaczy \(\f (x,x) \ge 0\), \(\f (x,x) = 0 \rwn x = 0\), \(\f \) – dwuliniowe, \(\f \) – symetryczne.
Jeżeli \(x \neq 0\) oraz \(y \neq 0\), to są one liniowo zależne \(\rwn \) istnieje takie \(t \neq 0\), że \(y = tx\). Wtedy \(\f (x,y) = t\f (x,x)\). Zatem znak \(\f (x,y)\) = znak \(t\).
Wiadomo też, że \(\sqrt {\f (x,x)}\) jest normą \(x\).
Dane są dwie zmienne losowe \(X\), \(Y\). Oznaczmy \(m_X = E(X)\), \(m_Y = E(Y)\).
Zauważmy, że odwzorowanie
\[\f : (X,Y) \to E(XY)\]
jest iloczynem skalarnym na przestrzeni \(L^2(\Omega ) = \{X : \Omega \to \r : E(X^2) \in \r \}\) (ćwiczenie).
W takim razie \(cov(X,Y)\) jest iloczynem skalarnym odchyleń \(X - m_X\), \(Y-m_Y\): \(cov(X,Y) = \f (X-m_X,Y-m_Y)\), a wariancje są ich kwadratami norm. Z Nierówności Cauchye’go-Schwartza:
Wniosek – 6.24
\[\mbox {cov}(X,Y)^2 \le D^2(X)D^2(Y),\]
przy czym:
\(\mbox {cov}(X,Y)^2 = D^2(X)D^2(Y) \rwn X- m_X\), \(Y- m_Y\) są liniowo zależne.
Wtedy, jeżeli \(X\) oraz \(Y\) nie są stałymi, to istnieje liczba \(t\) taka, że \(Y-m_Y = t (X-m_X)\), a znak \(t\) = znak \(\mbox {cov}(X,Y)\).
Ogólnie: \(\mbox {cov}(X,Y)^2 = D^2(X)D^2(Y) \rwn \) Wartości \((X,Y)\) zawarte są w pewnej prostej.
Wniosek – 6.26
\[ - 1 \le \varrho (X,Y) \le 1. \]
\[ |\varrho (X,Y)| = 1 \ \rwn \ \mbox { wartoÅŻci } (X,Y) \mbox { zawierajÄĚ siÄŹ w pewnej prostej.} \]
Jeżeli \(X\), \(Y\) są niezależne, to \(\mbox {cov}(X,Y) = 0\).
Związek między wariancją sumy i kowariancją
Uwaga – 6.27
\[D^2(X+Y) = E\left ( (X+Y -(m_X+m_Y))^2 \right ) = \]
\[ E\left ( ( (X-m_X) + (Y - m_Y) )^2 \right ) = D^2(X) +D^2(Y) + 2\mbox {cov}(X,Y).\]
Twierdzenie – 6.28 (Wariancja sumy zmiennych niezależnych) Jeżeli \(X\), \(Y\) są niezależne, to
\[ D^2(X+Y) = D^2(X) + D^2(Y). \]
Twierdzenie – 6.29 Twierdzenie Jeżeli \(X_1, X_2, \dots , X_n\), są niezależne, to
\[ D^2(X_1+ \dots + X_n) = D^2(X_1) + \dots + D^2(X_n). \]
Wniosek – 6.30 (Nadzieja i wariancja sumy oraz średniej) Niech \(X_1, X_2, \dots , X_n\), będą niezależne i mają wspólną nadzieję matematyczną \(m\) oraz wariancję \(\sigma ^2\). Niech
\[S_n = X_1 + \dots + X_n, \ \ \ \ \bar {X}_n = \frac {X_1 + \dots + X_n}{n}.\]
Wtedy:
\[ E(S_n) = nm, \ \ \ D^2(S_n) = n \sigma ^2, \ \ \ \sigma (S_n) = \sqrt {n}\sigma . \]
\[ E(\bar {X}_n) = m, \ \ \ D^2(\bar {X}_n) = \frac {\sigma ^2}{n}, \ \ \ \sigma (\bar {X}_n) = \frac {\sigma }{\sqrt {n}}. \]