(image)

Rachunek prawdopodobieństwa 1, 2

7.2 Słabe prawo wielkich liczb

Założenia Zakładamy, że: zmienne losowe \(X_1,X_2, X_3, \dots \) są określone na tej samej przestrzenie probabilistycznej (Ω, Σ, P ) , są niezależne, mają skończone nadzieje matematyczne oraz skończone i niezerowe wariancje. Oznaczmy:

\[S_n = X_1 + \dots + X_n, \ \ \ \ \bar {X}_n = \frac {X_1 + \dots + X_n}{n}.\]

  • Twierdzenie – 7.6 (Słabe prawo wielkich liczb) Przy powyższych założeniach:

    • 1. Jeżeli istnieje takie \(M\in \r \), że \(D^2(X_i) \le M\) dla wszystkich \(i\), to dla każdego \(\ve >0 \)

      \[ \lim _{n\rightarrow \infty }P\left (\left |\frac {S_n-E(S_n)}{n}\right |\ge \ve \right ) = 0. \]

    • 2. Zakładamy dodatkowo, że wszystkie nadzieje matematyczne są sobie równe i równe \(m\). Wtedy dla każdego \(\ve >0 \)

      \[ \lim _{n\rightarrow \infty }P\left (\left |\frac {S_n}{n} -m \right |\ge \ve \right ) = 0. \]

    • 3. Każda zmienna losowa ma taki sam rozkład dwupunktowy, \(P(X_i=0) = 1 - p\), \(P(X_i = 1) = p\). Wtedy dla każdego \(\ve >0 \)

      \[ \lim _{n\rightarrow \infty }P\left (\left |\frac {S_n}{n} -p \right |\ge \ve \right ) = 0. \]

Dowód. Ad 1. Z niezależności zmiennych losowych mamy

\[ D^2(S_n) = D^2(X_1) + \dots +D^2(X_n) \le nM. \]

Stosując Nierówność Czebyszewa do dla zmiennej losowej \(S_n\), dostajemy

\[ P(\frac {|S_n - E(S_n)|}{n} \ge \varepsilon ) = P(|S_n - E(S_n)| \ge n \varepsilon ) \le \frac {D^2(S_n)}{(n\varepsilon )^2} \le \frac {M}{n\varepsilon ^2}, \]

co daje tezę (twierdzenie o trzech ciągach). \(\hfill { \Box }\)

Ad 2. Wynika natychmiast z punktu 1, gdyż \(E(S_n) = nm\).

Ad 3. Wynika natychmiast z punktu 2, gdyż \(m = E(X_i) = p\), \(D^2(X_i) = p(1-p)\).

Interpretacja

Punkt 2. Średnia po przestrzeni = średniej po czasie.

Punkt 3. Aksjomatyczna definicja prawdopodobieństwa jest zgodna z dawniej używaną definicją częstościową.

Mocne prawo wielkich liczb

Udowodnimy później tak zwane mocne prawo wielkich liczb (w dwóch wersjach), które – jak sama nazwa wskazuje – jest wynikiem mocniejszym niż udowodnione przed chwilą słabe prawo wielkich liczb. Jego dowód będzie oparty na nierówności Kołnogorowa, która w pewnym szczególnym przypadku wzmacnia nierówność Czebyszewa. Przytoczmy już teraz jedną z wersji mocnego prawa wielkich liczb wzmacniającą istotnie punkt 2 w poprzednim twierdzeniu.

Twierdzenie – 10.16 (Mocne Prawo Wielkich Liczb)
Niech \(X_1,X_2,X_3, \ldots \) będzie ciągiem niezależnych zmiennych losowych o tym samym rozkładzie i skończonej wartości oczekiwanej \(m\). Niech \(S_n = X_1+X_2 + \ldots + X_n\).

Wtedy

\[ P(\{\o : \lim _{n\to \infty }\frac {S_n(\o )}{n} \longrightarrow m \}) = 1. \]