(image)

Rachunek prawdopodobieństwa 1, 2

15.3 Momenty stopu

Dana jest filtracja \(\a _1 \subset \a _2 \subset \a _3 \subset \dots \subset \Sigma \) oraz funkcja \(\tau : \Omega \to \N \cup \{\infty \}\).

  • Definicja – 15.13 \(\tau \) jest momentem stopu względem filtracji \(\{\a _n\} \rwn \) dla każdego \(n \in \N \) \(\{\tau \le n\} \in \a _n\).

  • Przykład – 15.14 \(\tau = n_0\), \(n_0 \in \N \) jest momentem stopu dla każdej filtracji, \(n_0 \in \N \) ustalone.

    Niech \(X_1,X_2,X_3, ...\) będzie ciągiem zmiennych losowych, Niech \(B \subset \r \) będzie zbiorem borelowskim.

    \(\tau = \min \{k: X_k \in B\}\) jest momentem stopu dla filtracji \(\s (X_1, \dots , X_n)\).

    bo \(\{\tau \le n\} = \bigcup _{k=1}^n\{X_k \in B\} \, \in \, \s (X_1, \dots , X_n)\)

    \(\tau = \max \{k: X_k \in B\}\) na ogół nie jest momentem stopu dla filtracji \(\{s(X_1, \dots , X_n)\}\).

    bo \(\{\tau \le n\} = \bigcap _{k = n+1}^\infty \{X_k \notin B\}\) na ogół nie należy do \(\s (X_1, \dots , X_n)\)

  • Uwaga – 15.15 Przy poprzednich oznaczeniach następujące warunki są równoważne:

    • 1. dla każdego \(n \in \N \) \(\{\tau \le n\} \in \a _n\) (\(\tau \) jest momentem stopu),

    • 2. dla każdego \(n \in \N \) \(\{\tau > n\} \in \a _n\),

    • 3. dla każdego \(n \in \N \) \(\{\tau = n\} \in \a _n\).

Dowód. \(\{\tau \le n\} = \bigcup _{k=1}^n\{\tau = k\}\).

\(\{\tau = n \} = \{\tau \le n\} \setminus \{\tau \le n-1\}\)   

  • Uwaga – 15.16 Jeżeli \(\tau _1\), \(\tau _2\) są momentami stopu, to

    \(\min (\tau _1,\tau _2)\), \(\max (\tau _1,\tau _2)\) są momentami stopu.

Dowód. (ćwiczenie).   

Dla danego ciągu zmiennych losowych \(X_n\) oraz momentu stopu \(\tau \) względem filtracji \(\{\s (X_1,...X_n)\}\) takiego, że \(P(\tau < \infty ) = 1\) określamy funkcję \(X_\tau : \Omega \to \r \) wzorem

\[ X_\tau (\o ) = X_{\tau (\o )}(\o ). \]

\(X_\tau \) jest zmienną losową, gdyż dla każdego zbioru borelowskiego \(B\): \(\{X_\tau \in B\} = \bigcup _{n=1}^\infty \{\tau = n\}\cap \{X_n \in B\} \in \Sigma \).

Następujące twierdzenie Walda pozwala obliczać nadzieję matematyczną sumy losowej liczby składników zmiennych losowych i.i.d.

  • Twierdzenie – 15.17 (Tożsamość Walda) \(X_1, X_2, X_3, ...\) i.i.d., \((E(X_i) \in \r \). \(S_n = X_1+ ...+X_n\). \(\tau \) – moment stopu dla filtracji \(\{\s (X_1,...,X_n)\}\), \(E(\tau ) < \infty )\). Wtedy:

    \[ E(S_\tau ) = E(\tau )E(X_1). \]

Dowód. Wykorzystamy lemat, którego dowód jest bardzo podobny do dowodu analogicznego Lematu 10.18 (ćwiczenie).

  • Lemat – 15.18 Jeżeli \(X\) jest zmienną losową taką, że \(P(X \in \N ) = 1\), to \(E(X) = \sum _{n=1}^\infty P(X\ge n)\).

Zaważmy, że dla ustalonego \(\o \in \Omega \) \(S_{\tau (\o )}(\o ) = X_1(\o ) + ... + X_n(\o )\), gdzie \(n=\tau (\o )\).

Ponieważ \(\Omega \) jest sumą rozłącznych zbiorów \(\{\tau = n\}\), to

\[ S_\tau = X_1 I_{\{\tau \ge 1\}} + X_2 I_{\{\tau \ge 2\}} + X_3 I_{\{\tau \ge 3\}} + ... = \sum _{n=1}^\infty X_n I_{\{\tau \ge n\}}. \]

Przypadek 1. \(X_n \ge 0\) p.w. Wtedy \(\sum _{n=1}^\infty X_n I_{\{\tau \ge n\}}\) jest dobrze określona. Ponieważ \(I_{\{\tau \ge n\}} = I_{\{\tau > n-1\}}\) jest \(\s (X_1,...X_{n-1})\) mierzalna, to zmienne losowe \(X_n\) oraz \(I_{\{\tau \ge n\}}\) są niezależne. Dlatego \(E( X_n I_{\{\tau \ge n\}} ) = E(X_n) E( I_{\{\tau \ge n\}}) = E(X_1) P(\{\tau \ge n\})\). Zatem:

\[ E(S_\tau ) = \sum _{n=1}^\infty E(X_n)E(I_{\{\tau \ge n\}}) = E(X_1)\sum _{n=1}^\infty P(\{\tau \ge n\}) = E(X_1) E(\tau ). \]

Przypadek 2, sytuacja ogólna. Stosujemy Przypadek 1 do ciągów \(\{X_n^+\}\) oraz \(\{X_n^-\}\). Wtedy: \(E(|S_\tau |) = E(S_\tau ^+) + E(S_\tau ^-) = E(X_1^+) E(\tau ) + E(X_1^-) E(\tau ) = E(|X_1|)E(\tau ) < \infty \), więc \(E(X_\tau ) \in \r \) i można powtórzyć rachunki z Przypadku 1.   

  • Twierdzenie – 15.19 Niech \(\left (\{X_n\}, \{\a _n\} \right )\) będzie martyngałem (submartyngałem, supmartyngałem), \(\tau \) momentem stopu względem filtracji \(\{\a _n\}\).

    Określamy:

    \[ Y_n = X_{\min (n,\tau )}, \mbox { dla } n = 1,2,3, ... . \]

    Wtedy \(\left (\{Y_n\}, \{\a _n\} \right )\) jest martyngałem (submartyngałem, supmartyngałem)

Dowód. Ustalmy \(n\ge 1\) oraz \(\o \in \Omega \). Albo \(\tau (\o ) = k\) dla pewnego \(k \le n-1\), albo \(\tau (\o ) \ge n\). W pierwszym przypadku \(Y_n(\o ) = X_k(\o )\), w drugim \(Y_n(\o ) = X_n(\o )\). Zachodzi więc równość:

\[ Y_n = \sum _{k=1}^{n-1}X_k I_{\{\tau = k\}} + X_n I_{\{\tau > n-1\}} \]

\(Y_n\) są \(\a _n\)-mierzalne (złożenia funkcji mierzalnych).

\[ Y_{n+1} - Y_n = (X_{n+1} - X_n)I_{\{\tau > n\}}, \ \ \mbox { bo } X_nI_{\{\tau > n-1\}} = X_nI_{\{\tau = n\}} + X_nI_{\{\tau > n\}} \]

Ponieważ \(\{\tau > n\} \in \a _n\), to \(I_{\{\tau > n\}}\) jest \(\a _n\) mierzalne, więc:

\[ E(Y_{n+1} - Y_n|\a _n) = I_{\{\tau > n\}}E(X_{n+1} - X_n|\a _n), \]

więc łatwo dokończyć dowód.   

  • Przykład – 15.20 W pewnym kasynie gracz rozpoczyna serię rzutów monetą symetryczną, przy czym uzgodnił następujące warunki: Jeżeli w pierwszym rzucie wypadnie orzeł otrzyma $1000 i kończy grę. Jeżeli w pierwszym rzucie wypadnie reszka zapłaci $1000 i wykonuje następne rzuty według tych samych zasad, podwajając jednak w każdym rzucie stawkę. Gdy więc gra się kończy (po wypadnięciu orła), gracz otrzyma \(\$2^n1000\), gdzie \(n\) oznacza liczbę wykonanych rzutów. O ile gra się kiedyś skończy. Czy gra jest opłacalna?

    Rozwiązanie bezpośrednie: Jeżeli gracz wyrzuci orła w pierwszym rzucie, to otrzyma \(\$1000\) i zakończy grę. Jeżeli orzeł po raz pierwszy wypadnie w \(n\)-tym rzucie, to gracz zapłaci za \(n-1\) przegranych: \(1000 + \dots + 2^{n-2}1000 = 1000\frac {2^{n-1}-2}{2-1} = 2^{n-1}1000 - 1000\) dolarów, ale za ostatni rzut otrzyma \(\$2^{n-1}1000\). O ile orzeł wypadnie w skończonym czasie gracz zarobi \(\$1000\).

    Interpretacja w języku teorii martyngałów: Niech \(X_1, X_2, X_3, ...\) będą i.i.d. o rozkładzie \(P(X_i = -1) = P(X_i= 1) = \frac 12\), to znaczy 1 utożsamiamy z orłem, -1 z reszką. Niech \(\a _n = \s (X_1,...X_n)\). \(S_n = X_1 + \dots + X_n\).

    Wiemy, że \((\{S_n\}, \{\a _n\})\) jest martyngałem.

Niech \(v_0 = 1000\). Dla \(n = 1, 2, 3, ...\) określamy \(v_n = 2^n1000\) o ile \(X_1 = ... = X_{n-1} = -1\) oraz \(v_n = 0\) w pozostałych przypadkach.

Niech, podobnie jak w Twierdzeniu 15.12

\[ K_1 = v_0S_1, \ \ \ K_{n+1} = K_n + v_n (S_{n+1} - S_n), \ \ n \ge 1. \]

Więc \((\{K_n\},\{\s (X_1,...,X_n)\})\) jest martyngałem.

Mamy

\[K_{n} = v_0X_1 + v_1X_2 + ... +v_{n-1}X_n,\]

co oznacza stan konta gracza po \(n\) grach.

Niech \(\tau = \min (k: X_k = 1)\). Oczywiście jest to moment stopu względem filtracji \(\{\s (X_1,...,X_n)\}\). Co więcej, \(\tau \) ma rozkład geometryczny \(G_{\frac 12}\), co oznacza, że \(P(\tau < \infty ) = 1\). więc gra się kiedyś skończy.

Gdy \(\tau = 1\), to \(X_1 = 1\), to oznacza, że \(K_1 = 1000\). Ustalmy \(n > 1\). Gdy \(\tau = n\), to oznacza, że \(X_1 = ... = X_{n-1} = - 1\) oraz \(X_n = 1\). Wtedy: \(K_n = -v_0 - ...- v_{n-2} + v_{n-1} = -1000 - \dots - 2^{n-2}1000 + 2^{n-1}1000 = -1000\frac {2^{n-1}-1}{2-1} + 2^{n-1}1000 = 1000\).

Więc \(K_\tau \) jest stałą równą 1000.