Dana jest filtracja \(\a _1 \subset \a _2 \subset \a _3 \subset \dots \subset \Sigma \) oraz funkcja \(\tau : \Omega \to \N \cup \{\infty \}\).
Definicja – 15.13 \(\tau \) jest momentem stopu względem filtracji \(\{\a _n\} \rwn \) dla każdego \(n \in \N \) \(\{\tau \le n\} \in \a _n\).
Przykład – 15.14 \(\tau = n_0\), \(n_0 \in \N \) jest momentem stopu dla każdej filtracji, \(n_0 \in \N \) ustalone.
Niech \(X_1,X_2,X_3, ...\) będzie ciągiem zmiennych losowych, Niech \(B \subset \r \) będzie zbiorem borelowskim.
\(\tau = \min \{k: X_k \in B\}\) jest momentem stopu dla filtracji \(\s (X_1, \dots , X_n)\).
bo \(\{\tau \le n\} = \bigcup _{k=1}^n\{X_k \in B\} \, \in \, \s (X_1, \dots , X_n)\)
\(\tau = \max \{k: X_k \in B\}\) na ogół nie jest momentem stopu dla filtracji \(\{s(X_1, \dots , X_n)\}\).
bo \(\{\tau \le n\} = \bigcap _{k = n+1}^\infty \{X_k \notin B\}\) na ogół nie należy do \(\s (X_1, \dots , X_n)\)
Uwaga – 15.15 Przy poprzednich oznaczeniach następujące warunki są równoważne:
1. dla każdego \(n \in \N \) \(\{\tau \le n\} \in \a _n\) (\(\tau \) jest momentem stopu),
2. dla każdego \(n \in \N \) \(\{\tau > n\} \in \a _n\),
3. dla każdego \(n \in \N \) \(\{\tau = n\} \in \a _n\).
Dowód. \(\{\tau \le n\} = \bigcup _{k=1}^n\{\tau = k\}\).
\(\{\tau = n \} = \{\tau \le n\} \setminus \{\tau \le n-1\}\)
Dowód. (ćwiczenie).
Dla danego ciągu zmiennych losowych \(X_n\) oraz momentu stopu \(\tau \) względem filtracji \(\{\s (X_1,...X_n)\}\) takiego, że \(P(\tau < \infty ) = 1\) określamy funkcję \(X_\tau : \Omega \to \r \) wzorem
\[ X_\tau (\o ) = X_{\tau (\o )}(\o ). \]
\(X_\tau \) jest zmienną losową, gdyż dla każdego zbioru borelowskiego \(B\): \(\{X_\tau \in B\} = \bigcup _{n=1}^\infty \{\tau = n\}\cap \{X_n \in B\} \in \Sigma \).
Następujące twierdzenie Walda pozwala obliczać nadzieję matematyczną sumy losowej liczby składników zmiennych losowych i.i.d.
Dowód. Wykorzystamy lemat, którego dowód jest bardzo podobny do dowodu analogicznego Lematu 10.18 (ćwiczenie).
Lemat – 15.18 Jeżeli \(X\) jest zmienną losową taką, że \(P(X \in \N ) = 1\), to \(E(X) = \sum _{n=1}^\infty P(X\ge n)\).
Zaważmy, że dla ustalonego \(\o \in \Omega \) \(S_{\tau (\o )}(\o ) = X_1(\o ) + ... + X_n(\o )\), gdzie \(n=\tau (\o )\).
Ponieważ \(\Omega \) jest sumą rozłącznych zbiorów \(\{\tau = n\}\), to
\[ S_\tau = X_1 I_{\{\tau \ge 1\}} + X_2 I_{\{\tau \ge 2\}} + X_3 I_{\{\tau \ge 3\}} + ... = \sum _{n=1}^\infty X_n I_{\{\tau \ge n\}}. \]
Przypadek 1. \(X_n \ge 0\) p.w. Wtedy \(\sum _{n=1}^\infty X_n I_{\{\tau \ge n\}}\) jest dobrze określona. Ponieważ \(I_{\{\tau \ge n\}} = I_{\{\tau > n-1\}}\) jest \(\s (X_1,...X_{n-1})\) mierzalna, to zmienne losowe \(X_n\) oraz \(I_{\{\tau \ge n\}}\) są niezależne. Dlatego \(E( X_n I_{\{\tau \ge n\}} ) = E(X_n) E( I_{\{\tau \ge n\}}) = E(X_1) P(\{\tau \ge n\})\). Zatem:
\[ E(S_\tau ) = \sum _{n=1}^\infty E(X_n)E(I_{\{\tau \ge n\}}) = E(X_1)\sum _{n=1}^\infty P(\{\tau \ge n\}) = E(X_1) E(\tau ). \]
Przypadek 2, sytuacja ogólna. Stosujemy Przypadek 1 do ciągów \(\{X_n^+\}\) oraz \(\{X_n^-\}\). Wtedy: \(E(|S_\tau |) = E(S_\tau ^+) + E(S_\tau ^-) = E(X_1^+) E(\tau ) + E(X_1^-) E(\tau ) = E(|X_1|)E(\tau ) < \infty \), więc \(E(X_\tau ) \in \r \) i można powtórzyć rachunki z Przypadku 1.
Twierdzenie – 15.19 Niech \(\left (\{X_n\}, \{\a _n\} \right )\) będzie martyngałem (submartyngałem, supmartyngałem), \(\tau \) momentem stopu względem filtracji \(\{\a _n\}\).
Określamy:
\[ Y_n = X_{\min (n,\tau )}, \mbox { dla } n = 1,2,3, ... . \]
Wtedy \(\left (\{Y_n\}, \{\a _n\} \right )\) jest martyngałem (submartyngałem, supmartyngałem)
Dowód. Ustalmy \(n\ge 1\) oraz \(\o \in \Omega \). Albo \(\tau (\o ) = k\) dla pewnego \(k \le n-1\), albo \(\tau (\o ) \ge n\). W pierwszym przypadku \(Y_n(\o ) = X_k(\o )\), w drugim \(Y_n(\o ) = X_n(\o )\). Zachodzi więc równość:
\[ Y_n = \sum _{k=1}^{n-1}X_k I_{\{\tau = k\}} + X_n I_{\{\tau > n-1\}} \]
\(Y_n\) są \(\a _n\)-mierzalne (złożenia funkcji mierzalnych).
\[ Y_{n+1} - Y_n = (X_{n+1} - X_n)I_{\{\tau > n\}}, \ \ \mbox { bo } X_nI_{\{\tau > n-1\}} = X_nI_{\{\tau = n\}} + X_nI_{\{\tau > n\}} \]
Ponieważ \(\{\tau > n\} \in \a _n\), to \(I_{\{\tau > n\}}\) jest \(\a _n\) mierzalne, więc:
\[ E(Y_{n+1} - Y_n|\a _n) = I_{\{\tau > n\}}E(X_{n+1} - X_n|\a _n), \]
więc łatwo dokończyć dowód.
Przykład – 15.20 W pewnym kasynie gracz rozpoczyna serię rzutów monetą symetryczną, przy czym uzgodnił następujące warunki: Jeżeli w pierwszym rzucie wypadnie orzeł otrzyma $1000 i kończy grę. Jeżeli w pierwszym rzucie wypadnie reszka zapłaci $1000 i wykonuje następne rzuty według tych samych zasad, podwajając jednak w każdym rzucie stawkę. Gdy więc gra się kończy (po wypadnięciu orła), gracz otrzyma \(\$2^n1000\), gdzie \(n\) oznacza liczbę wykonanych rzutów. O ile gra się kiedyś skończy. Czy gra jest opłacalna?
Rozwiązanie bezpośrednie: Jeżeli gracz wyrzuci orła w pierwszym rzucie, to otrzyma \(\$1000\) i zakończy grę. Jeżeli orzeł po raz pierwszy wypadnie w \(n\)-tym rzucie, to gracz zapłaci za \(n-1\) przegranych: \(1000 + \dots + 2^{n-2}1000 = 1000\frac {2^{n-1}-2}{2-1} = 2^{n-1}1000 - 1000\) dolarów, ale za ostatni rzut otrzyma \(\$2^{n-1}1000\). O ile orzeł wypadnie w skończonym czasie gracz zarobi \(\$1000\).
Interpretacja w języku teorii martyngałów: Niech \(X_1, X_2, X_3, ...\) będą i.i.d. o rozkładzie \(P(X_i = -1) = P(X_i= 1) = \frac 12\), to znaczy 1 utożsamiamy z orłem, -1 z reszką. Niech \(\a _n = \s (X_1,...X_n)\). \(S_n = X_1 + \dots + X_n\).
Wiemy, że \((\{S_n\}, \{\a _n\})\) jest martyngałem.
Niech \(v_0 = 1000\). Dla \(n = 1, 2, 3, ...\) określamy \(v_n = 2^n1000\) o ile \(X_1 = ... = X_{n-1} = -1\) oraz \(v_n = 0\) w pozostałych przypadkach.
Niech, podobnie jak w Twierdzeniu 15.12
\[ K_1 = v_0S_1, \ \ \ K_{n+1} = K_n + v_n (S_{n+1} - S_n), \ \ n \ge 1. \]
Więc \((\{K_n\},\{\s (X_1,...,X_n)\})\) jest martyngałem.
Mamy
\[K_{n} = v_0X_1 + v_1X_2 + ... +v_{n-1}X_n,\]
co oznacza stan konta gracza po \(n\) grach.
Niech \(\tau = \min (k: X_k = 1)\). Oczywiście jest to moment stopu względem filtracji \(\{\s (X_1,...,X_n)\}\). Co więcej, \(\tau \) ma rozkład geometryczny \(G_{\frac 12}\), co oznacza, że \(P(\tau < \infty ) = 1\). więc gra się kiedyś skończy.
Gdy \(\tau = 1\), to \(X_1 = 1\), to oznacza, że \(K_1 = 1000\). Ustalmy \(n > 1\). Gdy \(\tau = n\), to oznacza, że \(X_1 = ... = X_{n-1} = - 1\) oraz \(X_n = 1\). Wtedy: \(K_n = -v_0 - ...- v_{n-2} + v_{n-1} = -1000 - \dots - 2^{n-2}1000 + 2^{n-1}1000 = -1000\frac {2^{n-1}-1}{2-1} + 2^{n-1}1000 = 1000\).
Więc \(K_\tau \) jest stałą równą 1000.