(image)

Rachunek prawdopodobieństwa 1, 2

Rozdział 14 Warunkowania

Wyznaczanie oczekiwanych wartości warunkowych może być w wielu przypadkach żmudne. Warto jednak pamiętać, że fakt, iż przy bardzo ogólnych założeniach one istnieją oraz spełniają pewne własności może być bardzo pomocny. Z drugiej strony, w pewnych zagadnieniach warunkowe wartości oczekiwane są w sposób oczywisty znane i wtedy mogą służyć do wyznaczania „zwykłej" nadziei oraz prawdopodobieństw zdarzeń (pamiętamy, że \(P(C) = E(I_C)\) ). Procedura ta jest uogólnieniem poznanej już wcześniej procedury wykorzystującej wzór na prawdopodobieństwo całkowite.

Wiedząc, że \(E(Y) = E(E(Y|X))\), zauważmy, iż na podstawie twierdzenia 13.19 oraz twierdzeń 6.8 i 6.11 otrzymujemy:

  • Twierdzenie – 14.1 Niech \(X: \Omega \to \r ^k\) będzie wektorem losowym, \(Y : \Omega \to \r \) zmienną losową, \(E(Y) \in \r \). Niech \(C \in \Sigma \). Wtedy:

    \[ E(Y) = \int _{\rn } E(Y|X=x)\,dP_X(x), \ \ \ P(C) = \int _{\rn } P(C|X=x)\,dP_X(x). \]

    Jeżeli \(X\) ma rozkład dyskretny zadany przez ciągi \(x_1,x_2, \dots , \in \rn \), \(p_1,p_2, \dots , \), to

    \[ E(Y) = \sum _i E(Y|X=x_i)p_i, \ \ \ P(C) = \sum _i P(C|X=x_i)p_i. \]

    Jeżeli \(X\) ma rozkład ciągły o gęstości \(f\), to

    \[ E(Y) = \int _{\rn } E(Y|X=x)f(x)\,dx, \ \ \ P(C) = \int _{\rn } P(C|X=x)f(x)\,dx. \]

14.1 Przykłady

  • Przykład – 14.2

    Rzucono dwa razy monetą symetryczną, a następnie tyle razy rzucono kostką symetryczną ile wypadło orłów. Jaka jest wartość oczekiwana sumy uzyskanych oczek?

    Niech \(X\) oznacza liczbę wyrzuconych orłów, a \(Y\) sumę oczek. Oczywiście zadanie można rozwiązać bezpośrednio wyznaczając rozkład zmiennej losowej \(Y\). Pokażemy inną metodę. Mamy:

    \(\di E(Y) = E(E(Y|X)) = \) \(\di E(Y|X = 0)P(X=0) + E(Y|X = 1)P(X=1) + E(Y|X = 2)P(X=2)\)

    Powyższe trzy nadzieje warunkowe są faktycznie znane, gdyż sprowadzają się do obliczenia ’zwykłych’ nadziei. Mamy więc:

    \(\di E(Y) = 0 \cdot \frac {1}{4} + \frac {7}{2} \cdot \frac {1}{2} + 2\cdot \frac {7}{2} \cdot \frac {1}{4} = \frac {7}{2}\).

    Takiego wyniku można się było spodziewać ze względu na symetrię: to co tracimy w przypadku braku orła, zyskujemy, gdy wypadną dwa orły.

  • Przykład – 14.3

    Z odcinka \([0,1]\) losujemy liczbę \(X\) według rozkładu jednostajnego, a następnie z odcinka \([X,1]\) liczbę \(Y\) według rozkładu jednostajnego.

    (a) Znaleźć nadzieję matematyczną \(E(Y)\). (b) Wyznaczyć \(P(Y < \frac 12)\).

    Zadanie można rozwiązać w sposób klasyczny, podobnie jak w przykładach 5.21 oraz 13.2, wyznaczając najpierw rozkład wektora \((X,Y)\), potem rozkład \(Y\), a w końcu \(E(Y)\) i \(P(Y < \frac 12)\). Można jednak rozumować inaczej, opierając się na twierdzeniu 14.1.

    Ad(a). Wiemy, że \(E(Y|X=x) = \frac {x+1}{2}\) dla \(0 < x <1\), więc:

    \[ E(Y) = \int _{\r } E(Y|X=x)f_X(x)\,dx = \int _{0}^1 \frac {x+1}{2}\,dx = \frac {3}{4}. \]

    Jeszcze szybciej można zrobić tak:

    \[ E(Y) = E(E(Y|X)) = E\left (\frac {X+1}{2}\right ) = \frac {E(X)+1}{2} = \frac {\frac {1}{2}+1}{2} = \frac {3}{4}.\]

    Ad(b). Widać, że \(P(Y < \frac 12|X = x) = \frac {\frac 12 -x}{1 - x}\) dla \(0 < x \le \frac 12\) oraz \(0\) dla innych \(x\).

    Więc \(\di P(Y < \frac 12) = \int _\r P(Y < \frac 12|X = x)I_{[0,1]}(x)\,dx = \int _0^{\frac 12} \frac {\frac 12 - x}{1 - x}\,dx = \frac 12 - \frac {\ln 2}{2} \cong 0.153 \).

  • Przykład – 14.4

    Losujemy liczbę \(p\) zgodnie z rozkładem \(U(0,1)\), a następnie wykonujemy \(n\) doświadczeń Bernoulliego z prawdopodobieństwem sukcesów w każdym doświadczeniu równym \(p\). Ilu możemy oczekiwać sukcesów?

    Niech \(X\) będzie zmienną losową o rozkładzie \(U(0,1)\). Niech \(Y_1, \dots , Y_n\) będą i.i.d o rozkładzie \((0,1,X)\) każda. \(S_n = Y_1+ \dots Y_n\). Wtedy \(E(S_n|X = p) = np\). Czyli \(E(S_n|X) = n X\). A więc \(\di E(S_n) = E(E(S_n|X)) = E(nX) = n E(X) = n\frac {1}{2} = \frac {n}{2}\).

  • Przykład – 14.5

    W przykładzie 11.27 analizowaliśmy następujące zadanie stosują aparat funkcji tworzących.

    Owad (powiedzmy mucha) składa dużo jajeczek z których mogą wykluwać się nowe owady. Zakładając, że liczba jajeczek ma rozkład Poissona o parametrze \(\lambda \), oraz, że owady wykluwają się z jajeczek niezależnie od siebie z tym samym4 prawdopodobieństwem \(p\), wyznaczyć rozkład oraz oczekiwaną wartość liczby potomków jednego owada.

    Niech \(N\) oznacza liczbę jajeczek, natomiast \(S\) liczbę potomków jednego owada. Chcemy wyznaczyć \(P(S=k)\) dla \(k = 0,1,2,3,...\). Z treści zadania wynika, że \(P(S=k|N=n) =0\) dla \(n < k\) oraz \(\binom {n}{k}p^k(1-p)^{n-k}\) dla \(n \ge k\). Mamy kolejno:

    \[ P(S=k) = \sum _{n=0}^\infty P(S=k|N=n)P(N=n) \]

    \[= \sum _{n=k}^\infty \binom {n}{k}p^k(1-p)^{n-k} e^{-\lambda } \frac {\lambda ^n}{n!} = e^{-\lambda }\frac {1}{k!}p^k(1-p)^{-k}\sum _{n=k}^\infty \frac {(\lambda (1-p))^n}{(n-k)!} \]

    \[ = e^{-\lambda }\frac {1}{k!}p^k\lambda ^k\sum _{j=0}^\infty \frac {(\lambda (1-p))^j}{j!} = e^{-\lambda }\frac {1}{k!}(p\lambda )^k e^{\lambda (1-p)} = e^{-p\lambda }\frac {(p\lambda )^k}{k!}. \]

    Więc \(S\) ma rozkład Poissona \(P_{p\lambda }\). W takim razie \(E(S) = p\lambda \). Ten ostatni wynik można było otrzymać także bezpośrednio. Mianowicie zauważmy, że \(E(S|N=n) = np\), czyli \(E(S|N) = Xp\). Stąd:

    \[E(S) = E(E(S|Np)) = E(Np) = p E(N) = p \lambda .\]

  • Przykład – 14.6 Kaja i Leon losują na chybił-trafił i niezależnie od siebie po jednej liczbie od 0 do 100. Jeżeli liczby różnią się nie więcej niż o 10, uważają, że warto pójść razem do kina. Jakie jest prawdopodobieństwo, że Kaja i Leon pójdą razem do kina?

    Zadanie to rozwiązaliśmy już stosując prawdopodobieństwo geometryczne, przykład 2.8. Pokażemy teraz inny sposób rozwiązania.

    Niech \(KL\) oznacza zdarzenie: że Kaja i Leon pójdą razem do kina. Niech \(L\) oznacza liczbę wylosowaną przez Leona. Łatwo wyznaczyć prawdopodobieństwo warunkowe \(P(KL|L = x)\). Mianowicie, gfy Leon wylosował liczbę \(x\), to aby zaszło zdarzenie \(KL\), liczba wylosowana przez Kaję musi się różnić od \(x\) o mniej niż o \(10\). Licząc prawdopodobieństwo geometryczne na odcinku \((0,100)\) otrzymujemy:

    \[ P(KL|L=x) = \left \{\begin {array}{ll} \frac {x + 10}{100} & \mbox { dla } 0 < x< 10\\[2mm] \frac {20}{100} & \mbox { dla } 10 < x< 90\\[2mm] \frac {100 -(x-10)}{100} & \mbox { dla } 90 < x< 100. \end {array} \right . \]

    Ponieważ zmienna losowa \(L\) ma rozkład \(U(0,100)\) otrzymujemy:

    \[ P(KL) = \int _0^{100}P(KL|L=x)\frac {1}{100}\,dx = \frac {19}{100}. \]

  • Przykład – 14.7 Niech \(X_1, \dots , X_n\) będzie próbką prostą z rozkładu \(B(1,p)\). Niech \(S =X_1 + \dots + X_n\). Wyznaczyć \(E(X_1|S)\).

    Zauważmy, że dla \(i = 2,\dots n\), \(E(X_i|S_n) = E(X_1|S_n)\). Korzystając z własności nadziei warunkowych kolejno mamy: \(S_n = E(S_n|S_n) = E(X_1+ \dots + X_n|S_n) = E(X_1|S_n)+ \dots + E(X_n|S_n)= n E(X_1|S_n)\). Stąd: \(\di E(X_1|S_n) = \frac {S_n}{n}\).

  • Przykład – 14.8 Punkt \((x,y)\) wylosowano z kwadratu \([0,1]^2\) zgodnie z rozkładem jednostajnym. Jaka jest oczekiwana wartość \(x\), jeżeli wiadomo, że: (a) \(x+y \le \frac 12\), (b) \(x+y = \frac 12\)?

    Ad (a). Sposób 1. Wyznaczamy rozkład zmiennej losowej \(X\), gdy wektor losowy \((X,Y)\) ma rozkład \(U(W)\) (jednostajny) na zbiorze \(W\) określonym warunkami \(x > 0, y > 0\), \(x+y \le \frac 12\) i wyznaczamy \(E(X)\). Mamy kolejno \(f_{(X,Y)} = 8 I_W\), \(f_X(x) = \int _\r f_{(X,Y)}(x,y)\,dy = \int _0^{\frac 12 -x} 8\,dx = 4 - 8 x\) dla \(0 < x < \frac 12\). \(E(X) = \int _\r xf_X(x) \,dx = \int _0^{\frac 12}x(4 -8 x)\,dx = \frac 16 \).

    Sposób 2. Korzystamy z określenia \(E(X|W)\): \(E(X|W) = \frac {\int _W X\,dP}{P(W)}\). Tutaj \(P\) jest miarą Lebesgue’a na całym kwadracie. W związku z tym \(P(W) = \frac 18\). Natomiast \(\int _W X\,dP = \int \int _W x\,d(x,y) = \int _0^\frac 12 \int _0^{\frac 12 - x}x\,dy\,dx = \int _0^{\frac 12}x(\frac 12 -x)\,dx = \frac {1}{48}\). \(E(X|W) = \frac 16\).

    Ad (b). Sposób 1. Niech \(X\), \(Y\) oznaczają odpowiednie zmienne losowe. Ze względu na symetrię mamy \(E(X|X+Y) = E(Y|X+Y)\). Z jednej strony \(E(X+Y|X+Y) = X+Y\) (własność 4 w Twierdzeniu 13.26). Z drugiej strony \(E(X+Y|X+Y) = E(X|X+Y) + E(Y|X+Y) = 2E(X|X+Y)\). Więc \(E(X|X+Y) = \frac 12(X+Y)\). \(E(X|X+Y = \frac 12) = \frac 14\).

    Sposób 2. Wyznaczamy gęstość wektora losowego \((X,X+Y)\) i następnie obliczamy wartość oczekiwaną odpowiedniego rozkładu warunkowego. Ponieważ \(f_X = I_{(0,1)}\) oraz dla każdego \(x \in (0,1)\) \(f_{X+Y|X=x} = I_{(x,x+1)}\), to ich iloczyn: \(f_{(X,X+Y)}(x,s) = 1\) dla \(0<x<1, x<s<x+1\) oraz 0 w poz. przyp. May więc:

    \[ E(X|X+Y = s) = \frac {\int _\r xf_{(X,X+Y)|X}(x,s) \,dx}{\int _\r f_{(X,X+Y)|X}(x,s) \,dx} \ \left |_{s = \frac {1}{2}} = \frac {\int _0^\frac 12 x\, dx}{\int _0^\frac 12 \,dx} =\frac 14 \right .. \]

  • Przykład – 14.9 Z przedziału \((0,1)\) losujemy punkt \(x\) oraz rzucamy niesymetryczną monetą, gdzie prawdopodobieństwo wypadnięcia orła wynosi \(p\). Jeżeli wypadła reszka, to punkt \(y\) losujemy z przedziału \((0,x)\) według rozkładu jednostajnego, gdy wypadnie orzeł punkt \(y\) losujemy według rozkładu jednostajnego z przedziału \((x,1)\). Znaleźć średnie położenie punktu \(y\).

    Niech \(X\) będzie zmienną losową odpowiadającą pierwszemu losowaniu, \(Z\) zmienną losową odpowiadającą rzutowi monetą, a \(Y\) pozycją drugiego wylosowanego punktu. Aby policzyć \(E(Y)\) zauważmy, że

    \[ E(Y) = \int _{\r \times \{0,1\}}E(Y|X = x,Z = z)\,dQ(x,z), \]

    gdzie \(Q\) jest rozkładem wektora losowego \((X,Z)\). Z treści zadania wynika, że \(X\), \(Z\) są niezależne, a więc \(Q\) jest iloczynem kartezjańskim ich rozkładów: \(Q = U(0,1) \times B(1,p)\). Zauważmy, że:

    \[ E(Y|X = x,Z = z) = \left \{\begin {array}{ll} \frac {x}{2} & \mbox { dla } 0 < x< 1, z = 0\\[2mm] \frac {x+1}{2} & \mbox { dla } 0<x<1, z = 1 \end {array} \right . \]

    Stosujemy Twierdzenie Fubniego:

    \[ E(Y) = \int _\r \left (\int _{\{0,1\}}E(Y|X = x,Z = z)\,dB(1,p)(z)\right )\,dU(0,1)(x) = \]

    \[ \int _0^1\frac {x}{2}(1-p) + \frac {x+1}{2}p\,dx = \int _0^1\frac {x+p}{2}\,dx = \frac 14 + \frac {p}{2}. \]