(image)

Rachunek prawdopodobieństwa 1, 2

18.3 Funkcje generujące momenty.

Pamiętamy, że dla każdego rozkładu, powiedzmy \(Q\), istnieje funkcja charakterystyczna \(h_Q: \r \str \C \):

\[h_Q(u) = \int _{\r } e^{iux}\,dQ(x). \]

  • Definicja – 18.8 Niech \(Q\) będzie \(n\)-wymiarowym rozkładem. Funkcja \(M_Q : \rn \str \r \) nazywamy funkcją generującą momenty \(\rwn \)

    \[ M_Q(t) = \int _{\rn } e^{t^Ty}dQ(y). \]

    Niech \(X\) będzie wektorem losowym.

    \[ M_X(t) := M_{P_X}(t) = E(e^{t^TX}). \]

Ponieważ dla niektórych \(t \in \rn \) \(E(e^{t^TX})\) może być nieskończona, funkcja generująca momenty może nie istnieć! Jest to jej podstawowa wada w porównaniu do funkcji charakterystycznych.

Podajemy bez dowodu następujące twierdzenie będące odpowiednikiem twierdzenia 11.14

  • Twierdzenie – 18.9 Jeżeli \(M_{Q_1}(t) = M_{Q_2}(t) \) dla \(t \in G\), gdzie \(G \subset \rn \) jest zbiorem otwartym, to \(Q_1 = Q_2\).

Łatwo udowodnić (ćwiczenie) następujące:

  • Twierdzenie – 18.10 \(A \in M(m,n), b \in \r ^m,\ \ W = AX +b \imp \)

    \[M_W(t) = e^{b^Tt}M_X(A^Tt).\]

  • Twierdzenie – 18.11 Niech \(X = \left [\begin {array}{l} X_1\\ X_2 \end {array} \right ].\) Wtedy:
    \(X_1, X_2\) są niezależne \(\rwn \)

    \[ \forall t = \left [\begin {array}{l} t_1\\ t_2 \end {array} \right ] \ \‚M_X\left ( \left [\begin {array}{l} t_1\\ t_2 \end {array} \right ]\right ) = M_{X_1}(t_1) \cdot M_{X_2}(t_2). \]

Dowód. „\(\imp \)” Z niezależności \(X_1\), \(X_2\) wynika niezależność \(e^{t_1^TX_1}\), \(e^{t_2^TX_2}\) dla wszystkich \(t_1, t_2\). Stąd:
\(\di M_X(t) = E(e^{t^TX}) = E(e^{t_1^TX_1+t_2^TX_2}) =\)
\(\di E(e^{t_1^TX_1}e^{t_2^XX_2}) = E(e^{t_1^TX_1})E(e^{t_2^XX_2}) = M_{X_1}(t_1)M_{X_2}(t_2) \).

„\(\Longleftarrow \)" Chcemy pokazać, że: \(P_X = P_{X_1}\times P_{X_2}\). Wystarczy więc pokazać, że \(M_{P_X} = M_{P_{X_1}\times P_{X_2}}\). Dla \(t \in \rn \) mamy:

\(\di M_{P_{X_1}\times P_{X_2}}(t) = \int _{\rn }e^{t^Ty}d(P_{X_1} \times P_{X_2})(y) = \) \(\di \int _{\rn }e^{t_1^Ty_1+t_2^Ty_2}d(P_{X_1} \times P_{X_2})(y_1,y_2) =\) \(\di \int _{\r ^{n_1}}e^{t_1^Ty_1}dP_{X_1}(y_1)\int _{\r ^{n_2}}e^{t_2^Ty_2}dP_{X_2}(y_2) = M_{P_{X_1}}(t_1) M_{P_{X_2}}(t_2) = M_{P_X}(t) \).   \(\Box \)

  • Przykład – 18.12 (funkcja generująca momenty dla rozkładu \(N(0,1)\))

    Niech \(Z\) będzie zmienną losową o rozkładzie \(N(0,1)\).

    \(\di M_Z(t) = E(e^{tZ}) = \int _\r e^{tz} \frac {1}{\sqrt {2 \pi }} e^{-\frac {1}{2}z^2}dz = \frac {1}{\sqrt {2 \pi }} \int _\r e^{tz - \frac {1}{2}z^2} dz = \)

    \(\di \frac {1}{\sqrt {2 \pi }} \int _\r e^{- \frac {1}{2}(z^2 - 2tz + t^2)} e^{\frac {1}{2}t^2} dz = e^{\frac {1}{2}t^2} \frac {1}{\sqrt {2 \pi }} \int _\r e^{- \frac {1}{2}(z-t)^2} dz = e^{\frac {1}{2}t^2}\).

  • Przykład – 18.13 (funkcja generująca momenty dla i.i.d. \(\sim N(0,1)\))

    Niech \((Z_1, \dots Z_n)\) będzie ciągiem i.i.d. o wspólnym rozkładzie \(N(0,1)\). Obliczymy \(M_Z\) dla:

    \[ Z = \left [\begin {array}{l} Z_1 \\ \vdots \\ Z_n \end {array} \right ], \]

    Na podstawie poprzedniego twierdzenia: \(M_Z(t) = M_{Z_1}(t_1) \cdot \dots \cdot M_{Z_n}(t_n) = e^{\frac {1}{2}t_1^2} \cdot \dots \cdot e^{\frac {1}{2}t_n^2} = e^{\frac {1}{2}(t_1^2 + \dots + t_n^2) } = e^{\frac {1}{2}\| t \|^2 } = e^{\frac {1}{2}t^Tt } \). Przy okazji zauważmy, że: \(E(Z) = 0\), \(cov(Z) = I_n\) – macierz identycznościowa.

  • Przykład – 18.14

    Rozważmy wektor \(X = AZ + \mu \), gdzie wektor losowy \(Z\) jest taki jak w poprzednim przykładzie, \(A \in M(m,n)\) oraz \(\mu \in \r ^m\).

    Policzymy jego nadzieję matematyczną, kowariancję oraz funkcję generującą momenty. Ponieważ \(E(Z) = 0\), \(cov(Z) = I_n\), więc \(E(X) = \mu \), \(\Sigma = cov(X) = AA^T\).

    \[\di \di M_X(t) = e^{\mu ^Tt}M_Z(A^T t) = e^{\mu ^T t} e^{\frac {1}{2}(A^Tt)^TA^Tt } = e^{\mu ^Tt + \frac {1}{2}t^TAA^Tt}\]

    \[= e^{\mu ^Tt + \frac {1}{2}t^T\Sigma t}.\]

Powyższy przykład okaże się punktem wyjścia do definicji wielowymiarowego rozkładu normalnego.