Rozkład \(Q\) jest rozkładem Poissona, jeżeli istnieje taka liczba \(\lambda > 0\), że:
\[ Q(k) = e^{-\lambda }\,\frac {\lambda ^k}{k!}\;\; \mbox { dla } k = 0,1,2,\dots \]
\(E(X) = \lambda \), \(D^2(X) = \lambda \).
Dowód.
\(\seteqnumber{0}{8.}{0}\)\begin{eqnarray*} E(X) = \sum _{k=0}^\infty k e^{-\lambda }\,\frac {\lambda ^k}{k!} = \lambda \sum _{k=1}^\infty k e^{-\lambda }\,\frac {\lambda ^{k-1}}{k!} = \lambda e^{-\lambda }\sum _{k=1}^\infty \,\frac {\lambda ^{k-1}}{(k-1)!} = \\ \lambda e^{-\lambda }\sum _{k=0}^\infty \,\frac {\lambda ^{k}}{k!} = \lambda e^{-\lambda } e^{\lambda } = \lambda . \end{eqnarray*}
Podobnie dla wariancji (ćwiczenie). \(\Box \)
Wiele zjawisk podlega rozkładowi Poissona. Zgodność taka została zaobserwowana w wielu konkretnych sytuacjach praktycznych.
Dane o liczbie śmiertelnych wypadków spowodowanych przez konia w 10 korpusach armii pruskiej w ciągu 20 lat (Bortkiewicz).
k | 0 | 1 | 2 | 3 | 4 | SUMA |
liczba przypadków | 109 | 65 | 22 | 3 | 1 | 200 |
częstość f | 0,545 | 0,325 | 0,11 | 0,015 | 0,005 | 1 |
k*f = \(\lambda \) | 0 | 0,325 | 0,22 | 0,045 | 0,02 | 0,61 |
\(P(X = k) =P_\lambda (k)\) | 0,543 | 0,331 | 0,101 | 0,021 | 0,003 | 0,99957 |
Wniosek. \(X\) – liczba śmiertelnych wypadków w ciągu jednego roku w korpusie armii pruskiej ma rozkład Poissona \(P_\lambda \), \(\lambda = 0.61\).
Następujące twierdzenie mówi o tym, że rozkład Poissona jest w pewnym sensie granicą rozkładów dwumianowych. W szczególności, gdy mamy do czynienia z dużą \((n >100)\) liczbą niezależnych prób Bernoulliego, z jednakowym, małym \((p <0.1)\) prawdopodobieństwem sukcesu każda, to liczba wszystkich sukcesów ma niemal dokładnie rozkład Poissona z parametrem \(\lambda = np\). Istnieją dość dokładne oszacowania błędu, jaki popełniamy przybliżając rozkład dwumianowy rozkładem Poissona.
Dowód. Oznaczając \(\lambda _n = np_n\), mamy równość
\[ \binom {n}{k}p_n^k(1-p_n)^{n-k} = \frac {\lambda _n^k}{k!}\cdot \frac {n(n-1)\cdot \dots \cdot (n-k+1)}{n^k}\cdot \left (1- \frac {\lambda _n}{n}\right )^n\cdot \left (1-\frac {\lambda _n}{n}\right )^{-k}\!\!. \]
Ponieważ \(k\) jest ustalone, to ostatni czynnik zmierza do 1. Drugi czynnik jest równy \(1\cdot (1 - \frac {1}{n}) \cdot \dots \cdot (1- \frac {k-1}{n})\), więc też zmierza do 1. Istotne są czynniki pierwszy oraz trzeci i zmierzają one odpowiednio do \(\frac {\lambda ^k}{k!}\) oraz \(e^{-\lambda }\).
Warto porównać obydwa rozkłady dla wybranych parametrów.
\(n = 100\), | \(p = 0,01\) | \(n = 50\), | \(p = 0,1\) | \(n = 100\), | \(p = 0,1\) | |
rozkład | rozkład | rozkład | rozkład | rozkład | rozkład | |
\(k\) | dwum. | Poissona | dwum. | Poissona | dwum. | Poissona |
0 | 0,3660 | 0,3679 | 0,0052 | 0,0067 | 0,0000 | 0,0000 |
1 | 0,3697 | 0,3679 | 0,0286 | 0,0337 | 0,0003 | 0,0005 |
2 | 0,1849 | 0,1839 | 0,0779 | 0,0842 | 0,0016 | 0,0023 |
3 | 0,0610 | 0,0613 | 0,1386 | 0,1404 | 0,0059 | 0,0076 |
4 | 0,0149 | 0,0153 | 0,1809 | 0,1755 | 0,0159 | 0,0189 |
5 | 0,0029 | 0,0031 | 0,1849 | 0,1755 | 0,0339 | 0,0378 |
6 | 0,0005 | 0,0005 | 0,1541 | 0,1462 | 0,0596 | 0,0631 |
7 | 0,0001 | 0,0001 | 0,1076 | 0,1044 | 0,0889 | 0,0901 |
8 | 0,0000 | 0,0000 | 0,0643 | 0,0653 | 0,1148 | 0,1126 |
9 | 0,0000 | 0,0000 | 0,0333 | 0,0363 | 0,1304 | 0,1251 |
10 | 0,0000 | 0,0000 | 0,0152 | 0,0181 | 0,1319 | 0,1251 |
11 | 0,0000 | 0,0000 | 0,0061 | 0,0082 | 0,1199 | 0,1137 |
12 | 0,0000 | 0,0000 | 0,0022 | 0,0034 | 0,0988 | 0,0948 |
13 | 0,0000 | 0,0000 | 0,0007 | 0,0013 | 0,0743 | 0,0729 |
14 | 0,0000 | 0,0000 | 0,0002 | 0,0005 | 0,0513 | 0,0521 |
15 | 0,0000 | 0,0000 | 0,0001 | 0,0002 | 0,0327 | 0,0347 |
\(n = 200\), \(p = 0.03\); Zmień
Twierdzenie – 8.3 Suma niezależnych zmiennych losowych o rozkładach Poissona ma rozkład Poissona.
Dowód. Niech \(X\) ma rozkład \(P_\lambda \), a \(Y\) rozkład \(P_\mu \). Niech \(k \ge 0\) będzie ustalone. \(\di P(X+Y = k) = P(\bigcup _{i+j = k} (X=i, Y=j)) = \sum _{i+j = k}P(X=i)P(Y=j) = \) \(\sum _{i = 0}^k P(X=i)P(Y=k-i) = \sum _{i = 0}^k e^{-\lambda } \frac {\lambda ^i}{i!} e^{-\mu } \frac {\mu ^{k-i}}{(k-i)!} = \)
\(\di e^{-(\lambda + \mu )} \sum _{i = 0}^k \frac {\lambda ^i \mu ^{k-i}}{i!(k-i)!} = e^{-(\lambda + \mu )}\frac {(\lambda +\mu )^k}{k!} \). \(\Box \)
Przykład – 8.4 W ostatnich pięciu latach zanotowano 7, 6, 5, 5, 6 przypadków utonięć w Wiśle (dane fikcyjne). Oblicz prawdopodobieństwo tego, że w nadchodzącym roku liczba \(X\) utonięć w Wiśle będzie: (a) równa 0, (b) większa od 6, (c) co najmniej dziesięć.
Z charakteru zjawiska wynika, że zmienna losowa \(X\) ma rozkład Poissona \(P_\lambda \). Średnia liczba utonięć w roku wynosi \(7+6+5+5+6\over 5 \) = \(5.8\) Jeżeli założymy, że w poprzednich latach rozkład utonięć podlegał temu samemu rozkładowi, czyli rozkładowi o wartości oczekiwanej \(\lambda \), to można przyjąć (wyjaśni to dokładniej statystyka), że \(\lambda = 5.8\). Z komputera (Excel, Maple, Mathematica i dużo więcej), lub z tablic (nie polecam) otrzymujemy wartości prawdopodobieństw \(P_\lambda ( k)\) oraz wartości dystrybuanty \(F_\lambda (k)\) dla \(k = 0,1,2, \dots \). Mamy więc dla \(\lambda = 5.8\):
(a) \(P(X= 0) = P_\lambda (0) = 0.0030\) – niestety bardzo małe.
(b) \(P(X > 6) = 1 - P(X \le 6) = 1 - F_\lambda (6) = 1 - 0.6384 = 0.3616\). – dość duże.
(c) \(P(X \ge 10) = P(X >9) = 1 - P(X \le 9) = 1 - F_\lambda (9) = 1 - 0,9292 = 0.0708\) – już niezbyt duże.