Характеристическую функцию с. в. 1 можно разложить в ряд Тейлора, в коэффициентах которого использовать известные моменты E 1 = 0, E 12 = D 1 = 1. Получим
6 |
|
t2 |
t2 |
||
' 1 (t) = 1 + it E 1 |
|
|
E 12 + o(t2) = 1 |
|
+ o(t2): |
2 |
2 |
||||
p
Подставим это разложение, взятое в точке t= n, в равенство (25) и устремим n к бесконечности. Еще раз воспользуемся замечательным пределом.
|
|
(t) = ' 1 |
|
t |
|
n |
= 1 |
t2 |
|
t2 |
|
n |
! exp |
t2 |
|
|
||
'Zn=p |
|
p |
|
|
|
+ o |
|
|
|
ïðè n ! 1: |
||||||||
n |
|
|
|
|||||||||||||||
|
2n |
n |
|
2 |
||||||||||||||
n |
|
|
||||||||||||||||
В пределе получили характеристическую функцию стандартного нормального закона. По теореме о непрерывном соответствии можно сделать вывод о слабой сходимости
pZnn = Sn pnna ) N0;1
распределений стандартизованных сумм к стандартному нормальному распределению, что и утверждается в ÖÏÒ.
Попробуйте теперь сами:
Упражнение 31. Пусть при любом > 0 случайная величина имеет распределение Пуассона с параметром . Используя теорему о непрерывном соответствии, доказать, что случайные величины
p
слабо сходятся к стандартному нормальному распределению при ! 1. Характеристическая функция с. в. вычислена в примере 54.
90
Раздел 16. Доказательство теоремы Пуассона
Нам осталось доказать теорему Пуассона. В доказательство будут использоваться только свойства устойчивости биномиального и пуассоновского распределений относительно операции суммирования. Никакие разделы, связанные с числовыми характеристиками с. в., сходимостями или характеристическими функциями, нам в доказательстве не понадобятся.
Вспомним утверждение, которое мы собрались доказывать. Теперь, когда мы знакомы с термином «распределение», можно сформулировать теорему Пуассона так:
Теорема Пуассона с оценкой погрешности
Пусть A f0; 1; 2; : : : ; ng — произвольное множество целых неотрицательных чисел, случайная величина n имеет биномиальное распределение Bn;p с параметрами n и p, случайная величина n имеет распределение Пуассона с параметром = np. Тогда
j P( n 2 A) P( n 2 A) j = |
|
Cnk pk (1 p)n k |
|
k! |
e |
6 np2 = n |
: |
|
|
k A |
k A |
k |
|
|
2 |
||
|
X |
X |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
2 |
|
2 |
|
|
|
|
|
|
|
|
|
|
|
|
||
Иначе говоря, требуется доказать, что
sup |
j |
P( |
n 2 |
A) |
|
P( |
n 2 |
A) |
j 6 |
np2 |
: |
A |
|
|
|
|
|
|
Доказательство проведем, используя так называемый «метод одного вероятностного пространства». Нам нужно оценить сверху разницу между двумя распределениями, а именно: доказать, что для любых множеств A f0; 1; 2; : : : ; ng разницу между вероятностями попадания в множество A биномиальной (с параметрами n и p) и пуассоновской (с параметром np) случайных величин можно оценить величиной np2.
Заметим, прежде всего, что разность
j P( n 2 A) P( n 2 A) j = |
|
Cnk pk (1 p)n k |
|
k! |
e |
|
|
k A |
k A |
k |
|
||
|
X |
X |
|
|
|
|
|
|
|
|
|
|
|
|
2 |
|
2 |
|
|
|
|
|
|
|
|
||
никак не зависит от того, каким образом величины n è n взаимосвязаны и на каком вероятностном пространстве заданы, если только одна из этих величин имеет биномиальное, а вторая — пуассоновское распределение с нужными параметрами. Совместное распределение этих величин тут никак не участвует, поэтому данная разность не изменится, если заменить n è n íà другие случайные величины с теми же распределениями.
Первое, что мы сделаем — докажем, что для двух случайных величин и (где угодно заданных) «расстояние между распределениями», то есть supA j P( 2 A) P( 2 A) j, íå
больше, чем вероятность P |
~ |
6= ~ |
~ |
|
äâóì произвольным случайным величинам ; ~ с дан- |
ными распределениями не совпадать. Понятно, что эти новые с. в. должны быть заданы на одном вероятностном пространстве, и наилучшая оценка сверху получится, если нам
удастся так задать на одном вероятностном пространстве с. в. ~, распределенную как
, и , распределенную как , чтобы вероятность ~ 6 была наименьшей
~ P = ~ .
91
Лемма 9 (Неравенство каплинга). Пусть и — произвольные с. в. Пусть случай-
ная величина ~ одинаково распределена с , случайная величина одинаково распреде-
~
~ |
|
|
|
|
|
лена с , и величины ; ~ заданы на одном вероятностном пространстве. Тогда |
|||||
A R j |
|
( 2 A) |
|
( 2 A) j 6 |
6= ~ : |
sup |
P |
|
P |
|
P ~ |
Замечание 28. Каплингом (coupling) äâóõ ñ. â. |
и называют задание на одном |
||||
вероятностном пространстве случайных величин ~, распределенной как , и , распре-
~
деленной как .
Доказательство неравенства каплинга. Воспользуемся равенством P(C) = P(C \B)+
P(C \ B), а также тем, что вероятность пересечения двух событий не превосходит вероятности любого из них. Для любого множества A R
2 ~ 2 ~ 2 ~ ~ 2 ~ 6
P( A) = P A = P A; = ~ + P A; = ~ =
2 ~ ~ 2 ~ 6
= P ~ A; = ~ + P A; = ~ 6
2 ~ 6 2 ~ 6
6 P (~ A) + P = ~ = P ( A) + P = ~ ;
òî åñòü
2 2 ~ 6
P( A) P ( A) 6 P = ~ :
Поменяем местами и и получим, что для любого множества A R
j 2 2 j ~ 6
P( A) P( A) 6 P = ~ :
Займемся заданием на одном вероятностном пространстве величин ~n è ~n, распределенных как n è n, соответственно.
Пусть 1; : : : ; n — независимые случайные величины, имеющие распределение Бернулли с параметром p. Тогда их сумма ~n = 1 + : : : + n имеет биномиальное распределение с параметрами n и p, то есть одинаково распределена с n.
Пусть 1; : : : ; n — независимые случайные величины, имеющие распределение Пуассона с параметром p. Тогда их сумма ~n = 1 + : : : + n также имеет распределение Пуассона с параметром, равным сумме параметров слагаемых, то есть np, и одинаково распределена с n. Мы будем считать, что эти наборы с. в. сразу заданы на одном вероятностном пространстве, и позже построим их.
Тогда, в силу неравенства каплинга, |
|
|
|
i!: |
j P( n 2 A) P( n 2 A) j 6 P (~n 6= ~n) = P |
n |
i 6= |
n |
|
|
Xi |
|
X |
|
|
=1 |
|
i=1 |
|
Заметим теперь, что если две суммы с неотрицательными слагаемыми не равны друг другу, то хотя бы одно слагаемое в первой сумме отличается от соответствующего слагаемого в другой сумме (иначе...). Поэтому
j P( n 2 A) P( n 2 A) j 6 P |
n |
i 6= |
n |
i! |
6 P |
n |
f i 6= ig! |
6 |
n |
P ( i 6= i) : (26) |
|
X |
|
X |
|
|
[ |
|
|
Xi |
|
|
i=1 |
|
i=1 |
|
|
i=1 |
|
|
=1 |
|
В последнем неравенстве использовано, что вероятность объединения не превосходит суммы вероятностей.
Осталось теперь так задать на одном вероятностном пространстве i è i, чтобы минимизировать P ( i 6= i).
92
Пусть множество элементарных исходов есть n-мерный куб, стороны которого
— отрезки [0; 1] на осях координат, вероятность есть просто мера Лебега, заданная на-алгебре борелевских множеств.
Вот ровно сейчас тот, кто поленился о них прочитать, должен об этом пожалеть!
То есть мы наудачу выбираем точку ! = (!1; : : : ; !n) в кубе, или, что то же самое, каждую из координат !i выбираем наудачу и независимо от других на [0; 1].
Построим для каждого i = 1; : : : ; n по !i случайные величины i = i(!i) è i = i(!i) с нужными распределениями, чтобы они, к тому же, совпадали с большой вероятностью. Положим
(
i(!i) =
0; åñëè 0 6 !i < 1 p; 1; åñëè 1 p 6 !i 6 1:
Эта с. в. имеет распределение Бернулли: P( i = 0) = P(0 6 !i < 1 p) = 1 p,
P( i = 1) = P(1 p 6 !i 6 1) = p.
Случайная величина i должна иметь распределение Пуассона с параметром p, то
åñòü pk = P( i = k) = pk e p при k = 0; 1; 2; : : : . Сумма этих вероятностей равна 1, k!
поэтому можно разбить тот же самый отрезок [0; 1] на отрезки, длина k-го из которых равна pk при k = 0; 1; 2; : : : , и положить i = k, åñëè !i принадлежит отрезку с номером k:
6
3
2
1
1 p |
|
p |
|
0 |
|
0 |
|
p |
= |
+ |
|
|
e |
||
|
|
|
p |
|
|
p |
1 |
: : :
i
i
p |
: : : |
|
0 |
||
|
||
+ |
||
|
p |
|
|
1 |
|
|
+ |
|
|
p |
|
|
2 |
|
|
|
|
|
0; |
åñëè 0 |
! |
< p0; |
|
|
|
|
81; |
åñëè p06 !i i < p0 + p1; |
||||
|
|
|
> |
|
|
6 |
|
|
|
|
|
> |
|
åñëè p0 |
+ p1 |
|
!i < p0 + p1 + p2; |
|
|
|
>2; |
|
||||
|
(! |
) = |
> |
|
|
|
6 |
|
> |
|
|
|
|
|
|||
i |
i |
|
> |
|
|
|
|
|
|
|
|
> |
|
|
|
|
|
|
|
|
>: : : |
|
|
|
|
|
|
|
|
> |
|
|
|
|
|
|
|
|
< |
|
|
|
|
|
|
|
|
>k; |
åñëè p0+ : : : +pk 1 6 !i < p0+ : : : +pk; |
||||
- |
|
> |
|
|
|
|
|
|
|
|
|
>: : : |
|
|
|
|
|
|
|
|
> |
|
|
|
|
|
1 |
!i |
> |
|
|
|
|
|
|
|
|
> |
|
|
|
|
|
|
>
>
>
:
С очевидностью, получим с. в. с распределением Пуассона:
P( i = k) = P(p0 + : : : + pk 1 6 !i < p0 + : : : + pk 1 + pk) = pk; k = 0; 1; 2; : : : :
|
|
|
|
|
|
6 |
|
|
|
|
|
|
Отметим, что p0 |
= |
p |
0 |
e p = e p. Докажем, что |
1 |
@ |
@ |
|
|
e p |
||
|
|
|
|
@ |
|
|||||||
|
|
|
|
|
|
|||||||
|
0! |
|
|
|
1 |
|
|
|
||||
e p > 1 p ïðè p > 0. |
|
|
|
|
|
p@@ |
|
- |
|
|||
|
|
|
|
|
0 |
|
|
1 |
@ |
p |
||
Действительно,
а) при p = 0 значения функций совпадают: e 0 = 1 0 = 1;
б) производные в нуле у e p и 1 p также совпадают (и равны 1) в) при p = 1 левая часть больше правой: e 1 > 1 1 = 0;
93
г) функция e p выпукла (ее производная отрицательна всюду), так что коснувшись однажды прямой 1 p, она ее не перекает нигде, оставаясь всегда больше.
Посмотрим, с какой вероятностью с. в. i è i не совпадают. Это происходит при 1 p 6 !i < e p — на этом интервале i = 1, à i = 0, а также при !i > p0 + p1 = e p + pe p
— на этом интервале i = 1, à i > 2. Поэтому
P( i 6= i) = P(1 p 6 !i < e p èëè e p + pe p 6 !i 6 1) =
=e p (1 p) + 1 e p + pe p = p 1 e p 6 p2:
Âпоследнем неравенстве мы снова воспользовались тем, что e p > 1 p, èëè 1 e p 6 p. Итак, при каждом i = 1; : : : ; n мы построили пару с. в. i, i, отличающихся с ве-
роятностью не более p2. При разных i эти с. в. независимы, так как построены по независимым координатам точки, выбранной наудачу в кубе. Окончательно, из неравенства (26) получим:
n |
|
Xi |
P ( i 6= i) 6 np2: |
j P( n 2 A) P( n 2 A) j 6 |
|
=1 |
|
94