Материал: Чернова Н.И. - Теория вероятностей - 1999

Внимание! Если размещение файла нарушает Ваши авторские права, то обязательно сообщите нам

Характеристическую функцию с. в. 1 можно разложить в ряд Тейлора, в коэффициентах которого использовать известные моменты E 1 = 0, E 12 = D 1 = 1. Получим

6

 

t2

t2

' 1 (t) = 1 + it E 1

 

 

E 12 + o(t2) = 1

 

+ o(t2):

2

2

p

Подставим это разложение, взятое в точке t= n, в равенство (25) и устремим n к бесконечности. Еще раз воспользуемся замечательным пределом.

 

 

(t) = ' 1

 

t

 

n

= 1

t2

 

t2

 

n

! exp

t2

 

 

'Zn=p

 

p

 

 

 

+ o

 

 

 

ïðè n ! 1:

n

 

 

 

 

2n

n

 

2

n

 

 

В пределе получили характеристическую функцию стандартного нормального закона. По теореме о непрерывном соответствии можно сделать вывод о слабой сходимости

pZnn = Sn pnna ) N0;1

распределений стандартизованных сумм к стандартному нормальному распределению, что и утверждается в ÖÏÒ.

Попробуйте теперь сами:

Упражнение 31. Пусть при любом > 0 случайная величина имеет распределение Пуассона с параметром . Используя теорему о непрерывном соответствии, доказать, что случайные величины

p

слабо сходятся к стандартному нормальному распределению при ! 1. Характеристическая функция с. в. вычислена в примере 54.

90

Раздел 16. Доказательство теоремы Пуассона

Нам осталось доказать теорему Пуассона. В доказательство будут использоваться только свойства устойчивости биномиального и пуассоновского распределений относительно операции суммирования. Никакие разделы, связанные с числовыми характеристиками с. в., сходимостями или характеристическими функциями, нам в доказательстве не понадобятся.

Вспомним утверждение, которое мы собрались доказывать. Теперь, когда мы знакомы с термином «распределение», можно сформулировать теорему Пуассона так:

Теорема Пуассона с оценкой погрешности

Пусть A f0; 1; 2; : : : ; ng — произвольное множество целых неотрицательных чисел, случайная величина n имеет биномиальное распределение Bn;p с параметрами n и p, случайная величина n имеет распределение Пуассона с параметром = np. Тогда

j P( n 2 A) P( n 2 A) j =

 

Cnk pk (1 p)n k

 

k!

e

6 np2 = n

:

 

k A

k A

k

 

 

2

 

X

X

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

2

 

 

 

 

 

 

 

 

 

 

 

 

Иначе говоря, требуется доказать, что

sup

j

P(

n 2

A)

 

P(

n 2

A)

j 6

np2

:

A

 

 

 

 

 

 

Доказательство проведем, используя так называемый «метод одного вероятностного пространства». Нам нужно оценить сверху разницу между двумя распределениями, а именно: доказать, что для любых множеств A f0; 1; 2; : : : ; ng разницу между вероятностями попадания в множество A биномиальной (с параметрами n и p) и пуассоновской (с параметром np) случайных величин можно оценить величиной np2.

Заметим, прежде всего, что разность

j P( n 2 A) P( n 2 A) j =

 

Cnk pk (1 p)n k

 

k!

e

 

k A

k A

k

 

 

X

X

 

 

 

 

 

 

 

 

 

 

 

2

 

2

 

 

 

 

 

 

 

 

никак не зависит от того, каким образом величины n è n взаимосвязаны и на каком вероятностном пространстве заданы, если только одна из этих величин имеет биномиальное, а вторая — пуассоновское распределение с нужными параметрами. Совместное распределение этих величин тут никак не участвует, поэтому данная разность не изменится, если заменить n è n íà другие случайные величины с теми же распределениями.

Первое, что мы сделаем — докажем, что для двух случайных величин и (где угодно заданных) «расстояние между распределениями», то есть supA j P( 2 A) P( 2 A) j, íå

больше, чем вероятность P

~

6= ~

~

 

äâóì произвольным случайным величинам ; ~ с дан-

ными распределениями не совпадать. Понятно, что эти новые с. в. должны быть заданы на одном вероятностном пространстве, и наилучшая оценка сверху получится, если нам

удастся так задать на одном вероятностном пространстве с. в. ~, распределенную как

, и , распределенную как , чтобы вероятность ~ 6 была наименьшей

~ P = ~ .

91

Лемма 9 (Неравенство каплинга). Пусть и — произвольные с. в. Пусть случай-

ная величина ~ одинаково распределена с , случайная величина одинаково распреде-

~

~

 

 

 

 

 

лена с , и величины ; ~ заданы на одном вероятностном пространстве. Тогда

A R j

 

( 2 A)

 

( 2 A) j 6

6= ~ :

sup

P

 

P

 

P ~

Замечание 28. Каплингом (coupling) äâóõ ñ. â.

и называют задание на одном

вероятностном пространстве случайных величин ~, распределенной как , и , распре-

~

деленной как .

Доказательство неравенства каплинга. Воспользуемся равенством P(C) = P(C \B)+

P(C \ B), а также тем, что вероятность пересечения двух событий не превосходит вероятности любого из них. Для любого множества A R

2 ~ 2 ~ 2 ~ ~ 2 ~ 6

P( A) = P A = P A; = ~ + P A; = ~ =

2 ~ ~ 2 ~ 6

= P ~ A; = ~ + P A; = ~ 6

2 ~ 6 2 ~ 6

6 P (~ A) + P = ~ = P ( A) + P = ~ ;

òî åñòü

2 2 ~ 6

P( A) P ( A) 6 P = ~ :

Поменяем местами и и получим, что для любого множества A R

j 2 2 j ~ 6

P( A) P( A) 6 P = ~ :

Займемся заданием на одном вероятностном пространстве величин ~n è ~n, распределенных как n è n, соответственно.

Пусть 1; : : : ; n — независимые случайные величины, имеющие распределение Бернулли с параметром p. Тогда их сумма ~n = 1 + : : : + n имеет биномиальное распределение с параметрами n и p, то есть одинаково распределена с n.

Пусть 1; : : : ; n — независимые случайные величины, имеющие распределение Пуассона с параметром p. Тогда их сумма ~n = 1 + : : : + n также имеет распределение Пуассона с параметром, равным сумме параметров слагаемых, то есть np, и одинаково распределена с n. Мы будем считать, что эти наборы с. в. сразу заданы на одном вероятностном пространстве, и позже построим их.

Тогда, в силу неравенства каплинга,

 

 

 

i!:

j P( n 2 A) P( n 2 A) j 6 P (~n 6= ~n) = P

n

i 6=

n

 

Xi

 

X

 

 

=1

 

i=1

 

Заметим теперь, что если две суммы с неотрицательными слагаемыми не равны друг другу, то хотя бы одно слагаемое в первой сумме отличается от соответствующего слагаемого в другой сумме (иначе...). Поэтому

j P( n 2 A) P( n 2 A) j 6 P

n

i 6=

n

i!

6 P

n

f i 6= ig!

6

n

P ( i 6= i) : (26)

 

X

 

X

 

 

[

 

 

Xi

 

 

i=1

 

i=1

 

 

i=1

 

 

=1

 

В последнем неравенстве использовано, что вероятность объединения не превосходит суммы вероятностей.

Осталось теперь так задать на одном вероятностном пространстве i è i, чтобы минимизировать P ( i 6= i).

92

Пусть множество элементарных исходов есть n-мерный куб, стороны которого

— отрезки [0; 1] на осях координат, вероятность есть просто мера Лебега, заданная на-алгебре борелевских множеств.

Вот ровно сейчас тот, кто поленился о них прочитать, должен об этом пожалеть!

То есть мы наудачу выбираем точку ! = (!1; : : : ; !n) в кубе, или, что то же самое, каждую из координат !i выбираем наудачу и независимо от других на [0; 1].

Построим для каждого i = 1; : : : ; n по !i случайные величины i = i(!i) è i = i(!i) с нужными распределениями, чтобы они, к тому же, совпадали с большой вероятностью. Положим

(

i(!i) =

0; åñëè 0 6 !i < 1 p; 1; åñëè 1 p 6 !i 6 1:

Эта с. в. имеет распределение Бернулли: P( i = 0) = P(0 6 !i < 1 p) = 1 p,

P( i = 1) = P(1 p 6 !i 6 1) = p.

Случайная величина i должна иметь распределение Пуассона с параметром p, то

åñòü pk = P( i = k) = pk e p при k = 0; 1; 2; : : : . Сумма этих вероятностей равна 1, k!

поэтому можно разбить тот же самый отрезок [0; 1] на отрезки, длина k-го из которых равна pk при k = 0; 1; 2; : : : , и положить i = k, åñëè !i принадлежит отрезку с номером k:

6

3

2

1

1 p

 

p

0

 

0

p

=

+

 

e

 

 

 

p

 

 

p

1

: : :

i

i

p

: : :

0

 

+

 

p

 

1

 

+

 

p

 

2

 

 

 

 

0;

åñëè 0

!

< p0;

 

 

 

81;

åñëè p06 !i i < p0 + p1;

 

 

 

>

 

 

6

 

 

 

 

 

>

 

åñëè p0

+ p1

 

!i < p0 + p1 + p2;

 

 

 

>2;

 

 

(!

) =

>

 

 

 

6

 

>

 

 

 

 

 

i

i

 

>

 

 

 

 

 

 

 

 

>

 

 

 

 

 

 

 

 

>: : :

 

 

 

 

 

 

 

>

 

 

 

 

 

 

 

 

<

 

 

 

 

 

 

 

 

>k;

åñëè p0+ : : : +pk 1 6 !i < p0+ : : : +pk;

-

 

>

 

 

 

 

 

 

 

 

>: : :

 

 

 

 

 

 

 

>

 

 

 

 

 

1

!i

>

 

 

 

 

 

 

 

>

 

 

 

 

 

>

>

>

:

С очевидностью, получим с. в. с распределением Пуассона:

P( i = k) = P(p0 + : : : + pk 1 6 !i < p0 + : : : + pk 1 + pk) = pk; k = 0; 1; 2; : : : :

 

 

 

 

 

 

6

 

 

 

 

 

Отметим, что p0

=

p

0

e p = e p. Докажем, что

1

@

@

 

 

e p

 

 

 

 

@

 

 

 

 

 

 

 

 

0!

 

 

 

1

 

 

 

e p > 1 p ïðè p > 0.

 

 

 

 

 

p@@

 

-

 

 

 

 

 

 

0

 

 

1

@

p

Действительно,

а) при p = 0 значения функций совпадают: e 0 = 1 0 = 1;

б) производные в нуле у e p и 1 p также совпадают (и равны 1) в) при p = 1 левая часть больше правой: e 1 > 1 1 = 0;

93

г) функция e p выпукла (ее производная отрицательна всюду), так что коснувшись однажды прямой 1 p, она ее не перекает нигде, оставаясь всегда больше.

Посмотрим, с какой вероятностью с. в. i è i не совпадают. Это происходит при 1 p 6 !i < e p — на этом интервале i = 1, à i = 0, а также при !i > p0 + p1 = e p + pe p

— на этом интервале i = 1, à i > 2. Поэтому

P( i 6= i) = P(1 p 6 !i < e p èëè e p + pe p 6 !i 6 1) =

=e p (1 p) + 1 e p + pe p = p 1 e p 6 p2:

Âпоследнем неравенстве мы снова воспользовались тем, что e p > 1 p, èëè 1 e p 6 p. Итак, при каждом i = 1; : : : ; n мы построили пару с. в. i, i, отличающихся с ве-

роятностью не более p2. При разных i эти с. в. независимы, так как построены по независимым координатам точки, выбранной наудачу в кубе. Окончательно, из неравенства (26) получим:

n

 

Xi

P ( i 6= i) 6 np2:

j P( n 2 A) P( n 2 A) j 6

=1

 

94