Материал: Чернова Н.И. - Теория вероятностей - 1999

Внимание! Если размещение файла нарушает Ваши авторские права, то обязательно сообщите нам

Доказательство.

E ( a)2 = E ( E ) + (E a) 2 =

2 2

= D + E a + 2 E ( E ) E a = D + E a > D ;

| {z }

0

причем равенство достигается только для a = E .

11.5Математические ожидания и дисперсии стандартных распределений

Пример 33. Распределение Бернулли Bp

E = 1 p + 0 q = p; E 2 = 12 p + 02 q = p; D = E 2 (E )2 = p p2 = pq.

Пример 34. Биномиальное распределение Bn;p

Воспользуемся свойством устойчивости биномиального распределения относительно суммирования — леммой 5. Возьмем n независимых случайных величин 1; : : : ; n, имеющих распределение Бернулли Bp = B1;p.

Тогда их сумма Sn = 1 + : : : + n имеет распределение Bn;p.

n

X

E Sn = E i = nE 1 = np;

i=1

òàê êàê âñå i одинаково распределены и их математическое ожидание равно p;

n

X

D Sn = D i = nD 1 = npq;

i=1

поскольку i независимы и дисперсия каждой равна pq.

Пример 35. Геометрическое распределение Gp

 

 

 

 

 

 

 

 

 

 

 

 

Ïðè p 2 (0; 1)

= p

 

 

= p

1 (qk)0

= p

 

qk!0

 

 

 

 

 

 

 

 

 

 

 

E = 1 k pqk 1

1

kqk 1

1

=

 

 

 

 

 

 

 

 

 

X

 

X

 

 

X

 

X

 

 

 

 

 

 

 

 

 

 

 

 

k=1

 

k=1

 

 

k=1

 

k=1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

0

 

 

 

1

 

0

 

 

1

1

 

 

 

 

 

 

= p

 

qk! = p

 

 

 

 

= p

 

 

=

 

:

 

 

 

 

 

k=0

 

1 q

 

(1 q)2

p

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

X

 

 

 

 

 

 

 

 

 

 

 

Равенство (*) появилось из-за нежелания дифференцировать сумму геометрической прогрессии, начинающейся не с 1, а с q. Заметьте, что производная у добавленных слагаемых равна 0, так что производные от этих двух сумм равны.

1

 

 

 

 

 

 

 

1

 

 

 

 

1

 

 

 

1

X

k2 pqk 1 = p

X

 

 

 

X

 

 

X

E 2 =

k(k 1)qk 1 + p

kqk 1 = pq

k(k 1)qk 2 + E =

k=1

 

 

 

 

 

 

 

k=1

 

 

 

k=1

 

 

k=1

= pq

1

@2

 

 

1

@2

 

 

 

 

 

 

 

X

@q2 qk + E = pq

 

@q2 (qk)! + E =

 

 

 

 

 

 

 

 

 

X

 

 

 

 

 

 

 

 

 

 

k=1

 

 

 

 

 

k=0

 

 

 

 

 

 

 

 

 

 

@2

1

 

 

1

 

 

2q

1

 

= pq

 

 

 

 

 

+ E = 2pq

 

 

+ E =

 

+

 

:

 

@q2

 

1 q

(1 q)3

p2

p

60

Поэтому

D = E 2

 

(E )2 =

2q

+

 

1

1

=

2q 1 + p

 

=

q

:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

p2

p

p2

 

 

 

 

p2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

p2

 

 

 

 

 

 

 

 

 

Пример 36. Распределение Пуассона

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

k

 

 

1

 

 

k

 

 

1

 

 

k

 

 

 

 

 

 

 

 

 

 

 

 

 

X

 

 

e = e

X

 

 

 

 

= e

X

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

E =

 

k

k!

k=1

k

 

k!

k=1

 

(k

 

1)!

 

=

 

 

 

 

 

 

 

 

k=0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

k 1

 

 

1

j

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

= e

X

 

 

 

= e

X

 

= e e = :

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

(k

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1)!

j=0

j!

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

k=1

 

 

 

 

 

 

 

Доказать, что E 2 = 2 + ,

 

так что

 

D = .

 

 

 

 

 

 

 

 

 

 

 

Пример 37. Равномерное распределение Ua;b

1b

 

 

 

 

E = Z

xf (x) dx = Za x b a dx =

2 ;

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

a + b

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

E 2 =

1 x2f (x) dx =

b x2

1

 

dx =

b3 a3

=

a2 + ab + b2

; D = E 2

 

(E )2 =

(b a)2

:

 

3(b a)

 

 

 

 

Z

 

Za

b a

 

3

 

 

 

 

 

12

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Пример 38.

Стандартное нормальное распределение N0;1

 

 

 

 

11

E = Z

xf (x) dx =

Z

x p2 e x

=2 dx = 0;

 

 

 

1

2

 

1

 

1

 

 

 

 

поскольку под интегралом стоит нечетная функция, и сам интеграл абсолютно сходится (за счет быстро убывающей e x2=2).

1

1

2

 

 

1

 

1

 

2

 

 

 

 

 

 

 

 

 

 

1

 

1

 

 

 

2

 

 

 

 

 

 

 

 

 

E 2 = Z

x2

p

 

e x

=2 dx = 2 Z x2

p

 

e x

=2 dx = 2 Z x

p

 

 

de x

=2 =

 

 

 

 

 

 

2

2

2

 

 

 

 

 

 

1

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

2

1

 

1

1

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

=

2x

p

 

 

e x

=2 0

+ 2 Z

p

 

 

e x

=2 dx = 1:

 

 

 

 

 

 

 

 

 

 

 

 

 

2

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1|

1

 

 

 

 

 

{z

 

 

}

 

|1

 

 

 

 

 

{z

 

 

}

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

2

 

 

 

 

 

1

 

 

 

 

2

 

 

 

 

 

 

Последнее равенство следует из того, что 2

p

 

e x

=2 dx =

 

p

 

e x

=2 dx, а интеграл

2

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

по всей прямой от плотности любого

 

распределенияR

 

равен 1.R

 

Поэтому

 

 

 

 

 

 

 

 

 

 

D = E 2 (E )2 = 1 0 = 1:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Пример 39. Нормальное распределение Na; 2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Мы знаем, что если = N

 

2 , òî =

 

a

= N

 

 

, и E = 0, D = 1. Поэтому

 

 

 

 

 

 

 

 

 

a;

 

 

 

 

 

 

0;1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

E = E ( + a) = E + a = a;

 

 

D = D ( + a) = 2D = 2:

(16)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

61

Какими свойствами математического ожидания и дисперсии мы воспользовались в формуле (16)?

Пример 40. Показательное (экспоненциальное) распределение E

Найдем для произвольного k 2 N момент порядка k.

1

1

1

E k = Z

xkf (x) dx = Z xk e x dx = k Z

( x)k e x d( x) =

 

 

1

 

 

1

0

0

 

В последнем равенстве мы воспользовались гамма-функцией Эйлера:

1

(k + 1) = R uk e u du = k! Соответственно,

0

k!

k :

E =

1

;

E 2 =

2

;

D = E

2 (E )2 =

1

:

 

2

2

Пример 41. Стандартное распределение Коши

C0;1

 

 

Распределение Коши. Говорят, что имеет распределение Коши с параметрами a, 2, где a 2 R, > 0, и пишут (по крайней мере мы так будем писать) = Ca; 2 , åñëè

f (x) =

 

äëÿ âñåõ x 2 R:

( 2 + (x a)2)

Распределение Коши имеет, например, абсцисса точки пересечения луча, посланного из точки (a; ) под наудачу выбранным углом ' = U =2; =2, ñ îñüþ OX. Это полезно доказать!

Математическое ожидание для распределения Коши не существует, поскольку

1

Z

1

E j j = jxj (1 + x2) dx

1

расходится (подынтегральная функция ведет себя на бесконечности как 1=x).

Пример 42. Распределение Парето

Распределение Парето. Говорят, что имеет распределение Парето с параметрами x0,

s, ãäå x0 > 0, s > 0, åñëè

 

 

 

 

 

 

 

 

F (x) = 81

 

x0

s

 

 

 

8s

xs

 

 

 

 

; x > x0;

èëè

f (x) =

0

;

x > x0; :

 

x

 

xs+1

<0;

 

x < x0:

 

 

 

<0;

 

x < x0:

У распределения Парето: существуют только моменты порядка: u < s, поскольку

 

 

 

 

1

 

xs

 

 

 

 

 

 

 

 

 

E j ju = Z

xu s

0

dx

 

 

 

 

 

 

 

 

xs+1

 

 

 

 

 

 

 

 

x0

 

 

 

 

 

 

 

сходится при u < s, то есть когда подынтегральная функция на бесконечности бесконечно мала по сравнению с 1=x.

Посчитать момент порядка u < s распределения Парето. При каких s у этого распределения существует дисперсия?

62

Раздел 12. Числовые характеристики зависимости случайных величин

12.1Чем отличается дисперсия суммы от суммы дисперсий?

Мы знаем, что для независимых с. в. с конечными вторыми моментами дисперсия их суммы равна сумме их дисперсий. Чему равна дисперсия суммы в общем случае?

D ( + ) =

E ( + )2 E ( + )

2 = E 2 + 2 + 2

 

E

 

2

 

 

E

2

 

2E E =

=

D + D + 2

E ( )

E E

:

 

 

 

 

(17)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Величина E ( ) E E равняется нулю, если случайные величины и независимы (свойство E6 математического ожидания). С другой стороны, из равенства ее нулю вовсе не следует независимость, как показывает пример 30. Оказывается, что эту вели- чину часто используют как «индикатор наличия зависимости» пары с. в.

Определение 43. Ковариацией cov(; ) случайных величин и называется число

cov(; ) = E ( E )( E ) :

Свойство 12. cov(; ) = E ( E )( E ) = E ( ) E E .

Упражнение 19. Доказать свойство 12, пользуясь свойствами математического ожи-

дания.

 

 

 

 

 

Свойство 13.

a) cov(; ) = D ;

á) cov(; ) = cov(; ).

 

Свойство 14.

Дисперсия суммы нескольких случайных величин вычисляется по любой

из следующих формул:

 

 

 

 

 

n

X

n

X

X

 

X

X

D ( 1 + : : : + n) =

D i +

cov( i; j) =

D i + 2 cov( i; j) =

cov( i; j):

 

i=1

i6=j

i=1

i<j

i;j

 

 

 

 

 

Упражнение 20. Доказать свойство 14, пользуясь равенствами

(a + b)2 = a2 + b2 + ab + ba = a2 + b2 + 2ab = aa + bb + ab + ba

и получив аналогичные равенства для квадрата суммы n слагаемых.

Обсудим достоинства и недостатки ковариации, как величины, характеризующей зависимость двух с. в.

1.

Если ковариация cov(; ) отлична от нуля, то величины и зависимы!

2.

С гарантией о наличии зависимости мы можем судить, если знаем совместное

распределение пары и , и можем проверить, равна ли (например) плотность совместного распределения произведению плотностей.

Но найти совместное распределение часто бывает сложнее, чем посчитать математи- ческое ожидание произведения и . Если нам повезет, и математическое ожидание произведения и не будет равняться произведению их мат. ожиданий, мы скажем, что и зависимы не находя их совместного распределения!

Пример 43. Покажем, что с помощью ковариации можно судить о зависимости даже когда для вычисления соместного распределения недостаточно данных.

Пусть и — независимые случайные величины, и дисперсия отлична от нуля (то есть?). Докажем, что и + зависимы.

E ( + ) = E 2 + E ( ) = E 2 + E E ; E E ( + ) = (E )2 + E E :

(18)

63

Поэтому cov(; + ) = E 2 + E E (E )2 + E E = D > 0. Следовательно, и + зависимы.

3. Жаль, что величина cov(; ) не является «безразмерной»: если – объем газа в сосуде, а – давление этого газа, то ковариация измеряется в кубометрах Паскали :). Иначе говоря, при умножении одной из величин , на какое-нибудь число ковариация тоже умножается на это число. Но умножение на число не сказывается на «степени зависимости» величин (они от этого «более зависимыми» не становятся), так что большое значение ковариации не означает более сильной зависимости.

Нужно как-то нормировать ковариацию, получив из нее «безразмерную» величину, абсолютное значение которой

а) не менялось бы при умножении или сдвиге случайных величин на число; б) свидетельствовало бы о «силе зависимости» с. в.

Говоря о «силе» зависимости между с. в., мы имеем ввиду следующее. Самая

сильная зависимость — функциональная, а из функциональных – линейная зави-

симость, когда = a + b п. н. Бывают гораздо более слабые зависимости. Так, если по последовательности независимых случайных величин 1; 2; : : : постро-

ить величины = 1 + : : : + 24 + 25 и = 25 + 26 + : : : + 90, то эти величины

зависимы, но очень «слабо зависимы»: через одно-единственное общее слагаемое 25. Сильно ли зависимы число гербов в первых 25 подбрасываниях монеты и число гербов в той же серии, но в испытаниях с 25-го по 90-е?

Итак, следующая величина есть всего лишь ковариация, нормированная нужным образом.

12.2 Коэффициент корреляции

Определение 44. Коэффициентом корреляции (; ) случайных величин и , дисперсии которых существуют и отличны от нуля, называется число

cov(; )

(; ) = p p :

D D

Замечание 21. Чтобы разглядеть «устройство» коэффициента корреляции, распи-

шем по определению числитель и знаменатель:

 

 

 

 

 

 

 

E

E )(

 

E )

 

 

 

(; ) =

 

(

 

2

 

 

 

 

2

:

 

 

 

 

qE E

 

qE E

 

 

Здесь математикам уместно провести аналогии с «косинусом угла» между двумя элементами гильбертова пространства, образованного случайными величинами с конечным вторым моментом, снабженного скалярным произведением cov(; ) и «нормой», равной корню из дисперсии случайной величины, или корню из скалярного произведения cov(; ).

Пример 44. Рассмотрим продолжение примера 43, но пусть и будут не только независимыми, но и одинаково распределенными случайными величинами, и их дисперсия отлична от нуля. Найдем коэффициент корреляции величин и + . Согласно формуле (18),

Поэтому

cov(; + ) = E 2 + E E

(E )2 + E E

= E 2 (E )2 = D :

 

 

(; + ) =

cov(; + )

 

 

 

 

D

 

 

D

1

 

 

 

 

 

 

 

=

p

 

p

 

=

p

 

p

 

= p

 

:

 

p

 

p

 

 

 

 

D ( + )

D

D + D

D

2D

2

 

D

64