Иначе говоря, коэффициент корреляции величин и + равен косинусу угла 45 , образованного «векторами» и + , где « ? » и их «длина» одинакова.
Упражнение 21. Чтобы аналогия не заходила слишком далеко, и у читателя не возникло искушения любые случайные величины рисовать стрелочками на плоскости и вместо подсчета математических ожиданий измерять углы, предлагаю убедиться, например, что коэффициент корреляции величин и 2 равен:
а) нулю, если имеет нормальное распределение с нулевым средним; p
б) 2= 5, если имеет показательное распределение с любым параметром.
Определение 45. Случайные величины и называют некоррелированными, если cov(; ) = 0 (или если (; ) = 0, — в том случае, когда коэффициент корреляции существует).
Замечание 22. Если одна из величин и — постоянная, то эти величины независимы (проверить по определению!), è cov(; ) = 0 (проверить по определению!). Естественно в этом случае тоже полагать, что и «некоррелированы», хотя коэффициент корреляции не определен (дисперсия постоянной равна 0).
Упражнение 22. А что будет, если доопределить коэффициент корреляции нулем, если хотя бы одна из величин — постоянная? Предлагаю подумать, какими достоинствами и недостатками обладает такое «раскрытие неопределенности типа 00 ».
12.3Свойства коэффициента корреляции
Всюду далее специально не оговаривается, но предполагается, что коэффициент корреляции существует.
Теорема 27.
Коэффициент корреляции обладает следующими свойствами.
1.Если с. в. и независимы, то (; ) = cov(; ) = 0.
2.j (; )j 6 1.
3.j (; )j = 1, если и только если с. в. и с вероятностью 1 линейно связаны, т.е. существуют числа a 6= 0 è b такие, что P( = a + b) = 1.
Доказательство.
1.Свойство 1 мы уже много раз (сколько?) упоминали и один раз доказали.
2.Для доказательства 2 нам понадобится одно преобразование, называемое «стандартизацией» случайной величины: с его помощью из с. в. с конечным вторым моментом (не постоянной) получают с. в. с нулевым математическим ожиданием («центрированную») и единичной дисперсией («нормированную»).
Определение 46. Пусть D конечна и отлична от нуля. Определим случайную ве-
личину ~ òàê:
~E
= p :
D
65
~ |
|
Преобразование 7! называется стандартизацией случайной величины , а сама с. в. |
|
~ |
центрированной и нормированной версией |
называется стандартизованной, или (слэнг!) |
|
ñ. â. .
Упражнение 23. Обяснить, будет ли распределение ~
а) нормальным, если распределена по нормальному закону; б) равномерным, если имеет равномерное распределение; в) биномиальным, если имеет биномиальное распределение; г) показательным, если имеет показательное распределение;
(è ò.ä.)
Свойство 15. Стандартизованная с. в. ~ имеет нулевое математическое ожидание
и единичную дисперсию.
Доказательство. Воспользуемся свойствами математического ожидания è дисперсии:
E ~ = E |
pD |
= pD |
E ( E ) = pD |
(E E ) = 0; |
|
|
|
E |
1 |
1 |
|
~ E 1 1
D = D pD = D D ( E ) = D D = 1:
Не забудьте у каждого знака равенства написать, в силу какого свойства, утверждения или определения это равенство верно! 
Возвращаясь к доказательству 2, заметим, что
|
|
pD pD |
|
|
pD pD |
|
|
(; ) = |
E |
( E )( E ) |
= E |
( |
E )( E ) |
|
|
|
|
|
|
|
|||
~~
= E ;
|
pD |
|
pD |
|
|
|
|||||
ãäå ~ = |
E |
è ~ = |
E |
— стандартизованные версии с. в. и . |
1 |
|
|||||
|
|
|
|
|
|
|
|||||
Теперь воспользуемся неравенством 0 6 (a b)2 = a2 2ab + b2, èëè ab 6 |
(a2 + b2). |
||||||||||
|
|||||||||||
2 |
|||||||||||
~ |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Подставим вместо a, ~ вместо b и возьмем математические ожидания от обеих частей |
||||||||||||||||||||||||||||||
неравенства: |
|
6 2 E |
|
~ |
+ ~ |
|
|
= 2 |
D ~+ |
E ~ |
|
|
+ D ~ + E ~ |
|
|
|
2 2 = 1: |
|
||||||||||||
(; ) = E ~~ |
|
|
2 |
|
|
2 |
|
= |
(19) |
|||||||||||||||||||||
|
|
1 |
|
|
2 |
|
|
1 |
|
|
|
|
|
|
|
2 |
|
1 |
|
|
|
|||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
|
|
|||
Пользуясь точно так же неравенством 0 6 (a + b)2 = a2 + 2ab + b2, èëè ab > |
|
(a2 + b2), |
||||||||||||||||||||||||||||
2 |
||||||||||||||||||||||||||||||
получим |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
2 |
|
2 |
|
|
1 |
|
|
|
|
|
|
|
|
|
||
|
|
(; ) = E ~~ |
> |
|
E ~ |
+ ~ |
|
|
= |
|
2 = 1: |
|
|
|
|
|
|
(20) |
||||||||||||
|
|
2 |
|
2 |
|
|
|
|
|
|
||||||||||||||||||||
Таким образом, j (; )j 6 1, что и требовалось доказать.
3. В одну сторону утверждение проверяется непосредственно:
Воспользоваться свойствами математического ожидания и дисперсии и доказать, что
(
1; a > 0;
(; a + b) =
1; a < 0:
p
Не забудьте, что a2 = jaj, а не просто a!
66
Докажем вторую часть: åñëè j (; )j = 1, òî существуют числа a 6= 0 и b такие, что
P( = a + b) = 1.
Рассмотрим сначала случай (; ) = 1. Это возможно только если единственное
|
1 |
2 |
|
2 |
|
неравенство в формуле (19) превращается в равенство: E ~~ = |
|
E ~ |
+ ~ |
|
, èëè |
2 |
|
~ ~ 2
E = 0:
Но по свойству E5 математического ожидания равенство нулю мат. ожидания неотри-
цательной с. в. означает, что эта величина п.н. равна нулю: |
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||
P ~ ~ = 0 = 1 = P pD |
= pD |
|
= P = p |
|
|
|
|
|
|
|
|
|
|
|
|
+ E : |
|||||||||||||||||
D |
pD |
||||||||||||||||||||||||||||||||
|
|
|
|
|
|
E |
|
|
E |
|
pD |
|
|
pD E |
|
||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
(; ) = |
|
1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
a |
|
|
|
|
|
|
b |
|
|
|
||||
В случае |
|
нужно рассмотреть |
единственное неравенство в формуле (20) |
||||||||||||||||||||||||||||||
|
|
|
|
|
| {z } |
| |
|
|
|
{z |
} |
||||||||||||||||||||||
и повторить рассуждения. Тем самым теорема 27 доказана.
Полезно знать следующие часто употребляемые термины.
Определение 47. Говорят, что величины и отрицательно коррелированы, если(; ) < 0; говорят, что величины и положительно коррелированы, åñëè (; ) > 0.
Смысл знака коэффициента корреляции особенно ясен в случае (; ) = 1. Тогда знак равен знаку a в равенстве = a + b п.н. То есть (; ) = 1 означает, что чем больше , тем больше и . Напротив, (; ) = 1 означает, что чем больше , тем меньше . Похожим образом можно трактовать знак коэффициента корреляции и в случае, когда j (; )j < 1, помня при этом, что зависимость величин и теперь уже не линейная и, возможно, даже не функциональная.
Так, величины и + в примерах 43 è 44 положительно коррелированы, но их зависимость не функциональная.
Пример 45.
Если с. в. и есть координаты точки, брошенной наудачу в треугольник с вершинами (2; 0), (0; 0) и (0; 1), то коэффициент корреляции (; ) отрицателен. Это можно объяснить «на пальцах» так: чем больше , тем меньше у возможностей быть большой. :-) Предлагаю убедиться в этом, проверив справедливость следующих высказываний. Во-первых,
1 |
6 |
|
|
|
|
H |
|
|
( ; ) |
||
|
HHH |
y |
= |
|
|
|
H |
H |
1 |
|
|
|
|
|
|||
|
|
|
|||
|
|
HH x= |
|||
|
|
|
|
|
2 |
|
|
|
|
|
HHH |
|
|
|
|
|
H - |
|
|
|
|
|
2 |
f (x) = |
(0; |
2 |
иначе ; |
E = 3 |
; |
f (y) = |
(0; |
иначе ; |
E = 3 |
: |
||
|
1 |
x |
; 0 6 x 6 2; |
2 |
|
|
2 |
2y; 0 6 y 6 1; |
1 |
|
||
|
|
|
|
|
||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
Во-вторых,
совместное распределение координат точки, брошенной наудачу в произвольную (измеримую) область D на плоскости имеет постоянную плотность во всех точках области D. Это связано с понятием «наудачу»: вероятность попасть в любую область A D, с одной стороны, зависит только от площади A, и не зависит от формы и положения A внутри D, равняясь, с другой стороны, интегралу по области A от плотности совместного распределения координат точки.
67
Эти два качества возможно совместить, только если плотность совместного распределения постоянна внутри D. Более того, эта постоянная, как легко видеть, есть просто
1
площадь D
вероятности попасть в D, или единице).
Распределение точки, брошенной наудачу в область (все равно где), называют равномерным распределением.
Итак, плотность равномерного распределения в произвольной области на плоскости
— постоянная, равная (1=площадь области) для точек внутри области и нулю — вне. Поэтому (а также потому, что площадь этого треугольника равна 1)
01
21 x=2
E ( ) = ZZ |
x y 1 dy dx = Z |
|
Z |
x y dy dx = (кажется) 6: |
||
|
|
B |
|
C |
1 |
|
B |
0 |
0 |
|
|
||
|
|
@ |
|
A |
|
|
То есть ковариация (а с ней и коэффициент корреляции) отрицательна (посчитать cov( ; )).
Упражнение 24. А верно ли, что коэффициент корреляции в примере 45 существует? Какие свойства случайных величин гарантируют конечность второго момента? А из ограниченности с. в. следует ли существование каких-нибудь моментов? Каких и почему?
Пример 46.
Найти коэффициент корреляции между числом выпадений единицы и числом выпадений шестерки при n подбрасываниях симметричного кубика.
Р е ш е н и е. Обозначим для i = 1; 2; 3; 4; 5; 6 через i случайную величину, равную числу выпадений грани с i очками при n подбрасываниях кубика. Посчитаем cov( 1; 6).
Каждая из случайных величин i имеет биномиальное распределение с параметрами n и 1=6, поэтому E i = n=6, D i = 5n=36.
Заметим, что сумма 1 + + 6 этих величин равна n. В силу симметрии куби-
ка, все математические ожидания E 1 2, E 1 3, : : : , E 1 6 одинаковы (но, скорее всего, отличаются от E 1 1 = E 12 = D 1 + (E 1)2 = 5n=36 + n2=36).
Посчитаем E 1( 1 + + 6). С одной стороны, это равно
E 1( 1 + + 6) = E 1 n = n2=6;
с другой стороны,
E 1( 1 + + 6) = E 12 + 5E 1 6 = 5n=36 + n2=36 + 5E 1 6:
Отсюда 5E 1 6 = n2=6 5n=36 n2=36, òî åñòü E 1 6 = (n2 n)=36. Следовательно, искомый коэффициент корреляции равен
( ; |
) = |
|
E 1 6 E 1E 6 |
= |
(n2 n)=36 n2=36 |
= |
|
1 |
: |
||
|
|
|
5n=36 |
5 |
|||||||
1 6 |
|
|
pD 1D 6 |
|
|
||||||
Интересно, что полученный коэффициент корреляции не зависит от n.
Почему коэффициент корреляции ( 1; 6) отрицателен?
68
... Откуда, наконец, вытекает то удивительное, по-видимому, следствие, что, если бы наблюдения над всеми событиями продолжать всю вечность, причем вероятность, наконец, перешла бы в полную достоверность, то было бы замече- но, что в мире все управляется точными отношениями и постоянным законом изменений, так что даже в вещах, в высшей степени случайных, мы принуждены были бы признать как бы некоторую необходимость и, скажу я, рок.
ß ê î á Á å ð í ó ë ë è, Ars conjectandi (1713)
Раздел 13. Куда и как сходятся последовательности случайных величин
13.1Сходимость «почти наверное» и «по вероятности»
Напомню, что случайная величина есть (измеримая) функция из некоторого абстрактного множества в множество действительных чисел. Последовательность слу- чайных величин есть, тем самым, последовательность функций (определенных на одном и том же пространстве элементарных исходов ). И если мы хотим говорить о сходимости последовательности случайных величин f ng1n=1, не будем забывать, что мы имеем дело не с последовательностью чисел, а с последовательностью функций. Существуют разные виды сходимости последовательности функций. Всякий раз давать определение какой-либо сходимости мы будем, опираясь на сходимость числовых последовательностей как на уже известное основное понятие.
В частности, при каждом новом ! 2 мы имеем новую числовую последовательность f n(!)g1n=1. Поэтому, во-первых, можно говорить о знакомой из математического анализа (почти) поточечной сходимости последовательностей функций: о сходимости «почти всюду», которую в теории вероятностей называют сходимостью «почти наверное».
Определение 48. Говорят, что последовательность с. в. f ng сходится почти наверное к с. в. при n ! 1, и пишут: n ! ï. í., åñëè P f! : n(!) ! (!) при n ! 1g = 1. Иначе говоря, если n(!) ! (!) при n ! 1 для всех ! 2 , кроме, возможно, ! 2 A, где множество (событие) A имеет нулевую вероятность.
Заметим сразу: чтобы говорить о сходимости «почти наверное», требуется (по крайней мере, по определению) знать, как устроены отображения ! 7! n(!). В задачах же теории вероятностей, как правило, известны не сами случайные величины, а лишь их распределения. Известно, то есть, какова вероятность тех элементарных исходов !, для которых n(!) принимает значения в заданном множестве.
Можем ли мы, обладая только информацией о распределениях, говорить о какойлибо сходимости последовательности случайных величин f ng ê ñ. â. ?
Можно, например, потребовать, чтобы вероятность («доля») тех элементарных исходов !, для которых n(!) не попадает в «"-окрестность» числа (!), уменьшалась до нуля с ростом n. Такая сходимость в функциональном анализе называется сходимостью «по мере», а в теории вероятностей — сходимостью «по вероятности».
Определение 49. Говорят, что последовательность с. в. f ng сходится по вероятно-
p
сти к с. в. при n ! 1, и пишут: n ! , если для любого " > 0
P (j n j > ") ! 0 ïðè n ! 1 èëè P (j n j 6 ") ! 1 ïðè n ! 1:
Пример 47. Рассмотрим последовательность с. в. 1; 2; : : : , в которой все величины имеют разные распределения: с. в. n, n > 1, принимает значения 0 и n7 с вероятностями P n = n7 = 1=n = 1 P( n = 0). Докажем, что эта последовательность сходится по вероятности к случайной величине, равной нулю п. н. (к нулю, проще говоря).
69