1
S
Очевидно, что An = [0; 2 ]. Предположим, что лебегова мера («длина») множе-
n= 1
ñòâà A0 существует. Заметим, что тогда все множества An имеют ту же лебегову меру, так как получены из A0 поворотом. И так как все эти множества не пересекаются, то мера их объединения равна сумме их мер:
2 = |
1 |
An! = |
1 |
(An) = |
1 |
(A0) = 1: |
|
[ |
|
X |
|
X |
|
|
n= 1 |
|
n= 1 |
|
n= 1 |
|
Полученное противоречие означает, что лебегова мера, или длина множества A0 не существует.
Упражнение: какими свойствами «длины» (или меры Лебега) мы воспользовались в этом примере?
20
Раздел 4. Условная вероятность, независимость
4.1Условная вероятность
Пример 15. Кубик подбрасывается один раз. Известно, что выпало более трех оч- ков. Какова при этом вероятность того, что выпало четное число очков?
В данном случае пространство элементарных исходов состоит из трех равновозможных элементарных исходов: = f4; 5; 6g, и событию A = fвыпало четное число очковg благоприятствуют 2 из них: A = f4; 6g. Поэтому P(A) = 2=3.
Посмотрим на этот вопрос с точки зрения первоначального эксперимента. Пространство элементарных исходов при одном подбрасывании кубика состоит из шести точек: = f1; 2; 3; 4; 5; 6g. Слова «известно, что выпало более трех очков» означают, что в эксперименте произошло событие B = f4; 5; 6g. Слова «какова при этом вероятность того, что выпало четное число очков?» означают, что нас интересует, в какой доле случаев при осуществлении B происходит и A. Вероятность события A, вычисленную в предположении, что нечто о результате эксперимента уже известно (событие B
произошло), мы будем обозначать через P(A B).
Мы хотим вычислить отношение числа исходов, благоприятствующих A внутри B (то есть благоприятствующих одновременно A и B), к числу исходов, благоприятствующих B.
|
|
|
|
|
|
|
|
|
@ |
@ |
|||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
@ |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
@ |
|
|||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||
|
2 |
2=6 |
|
P(A B) |
|
|
|
|
A |
|
|
@ |
A B @ |
||||||||||
|
|
|
|
|
|
|
|
|
|
@ |
@ @ |
||||||||||||
P(A B) = |
= = |
\ |
: |
|
|
|
|
|
|
|
|
@ |
|||||||||||
Какое отношение |
3 |
3=6 |
|
P(B) |
|
|
|
|
|
|
|
|
|
|
|
||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
@ |
||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
@ |
|
|
|
требуется вычислить, если элемен- |
|
|
|
|
|
|
|
|
|
|
@ |
@ |
|
@ |
|||||||||
тарные исходы не являются равновозможными? |
|
|
|
|
|
|
|
|
|
|
|
@ |
|
|
|||||||||
|
|
|
|
|
|
|
|
|
|
|
@ |
B@ @ |
|||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
@ |
|
@ |
|
Определение 15. Условной вероятностью события A, при условии, что произошло событие B, называется число
P(A B) = |
P(A \ B) |
: |
||
P(B) |
||||
|
|
|
||
Будем считать, что условная вероятность |
определена только в случае, когда P(B) > 0. |
|||
Следующее свойство называется "теоремой умножения":
Теорема 6. P(A \ B) = P(B)P(A B) = P(A)P(B A), если соответствующие условные вероятности определены (òî åñòü åñëè P(B) > 0, P(A) > 0).
Теорема умножения для большего числа событий:
Теорема 7. P(A1 |
\A2 |
\: : : \An) = P(A1)P(A2 |
A1)P(A3 |
A1 |
\A2) : : : P(An A1 \: : : \An 1), |
|
|
|
|
|
|
если соответствующие условные вероятности определены.
Доказать теорему 7 методом математической индукции.
4.2Независимость
Определение 16. События A и B называются независимыми, åñëè
P(A \ B) = P(A)P(B):
21
Пример 16.
1. Точка с координатами ; бросается наудачу в квадрат со стороной 1. Доказать, что для любых x; y 2 R события A = f < xg и B = f < yg независимы.
2. Точка с координатами ; бросается наудачу в треугольник с вершинами (1,0), (0,0) и (0,1). Доказать, что события A = f < 1=2g и B = f < 1=2g зависимы.
|
|
|
|
6 |
|
|
|
|
|
|
6 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||
|
1 |
|
|
|
|
|
1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||
|
|
|
|
|
|
|
|
|
@ |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
@ |
@ |
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
y |
|
|
|
|
|
|
1 |
|
|
@ |
@ |
|
|
|
|
|
|
|
|
|
|||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
|
|
|
|
|
|
|
|
|
2 |
|
|
|
|
|
|
|
|
|
|
@ |
|
@ |
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
- |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
@ |
|
@ - |
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
x |
1 |
|
1 |
1 |
|
|
|||||||||||||||||
|
Рассмотрим x; y 2 [0; 1] |
|
|
|
|
|
|
2 |
|
|
|
|
|
Видим, что P(A) = x, |
|||||||||||||||
1. |
(разобрать остальные случаи). |
||||||||||||||||||||||||||||
P(B) = y, P(A \ B) = x y, так что события A = f < xg и B = f < yg независимы. |
|||||||||||||||||||||||||||||
2. |
На рисунке событие A заштриховано зеленым, событие B — синим. Видим, |
||||||||||||||||||||||||||||
÷òî P(A) = 3=4, P(B) = 3=4, P(A \ B) = 1=2 6= (3=4)2, так что события A = f < 1=2g и
B = f < 1=2g зависимы.
Доказать, что при x 62[0; 1] или y 62[0; 1] события A = f < xg и B = f < yg независимы.
Замечание 7. Если события A и B несовместны, то они независимы, если и только если P(A) = 0 или P(B) = 0.
Доказать!! |
|
|
|
|
|
|
|
|
Следствие 2. |
Åñëè P(B) > 0, то события A è B независимы () P(A |
B) = P(A). |
||||||
Åñëè P(A) > 0, то события A è B независимы |
() |
P(B |
A) = P(B). |
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
Доказать следствие, пользуясь определением условной вероятности. |
|
|
|
|
||||
Лемма 2. |
|
|||||||
Если события A è B независимы, то независимы и события A è |
B |
, |
||||||
A è B, A è B.
S
Доказательство. Так как A = A\B A\B, и события A\B и A\B несовместны, то P(A) = P(A\B) + P(A\B). Поэтому P(A\B) = P(A) P(A\B) = P(A) P(A)P(B) =
P(A)(1 P(B)) = P(A)P(B).
Вывести отсюда все остальные утверждения.
Определение 17. События A1; : : : ; An называются независимыми в совокупности, если для любого набора 1 6 i1; : : : ; ik 6 n
P(Ai1 \ : : : \ Aik ) = P(Ai1 ) : : : P(Aik ): |
(6) |
Замечание 8. Если события A1; : : : ; An независимы в совокупности, то они попарно независимы, то есть любые два события Ai; Aj независимы. Достаточно в равенстве (6) взять k = 2. Обратное, как показывает следующий пример, неверно.
Пример 17 (Пример С. Н. Бернштейна).
Рассмотрим правильный тетраэдр, 3 грани которого окрашены, соответственно, в красный, синий, зеленый цвета, а четвертая грань содержит все три цвета. Событие A (B, C) означает, что выпала грань, содержащая красный (синий, зеленый) цвета.
Вероятность каждого из этих событий равна 1/2, так как каждый цвет есть на двух гранях из четырех. Вероятность пересечения любых двух из них равна 1/4, так как
22
только одна грань содержит два цвета. А так как 1=4 = 1=2 1=2, то все события попарно независимы.
Но вероятность пересечения всех трех тоже равна 1/4, а не 1/8, то есть события не являются независимыми в совокупности.
Заметьте, что равенство (6) выполнено для k = 2, но не выполнено для k = 3.
4.3Формула полной вероятности
Пример 18. Есть 3 завода, производящих одну и ту же продукцию. При этом 1-й завод производит 25%, 2-й завод — 35% и 3-й завод — 40% всей производимой продукции. Брак составляет 5% от продукции 1-го завода, 3% от продукции 2-го и 4% от продукции 3-го завода.
Вся продукция смешивается и поступает в продажу. Найти а) вероятность купить бракованное изделие; б) условную вероятность того, что купленное изделие изготовлено 1-м заводом, если это изделие бракованное.
Первая вероятность равна доле бракованных изделий в объеме всей продукции, то есть 0:05 0:25+0:03 0:35+0:04 0:4. Вторая вероятность равна доле брака 1-го завода среди всего брака, то есть
|
|
|
0:05 0:25 |
: |
Определение 18. |
|
|
0:05 0:25 + 0:03 0:35 + 0:04 0:4 |
|
|
|
|
||
Набор попарно несовместных событий H1; H2; : : : таких, что |
||||
|
|
1 |
|
|
P(Hi) > 0 äëÿ âñåõ i |
è |
Hi = , называется полной группой событий èëè разби- |
||
ением пространства . |
=1 |
|
|
|
iS |
|
|||
События H1; H2; : : : , образующие полную группу событий, часто называют гипотезами. При подходящем выборе гипотез для произвольного события A могут быть сравни-
тельно просто вычислены P(A Hi) (вероятность событию A произойти при выполнении «гипотезы» Hi) и собственно P(Hi) (вероятность выполнения «гипотезы» Hi). Как, используя эти данные, посчитать вероятность события A?
Теорема 8 (Формула полной вероятности).
Пусть H1; H2; : : : — полная группа событий. Тогда вероятность любого события A может быть вычислена по формуле:
1 |
|
|
|
|
Xi |
|
|
|
|
|
Hi): |
|
|
|
P(A) = P(Hi)P(A |
|
|
|
|
|
|
|
|
|
=1 |
|
|
|
|
|
|
|
|
|
|
1 |
|
1 |
|
|
S |
S |
||
Доказательство. Заметим, что A = A \ = A \ i=1 Hi |
= i=1 A \ Hi, и события |
|||
A \ H1; A \ H2; : : : попарно несовместны. Поэтому (используем в первом равенстве - аддитивность вероятностной меры (а что это? ), а во втором — теорему умножения)
11
XX
P(A) = i=1 |
P(A \ Hi) = i=1 |
P(Hi)P(A Hi): |
|
|
|
23
4.4Формула Байеса
Теорема 9 (Формула Байеса).
Пусть H1; H2; : : : — полная группа событий и A — некоторое событие положительной вероятности. Тогда условная вероятность того, что имело место событие Hk, если в результате эксперимента наблюдалось событие A, может быть вычислена по формуле:
|
|
|
|
P(Hk A) = |
|
|
i1=1 Pk(Hi)P(AkHi): |
|
|
|
|||||||
|
|
|
|
|
|
|
|
|
P(H )P(A |
H ) |
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
P |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
Доказательство. По определению условной вероятности, |
|
|
|
|||||||||||||
|
P(H |
k |
|
|
|
P(A) |
|
|
= |
|
i1=1 P(Hi)P(A Hi) |
: |
|
|
|||
|
|
|
A) = P(Hk \ A) |
|
P(Hk)P(A |
Hk) |
|
|
|||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
P |
|
|
|
|
|
|
|
Последнее равенство следует из теоремы умножения и формулы |
полной вероятности. |
||||||||||||||||
Пример 19. Вернемся к примеру 18. Изделие выбирается наудачу из всей произведенной продукции. Рассмотрим три гипотезы: Hi = fизделие изготовлено i-ì заводомg, i = 1; 2; 3. Вероятности этих событий даны: P(H1) = 0:25, P(H2) = 0:35, P(H3) = 0:4. Пусть
A = fизделие оказалось бракованнымg. Даны также условные вероятности P (A H1) =
0:05, P (A H2) = 0:03, P (A H3) = 0:04.
Убедиться, что полученные нами вероятности в (а) и (б) совпадают с вероятностями, вычисленными по формуле полной вероятности и формуле Байеса.
Пример 20. Два стрелка подбрасывают монетку и выбирают, кто из них стреляет по мишени (одной пулей). Первый стрелок попадает по мишени с вероятностью 1, второй стрелок — с вероятностью 0.00001. Можно сделать два предположения об эксперименте: H1 = fстреляет 1-é стрелокg и H2 = fстреляет 2-é стрелокg. Априорные (a’priori — «до опыта») вероятности этих гипотез одинаковы: P(H1) = P(H2) = 1=2.
Рассмотрим событие A = fпуля попала в мишеньg. Известно, что
P(A H1) = 1; P(A H2) = 0:00001:
Поэтому вероятность пуле попасть в мишень P(A) = 1=2 1 + 1=2 0:00001. Предположим, что событие A произошло. Какова теперь апостериорная (a’posteriori — «после опы-
та») вероятность каждой из гипотез Hi? |
Очевидно, что первая из этих гипотез много |
|||||||||||
вероятнее второй (а именно, в 100000 раз). Действительно, |
|
|
|
|
||||||||
=2 1 |
|
1 |
|
1=2 0:00001 |
|
= |
0:00001 |
: |
||||
P(H1 A) = 1=2 1 +11=2 0:00001 |
= 1 + 0:00001 |
; P(H2 A) = 1=2 1 + 1=2 0:00001 |
1 + 0:00001 |
|||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
24