26
x46 .
По условию задачи n =100 квадратов, a m =1. Тогда
p(x46 ) = 0,01 и I(x46 ) = −log 0,01 = log2 100 = 6,6439 бит.
б) Вероятность события y5 – объект находится в 5-й горизонтальной строке экрана – по аналогии с рассмотренным случаем а) определится p(y5 ) = m
n =10
100 = 0,1 и собственная
информация
I(y5 ) = −log2 0,1 = log2 10 = 3,3219 áèò.
в) Вероятность события z6,3 – объект находится в 6-м вер-
тикальном столбце и 3-й горизонтальной строке – равна p(z6,3 ) = m
n = 0,01, следовательно,
I(z6,3 ) = −log2 0,01 = 6,6439 áèò.
Пример 2.1.3. Рассматривается ансамбль сообщений, приведенный втабл. 2.1.1.
Таблица 2.1.1
xj |
x0 |
|
x1 |
x2 |
x3 |
x4 |
x5 |
x6 |
p(xj ) |
1/2 |
|
1/4 |
1/8 |
1/32 |
1/32 |
1/32 |
1/32 |
Кодовое |
001 |
|
010 |
100 |
011 |
101 |
110 |
111 |
слово |
|
|
|
|
|
|
|
|
Сообщение x4 |
поступает в кодер. Вычислить дополнитель- |
|||||||
ную информацию об этом сообщении, доставляемую каждым последующим символом на выходе кодера.
Решение. На вход кодера поступает одно из сообщений x0 ,..., x6 , а кодер порождает соответствующие таблице двоич-
ные символы. Так, сообщению x4 соответствует на выходе ко-
довое слово 101. Символы на выходе кодера появляются последовательно, т.е. первый символ 1, второй 0 и третий 1. Первый символ кодового слова содержит некоторую информацию относительно того, какое сообщение поступает на вход кодера. Так, первый символ 1 показывает, что на входе могли быть сообще-
ния x2 , x4 , x5 или x6 . Второй символ 0 сужает выбор – теперь
27
на входе возможно одно из двух сообщений: x2 или x4 . И,
наконец, последний, третий символ 1 однозначно определяет переданное сообщение.
По формуле (2.1.3) взаимная информация, содержащаяся в первом кодовом символе 1 относительно сообщения x4 , равна
|
I(x4 ;1) |
= log |
p(x4 /1) |
. |
|
|
|
p(x4 ) |
|
||||
|
|
|
|
|
||
Обратная вероятность |
p(x4 /1) |
может быть найдена по |
||||
формуле Байеса (1.4) |
p(x4 ) p(1/ x4 ) |
|
||||
|
p(x4 /1) = |
, |
||||
|
6 |
|
|
|
||
|
|
∑p(1/ xj ) p(xj ) |
|
|||
|
|
j=1 |
|
|
|
|
1, |
j = 2,4,5,6, |
|
|
|
|
|
где p(1/ xj ) = |
j = 0,1,3, |
|
|
|
|
|
0, |
|
|
|
|
||
т.е. условная вероятность p(1/ xj ) = 0 для гипотез, при которых первый кодовый символ есть 0, и p(1/ xj ) =1 для гипотез, при
которых первый кодовый символ 1. В знаменателе формулы Байеса таким образом учитываются те гипотезы, при которых возможно появление 1 на первом месте.
Итак,
|
p(x /1) = |
|
|
|
1 32 |
= 1 |
, |
|
|
|
|
|
|
|
|
||||
|
4 |
1 8 +3 1 32 |
7 |
|
|
||||
|
|
|
|
|
|||||
p(x /10) = |
1 32 |
= |
1 , p(x |
/101) = 1 32 |
=1, |
||||
|
|||||||||
4 |
1 8 +1 32 |
|
|
5 |
4 |
|
1 32 |
|
|
|
|
|
|
|
|
||||
а взаимная информация, содержащаяся в первом кодовом сим-
воле 1 относительно сообщения x4 , равна |
|
||||
|
p(x4 /1) |
1 7 |
|
|
|
I(x4 ;1) = log |
|
= log2 |
|
= log2 32 −log2 |
7 = 2,1926 áèò. |
p(x ) |
1 32 |
||||
|
4 |
|
|
|
|
Информация, содержащаяся во втором кодовом символе 0 при условии, что первый кодовый символ был 1, есть
|
28 |
|
|
|
I(x4 ;0 /1) = log |
p(x4 /10) |
= log2 |
1 5 |
= 0,4854 áèò. |
p(x /1) |
1 7 |
|||
|
4 |
|
|
|
Информация, содержащаяся в третьем кодовом символе 1 при условии, что ему предшествовали 10, есть
|
|
p(x4 /101) |
1 |
|
||
I(x4 ;1/10) |
= log2 |
|
|
= log2 |
|
= 2,3219 áèò. |
p(x |
/10) |
1 5 |
||||
|
4 |
|
|
|
|
|
Так как сообщения xJ |
и кодовые слова однозначно связа- |
|||||
ны, то
I(x4 ) = I(x4 ;1) + I(x4 ;0 /1) + I (x4 ;1/10) .
Действительно, I(x4 ) = −log2 p(x4 ) = log2 32 = 5 бит, и
это совпадает с приведенной суммой.
Пример 2.1.4. По дискретному каналу передаются сообщения x1 или x2 . Вследствие действия шумов на выходе появляет-
ся один из сигналов y1, y2 , y3 . Вероятности совместного появ-
|
|
Таблица 2.1.2 |
ления p(xj ; yk ) |
заданы табл. 2.1.2 |
|||||||
|
|
|
yk |
|
|
Вычислить взаимные информации |
|||||
|
xj |
|
|
|
|
I(x2 ; y2 ) , I(x1; y3 ) . |
|
||||
|
y1 |
y2 |
y3 |
|
|
||||||
|
|
|
Решение. Дискретный канал с |
||||||||
|
x1 |
1/4 |
1/16 |
1/8 |
|
||||||
|
|
шумом удобно изображать в виде гра- |
|||||||||
|
x2 |
1/8 |
3/16 |
1/4 |
|
фа (рис. 2.1.2). |
|
|
|
|
|
|
|
|
|
|
|
Определим |
взаимную информа- |
||||
цию по формуле (2.1.3) |
|||||||||||
|
|
p(x1 / y3 ) |
|
|
|||||||
|
|
|
|
|
|
I(x1; y3 ) = log |
|
||||
|
|
|
|
|
|
p(x1) |
|
||||
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
или в силу свойства симметрии |
|||||
|
|
|
|
|
|
I(x1; y3 ) = I(y3; x1) = log |
p(y3 / x1) |
||||
p(y3 )
|
. |
|
Рис. 2.1 |
Условные и безусловные вероят- |
|
ности найдем, воспользовавшись таб- |
||
лицей. По формуле (1.3) |
||
|
29
p(x1) = p(x1, y1) + p(x1, y2 ) + p(x1, y3 ) = 14 +161 + 81 = 167 ; p(x2 ) = 18 +163 + 14 = 169 ; p(y1) = 14 + 18 = 83 ;
p(y2 ) = 161 +163 = 14 ; p(y3 ) = 18 + 14 = 83 .
Используя формулы (1.4), найдем условные вероятности:
p(y |
2 |
/ x ) = |
p(x2 , y2 ) |
|
= 3 16 = 1 , |
||
|
|
||||||
|
2 |
|
p(x2 ) |
9 16 |
3 |
||
|
|
|
|
||||
p(x / y ) = |
p(x1, y3 ) |
= 1 8 = 1 . |
|||||
|
|||||||
|
1 |
3 |
|
p(y3 ) |
3 8 |
3 |
|
|
|
|
|
||||
Тогда количество взаимной информации по формуле (2.1.3)
I(x ; y |
|
) = log |
|
p(y2 / x2 ) |
= log |
1 3 |
= 0,415 áèò. |
|||||||
|
|
|
|
2 1 4 |
||||||||||
2 |
2 |
|
|
|
2 |
p(y2 ) |
|
|
|
|
|
|||
I(x ; y ) = log |
|
p(x1 / y3 ) |
|
= log |
|
1 3 |
= −0,3923 áèò. |
|||||||
|
|
|
p(x ) |
2 7 16 |
||||||||||
1 3 |
|
|
2 |
|
|
|
|
|
|
|||||
|
|
|
|
|
|
1 |
|
|
|
|
|
|
|
|
Мы получили I(x1; y3 ) < 0 , так как p(x1 / y3 ) < p(x1) . ЗАДАЧИ
2.1.1.На шахматной доске произвольным образом расставлены фигуры. Априори все положения фигур на доске одинаково вероятны. Определить собственную информацию, получаемую от сообщения, что конкретная фигура находится в одной из угловых клеток доски.
2.1.2.Сколько информации содержится в сообщении о том, что сумма очков на двух подброшенных игральных костях есть четное число?
2.1.3.Сколько информации содержится в сообщении том,
что сумма очков на двух подброшенных игральных костях равна
7?
2.1.4. Брошены одновременно две игральные кости. Определить количество информации, содержащееся в сообщении о том, что произведение чисел выпавших очков четно.
30
2.1.5.В цехе работают 7 мужчин и 3 женщины. По табельным номерам наудачу отобраны 3 человека. Найти количество информации, содержащееся в сообщении «все отобранные люди
–мужчины».
2.1.6.Из шести букв разрезной азбуки составлено слово
«машина». Ребенок, не умеющий читать, рассыпал эти буквы и затем собрал в произвольном порядке. Какое количество информации будет содержаться в утверждении, что у него снова получилось слово «машина»?
2.1.7.Два стрелка, для которых вероятности попадания в мишень равны соответственно 0,6 и 0,7, производят по одному выстрелу. В результате оказалось, что мишень поражена. Какое количество информации содержится в этом сообщении?
2.1.8.Урна содержит 6 черных и 10 белых шаров. Случайно, без возвращения, из урны вынимают 3 шара, и результат опыта передается по системе связи. Пусть шары выбраны в следующей последовательности: черный, черный, белый.
а) Какое количество информации надо передать, если интересоваться только количеством шаров того и другого цвета?
б) Какое количество информации надо передать, если представляет интерес также и порядок, в котором выбраны шары?
2.1.9. В некотором городке четверть женщин — блондинки, половина — брюнетки и четверть — шатенки. Блондинки всегда приходят на свидание вовремя, брюнетки – подбрасывают монету и в зависимости от результата приходят вовремя или опаздывают, а шатенки всегда опаздывают.
1. Определить взаимную информацию между высказыванием «женщина пришла на свидание вовремя» относительно каждого из следующих предположений:
а) она блондинка; б) брюнетка; в) шатенка.
2. Сколько информации содержится в высказывании «женщина пришла вовремя на 3 свидания подряд» относительно предположения, что она брюнетка?
2.1.10. При фототелеграфной передаче изображения кадр состоит из 2,5∙106 элементов. Для хорошего воспроизведения