41
Вероятн. |
0,05 |
0,05 |
0,05 |
0,05 |
0,1 |
0,2 |
2.2.11. Измеряемое напряжение лежит в пределах 0 ÷6 В. Телеметрический датчик регистрирует приращение напряжения ∆u = 0,01 В. Найти наибольшее среднее количество информа-
ции, получаемое за 10 независимых отсчетов.
2.2.12*. В двоичной системе связи для передачи символов 0 и 1 используются импульсы длительности 2 и 4 мкс соответственно. Определить наибольшее среднее количество информации, которое можно передать в такой системе в 1 с.
2.2.13. На радиорелейной линии для передачи символов 0 и 1 используются радиоимпульсы мощностью 1 и 10 Вт соответственно. Для нормальной работы передатчика необходимо, чтобы отдаваемая им средняя мощность не превышала 3,4 Вт. Найти наибольшее количество информации, которое в среднем может переносить один импульс.
2.2.14. Показать, что энтропия Н(Х) ансамбля X с конечным множеством символов хi, i =1, m достигает максимума, когда
все символы равновероятны, и это максимальное значение равно
Hmax (X ) = log m.
2.2.15. Узлу связи А было передано 3 радиограммы, у з- лу связи В — 4 радиограммы. Вероятности неискаженного приема одной радиограммы на узлах соответственно равны 2/3 и ѕ. Считая, что качество связи характеризуется числом m правильно принятых радиограмм, подчиняющимся биномиальному закону распределения, оценить степень неопределенности качества связи для каждого из узлов.
2.2.16. Вероятность того, что проводная линия выдержит испытание, уменьшается с увеличением ее длины L по экспоненциальному закону
p = exp(−L / L0 ) , где L0 = 200 км.
При какой длине линии исход испытания обладает наибольшей неопределенностью?
2.2.17. Передатчик, описанный в задаче 2.2.13, передает символы 1 и 0 с вероятностями 0,1 и 0,9 соответственно. Найти избыточность при ограничении на среднюю мощность передат-
42
чика.
2.2.18.Доказать, что любое преобразование вероятностей двух элементов ансамбля, которое делает эти вероятности более близкими друг к другу, увеличивает энтропию ансамбля.
2.2.19.Из многолетних наблюдений за погодой известно,
что в некотором пункте А вероятность того, что 15 июня будет дождь, равна 0,4, а вероятность того, что осадков не выпадет, равна 0,6. Вероятность того, что будет дождь 15 ноября, равна 0,2, а вероятность того, что выпадет снег, равна 0,45. В какой из названных дней погоду в п. А следует считать более неопределенной, если:
а) интересоваться вопросом о наличии и характере осадков, б) интересоваться вопросом только о наличии осадков.
2.3 Средняя взаимная информация
Определения. В изучении проблем связи, кроме рассмотренных выше величин, важную роль играет среднее значение взаимной информации между элементами различных ансамблей.
Рассмотрим условное среднее значение взаимной информации для объединенного ансамбля XY. Пусть сигнал принял значение уk. Тогда информация, содержащаяся в реализации уk принятого сигнала относительно ансамбля передаваемых сообщений X,
|
p(X / y |
k |
) |
n |
|
|||
I(X ; yk ) = M log |
|
|
|
= ∑p(xj / yk )I(xj ; yk ) = |
|
|||
p(X ) |
|
|
|
(2.3.1) |
||||
|
|
|
|
|
j=1 |
|||
∑p(xj |
/ yk )log p(xj / yk ) − |
|
||||||
n |
|
|
|
|
|
|
|
|
j=1 |
|
|
|
|
p(xj ) |
|
|
|
есть средняя взаимная информация между ансамблем X и реализацией yk.
Аналогично информация, содержащаяся в ансамбле принятых сигналов Y относительно реализации переданного сообщения xj, определяется как
|
|
|
|
|
|
43 |
|
|
|
|
p(Y / x |
j |
) |
m |
|
||
I(xj ;Y ) = M |
log |
|
|
|
= ∑p(yk / xj )I(xj ; yk ) = |
|
||
p(Y ) |
|
|
(2.3.2) |
|||||
|
|
|
|
|
k =1 |
|||
∑p(yk / xj )log p(yk / xj ) . |
|
|||||||
m |
|
|
|
|
|
|
|
|
k =1 |
|
|
|
|
|
p(yk ) |
|
|
Это средняя взаимная информация между ансамблем Y и реали-
зацией xj.
Средняя взаимная информация между ансамблем принимаемых сигналов Y и ансамблем передаваемых сообщений X
|
|
p(X /Y ) |
|
|
k |
|
||
I(X ;Y ) = M |
log |
|
= ∑p(yk )I(X ; yk ) = |
|
||||
p(X ) |
(2.3.3) |
|||||||
|
|
|
|
k =1 |
||||
n |
m |
|
|
|
p(xj / yk ) |
|
||
∑∑p(xj , yk )log |
|
|
|
|||||
p(xj ) |
|
|||||||
j=1 k =1 |
|
|
|
|
||||
есть то количество информации, которое содержится в среднем в ансамбле принимаемых символов Y относительно ансамбля передаваемых символов X.
Основные свойства средней взаимной информации.
1) Средняя взаимная информация симметрична
I(X ;Y ) = I(Y; X ). |
(2.3.4) |
2) Средняя взаимная информация не превышает собствен-
ную
I(X ;Y ) ≤ H (X ) (2.3.5)
H (Y ).
3) Средняя взаимная информация всегда неотрицательна
I(X ;Y ) ≥ 0. |
(2.3.6) |
4) Следующее свойство устанавливает соотношение между средней взаимной информацией и энтропиями, относящимися к объединенному ансамблю. Величина
I(X ;Y ) = H (X ) − H (X /Y ) |
(2.3.7) |
– среднее количество информации о сообщении, содержащееся
впринятом сигнале – равна среднему количеству информации, требуемому для определения сообщения X, минус среднее коли-
чество информации, которое все еще потребуется для определе-
44
ния X после приема сигнала Y. Тогда энтропию Н(Х) мы понимаем как среднее количество переданной информации, а условную энтропию H(X/Y) – как среднее количество информации, потерянное вследствие влияния шума («ненадежность»).
В другом варианте
I(X ;Y ) = H (Y ) − H (Y / X ) |
(2.3.8) |
среднее количество информации есть разность между средним количеством информации, необходимым для определения принятого сигнала, и средним количеством информации, необходимым для определения того же сигнала, когда известно переданное сообщение. Тогда H(Y/X) можно трактовать как среднее количество информации, необходимое для определения помехи в канале, т. е. это есть энтропия шума в канале.
При отсутствии в канале помех
I(X ;Y ) = H (X ) , |
(2.3.9) |
т.е. принимаемый сигнал Y доставляет получателю всю информацию, содержащуюся в переданном сигнале.
В этом случае уk и xj связаны однозначно
1 |
ï ðè i = j, |
(2.3.10) |
p(xj / yi ) = |
ï ðè i ≠ j, |
|
0 |
|
и условная энтропия H(X/Y)=0.
При значительном уровне помех прием уk не дает ответа относительно переданного xj, следовательно, X и Y можно приближенно считать статистически независимыми, тогда
p(xj / yk ) = p(xj ) – прием символа уk никак не определяет пе-
реданного символа xj – и среднее количество информации
I(X ;Y ) = H (X ) − H (X /Y ) = 0 .
Очевидно, формулы (2.3.3), (2.3.7) и (2.3.8) дают тождественные результаты, и выбор той или иной формулы при решении конкретной задачи производится из соображений удобства математических выкладок.
РЕШЕНИЕ ТИПОВЫХ ПРИМЕРОВ Пример 2.3.1. Вычислить для конкретного канала, заданно-
го в примере 2.1.4, средние количества информации.
45
I(X ; y1), I(x1;Y ), I(X ;Y ).
Решение. а) Средняя взаимная информация в реализации сигнала на выходе y1 относительно случайной величины X на входе канала определяется формулой (2.3.1)
n
I(X ; y1) = ∑p(
j=1
p(x1 /
x |
j |
/ y )log |
p(xj |
/ y1) |
= |
|
|
|
|
|
|
|
|
|
|||||
|
1 |
|
p(xj ) |
|
|
|
|||
|
|
|
|
|
|
|
|||
y )log |
p(x1 / y1) |
+ p(x |
/ y )log |
p(x2 / y1) |
. |
||||
|
|
||||||||
1 |
|
p(x1) |
2 |
1 |
p(x2 ) |
||||
|
|
|
|
|
|
||||
Из примера 2.1.4 известны вероятности:
p(x1) = 7
16, p(x2 ) = 9
16,
p(y1) = 3
8, p(y2 ) =1
4, p(y3 ) = 3
8.
Определим условные вероятности:
p(x / y ) = |
|
p(x1, y1) |
|
= 1 4 = 2 , |
||
|
|
|||||
1 |
1 |
|
p(y1) |
3 8 |
3 |
|
|
|
|
||||
p(x / y ) = |
p(x2 , y1) |
= 1 8 = 1 . |
||||
|
||||||
2 |
1 |
|
p(y1) |
3 8 |
3 |
|
|
|
|
||||
Средняя информация
I(X ; y1) = 23 log2 32
83 + 13 log2 13
38 = 0,4967 áèò.
б) Средняя взаимная информация в выходной величине Y относительно реализации случайной величины на входе x1 определяется формулой (2.3.2)
I(x1 |
;Y ) = ∑p(yk / x1)log p(yk / x1) |
= p(y1 / x1)log p(y1 / x1) + |
|||||||||||||||
|
m |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
k =1 |
|
|
|
|
|
p(yk ) |
|
|
|
|
|
p(y1) |
|
|||
|
p(y |
2 |
/ x )log |
p(y2 / x1) |
+ p(y |
/ x )log |
p(y3 / x1) |
. |
|||||||||
|
|
|
|
||||||||||||||
|
|
1 |
|
p(y2 ) |
3 |
1 |
p(y3 ) |
||||||||||
|
|
|
|
|
|
|
|
|
|||||||||
Определяем условные вероятности |
|
|
|
|
|
|
|||||||||||
|
|
|
p(y / x ) = |
p(x1, y1) |
|
= |
1 4 |
= 4 , |
|
|
|
|
|||||
|
|
|
|
|
|
|
|
|
|||||||||
|
|
|
1 |
1 |
|
|
p(x1) |
7 16 7 |
|
|
|
|
|||||
|
|
|
|
|
|
|
|
|
|
|
|||||||