Материал: 6593

Внимание! Если размещение файла нарушает Ваши авторские права, то обязательно сообщите нам

31

необходимы 12 градаций (уровней) яркости. Предполагается, что, все уровни яркости встречаются с одинаковой вероятностью. Элементы изображения независимы. Какое количество информации надо передать по каналу связи, если передача продолжается 5 мин?

2.1.11. По дискретному каналу передается одно из сообщений x1, х2, x3. Вследствие действия шумов на выходе канала появляется сигнал y1 или y2. Вероятности совместного появления заданы табл. 2.1.3

Таблица 2.1.3

 

 

Вычислить взаимные информации I(х1;

x

yk

у2), I(x3; y1 ), I(x2; у2).

jy y передаются сообщения x1, х2, х3 с вероятно-

12

x0 0 стями 0,2; 0,3; 0,5. На выходе канала пр о-2.1.12. По двоичному каналу с шумом

1

 

,4

 

,1

 

являются сигналы y1, y2, y3. Вероятности ис-

 

 

 

 

 

 

 

кажения в канале (условные вероятности

 

x

0

0

2

переходов):

 

 

,2

 

,15

 

p(y1 / x1) = 3 4; p (y1 / x2 )=1 8; p (y1

/ x3 )=1 8;

 

x

0

0

 

3

 

,1

 

,05

 

 

 

 

p (y2 / x1 )=1

8; p (y2 / x2 )= 3 4; p (y2 / x3 )=1 8;

 

 

p (y3 / x1 )=1 8; p (y3 / x2 )=1 8; p (y3 / x3 )= 3 4.

 

 

Найти взаимные информации I ( x1;y3), I(x3;y1).

 

 

2.1.13. По двоичному каналу с помехами передаются рав-

новероятные и статистически независимые сообщения x1

и

x2.

В результате действия помех они преобразуются в сигналы

у1, у2, у3. Условные вероятности переходов p(yk/xj) заданы

табл.

2.1.4.

 

Вычислить взаимные информации I(x1 ;у3)

и

I(x2;y2).

 

 

 

 

 

 

Таблица 2.1.4

 

 

 

 

 

yk

 

 

 

 

 

j

1

 

2

 

3

 

 

 

 

 

 

 

 

 

1

/8

 

/8

 

/8

 

 

 

 

 

 

 

 

 

 

 

 

32

2

/8

/8

/8

2.1.14. Рассматривается ансамбль сообщений X, приведенный в табл. 2.1.5.

Таблица 2.1.5

xj

x0

x1

x2

x3

x4

x5

x6

x7

р(xj)

1/4

1/4

1/8

1/8

1/1

1/1

1/1

1/1

6

6

6

6

 

 

 

 

 

Кодовое

000

001

010

011

100

101

110

111

слово

Сообщение

х2

поступает

в кодер. Вычислить

дополнитель-

ную информацию об этом сообщении, доставляемую каждым последующим символом на выходе кодера.

2.1.15. Сообщения источника x1,...,х4 для согласования с каналом кодируются в соответствии с табл. 2.1.6.

Таблица 2.1.6

Сообщения xj

x1

x2

x3

x4

р(xj)

1/2

1/4

1/8

1/8

Кодовое слово

000

011

101

100

Пусть на вход кодера поступает сообщение х3. Вычислить дополнительную информацию об этом сообщении, которую содержит каждый последующий символ на выходе кодера.

2.1.16. Среди студенток некоторого института 25% всех девушек – блондинки, а 75% всех блондинок имеют голубые глаза; всего же голубые глаза имеет половина всех девушек. Пусть мы знаем, что некоторая студентка имеет голубые глаза. Сколько дополнительной информации будет содержаться в сообщении о том, что эта девушка – блондинка?

2.2 Средняя собственная информация (энтропия)

Энтропия. Дискретный источник удобнее характеризовать количеством собственной информации, содержащимся в среднем в одном символе ансамбля X.

Это среднее количество собственной информации есть

 

33

 

 

 

 

 

 

 

 

 

I (X )= M

log p (X ) =

n

I

(

x

j )

p

(

x

j )

=

 

 

 

 

 

 

(2.2.1)

 

 

j=1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

p(xj )log p(xj

) = H

(X )

 

 

 

 

 

j=1

иназвано энтропией (по аналогии с понятием энтропии в термодинамике).

Свойства энтропии.

1)Энтропия неотрицательна

H (X ) 0.

(2.2.2)

Знак равенства имеет место, когдаX – неслучайна, т.е. p(xj) = 1, a p(xi) = 0 для i j. При этом неопределенность относительно ан-

самбля X отсутствует. Таким образом, энтропия есть мера неопределенности случайного ансамбля.

2) Величина энтропии удовлетворяет неравенству

H (X ) log n.

(2.2.3)

Знак равенства имеет место при равновероятности символов ансамбля X, т.е. при p(xj ) =1n.

3) Свойство аддитивности энтропии.

В последовательности i независимых символов энтропия равна сумме энтропий, содержащихся в отдельных символах

 

(1)

,..., X

(i)

(1)

) +...+ H (X

(i)

).

(2.2.4)

H X

 

= H (X

 

 

 

Вычисление энтропии по формуле (2.2.1) можно упростить,

введя функцию η( p) = −log p, тогда формула примет вид

 

 

 

 

n

 

 

 

 

 

 

 

H (X ) = η( pj ).

 

 

(2.2.5)

j=1

Значения функции η( p) приведены в Приложении 1.

Условная энтропия. Пусть имеются два статистически зависимых конечных ансамбля символов X и Y. Пары символовxjyk c вероятностями p(xj, уk) можно рассматривать как элементарные символыобъединенного ансамбляXY с энтропией

n

m

 

H (XY ) = −∑ ∑p(xj, yk )log p(xj, yk ).

(2.2.6)

j=1

k =1

 

34

Появление символа xj вызовет появление символа yk с условной вероятностью

p(yk / xj ) = p(xj, yk ) . p(xj )

При этом условная энтропия ансамбля Y в предположении, что выбран символ хj, будет

H (Y / xj ) = M log p(Y / xj ) =

m

(2.2.7)

p(yk / xj )log p(yk / xj ).

 

k =1

Здесь каждому хj соответствует свое значение энтропии H (Y / xj ) , т.е. H (Y / xj ) - случайная величина.

Тогда средняя условная энтропия случайной величины Y, вычисленная при условии, что известно значение другой случайной величины X, равна

H (Y / X ) = M[

n

 

log p(Y / X )]= p(xj )H (Y / xj ) =

(2.2.8)

 

j=1

 

 

n

m

 

p(xj )p(yk / xj )log p(yk / xj ).

 

j=1

k =1

 

Энтропия объединенного ансамбля H (XY ) удовлетворяет

следующим соотношениям:

(2.2.9)

а) H (XY ) = H (X ) + H (Y / X ) = H (Y ) + H (X /Y ),

если X и Y зависимы;

(2.2.10)

в)

H (XY ) = H (X ) + H (Y ),

если X и Y независимы.

Для объединенного ансамбля XY условная энтропия удовлетворяет неравенствам:

H (Y / X ) H (Y ), H (X /Y ) H (X ).

(2.2.11)

Избыточность. Считают, что имеется избыточность, если количество информации, содержащейся в сигнале (энтропия сигнала), меньше того количества, которое этот сигнал мог бы содержать по своей физической природе. Введем количественную меру избыточности. Пусть сигнал длиной в n символов (от-

35

счетов) содержит количество информации Н. Пусть далее наибольшее количество информации, которое в принципе может содержаться в данном сигнале с учетом наложенных на него ограничений (заданное основание кода, заданная средняя мощность сигнала и т.п.), равно Hmax. Тогда количественной мерой избыточности является величина

R =1H Hmax .

(2.2.12)

Причины появления избыточности – это статистическая связь между символами (отсчетами) сигнала и неэкстремальность распределения вероятностей отдельных символов (отсчетов). Введение избыточности приводит к удлинению сигнала, но зато повышает его информационную устойчивость при воздействии помех.

РЕШЕНИЕ ТИПОВЫХ ПРИМЕРОВ Пример 2.2.1. На измерительной станции имеются два при-

бора. Первый имеет шкалу, содержащую 100 делений, его показания могут меняться через каждые 0,05 с. Шкала второго прибора имеет 10 делений, и его показания могут меняться каждые

0,01 с.

Какова наибольшая средняя информация, поставляемая двумя приборами в 1 с?

Решение. 1-й прибор. Энтропия одного значения (отсчета)

по формуле (2.2.3) H1(X ) = log m1 = log 100.

Число отсчетов в 1 секунду равно n1 =10,05 = 20.

2-й прибор. Энтропия одного значения H2 (X ) = log 10 , а число отсчетов в 1 секунду равно n2 =100.

Энтропия двух приборов в 1 с по формуле (2.2.4.) равна

HΣ (X ) = n1H1(X ) + n2 H2 (X ) = 20 6,64 +100 3,32 465 áèò/ñ.

Пример 2.2.2. Производится стрельба по двум мишеням, по одной сделано 2 выстрела, по второй – 3. Вероятности попадания при одном выстреле соответственно равны 1/2 и 1/3. Исход стрельбы (число попаданий) по какой мишени является более определенным?

Решение. Исход стрельбы определяется числом попаданий