Материал: 6593

Внимание! Если размещение файла нарушает Ваши авторские права, то обязательно сообщите нам

56

In X (t);Y (t) = Hn X (t) Hn X (t)Y (t) ,

а средняя информация, приходящаяся на один отсчет (символ)

I X (t);Y (t)

= H X (t)

H X (t)

Y (t) .

(2.4.8)

 

 

 

 

 

 

 

Возможен и другой способ вычисления средней энтропии (условной и безусловной) дискретной стационарной случайной последовательности, приводящий к тем же результатам.

Энтропия последовательности X(t) равна

H X (t )

= lim H X (n )

X (1) , ,X (n 1)

(2.4.9)

 

 

n →∞

 

 

 

и характеризует среднее количество дополнительной информации, доставляемой одним символом в реализациях бесконечной длины.

Средняя условная энтропия последовательности Х(t) вычисляется по формуле

H X (t) Y (t)

=

(2.4.10)

 

 

 

 

lim H X (n)

X (1) ,, X (n1),Y (1),,Y (n) .

n→∞

 

 

 

РЕШЕНИЕ ТИПОВЫХ ПРИМЕРОВ

Пример 2.4.1. Сообщение X есть стационарная последовательность независимых символов, имеющих ряд распределения Сигнал Y является последователь-

xj

x1

x2

x3

ностью двоичных символов, связанных

p(xj)

0,2

0,1

0,7

с сообщением следующим неудачным

образом: x1→00, x2→00, x3→1.

Определить: а) средние безусловную и условную энтропии, приходящиеся на 1 символ сообщения;

б) средние безусловную и условную энтропии, приходящиеся на 1 символ сигнала;

в) среднюю взаимную информацию в расчете на 1 символ сообщения.

Решение. Символы в последовательности на выходе источника независимы, поэтому из (2.4.3)

57

HX (t) = H1 X (t) = H [X ]=

0, 2 log 0, 2 0,1 log 0,10,7 log 0,7 =1,1568 áèò/ñèì â.

Обозначив y1=00, у2=1, вычислим условные и безусловные

вероятности сигнала:

 

 

p (y1 x1 )= p (y1

x2 )=1,

p (y1 x3 )= 0,

p (y2 x1 )= p (y2

x2 )= 0,

p (y2 x3 )=1,

p (y1 )= p (x1 ) p (y1 x1 )+ p (x2 ) p (y1 x2 )+ p (x3 ) p (y1 x3 )= 0,2 +0,1 = 0,3,

p (y2 )= 0,7.

Энтропия случайной величины Y равна

H(Y )= −0,3 log 0,3 0,7 log 0,7 = 0,8813 áèò,

аусловная энтропия H(Y/X)=0, так как сигнал однозначно определяется сообщением.

Взаимная информация

I (X ;Y )= H (Y )H (Y X )= 0,8813 áèò.

Условная энтропия сообщения

H (X Y )= H (X )I (X ;Y )=1,1568 0,8813 = 0,2755 áèò.

Итак, получаем, что условная энтропия сообщения равна 0,2755 бит/симв, а взаимная информация в расчете на 1 символ сообщения равна 0,8813 бит/симв.

Среднее количество символов сигнала, приходящихся на 1 символ сообщения, равно

3

L = p (xj )lj = 0,2 2 +0,1 2 +0,7 1 =1,3 ñèì â,

j=1

где lj – длина кодового слова, соответствующего xj. Энтропия последовательности Y(t) равна

HY (t) = H (Y )L = 0,88131,3 = 0,6779 áèò/ñèì â,

аусловная энтропия равна нулю.

Таблица 2.4.1

X(k)

 

X(k-1)

 

 

x1

x2

x3

x1

0,2

0,3

0,6

x2

0,4

0,5

0,1

x3

0,4

0,2

0,3

Пример 2.4.2. Вычислить энтропию однородной неразложимой марковской последовательности, заданной матрицей

58

вероятностей переходов p (X (k )X (k 1) ) от символа X (k 1) к

символу X (k ) (табл. 2.4.1).

Решение. Однородность последовательности проявляется в том, что при k → ∞ безусловная вероятность pj того, что k-й символ примет значение xj, не зависит от k и от значения перво-

го символа

и

связана с вероятностями переходов

prj = p (x (jk )

xr(k 1) )

 

m

уравнением p j = pr prj .

r =1

Записываем это уравнение для каждого j и получаем систему уравнений

p1 = p1 p11 + p2 p21 + p3 p31, p2 = p1 p12 + p2 p22 + p3 p32 ,

p3 = p1 p13 + p2 p23 + p3 p33.

Подставляем численные значения вероятностей переходов и получим

0,8 p1 +0,3p2 +0,6 p3 = 0, 0,4 p1 0,5 p2 +0,1p3 = 0,

0,4 p1 +0,2 p2 0,7 p3 = 0.

Определитель этой системы равен нулю, поэтому вероятности pj определяется с точностью до постоянного множителя. Выбираем его так, чтобы выполнялось условие нормировки

p1 + p2 + p3 =1, и получим

p1 = 0,3548, р2 = 0,3441, р3 = 0,3011.

Энтропия последовательности Н[Х(t)] по смыслу есть средняя дополнительная (условная) информация, приносимая одним символом последовательности, поэтому для марковской последовательности ее можно вычислить по формуле (2.4.9)

59

H X (t) = H (x(k ) X (k 1) )= m pj H (X (k ) X (k 1) )=

 

 

 

 

j=1

m

 

m

 

= 0,3548 1,5219 +0,3441 1,4855 +

= pj

pjr log pjr

j=1

r=1

 

 

0,3011 1,2955 =1,4412 áèòñèì â.

ЗАДАЧИ

2.4.1. Периодически, один раз в 5 с, бросают игральную кость, и результат каждого бросания передают при помощи

трехразрядного

двоичного

числа.

Найти:

а)

энтропию

шестеричной последовательности на входе,

б)

энтропию

двоичной последовательности

на выходе,

в) среднюю информацию, содержащуюся в отрезке выходного сигнала длительностью 1 мин.

2.4.2. Известно, что энтропия, приходящаяся на 1 букву русского текста, составляет приблизительно 1,2 бит. Каково минимальное среднее количество десятичных символов, необходимых для передачи информации, содержащейся в телеграмме из 100 букв?

2.4.3. Периодически проводятся тиражи лотереи. В каждом тираже участвуют 1024 билета, но выигрывает из них один. Результат каждого тиража передается при помощи 10-разрядного двоичного числа. Из-за наличия помех возможны искажения символов с вероятностью 0,001. Ошибки в отдельных символах

независимы.

Найти:

а)

энтропию

исходной 1024-ичной последовательности,

б)

энтропию

двоичной последовательности на входе,

в)

энтропию

двоичной последовательности на выходе,

г)

энтропию

выходной 1024-ичной последовательности,

д) среднее количество передаваемой информации в расчете на двоичный символ входной последовательности.

2.4.4. В условиях задачи 2.4.3 для повышения помехоустойчивости каждый двоичный символ передается трехкратно. В месте приема из каждых трех символов формируется один,

60

причем решение выносится простым «большинством голосов». Найти:

а) энтропию двоичной последовательности на выходе, б) среднее количество информации в расчете на передаваемый двоичный символ.

2.4.5. В некотором районе состояние погоды зависит только от того, что было накануне. При ежедневной регистрации погоды различают лишь два состояния: x1 – ясно и x2 – переменно. Вероятности переходов равны

p (x1

x1 )= 0.9

p (x2

x1 )= 0.1

p (x1

x2 )= 0.7

p (x2

x2 )= 0.3

Вычислить энтропию последовательности сообщений о состоянии погоды.

2.4.6. Найти энтропию последовательности на выходе троичного марковского источника, если вероятности всех переходов равны 1/3.

2.4.7. Буквы в последовательности на выходе источника выбираются из алфавита А, В, С и образуют марковскую последовательность. Совместные вероятности всевозможных пар букв заданы в табл. 2.4.2.

Таблица 2.4.2

X

X(k+1)

 

 

(k)

А

В

С

А

0

0

0

,2

,05

 

,15

 

0

0

0

,15

,05

 

,1

 

0

0

0

,05

,2

 

,05

Вычислить энтропию последовательности.

2.4.8. Троичная марковская последовательность задана матрицей вероятности переходов P от X(k) (строка) к X(k+1) (столбец)