|
|
|
|
|
|
76 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
∞∫xecx dx = − |
|
|
1 |
|
, |
|
|
|
|
|
||||||
|
|
|
|
|
2 |
|
|
|
|
|
|
||||||||
получим |
|
|
0 |
|
|
|
|
|
|
c |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
∞ |
λ x |
|
|
|
|
|
|
|
|
|
1 |
|
|
|
|
|
||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
(−λ1 )∫xe 1 |
dx = (−λ1 ) |
|
|
|
= mx . |
||||||||||||||
(−λ )2 |
|
||||||||||||||||||
|
0 |
|
|
|
|
|
|
|
|
|
|
1 |
|
|
|
|
|
||
Отсюда λ = − |
1 |
и eλ2 |
= −λ |
|
= |
|
1 |
. |
|
|
|
||||||||
|
|
|
|
|
|
|
|||||||||||||
1 |
|
mx |
|
|
|
1 |
|
|
|
|
mx |
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
Искомый закон распределения имеет вид |
|
||||||||||||||||||
W (x) = eλ1xeλ2 = |
|
1 |
|
|
|
|
|
x |
|
|
|
|
|
||||||
|
exp |
− |
|
|
|
|
, |
x ≥ 0. |
|||||||||||
|
|
|
mx |
|
|||||||||||||||
|
|
|
|
|
mx |
|
|
|
|
|
|
|
|
||||||
Это – одностороннее экспоненциальное распределение
ЗАДАЧИ
3.2.1. По каналу связи передаётся частотно-модулированный сигнал, частотакоторогоfизменяется
а) с равной вероятностью в пределах от f1 = 700 МГц до
f 2 =900МГц,
б) по экспоненциальному закону
|
1 |
|
− f −900 |
|
|
||
|
|
e |
|
m |
, f > 900МГц |
|
|
|
|
|
|||||
W (x) = m |
|
|
|
|
|
|
|
|
|
|
< 900МГц |
|
|
||
0, f |
|
|
|||||
со средним значением m=200 МГц. |
Вычислить относитель- |
||||||
ную энтропию для обоих случаев. |
|
|
|||||
3.2.2. Два стрелка делают по одному выстрелу |
в мишень. |
||||||
Координаты X и |
Y точек попадания |
для первого |
стрелка рас |
||||
пределены равномерно в прямоугольнике: 0 ≤х≤4; 0 ≤у≤8, а
для второго — имеют |
совместное |
нормальное распределение |
|
с параметрами: mx = my |
= 0; σ x = 1; σ y = 8; |
rху = 0,7. Для |
|
которого стрелка исход |
стрельбы |
является, |
более определен |
ным и насколько? |
|
|
|
77
3.2.3. Сигнал X с выхода детектора |
радиолокационного |
||||||
приемника должен быть подан на цифровой |
измеритель и с |
||||||
этой целью подвергается |
|
равномерному |
квантованию с ша |
||||
гом ∆х. Сигнал распределен по рэлеевскому закону: |
|||||||
W (x) = |
x |
exp(− |
x2 |
|
|
), x > 0 |
|
σ 2 |
2σ |
2 |
|
|
|||
|
|
|
|
|
|||
Найти приближенное выражение для вычисления величины |
|||||||
взаимной информации между этими сигналами при ∆х<<а. |
|||||||
3.2.4.Пусть W1 (x) и W2 (x) есть плотности вероятностей. |
|||||||
непрерывных случайныхвеличин. Доказать, что |
|
||||||
∞∫W1 (x)logW1 (x)dx ≥ ∞∫W2 (x)logW2 (x)dx |
|||||||
−∞ |
|
|
|
−∞ |
|
||
Найти необходимое и достаточное условие, при котором. Неравенство обращается в равенство.
3.2.5. Осуществляется прием на две антенны, разнесенные в пространстве так, что сигналы в ветвях статистически независимы, имеют нормальное распределение вероятностей с ну
левыми средними, дисперсиями σ12 = 16 В2 и σ22 = 25 В2 со
ответственно.
Вычислить энтропию колебания на выходе суммирующего устройства.
3.2.6. Среди всех законов распределения непрерывной случайной величины X, имеющей ограниченные пределы − a2 < x < a2 , найти закон распределения с максимальной энтропией.
3.2.7.Вычислить значение энтропии для случайной величи-ны X, имеющей нормальный закон распределения с дисперсией σ x2
3.2.8.Найти максимально возможную энтропию сигналов
сограниченной пиковой мощностью, т. е. при условии
xmax = +
Pпик .
3.2 9. Среди всех законов распределения непрерывной случайной величины X, имеющей заданную дисперсию Dx =
78
=σ x2 = const, найти закон распределения с максимальной эн-
тропией.
3.2.10. Вычислить значение энтропия для случайной вели- чии-ны, найденной в задаче 3.2.9., σ x2 =14B2
3.2.11*. Среди множества законов распределения системы n случайных величин, имеющих заданную корреляционную матрицу R, найти закон, обеспечивающий максимальное значе-
ние энтропии этой системы. |
|
3.2.12. Определить, насколько энтропия |
сигнала с нор - |
мальным распределением значений отсчетов превышает энтропию сигнала с равномерным распределением отсчётов, при одина-
ковой величине средней мощности. |
|
3.2.13. Во сколько раз средняя мощность |
сигнала с рав - |
номерным, распределением значений отсчетов |
должна быть |
больше мощности сигнала с нормальным распределением oт - счетов при условии, что оба сигнала имеют одинаковые эн-
тропии: H p (X ) = H н (X )
3.2.14. Доказать, что из всех положительных случайных величин, имеющих заданную энтропию, наименьшим средним значением обладает экспоненциально распределенная слу-чайная величина.
3.2.15. Из всех случайных величин, имеющих заданную относительную энтропию H(X)=1,5 бит, найти такую случайную величину, которая обладает минимальной диспе рсией
σ x
3.2.16 *. На вход безынерционного квадратичного детектора с характеристикой Y = β Х2 поступает сигнал, представля-
ющий собой непрерывную случайную величину с нормальным законом распределения с нулевым средним. Вычи слить эн-
тропию случайной величины Y на выходе детектора.
3.2.17. Две системы (X1 ,…, Хn) и (Y1 ,…, Yn) случайных величин связаны линейными соотношениями:
n
Yk = ∑akj X j ;k = (1,2,..., n)
j=1
79
Определить разность энтропий
H (Y1 ,...,Yn ) − H (X1 ,..., X n )
а) в общем случае,
б) при n=3 и матрице преобразований
|
|
|
|
3 |
2 |
−1 |
|
|
|
|
|||||
|
|
|
|
||||||||||||
|
akj |
|
|
|
= |
|
|
|
1 |
4 |
2 |
|
|
|
. |
|
|
|
|||||||||||||
|
|
|
|
|
|
|
|
|
0 |
−3 |
5 |
|
|
|
|
3.2.18.Определить среднюю условную энтропию H(X/Y) случайной величины X и H(X/Y) случайной величины Y для системы XY, подчиняющейся нормальному закону распределения.
3.2.19.Доказать, что средняя условная энтропия случайной величины X H(X/Y) не превосходит безусловной, т. е.
H(X/Y) ≤H(X).
Какому случаю соответствует знак равенства?
3.3 Информационные характеристики непрерывных случайных функций
Имеются два различных способа определения информациионных характеристик непрерывных стационарных случайных функций.
Первый способ предусматривает квантование во времени исходной непрерывной случайной функции X(t) и переход к последовательности непрерывных случайных величин-отсчётов
…, X (−1) ,X (0) ,X (1) ,…, взятых через интервалы ∆t =1
(2∆F ),
где ∆F - ширина полосы частот на положительной полуоси, занимаемых спектром плотности мощности этой функции. Для полученной непрерывной последовательности вводятся характеристики, аналогичные тем, которые были введены для дискретных последовательностей (формулы (2.4.1) – (2.4.3), (2.4.6)
– (2.4.10)), но используется понятие относительной энтропии. Определённая таким образом энтропия непрерывной слу-
чайной величины функции X(t) равна средней относительной энтропии, приходящейся на один отсчёт. Эта величина также
80
удовлетворяет неравенствам (2.4.3) и (2.4.4), причём в качестве H1max используется максимальное значение относительной эн-
тропии непрерывной случайной величины при заданных ограничениях. Например, если задана средняя мощность σ2 случайной функции X(t), оба неравенства совместно дают
H[X (t)]≤ |
1 log(2πeσ 2 ) , |
(3.3.1) |
|
2 |
|
причём максимальной относительной энтропией на один отсчёт обладает нормальная случайная функция с нулевым математи-
ческим ожиданием, дисперсией (средней мощностью) σ 2 и
равномерным в полосе ∆F энергетическим спектром (белый шум).
«Энтропийной мощностью» случайной функции X(t), имеющей ширину спектра ∆F и энтропию Н нат/отсчёт, называется средняя мощность белого шума с такой же шириной спектра и тем же значением энтропии на отсчёт
|
= |
1 |
exp(2H −1) . |
|
|
N |
(3.3.2) |
||||
2π |
|||||
|
|
|
|
Относительная энтропия на один отсчёт нормальной случайной функции, имеющей спектр плотности мощности G(f), вычисляется по формуле
H [X (t)]= |
1 |
∆∫F ln[2πe ∆F G( f )]df , |
(3.3.3) |
||||||
2∆F |
|||||||||
а энтропийная мощность равна |
|
|
|||||||
|
|
|
|
|
1 |
|
|
|
|
|
|
|
|
|
|||||
N = ∆F exp − |
|
|
ln G( f )df . |
(3.3.4) |
|||||
∆F ∆∫F |
|||||||||
|
|
|
|
|
|
|
|||
Второй способ введения энтропийных характеристик случайной функции опирается на понятие точности воспроизведения реализации этой функции. Пусть x(t) есть реализация непрерывной случайной функции X(t), которую необходимо передать, а z(t) – реализация другой случайной функции Z(t), которая в
действительности принимается. Обозначим как ρ(X , Z) некоторую заранее заданную количественную меру различия этих