|
|
131 |
|
|
||
W |
(y(1) ,..., y(n) ) |
= С |
|
|
||
1 |
(y(1) |
,..., y(n) ) |
2 |
(5.1.10б) |
||
W |
||||||
|
|
|||||
2 |
|
|
|
|
|
|
для всех у из области Е2, где С1 и C2 – некоторые постоянные. Задав конкретные значения α и β , по (5.1.9) можно про-
верить, являются ли эти значения принципиально достижимыми при заданных вероятностных свойствах сигнала Y. Таким образом, зная информационные характеристики сигнала, по (5.1.9) можно вычислить предельные, потенциальные значения вероятностей ошибок первого и второго рода.
Критерий Неймана-Пирсона. Найден оптимальный метод различения гипотез Н1 и Н2, который при заданной вероятности ошибок первого рода обеспечивает минимальную вероятность ошибки второго рода. Такое правило называется критерием Неймана-Пирсона и основано на сравнении логарифма отношения правдоподобия с порогом С, который выбирается таким образом, чтобы обеспечить требуемую величину α . Область Е1
состоит из тех значений Y, для которых справедливо неравенство
I(1: 2;y) = log |
W (y(1) |
,..., y(n) ) |
≥ Ñ. |
(5.1.11) |
1 |
,..., y(n) ) |
|||
|
W (y(1) |
|
|
|
|
2 |
|
|
|
Таким образом, гипотеза Н1 принимается только в том случае, когда величина информации в пользу Н1 против Н2, содержащейся в выборке y, больше заданной величины С. В противном случае Н1 отвергается и принимается гипотеза Н2.
РЕШЕНИЕ ТИПОВЫХ ПРИМЕРОВ
Пример 5.1.1. Случайная величина Y имеет нормальное распределение с известным среднеквадратическим отклонением σ . Вычислить I(1:2), I(2:1), J(1,2) для следующих гипотез о математическом ожидании этой величины:
H1: m=m1, H2: m=m2.
Решение. Запишем плотности вероятности случайной величины Y , соответствующие каждой из гипотез:
|
|
|
|
|
132 |
|
|
|
|
|
W (y) = |
|
|
1 |
|
|
exp[− |
1 |
|
(y −m )2 |
] , |
|
|
|
|
2σ 2 |
||||||
1 |
|
|
2πσ |
|
|
1 |
|
|||
W (y) = |
|
1 |
|
|
exp[− |
1 |
|
(y −m )2 ]. |
||
|
|
|
|
2σ 2 |
|
|||||
2 |
|
|
2πσ |
|
|
2 |
|
|||
По формуле (5.1.1) находим информацию для различения в пользу Н1 против Н2, содержащуюся в выборочном значении y
(в этой задаче удобнее использовать натуральные единицы информации):
I(1: 2; y) = |
|
1 |
[(y −m )2 |
−(y |
−m )2 |
] = |
|||
2σ 2 |
|||||||||
1 |
|
2 |
|
1 |
|
||||
|
[2y(m |
−m ) + m |
2 −m 2 |
]. |
|||||
|
2σ 2 |
||||||||
|
|
1 |
2 |
2 |
1 |
|
|||
По формуле (5.1.2) находим среднюю информацию для различения в пользу Н1 против Н2
|
|
|
|
1 |
|
2 |
2 |
|
|
|
I(1: 2) = MH |
|
|
|
[2Y (m1 −m2 ) + m2 |
−m1 |
] |
= |
|||
2σ |
2 |
|||||||||
1 |
1 |
|
|
|
|
|
||||
|
{2(m1 −m2 ) MH1 [Y ]+ m22 −m12}. |
|||||||||
|
2σ |
2 |
||||||||
|
|
|
|
|
|
|
|
|
||
Далее учтем, что при гипотезе Н1 математическое ожидание MH1 (Y ) = m1 , и получим окончательно
I(1: 2) = |
|
1 |
|
|
[2(m −m )m + m 2 |
−m 2 ] = |
(m −m )2 |
|
||||||||
|
|
|
|
|
|
1 |
2 . |
|
||||||||
2σ |
|
|
|
|
|
|||||||||||
|
|
2 |
|
|
1 |
2 1 |
2 |
|
1 |
|
|
2σ 2 |
|
|
||
По формулам (5.1.3.) и (5.1.4) находим |
|
|
|
|
|
|||||||||||
|
|
|
|
|
1 |
|
|
|
|
2 −m 2 ] |
|
|
(m −m )2 |
|||
I(2 :1) = M |
|
|
|
|
|
|
[2Y |
(m −m ) + m |
|
= |
1 |
2 |
, |
|||
H |
|
|
|
|
|
|
||||||||||
|
|
2σ 2 |
|
2 |
1 |
1 |
2 |
|
2σ 2 |
|
||||||
|
|
2 |
|
|
|
|
|
|
|
|
|
|||||
|
J (1;2) = I(1: 2) + I(2 :1) = |
(m −m )2 |
|
|
|
|||||||||||
|
1 |
2 . |
|
|
||||||||||||
|
|
|
|
|
|
|
|
|
|
|
σ 2 |
|
|
|
|
|
Таким образом, средняя информация для различения гипотез Н1 и Н2 в данной задаче пропорциональна квадрату расстоя-
ния между математическими ожиданиями сигнала Y и обратно пропорциональна его дисперсии.
Пример 5.1.2. Случайная величина Y имеет одностороннее
|
|
|
133 |
|
|
экспоненциальное распределение |
|||||
|
W (y) = |
1 |
exp(− |
y |
), y 0 .≥ |
|
m |
|
|||
|
|
|
m |
||
Математическое ожидание m этой случайной величины |
|||||
может принять одно из двух значений: |
|||||
H1: |
m=m1=1, |
|
|
|
|
H2: |
m=m2=10. |
|
|
|
|
а) Найти правило различения гипотез Н1 и Н2, которое при вероятности ошибки первого рода α =0,01832 обеспечивает ми-
нимальную вероятность ошибки второго рода β .
б) Вычислить β , соответствующую найденному правилу.
в) Пользуясь неравенством (5.1.9), установить, возможно ли при проверке гипотез в данной задаче обеспечить α = β = 0,1.
Решение. а) Запишем плотности вероятности случайной величины Y , соответствующие каждой из гипотез:
W (y) = |
1 |
exp(− |
y |
), |
W (y) |
1= |
exp( |
y−), y 0. |
|
|
|||||||
1 |
m1 |
|
m1 |
2 |
m2 |
m2 |
||
|
|
|
||||||
|
|
|
Графики этих функций приведены |
|
|
|
|
на рис. 5.1. |
вычислим |
W 1(y) |
|
|
По формуле (5.1.1) |
|
|
|
|
|
|
W 2(y) |
|
|
информацию, содержащуюся в вы- |
|
E1 |
E2 |
|
борочном значении y |
|
0 |
y0 |
y |
I(1: 2; y) = ln m2 − y m2 −m1 . |
|
Рис. 5.1 |
|
m1 |
m1m2 |
|
В соответствии с критерием Ней- мана-Пирсона эту величину необходимо сравнить с порогом С и принять гипотезу Н1, если выполняется неравенство
I(1: 2; y) ≥ C . Отсюда область Е1 принятия гипотезы Н1 состоит из всех значений y , удовлетворяющих неравенству
y ≤ |
C −ln m2 |
m m (m |
−m ) = y . |
||
|
|
m1 |
|
1 2 2 |
1 0 |
|
|
|
|
|
|
Правая часть этого неравенства есть постоянная, которую мы обозначили y0 , и, следовательно, область Е1 состоит из всех
134
значений сигнала, для которых 0 ≤ y ≤ y0 . Остальные значения y > y0 относим к области Е2 (см. рис. 5.1).
Вероятность ошибки первого рода
∞ |
∞ |
1 |
|
y |
|
y |
|
∞ |
y |
||
|
|
|
|||||||||
α = ∫W1(y)dy = ∫ |
m |
exp(− m )dy = −exp(− m ) |
|
|
= exp(− m ). |
||||||
|
|
|
|
|
|
|
|
|
|
0 |
|
y0 |
y0 |
1 |
1 |
1 |
|
|
y0 |
1 |
|
||
|
|
||||||||||
Границу y0 |
необходимо выбрать так, чтобы обеспечить за- |
||||||||||
данное значение |
α = exp(−y0 / m1) = 0,01832, отсюда |
||||||||||
|
y0 |
= −m1 ln 0,01832 = 4m1 = 4. |
|
|
|
|
|||||
Итак, правило проверки гипотез формулируем следующим образом. Если случайная величина Y приняла в результате опыта
значение 0 ≤ y ≤ 4, считаем, что математическое ожидание этой величины m = m1 =1. В противном случае считаем, что
m = m2 =10.
б) Вычислим вероятность ошибки второго рода
y0 y0
β = ∫W2 (y)dy =(1
m2 )∫exp(− y
m2 ) dy = 1−0exp(− y0
m2 ) =1−0exp(−0,4) = 0,3297.
в) Наконец, определим, возможно ли в принципе обеспечить α=β=0,1. По формуле (5.1.2) вычисляем
∞ |
1 |
|
|
|
y |
|
m2 |
|
m2 −m1 |
|
|
I(1: 2) = ∫ |
|
|
exp |
− |
|
ln m |
− y |
m m |
dy = |
||
m |
|
m |
|||||||||
0 |
1 |
|
|
1 |
|
1 |
|
1 2 |
|
||
ln m2 |
−m |
m2 −m1 |
= ln10 −0,9 =1,4026. |
||||||||
m m |
|||||||||||
|
m |
1 |
|
|
|
|
|||||
|
1 |
|
|
1 |
2 |
|
|
|
|
||
Правая часть неравенства (5.1.9 а) равна
β ln 1−βα +(1− β)ln 1−αβ = 0,1 ln 0,90,1 +0,9 ln 0,90,1 =1,7578.
Требуемые значения α=β=0,1 не удовлетворяют уже первому из неравенств (5.1.9), следовательно, не существует правило проверки гипотез, которое обеспечивало бы такие значения вероятностей ошибок первого и второго рода.
135
Пример 5.1.3. В условиях примера 1.3 вычислить для гипотез:
H1 – сообщение на входе x(t)=x1(t); H2– сообщение на входе x(t)=x2(t),
где x1(t) и x2(t) – известные наблюдателю функции. Найти предельное выражение для I(1:2) при условии, что верхняя граничная частота шума Fв стремится к бесконечности, а полоса сигнала x(t) остается неизменной.
Решение. Совместные плотности вероятности n отсчетов квантованного сигнала при каждой из гипотез равны (см. при-
мер 1.3):
|
|
|
|
|
|
|
n |
1 |
|
|
|
|
|
|
1 |
|
|
|
|
|
|
|
|
|
||
(1) |
|
|
(n) |
= ∏ |
|
|
|
|
|
|
|
|
|
(k ) |
(k ) |
|
|
2 |
||||||||
W1 y |
|
,..., y |
|
|
|
|
|
|
|
|
|
|
exp |
− |
|
|
(y |
|
− x1 |
) |
|
|
, |
|||
|
|
|
|
|
|
|
|
|
2N0 Fâ |
|
|
|
||||||||||||||
|
|
|
2π N0 Fâ |
|
|
|
||||||||||||||||||||
|
|
|
|
|
|
|
k =1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||
|
|
|
|
|
|
|
n |
1 |
|
|
|
|
|
|
1 |
|
|
|
|
|
|
|
|
|
||
(1) |
|
|
(n) |
= ∏ |
|
|
|
|
|
|
|
|
(k ) |
(k ) |
|
|
2 |
|||||||||
W2 y |
|
,..., y |
|
|
|
|
|
|
|
|
|
exp |
− |
|
|
(y |
|
− x2 |
|
) |
|
, |
||||
|
|
|
|
|
|
|
|
|
2N0 Fâ |
|
|
|
|
|||||||||||||
|
|
|
2π N0 Fâ |
|
|
|
|
|||||||||||||||||||
|
|
|
|
|
|
|
k =1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||
где x (k ) |
= x |
(t |
k |
) |
, x (k ) = x (t |
k |
) . |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||
1 |
|
1 |
|
|
|
2 |
|
|
2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
Случайные величины Y(1),…,Y(n) независимы при каждой из гипотез, следовательно, для вычисления I(1:2) можно воспользоваться свойством аддитивности информации
|
|
|
|
|
|
|
|
|
n |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
I(1:2)=∑Ik (1:2) , |
|
|
|
|
|
|
|
|
|||||||||||
|
|
|
|
|
|
|
k =1 |
|
|
|
|
|
|
|
|
|
|
|
|
||
∞ |
|
|
|
|
|
|
|
|
W (y |
(k ) |
|
(k ) |
) |
|
|
|
|
||||
где Ik (1:2)= ∫ W (y(k ) / x1(k ) )ln |
|
|
/ x1 |
|
|
dy(k ) . |
|||||||||||||||
|
W (y |
(k ) |
|
(k ) |
) |
|
|||||||||||||||
-∞ |
|
|
|
|
|
|
|
|
|
/ x2 |
|
|
|
|
|
||||||
В примере 5.1.1 было установлено, что |
|
|
|
|
|
|
|||||||||||||||
|
|
|
(m −m ) |
|
x1(k ) − x2(k ) 2 |
|
|||||||||||||||
I |
k |
(1:2)= |
|
1 |
|
|
2 |
= |
|
|
|
|
|
|
|
|
|
, |
|||
|
|
|
|
2N |
|
F |
|
|
|||||||||||||
|
|
|
2σ 2 |
|
|
|
|
|
|
0 |
|
|
|
||||||||
и окончательно получаем |
|
|
|
|
|
|
|
|
|
|
|
|
â |
|
|
|
|
||||
1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||
|
|
|
|
|
|
|
n |
|
(k ) |
|
|
|
(k ) 2 |
|
|||||||
|
|
I(1:2)= |
|
|
|
|
|
|
∑ |
x1 |
− x2 |
|
. |
||||||||
|
|
|
2N |
F |
|||||||||||||||||
|
|
|
|
|
k =1 |
|
|
|
|
|
|
|
|
|
|
||||||
|
|
|
|
|
|
0 |
|
â |
|
|
|
|
|
|
|
|
|
|
|
|
|
Вычислим предельное значение средней информации для