Материал: 6593

Внимание! Если размещение файла нарушает Ваши авторские права, то обязательно сообщите нам

 

 

131

 

 

W

(y(1) ,..., y(n) )

= С

 

 

1

(y(1)

,..., y(n) )

2

(5.1.10б)

W

 

 

2

 

 

 

 

 

для всех у из области Е2, где С1 и C2 – некоторые постоянные. Задав конкретные значения α и β , по (5.1.9) можно про-

верить, являются ли эти значения принципиально достижимыми при заданных вероятностных свойствах сигнала Y. Таким образом, зная информационные характеристики сигнала, по (5.1.9) можно вычислить предельные, потенциальные значения вероятностей ошибок первого и второго рода.

Критерий Неймана-Пирсона. Найден оптимальный метод различения гипотез Н1 и Н2, который при заданной вероятности ошибок первого рода обеспечивает минимальную вероятность ошибки второго рода. Такое правило называется критерием Неймана-Пирсона и основано на сравнении логарифма отношения правдоподобия с порогом С, который выбирается таким образом, чтобы обеспечить требуемую величину α . Область Е1

состоит из тех значений Y, для которых справедливо неравенство

I(1: 2;y) = log

W (y(1)

,..., y(n) )

Ñ.

(5.1.11)

1

,..., y(n) )

 

W (y(1)

 

 

 

2

 

 

 

Таким образом, гипотеза Н1 принимается только в том случае, когда величина информации в пользу Н1 против Н2, содержащейся в выборке y, больше заданной величины С. В противном случае Н1 отвергается и принимается гипотеза Н2.

РЕШЕНИЕ ТИПОВЫХ ПРИМЕРОВ

Пример 5.1.1. Случайная величина Y имеет нормальное распределение с известным среднеквадратическим отклонением σ . Вычислить I(1:2), I(2:1), J(1,2) для следующих гипотез о математическом ожидании этой величины:

H1: m=m1, H2: m=m2.

Решение. Запишем плотности вероятности случайной величины Y , соответствующие каждой из гипотез:

 

 

 

 

 

132

 

 

 

 

W (y) =

 

 

1

 

 

exp[

1

 

(y m )2

] ,

 

 

 

 

2σ 2

1

 

 

2πσ

 

 

1

 

W (y) =

 

1

 

 

exp[

1

 

(y m )2 ].

 

 

 

 

2σ 2

 

2

 

 

2πσ

 

 

2

 

По формуле (5.1.1) находим информацию для различения в пользу Н1 против Н2, содержащуюся в выборочном значении y

(в этой задаче удобнее использовать натуральные единицы информации):

I(1: 2; y) =

 

1

[(y m )2

(y

m )2

] =

2σ 2

1

 

2

 

1

 

 

[2y(m

m ) + m

2 m 2

].

 

2σ 2

 

 

1

2

2

1

 

По формуле (5.1.2) находим среднюю информацию для различения в пользу Н1 против Н2

 

 

 

 

1

 

2

2

 

 

I(1: 2) = MH

 

 

 

[2Y (m1 m2 ) + m2

m1

]

=

2σ

2

1

1

 

 

 

 

 

 

{2(m1 m2 ) MH1 [Y ]+ m22 m12}.

 

2σ

2

 

 

 

 

 

 

 

 

 

Далее учтем, что при гипотезе Н1 математическое ожидание MH1 (Y ) = m1 , и получим окончательно

I(1: 2) =

 

1

 

 

[2(m m )m + m 2

m 2 ] =

(m m )2

 

 

 

 

 

 

 

1

2 .

 

2σ

 

 

 

 

 

 

 

2

 

 

1

2 1

2

 

1

 

 

2σ 2

 

 

По формулам (5.1.3.) и (5.1.4) находим

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

2 m 2 ]

 

 

(m m )2

I(2 :1) = M

 

 

 

 

 

 

[2Y

(m m ) + m

 

=

1

2

,

H

 

 

 

 

 

 

 

 

2σ 2

 

2

1

1

2

 

2σ 2

 

 

 

2

 

 

 

 

 

 

 

 

 

 

J (1;2) = I(1: 2) + I(2 :1) =

(m m )2

 

 

 

 

1

2 .

 

 

 

 

 

 

 

 

 

 

 

 

 

σ 2

 

 

 

 

 

Таким образом, средняя информация для различения гипотез Н1 и Н2 в данной задаче пропорциональна квадрату расстоя-

ния между математическими ожиданиями сигнала Y и обратно пропорциональна его дисперсии.

Пример 5.1.2. Случайная величина Y имеет одностороннее

 

 

 

133

 

 

экспоненциальное распределение

 

W (y) =

1

exp(

y

), y 0 .

 

m

 

 

 

 

m

Математическое ожидание m этой случайной величины

может принять одно из двух значений:

H1:

m=m1=1,

 

 

 

H2:

m=m2=10.

 

 

 

а) Найти правило различения гипотез Н1 и Н2, которое при вероятности ошибки первого рода α =0,01832 обеспечивает ми-

нимальную вероятность ошибки второго рода β .

б) Вычислить β , соответствующую найденному правилу.

в) Пользуясь неравенством (5.1.9), установить, возможно ли при проверке гипотез в данной задаче обеспечить α = β = 0,1.

Решение. а) Запишем плотности вероятности случайной величины Y , соответствующие каждой из гипотез:

W (y) =

1

exp(

y

),

W (y)

1=

exp(

y), y 0.

 

 

1

m1

 

m1

2

m2

m2

 

 

 

 

 

 

Графики этих функций приведены

 

 

 

на рис. 5.1.

вычислим

W 1(y)

 

 

По формуле (5.1.1)

 

 

 

 

W 2(y)

 

 

информацию, содержащуюся в вы-

E1

E2

 

борочном значении y

 

0

y0

y

I(1: 2; y) = ln m2 y m2 m1 .

Рис. 5.1

 

m1

m1m2

В соответствии с критерием Ней- мана-Пирсона эту величину необходимо сравнить с порогом С и принять гипотезу Н1, если выполняется неравенство

I(1: 2; y) C . Отсюда область Е1 принятия гипотезы Н1 состоит из всех значений y , удовлетворяющих неравенству

y

C ln m2

m m (m

m ) = y .

 

 

m1

 

1 2 2

1 0

 

 

 

 

 

Правая часть этого неравенства есть постоянная, которую мы обозначили y0 , и, следовательно, область Е1 состоит из всех

134

значений сигнала, для которых 0 y y0 . Остальные значения y > y0 относим к области Е2 (см. рис. 5.1).

Вероятность ошибки первого рода

1

 

y

 

y

 

y

 

 

 

α = W1(y)dy =

m

exp(m )dy = −exp(m )

 

 

= exp(m ).

 

 

 

 

 

 

 

 

 

 

0

 

y0

y0

1

1

1

 

 

y0

1

 

 

 

Границу y0

необходимо выбрать так, чтобы обеспечить за-

данное значение

α = exp(y0 / m1) = 0,01832, отсюда

 

y0

= −m1 ln 0,01832 = 4m1 = 4.

 

 

 

 

Итак, правило проверки гипотез формулируем следующим образом. Если случайная величина Y приняла в результате опыта

значение 0 y 4, считаем, что математическое ожидание этой величины m = m1 =1. В противном случае считаем, что

m = m2 =10.

б) Вычислим вероятность ошибки второго рода

y0 y0

β = W2 (y)dy =(1m2 )exp(ym2 ) dy = 10exp(y0 m2 ) =10exp(0,4) = 0,3297.

в) Наконец, определим, возможно ли в принципе обеспечить α=β=0,1. По формуле (5.1.2) вычисляем

1

 

 

 

y

 

m2

 

m2 m1

 

I(1: 2) =

 

 

exp

 

ln m

y

m m

dy =

m

 

m

0

1

 

 

1

 

1

 

1 2

 

ln m2

m

m2 m1

= ln10 0,9 =1,4026.

m m

 

m

1

 

 

 

 

 

1

 

 

1

2

 

 

 

 

Правая часть неравенства (5.1.9 а) равна

β ln 1βα +(1β)ln 1αβ = 0,1 ln 0,90,1 +0,9 ln 0,90,1 =1,7578.

Требуемые значения α=β=0,1 не удовлетворяют уже первому из неравенств (5.1.9), следовательно, не существует правило проверки гипотез, которое обеспечивало бы такие значения вероятностей ошибок первого и второго рода.

135

Пример 5.1.3. В условиях примера 1.3 вычислить для гипотез:

H1 – сообщение на входе x(t)=x1(t); H2– сообщение на входе x(t)=x2(t),

где x1(t) и x2(t) – известные наблюдателю функции. Найти предельное выражение для I(1:2) при условии, что верхняя граничная частота шума Fв стремится к бесконечности, а полоса сигнала x(t) остается неизменной.

Решение. Совместные плотности вероятности n отсчетов квантованного сигнала при каждой из гипотез равны (см. при-

мер 1.3):

 

 

 

 

 

 

 

n

1

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

(1)

 

 

(n)

=

 

 

 

 

 

 

 

 

 

(k )

(k )

 

 

2

W1 y

 

,..., y

 

 

 

 

 

 

 

 

 

 

exp

 

 

(y

 

x1

)

 

 

,

 

 

 

 

 

 

 

 

 

2N0 Fâ

 

 

 

 

 

 

2π N0 Fâ

 

 

 

 

 

 

 

 

 

 

k =1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

1

 

 

 

 

 

 

1

 

 

 

 

 

 

 

 

 

(1)

 

 

(n)

=

 

 

 

 

 

 

 

 

(k )

(k )

 

 

2

W2 y

 

,..., y

 

 

 

 

 

 

 

 

 

exp

 

 

(y

 

x2

 

)

 

,

 

 

 

 

 

 

 

 

 

2N0 Fâ

 

 

 

 

 

 

 

2π N0 Fâ

 

 

 

 

 

 

 

 

 

 

 

k =1

 

 

 

 

 

 

 

 

 

 

 

 

 

где x (k )

= x

(t

k

)

, x (k ) = x (t

k

) .

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

1

 

 

 

2

 

 

2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Случайные величины Y(1),…,Y(n) независимы при каждой из гипотез, следовательно, для вычисления I(1:2) можно воспользоваться свойством аддитивности информации

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

I(1:2)=Ik (1:2) ,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

k =1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

W (y

(k )

 

(k )

)

 

 

 

 

где Ik (1:2)= W (y(k ) / x1(k ) )ln

 

 

/ x1

 

 

dy(k ) .

 

W (y

(k )

 

(k )

)

 

-

 

 

 

 

 

 

 

 

 

/ x2

 

 

 

 

 

В примере 5.1.1 было установлено, что

 

 

 

 

 

 

 

 

 

(m m )

 

x1(k ) x2(k ) 2

 

I

k

(1:2)=

 

1

 

 

2

=

 

 

 

 

 

 

 

 

 

,

 

 

 

 

2N

 

F

 

 

 

 

 

2σ 2

 

 

 

 

 

 

0

 

 

 

и окончательно получаем

 

 

 

 

 

 

 

 

 

 

 

 

â

 

 

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

(k )

 

 

 

(k ) 2

 

 

 

I(1:2)=

 

 

 

 

 

 

x1

x2

 

.

 

 

 

2N

F

 

 

 

 

 

k =1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

0

 

â

 

 

 

 

 

 

 

 

 

 

 

 

Вычислим предельное значение средней информации для