удовлетворялись два важных в прикладном отношении требования: вопервых, математическое ожидание оценки Z(x) совпадало бы с истинным значением оцениваемой величины и, во-вторых, дисперсия оценки (обозначим ее Dz) была бы минимальной.
Измерительные задачи, имеющие целью получение оценок количественных значений величин на основе вектора многократных измерений, будем называть измерительными задачами первого типа. Эти задачи решаются с использованием шкалы интервалов (метрической шкалы). При х - const план измерения такой задачи имеет вид (х, ).
Рассмотрим отношение, обеспечивающее единство измерений [Назаров]:
me |
(x) |
|
|
1 |
T me |
|
|
|
|||||
|
|
|
||||
|
|
|
2 |
|
(1.20) |
|
На основе только этого отношения множество СИ можно разбить на два класса эквивалентности:
- класс СИ, формирующих результаты измерений, систематическая погрешность которых удовлетворяет отношению (1.20);
V1 me (x): me (x) 1T*me
2
- класс СИ, формирующих результаты измерений, систематическая погрешность которых не удовлетворяет отношению (1.20).
Очевидно, что по величине те(х) СИ, принадлежащие первому классу, являются в качественном отношении предпочтительнее СИ, принадлежащих второму классу.
Пусть имеется некоторое СИ, принадлежность которого к классу эквивалентности по величине те(х) неизвестна. Оценка принадлежности СИ к классу эквивалентности выполняется с использованием решающей функции следующего вида:
s(u) = 0 – при u u0 – принимается первый класс СИ;
s(u) = 1 – при u > u0 – принимается второй класс СИ, (1.21) где u0 - параметр решающей функции, и — аргумент решающей функции.
Преобразование, реализуемое выражением (1.21), является алгоритмической шкалой порядка с двумя шкальными значениями.
Рассмотрим величину, которую можно взять в качестве аргумента решающей функции. Структуру однократного результата измерения можно представить в двух формах
56
Y(х) = ту(х) + Е = х + те(х) +Е ,
где my(x)=M[Y(x)] — математическое ожидание случайной величины Y(x).
Из этого равенства следует |
|
mу(х) =х+те(х) |
|
или |
|
те(х) = ту(х) – х |
(1.22) |
Очевидно, что в качестве аргумента решающей функции нужно использовать оценку систематической погрешности. На основе выражения (1.22) ее можно сформировать следующим образом: вместо неизвестного значения величины х использовать ее действительное значение xq, а вместо неизвестного значения математического ожидания ту(х) - его оценку.
Возьмем в качестве оценки величины ту(х) результат измерения Y(х). Тогда получим
Ме(х) =Y(x) - xq = x + me(х) +Е - xq x - xq<<me(x) те(х) + Е .
Недостатком этой оценки является большой разброс ее возможных
значений, обусловленный центрированной случайной составляющей Е с дисперсией De. Использование такой оценки в решающей функции (1.21) привело бы к большим вероятностям ошибок при оценке принадлежности СИ к классам эквивалентности.
Уменьшить эти вероятности ошибок можно, если в качестве оценки математического ожидания тy(х) использовать оценку, полученную на
основе вектора многократных измерений Y (x), т. е. оценку
Z(x) = f(Y1(x),…, Y (x))
Если ее выбрать такой, чтобы выполнялись условия:
1.M[Z(x)]=my(x),
2.M[Z2(x)]=Dz<De,
то такая оценка будет иметь следующую структуру:
|
|
|
|
|
Z(х) = ту(х) +Z = х + те(х) + Z , |
|
|
а оценка систематической погрешности будет равна |
|
||
|
|
|
|
|
Me , |
||
|
Ме(х) = Z(х) – xq = х + те(х) + Z - xq = те(х) + Z = me(х) + |
||
|
|
|
|
|
|
|
|
где Me = Z - центрированная случайная составляющая оценки Ме(х). |
|||
|
|
от объема многократных |
|
|
Дисперсия составляющей Z зависит |
||
измерений, т. е. Dz( ). С увеличением объема |
она уменьшается так, что |
||
57
lim
Dz( ) = 0. Следовательно, за счет выбора значения можно обеспечить малый разброс возможных значений оценки Ме(х) и, как следствие, малые вероятности ошибок оценки принадлежности к классу эквивалентности.
Рассмотренная измерительная задача обладает следующими особенностями: во-первых, как и измерительная задача первого типа,
использует вектор многократных измерений Y (x) и, во-вторых, оценка принадлежности к классу эквивалентности реализуется на основе решающей функции (1.21) с параметром u0. Формирование случайного вектора многократных измерений производится на основе плана измерения
(xq, ), а оценка принадлежности к классу эквивалентности - с использованием алгоритмической шкалы порядка, характеризующейся параметром и0.
Измерительные задачи, имеющие целью получение оценки принадлежности объекта измерения к классу эквивалентности на основе вектора многократных измерений и решающей функции называются
измерительными задачами второго типа. Эти задачи решаются с использованием экспериментальной шкалы интервалов и алгоритмической шкалы порядка (наименований). План измерения такой задачи имеет вид
(x, , u0).
Алгоритмы обработки многократных измерений представлены более подробно в [Назаров].
Глава 6. Применение информационной теории для оценки результатов и погрешностей измерений
6.1. Основные положения теории информации
Основные положения теории информации были разработаны К. Шенноном: Основная идея … состоит в том, что с информацией можно обращаться почти также как с такими физическими величинами, как масса или энергия".
Любая информация, чтобы быть переданной, должна быть соответственным образом "закодирована", т.е. переведена на язык специальных символов или сигналов.
Одной из задач теории информации является отыскание наиболее экономных методов кодирования, позволяющих передать информацию с помощью минимального количества символов. Эта задача решается с учетом наличия или отсутствия искажений (помех) в канале связи.
58
Другая типичная задача: имеется источник информации (передатчик), непрерывно вырабатывающий информацию, и канал связи, по которому эта информация передается в другую инстанцию (приемник). Какова должна быть пропускная способность канала связи для того, чтобы канал передавал всю поступающую информацию без задержек и искажений? Чтобы решить подобные задачи, нужно научиться измерять количественно объем передаваемой или хранимой информации, пропускную способность каналов связи и их чувствительность к помехам.
Любое сообщение, с которым мы имеем дело в теории информации, представляет собой совокупность сведений о некоторой физической системе. Средства измерений предназначаются для получения измерительной информации и обладают, таким образом, информационными характеристиками. При их нахождении исходят из того, что измеряемая величина обладает неопределенностью до тех пор, пока не произведено ее измерение. Степень неопределенности зависит от ряда факторов.
Рассмотрим некоторую систему X, которая может принимать конечное множество состояний: x1 х2, ..., хп с вероятностями p1, р2,…, рп, где
pi=Р(Х хi) (1.23)
- вероятность того, что система X примет состояние xi (символом Х xi обозначается событие: система находится в состоянии xi). Очевидно,
n |
|
|
|
pi |
1 |
|
|
i 1 |
, как сумма вероятностей полной группы независимых событий. |
||
|
|
|
|
|
В качестве |
меры |
априорной неопределенности системы X |
(измеряемой случайной дискретной величины X) в теории информации |
|||
применяется специальная характеристика, называемая энтропией. |
|||
|
Энтропией |
системы |
(измеряемой величины) называется сумма |
произведений вероятностей различных состояний системы на логарифмы этих вероятностей, взятая с обратным знаком:
|
n |
|
|
Н(Х)= |
pi log pi |
(1.24) |
|
i 1 |
, |
||
где log - знак двоичного логарифма. |
|
|
|
Знак минус перед суммой ставится для того, чтобы энтропия была |
|||
положительной: вероятности pi |
меньше |
единицы и |
их логарифмы |
отрицательны. |
|
|
|
59
Непрерывная измеряемая величина X априори имеет неопределенность, характеризуемую значением энтропии
H(X) f (x)log f (x)dx
|
(1.25) |
|
где f(х) — плотность распределения величины X.
Энтропия обращается в нуль, когда одно из состояний системы достоверно (вероятность равна единице), а другие - невозможны (вероятности равны нулю).
Если рассмотреть случайную дискретную величину X, которая имеет п равновероятных значений, то вероятность каждого из них будет равна рi=1/п и
H(X) n 1 log 1 logn n n
Таким образом, энтропия системы с равновозможными состояниями равна логарифму числа состояний. При увеличении числа состояний энтропия увеличивается.
Энтропия обладает свойством аддитивности: когда несколько независимых систем объединяются в одну, их энтропии складываются: H
(X, Y)=Н (Х)+Н (Y).
Единицы измерения энтропии зависят от выбора основания логарифма. При использовании десятичных логарифмов энтропия определяется в так называемых десятичных единицах (дит). В случае двоичных логарифмов энтропия выражается в двоичных единицах (бит). На практике удобнее всего пользоваться логарифмами при основании 2, поскольку при этом достигается согласие с применяемой в электронных цифровых вычислительных машинах двоичной системой счисления.
6.2. Энтропия и информация.
Рассмотрим некоторую систему X, над которой производится измерение, и оценим информацию, получаемую в результате того, что состояние системы X становится полностью известным (погрешность измерений равна нулю). До проведения измерений априорная энтропия системы была Н(Х), после измерений энтропия стала равной нулю, если в результате измерения мы нашли истинное значение величины. Обозначим Ix информацию, получаемую в результате измерений. Она равна уменьшению энтропии IХ = H(X) – H(X/xи) = 0 или IX = H(X), т. е.
60