Поделиться Поделиться

Энтропийное значение погрешности

Развитие теории вероятностей применительно к процессам получения измерительной информации привело к созданию вероятностной [4, 52] теории информации. С точки зрения этой теории смысл измерения состоит в сужении интервала неопределенности от значения, известного до его проведения, до величины d, называемой энтропийным интервалом неопределенности, ставшей известной после измерения. Энтропийный интервал определяется по формуле

Энтропийное значение погрешности - Инвестирование - 1 (6.4)

где Dэ — энтропийное значение погрешности;

Энтропийное значение погрешности - Инвестирование - 2

— энтропия действительного значения х измеряемой величины вокруг полученного после измерения значения хд, т.е. энтропия погрешности измерений; р(х) — плотность распределения вероятности измеряемой величины.

Основное достоинство информационного подхода к описанию измерений состоит в том, что размер энтропийного интервала неопределенности может быть найден строго математически для любого закона распределения. Это устраняет исторически сложившийся произвол, неизбежный при волевом назначении различных значений доверительной вероятности. Например, для нормального распределения Энтропийное значение погрешности - Инвестирование - 3 и Энтропийное значение погрешности - Инвестирование - 4 . Для распределения Симпсона Энтропийное значение погрешности - Инвестирование - 5

Соотношение между энтропийным Dэ и средним квадратическим s значениями погрешности различно для разных законов распределения, и его удобнее характеризовать энтропийным коэффициентом k=Dэ/s данного распределения (табл. 6.1).

Таблица 6.1

Значения коэффициента k для различных законов распределения

Закон распределения k Вид распределения k
Нормальное (Гаусса) 2,07 Равномерное 1,73
Треугольное (Симпсона) 2,02 Арксинусоидальное 1,11
Лапласа 1,93 Дискретное двузначное
Стьюдента (число степеней свободы — 4) 1,90 Коши
← Предыдущая страница | Следующая страница →