Энтропийное представление о количестве измерительной информации
⇐ ПредыдущаяСтр 17 из 17 В понятии теории информации смысл измерения состоит в сужении интервала неопределенности. При практическом использовании информационного подхода для оценки точности результатов измерений рационально оперировать с понятием энтропийного значения погрешности Δэ. Можно оценивать погрешность через число разрешаемых градаций отклика. Так, имея шкалу, проградуированную в определенных единицах величины, затруднительно решить вопрос об измеренном значении этой величины, если точка (показание прибора) попадает между делениями шкалы. Вопрос можно решить 2-мя путями: увеличить количество градаций, уменьшив цену деления (тогда более точно можно будет сказать, что это две разные точки), или воспользоваться энтропийным подходом, заключающимся в оценке количества получаемой информации. Энтропия – мера неопределенности. Согласно К.Шенноу, количество информации I, определяется как разность энтропий: I = H(X) – H(X/Xп), где H(X) – энтропия измеряемой величины до ее измерения; H(X/Xп) – (энтропия Х при условии Хп) – энтропия действительного значения х измеряемой величины вокруг показания Хп , полученного после измерения, т.е. энтропия погрешности измерения. Эти оценки неопределенности в виде энтропии до и после измерения могут быть вычислены по соотношению:
Пример. Пусть для измерения величины х был использован прибор со шкалой от X1 до Х2, (например, амперметр со шкалой от —50 А до +50 А). Тогда вероятностное описание ситуации до измерения состоит в том, что вероятность получить показания прибора в интервалах от —∞ до Х1 и от Х2 до +∞ равна нулю, т. е. плотность распределения вероятностей р(х) в этих интервалах также равна нулю. Следовательно, показание можно ожидать лишь в интервале от Х1 до Х2 и, если предположить, что оно с равной вероятностью может оказаться в любой части этого диапазона, то вероятностное описание ситуации до измерения изобразится равномерным распределением х в пределах от Х1 до Х2 и может быть записано как
р (х) = l/(Х2- Х1) при Х1≤ х ≤ Х2; р (х) = 0 при х < Х1 и х > Х2 Отсюда энтропия Н(X) до измерения: . Таким образом, до измерения интервал неопределенности предстоящего отсчета простирается от X1 до Х2, а шенноновская энтропия есть логарифмическая мера длины этого интервала. После проведения измерения мы получаем отсчет Хп. Однако вследствие погрешности прибора, равной ±Δ, можем лишь утверждать, что действительное значение измеряемой величины лежит где-то в пределах интервала неопределенности шириной d = 2Δ.. Если прибор обладает погрешностью с равномерным распределением, то ситуация после измерения описывается распределением с шириной d = 2Δ и плотностью р(х) = 1/(2Δ). Таким образом, в понятиях теории информации смысл измерения состоит в сужении интервала неопределенности от Х2 - Х1 до измерения до d = 2Δ — после измерения, т. е. в N = (Х2 — Х1)/(2Δ) раз. Количество информации, полученное в результате измерения, равно разности исходной и оставшейся энтропии, т. е.: . Число N показывает, сколько интервалов неопределенности длиной d = 2Δ укладывается во всем диапазоне Х2 — Х1 т. е. какое число различимых градаций измеряемой величины позволяет получить данный прибор или метод измерения. Соотношения I = In N и N = (Х2 — X1)/d справедливы при любом законе распределения погрешности, если только интервал неопределенности d будет найден через энтропию. Так, например, для нормально распределенной погрешности: Отсюда энтропия погрешности: Учитывая, что и по определению дисперсии , получаем , т. е. интервал неопределенности d результата измерения, найденный через энтропию в соответствии с теорией информации, однозначно (без каких-либо предположений о выборе уровня доверительной вероятности) равен d = ≈ 4,133σ, а число различимых градаций результата измерения при равномерном распределении вероятности различных значений измеряемой величины:
. Подобным же образом энтропийный интервал неопределенности результата измерения может быть однозначно найден для любого выраженного аналитически закона распределения погрешности. При практическом использовании информационного подхода для оценки точности результатов измерений привычнее оперировать не со значениями энтропийного интервала неопределенности результата измерения d, а с половиной этого интервала, присвоив ей наименование энтропийного значения погрешности Δэ. Формальным определением энтропийного значения случайной величины являются соотношения: отсюда и . Соотношение между энтропийным Δэ и средним квадратическим σ значениями погрешности различно для разных законов распределения, и его удобно характеризовать значением энтропийного коэффициента k =Δэ/σ данного закона распределения. Для нормального распределения и k = 2,066. Для других распределений по-другому. Максимальное возможное значение энтропийного коэффициента k = 2,066 имеет нормальное распределение. (про энтропийную вероятность я уже понять не в силах. Кому надо, читайте в Новицком, с.60)
Воспользуйтесь поиском по сайту: ©2015 - 2024 megalektsii.ru Все авторские права принадлежат авторам лекционных материалов. Обратная связь с нами...
|