Энтропийное представление о количестве измерительной информации
⇐ ПредыдущаяСтр 17 из 17 В понятии теории информации смысл измерения состоит в сужении интервала неопределенности. При практическом использовании информационного подхода для оценки точности результатов измерений рационально оперировать с понятием энтропийного значения погрешности Δэ. Можно оценивать погрешность через число разрешаемых градаций отклика. Так, имея шкалу, проградуированную в определенных единицах величины, затруднительно решить вопрос об измеренном значении этой величины, если точка (показание прибора) попадает между делениями шкалы.
I = H(X) – H(X/Xп), где H(X) – энтропия измеряемой величины до ее измерения; H(X/Xп) – (энтропия Х при условии Хп) – энтропия действительного значения х измеряемой величины вокруг показания Хп , полученного после измерения, т.е. энтропия погрешности измерения. Эти оценки неопределенности в виде энтропии до и после измерения могут быть вычислены по соотношению:
р (х) = l/(Х2- Х1) при Х1≤ х ≤ Х2; р (х) = 0 при х < Х1 и х > Х2 Отсюда энтропия Н(X) до измерения: После проведения измерения мы получаем отсчет Хп. Однако вследствие погрешности прибора, равной ±Δ, можем лишь утверждать, что действительное значение измеряемой величины лежит где-то в пределах интервала неопределенности шириной d = 2Δ.. Если прибор обладает погрешностью с равномерным распределением, то ситуация после измерения описывается распределением с шириной d = 2Δ и плотностью р(х) = 1/(2Δ). Таким образом, в понятиях теории информации смысл измерения состоит в сужении интервала неопределенности от Х2 - Х1 до измерения до d = 2Δ — после измерения, т. е. в N = (Х2 — Х1)/(2Δ) раз. Количество информации, полученное в результате измерения, равно разности исходной и оставшейся энтропии, т. е.:
Число N показывает, сколько интервалов неопределенности длиной d = 2Δ укладывается во всем диапазоне Х2 — Х1 т. е. какое число различимых градаций измеряемой величины позволяет получить данный прибор или метод измерения. Соотношения I = In N и N = (Х2 — X1)/d справедливы при любом законе распределения погрешности, если только интервал неопределенности d будет найден через энтропию. Так, например, для нормально распределенной погрешности: Отсюда энтропия погрешности:
Подобным же образом энтропийный интервал неопределенности результата измерения может быть однозначно найден для любого выраженного аналитически закона распределения погрешности. При практическом использовании информационного подхода для оценки точности результатов измерений привычнее оперировать не со значениями энтропийного интервала неопределенности результата измерения d, а с половиной этого интервала, присвоив ей наименование энтропийного значения погрешности Δэ. Формальным определением энтропийного значения случайной величины являются соотношения: отсюда Соотношение между энтропийным Δэ и средним квадратическим σ значениями погрешности различно для разных законов распределения, и его удобно характеризовать значением энтропийного коэффициента k =Δэ/σ данного закона распределения. Для нормального распределения (про энтропийную вероятность я уже понять не в силах. Кому надо, читайте в Новицком, с.60)
Воспользуйтесь поиском по сайту: ![]() ©2015 - 2025 megalektsii.ru Все авторские права принадлежат авторам лекционных материалов. Обратная связь с нами...
|