Мера относительной информации в теории вероятностей
Диаграмма Венна показывая аддитивные и вычитающие отношения различных
информационные меры связанные с коррелированными переменными
и
. Область, содержащаяся в обоих кругах, является
совместная энтропия . Круг слева (красный и фиолетовый) - это
индивидуальная энтропия , красный - это
условная энтропия . Круг справа (синий и фиолетовый) - это
, с синим существом
. Фиолетовый - это
взаимная информация .
В теория информации, то условная энтропия определяет количество информации, необходимой для описания результатов случайная переменная учитывая, что значение другой случайной величины известен. Здесь информация измеряется в Shannons, нац, или же Hartleys. В энтропия при условии записывается как .
Определение
Условная энтропия данный определяется как
| | (Уравнение 1) |
куда и обозначить комплекты поддержки из и .
Примечание: Принято считать, что выражения и для фиксированного следует рассматривать как равное нулю. Это потому что и [1]
Интуитивное объяснение определения: Согласно определению, куда партнеры информационное содержание данный , то есть количество информации, необходимой для описания события. данный . Согласно закону больших чисел, является средним арифметическим большого числа независимых реализаций .
Мотивация
Позволять быть энтропия дискретной случайной величины обусловлено дискретной случайной величиной принимая определенное значение . Обозначим опорные множества и к и . Позволять имеют функция массы вероятности . Безусловная энтропия рассчитывается как , т.е.
куда это информационное содержание из исход из принимая значение . Энтропия при условии принимая значение определяется аналогично условное ожидание:
Обратите внимание, что является результатом усреднения по всем возможным значениям который может занять. Также, если указанная выше сумма берется за образец , ожидаемое значение в некоторых областях известен как двусмысленность.[2]
Данный дискретные случайные величины с изображением и с изображением , условная энтропия данный определяется как взвешенная сумма для каждого возможного значения , с помощью как веса:[3]:15
Характеристики
Условная энтропия равна нулю
тогда и только тогда, когда значение полностью определяется величиной .
Условная энтропия независимых случайных величин
Наоборот, если и только если и находятся независимые случайные величины.
Правило цепи
Предположим, что комбинированная система, определяемая двумя случайными величинами и имеет совместная энтропия , то есть нам нужно бит информации в среднем для описания его точного состояния. Теперь, если мы сначала узнаем значение , мы получили биты информации. Один раз известно, нам нужно только биты для описания состояния всей системы. Это количество ровно , что дает Правило цепи условной энтропии:
- [3]:17
Цепное правило следует из приведенного выше определения условной энтропии:
В общем, выполняется цепное правило для нескольких случайных величин:
- [3]:22
По форме он похож на Правило цепи в теории вероятностей, за исключением того, что вместо умножения используется сложение.
Правило Байеса
Правило Байеса для состояний с условной энтропией
Доказательство. и . Симметрия влечет за собой . Вычитание двух уравнений подразумевает правило Байеса.
Если является условно независимый из данный у нас есть:
Другие свойства
Для любого и :
куда это взаимная информация между и .
Для независимых и :
- и
Хотя удельно-условная энтропия может быть меньше или больше чем для данного случайное изменение из , никогда не может превышать .
Условная дифференциальная энтропия
Определение
Приведенное выше определение предназначено для дискретных случайных величин. Непрерывная версия дискретной условной энтропии называется условная дифференциальная (или непрерывная) энтропия. Позволять и - непрерывные случайные величины с совместная функция плотности вероятности . Дифференциальная условная энтропия определяется как[3]:249
| | (Уравнение 2) |
Характеристики
В отличие от условной энтропии для дискретных случайных величин, условная дифференциальная энтропия может быть отрицательной.
Как и в дискретном случае, для дифференциальной энтропии существует цепное правило:
- [3]:253
Обратите внимание, однако, что это правило может не выполняться, если задействованные дифференциальные энтропии не существуют или бесконечны.
Совместная дифференциальная энтропия также используется в определении взаимная информация между непрерывными случайными величинами:
с равенством тогда и только тогда, когда и независимы.[3]:253
Связь с ошибкой оценщика
Условная дифференциальная энтропия дает нижнюю границу ожидаемой квадратичной ошибки оценщик. Для любой случайной величины , наблюдение и оценщик имеет место следующее:[3]:255
Это связано с принцип неопределенности из квантовая механика.
Обобщение квантовой теории
В квантовая теория информации, условная энтропия обобщается на условная квантовая энтропия. Последний может принимать отрицательные значения, в отличие от своего классического аналога.
Смотрите также
Рекомендации