Теория информации и теория меры - Information theory and measure theory
В этой статье рассказывается, как теория информации (раздел математики, изучающий передачу, обработку и хранение Информация ) относится к теория меры (раздел математики, связанный с интеграция и вероятность ).
Меры в теории информации
Многие концепции теории информации имеют отдельные определения и формулы для непрерывный и дискретный случаи. Например, энтропия обычно определяется для дискретных случайных величин, тогда как для непрерывных случайных величин родственное понятие дифференциальная энтропия, написано , используется (см. Обложка и Томас, 2006, глава 8). Обе эти концепции являются математическими. ожидания, но ожидание определяется с помощью интеграл для непрерывного случая и сумма для дискретного случая.
Эти отдельные определения могут быть более тесно связаны с точки зрения теория меры. Для дискретных случайных величин функции вероятности и массы можно рассматривать как функции плотности по отношению к счетной мере. Думая об интеграле и сумме как об интегрировании в пространстве мер, можно использовать единый подход.
Рассмотрим формулу дифференциальной энтропии непрерывного случайная переменная с диапазоном и функция плотности вероятности :
Обычно это можно интерпретировать следующим образом. Интеграл Римана – Стилтьеса.:
куда это Мера Лебега.
Если вместо этого дискретный, с диапазоном конечное множество, - функция массы вероятности на , и это счетная мера на , мы можем написать:
Интегральное выражение и общая концепция в непрерывном случае идентичны; единственная разница - это используемая мера. В обоих случаях функция плотности вероятности это Производная Радона – Никодима из вероятностная мера относительно меры, по которой берется интеграл.
Если - вероятностная мера, индуцированная , то интеграл можно брать и непосредственно по :
Если вместо основной меры μ взять другую вероятностную меру , мы пришли к Дивергенция Кульбака – Лейблера: позволять и - вероятностные меры в одном и том же пространстве. Тогда если является абсолютно непрерывный относительно , написано то Производная Радона – Никодима существует и расхождение Кульбака – Лейблера может быть выражено в его полной общности:
где интеграл пробегает поддерживать из Обратите внимание, что мы опустили отрицательный знак: расхождение Кульбака – Лейблера всегда неотрицательно из-за Неравенство Гиббса.
Энтропия как «мера»
Эта секция нужны дополнительные цитаты для проверка.Апрель 2017 г.) (Узнайте, как и когда удалить этот шаблон сообщения) ( |
Есть аналогия между Шеннон основной "меры " из Информация содержание случайных величин и мера над наборами. А именно совместная энтропия, условная энтропия, и взаимная информация можно рассматривать как меру установить союз, установить разницу, и установить пересечение соответственно (Реза, с. 106–108).
Если связать существование абстрактных наборы и произвольно дискретный случайные переменные Икс и Y, каким-то образом представляя Информация несет Икс и Yсоответственно такие, что:
- в любое время Икс и Y безусловно независимый, и
- в любое время Икс и Y таковы, что одно полностью определяется другим (т. е. биекцией);
куда это подписанная мера над этими наборами, и мы устанавливаем:
мы находим, что Шеннон «мера» информационного содержания удовлетворяет всем постулатам и основным свойствам формального подписанная мера над наборами, как обычно информационная диаграмма. Это позволяет записать сумму двух измерений:
и аналог Теорема Байеса () позволяет записать разность двух тактов:
Это может быть удобно мнемоническое устройство в некоторых ситуациях, например
Обратите внимание, что меры (математические ожидания логарифма) истинных вероятностей называются «энтропией» и обычно обозначаются буквой ЧАС, в то время как другие показатели часто называют «информацией» или «корреляцией» и обычно обозначаются буквой я. Для простоты обозначений буква я иногда используется для всех мер.
Многомерная взаимная информация
Определенные расширения определений базовых мер информации Шеннона необходимы, чтобы иметь дело с σ-алгебра генерируется наборами, которые будут связаны с тремя или более произвольными случайными величинами. (См. Реза, стр. 106–108 для неформального, но довольно полного обсуждения.) А именно. должно быть определено очевидным образом как энтропия совместного распределения, а многомерное взаимная информация определены подходящим образом, чтобы мы могли установить:
чтобы определить (знаковую) меру по всей σ-алгебре. Не существует единого общепринятого определения многовариантной взаимной информации, но то, которое здесь соответствует мере пересечения множеств, принадлежит Фано (1966: стр. 57-59). Определение рекурсивное. В качестве базового случая взаимная информация одной случайной величины определяется как ее энтропия: . Тогда для мы установили
где условная взаимная информация определяется как
Первый шаг в рекурсии дает определение Шеннона Многомерная взаимная информация (такая же, как информация о взаимодействии но для изменения знака) трех или более случайных величин могут быть как отрицательными, так и положительными: Пусть Икс и Y быть двумя независимыми справедливыми подбрасываниями монеты, и пусть Z быть их Эксклюзивный или. потом кусочек.
Для трех и более случайных величин возможны многие другие варианты: например, взаимная информация совместного распределения Икс и Y относительно Z, и может интерпретироваться как Таким образом можно построить множество более сложных выражений, которые все еще имеют значение, например или же
Рекомендации
- Томас М. Кавер и Джой А. Томас. Элементы теории информации, второе издание, 2006 г. Нью-Джерси: Wiley and Sons. ISBN 978-0-471-24195-9.
- Фазлолла М. Реза. Введение в теорию информации. Нью-Йорк: Макгроу-Хилл 1961. Нью-Йорк: Довер 1994. ISBN 0-486-68210-2
- Фано, Р. М. (1966), Передача информации: статистическая теория коммуникации, MIT Press, ISBN 978-0-262-56169-3, OCLC 804123877
- R. W. Yeung, "Об энтропии, информационных неравенствах и группах". PS