Информационная метрика Fisher - Fisher information metric
В информационная геометрия, то Информационная метрика Fisher особый Риманова метрика который можно определить на гладком статистическое многообразие, т.е., а гладкое многообразие чьи точки вероятностные меры определены на общем вероятностное пространство. Его можно использовать для расчета информационной разницы между измерениями.
Метрика интересна в нескольких отношениях. К Теорема Ченцова, информационная метрика Фишера на статистических моделях является единственной римановой метрикой (с точностью до масштабирования), инвариантной относительно достаточная статистика.[1][2]
Его также можно понимать как бесконечно малую форму относительной энтропии (т.е., то Дивергенция Кульбака – Лейблера ); в частности, это Гессен расхождения. С другой стороны, это можно понимать как метрику, индуцированную плоским пространством Евклидова метрика, после соответствующих изменений переменной. При расширении до сложного проективное гильбертово пространство, становится Метрика Фубини – Этюд; когда написано в терминах смешанные состояния, это квантовый Метрика Буреса.
Рассматриваемый исключительно как матрица, он известен как Информационная матрица Fisher. Рассматриваемый как метод измерения, когда он используется для оценки скрытых параметров с точки зрения наблюдаемых случайных величин, он известен как наблюдаемая информация.
Определение
Для статистического многообразия с координатами , один пишет для распределения вероятностей как функции . Вот извлекается из пространства значений р для (дискретного или непрерывного) случайная переменная Икс. Вероятность нормирована на
Тогда информационная метрика Фишера принимает форму:
Интеграл проводится по всем значениям Икс в Икс. Переменная теперь координата на Многообразие Римана. Этикетки j и k проиндексируйте локальные оси координат на коллекторе.
Когда вероятность выводится из Мера Гиббса, как это было бы для любого Марковский процесс, тогда также можно понимать как Множитель Лагранжа; Множители Лагранжа используются для обеспечения ограничений, таких как удержание ожидаемое значение некоторой постоянной величины. Если есть п сдерживающие ограничения п различные математические ожидания постоянны, то размер многообразия равен п габариты меньше исходного пространства. В этом случае метрика может быть явно получена из функция распределения; вывод и обсуждение представлены там.
Подстановка от теория информации, эквивалентная форма приведенного выше определения:
Чтобы показать, что эквивалентная форма равна приведенному выше определению, обратите внимание, что
и применить с обеих сторон.
Связь с расходимостью Кульбака – Лейблера.
В качестве альтернативы показатель может быть получен как вторая производная от относительная энтропия или Дивергенция Кульбака – Лейблера.[3] Чтобы получить это, нужно рассмотреть два распределения вероятностей и , бесконечно близкие друг к другу, так что
с участием бесконечно малое изменение в j направление. Тогда, поскольку расходимость Кульбака – Лейблера имеет абсолютный минимум 0, когда , есть расширение до второго порядка по формы
- .
Симметричная матрица положительно (полу) определен и является Матрица Гессе функции в точке экстремума . Интуитивно это можно представить как: «Расстояние между двумя бесконечно близкими точками на статистическом дифференциальном многообразии - это информационная разница между ними».
Связь с геометрией Руппайнера
В Метрика Руппайнера и Метрика Вайнхольда возникают как термодинамический предел информационной метрики Фишера.[4]
Изменение свободной энтропии
В действие кривой на Риманово многообразие дан кем-то
Параметр пути здесь время т; это действие можно понять как изменение свободная энтропия системы, поскольку она перемещается от времени а ко времени б.[4] В частности, есть
как изменение свободной энтропии. Это наблюдение привело к практическому применению в химический и обрабатывающая промышленность: чтобы минимизировать изменение свободной энтропии системы, нужно соблюдать минимум геодезический путь между желаемыми конечными точками процесса. Геодезическая минимизирует энтропию из-за Неравенство Коши – Шварца, который утверждает, что действие ограничено снизу длиной кривой в квадрате.
Связь с расхождением Дженсена – Шеннона
Метрика Фишера также позволяет связать действие и длину кривой с Расхождение Дженсена-Шеннона.[4] В частности, есть
где подынтегральное выражение dJSD под этим понимается бесконечно малое изменение расходимости Дженсена – Шеннона на выбранном пути. Аналогично для длина кривой, надо
То есть квадратный корень из дивергенции Дженсена – Шеннона - это просто метрика Фишера (деленная на квадратный корень из 8).
Как евклидова метрика
Для дискретное вероятностное пространство, то есть вероятностное пространство на конечном множестве объектов, метрику Фишера можно понимать просто как Евклидова метрика ограничивается положительным «квадрантом» единичной сферы после соответствующих изменений переменной.[5]
Рассмотрим плоское евклидово пространство размерности N+1, параметризованный точками . Метрика для евклидова пространства определяется выражением
где находятся 1-формы; они являются базисными векторами для котангенс пространство. Письмо как базисные векторы для касательное пространство, так что
- ,
евклидова метрика может быть записана как
Верхний индекс "плоский" служит для напоминания о том, что при записи в координатной форме эта метрика относится к координате плоского пространства .
An N-мерная единичная сфера, вложенная в (N + 1) -мерное евклидово пространство можно определить как
Это вложение индуцирует метрику на сфере, она наследуется непосредственно от евклидовой метрики на объемлющем пространстве. Он принимает точно такую же форму, что и выше, но гарантирует, что координаты должны лежать на поверхности сферы. Это можно сделать, например с техникой Множители Лагранжа.
Рассмотрим теперь замену переменной . Условие сферы теперь становится условием нормализации вероятности
в то время как метрика становится
Последнее можно распознать как четверть информационной метрики Фишера. Чтобы завершить процесс, напомним, что вероятности - это параметрические функции от переменных многообразия , то есть есть . Таким образом, сказанное выше индуцирует метрику на многообразии параметров:
или, в координатной форме, информационная метрика Фишера:
где, как и раньше,
Надстрочный индекс «рыбак» присутствует, чтобы напомнить, что это выражение применимо для координат ; тогда как некоординатная форма такая же, как евклидова метрика (плоское пространство). Таким образом, информационная метрика Фишера на статистическом многообразии - это просто (четыре раза) евклидова метрика, ограниченная положительным квадрантом сферы после соответствующих изменений переменной.
Когда случайная величина не дискретно, а непрерывно, рассуждение остается в силе. Это можно увидеть двумя разными способами. Один из способов состоит в том, чтобы тщательно преобразовать все вышеперечисленные шаги в бесконечномерном пространстве, стараясь правильно определить пределы и т. Д., Чтобы убедиться, что все манипуляции четко определены, сходятся и т. Д. Другой способ, поскольку отмечено Громов,[5] использовать теоретико-категориальный подход; то есть отметить, что описанные выше манипуляции остаются в силе в категории вероятностей. Здесь следует отметить, что такая категория имела бы Радон – Никодим свойство, это Теорема Радона – Никодима в этой категории. Это включает Гильбертовы пространства; они интегрируемы с квадратом, и в описанных выше манипуляциях этого достаточно, чтобы безопасно заменить суммирование по квадратам на интеграл по квадратам.
Как метрика Фубини – Штуди
Вышеупомянутые манипуляции с выводом метрики Фишера из евклидовой метрики можно распространить на комплексные проективные гильбертовы пространства. В этом случае получается Метрика Фубини – Этюд.[6] Возможно, это не должно вызывать удивления, поскольку метрика Фубини – Штуди обеспечивает средства измерения информации в квантовой механике. В Метрика Буреса, также известный как Метрика Хельстрома, идентична метрике Фубини – Штуди,[6] хотя последнее обычно пишется в терминах чистые состояния, как показано ниже, тогда как метрика Буреша написана для смешанные состояния. Установив фазу комплексной координаты равной нулю, можно получить ровно одну четвертую метрики информации Фишера, точно так же, как указано выше.
Начинают с того же трюка - построить амплитуда вероятности, написано в полярные координаты, так:
Вот, комплекснозначный амплитуда вероятности; и строго реальны. Предыдущие расчеты получены путем установки . Обычное условие, что вероятности лежат в пределах симплекс, а именно, что
эквивалентно выражается идеей нормализации квадрата амплитуды:
Когда реально, это поверхность сферы.
В Метрика Фубини – Этюд, записанный в бесконечно малой форме с использованием квантово-механических обозначение бюстгальтера, является
В этих обозначениях и интеграция по всему пространству измерения Икс записывается как
Выражение можно понимать как бесконечно малую вариацию; эквивалентно, это можно понимать как 1-форма в котангенс пространство. Используя бесконечно малые обозначения, полярная форма вероятности выше просто
Вставка вышеуказанного в метрику Фубини – Штуди дает:
Параметр в приведенном выше примере ясно, что первый член (одна четвертая) является метрикой информации Фишера. Полную форму вышеизложенного можно сделать немного более ясной, изменив обозначения на стандартную риманову геометрию, так что метрика станет симметричной. 2-форма действуя на касательное пространство. Изменение обозначений производится простой заменой и и отмечая, что интегралы - это просто математические ожидания; так:
Воображаемый термин - это симплектическая форма, это Ягодная фаза или геометрическая фаза. В индексной записи это показатель:
Опять же, можно ясно увидеть, что первый член (одна четвертая) является метрикой информации Фишера, если установить . Эквивалентно, метрику Фубини – Штуди можно понимать как метрику комплексного проективного гильбертова пространства, индуцированную комплексным расширением плоской евклидовой метрики. Разница между этой метрикой и метрикой Буреса заключается в том, что метрика Буреса записывается в терминах смешанных состояний.
Непрерывные вероятности
Чуть более формальное, абстрактное определение можно дать следующим образом.[7]
Позволять Икс быть ориентируемое многообразие, и разреши быть мера на Икс. Эквивалентно пусть быть вероятностное пространство на , с участием сигма-алгебра и вероятность .
В статистическое многообразие S(Икс) из Икс определяется как пространство всех мер на Икс (с сигма-алгеброй фиксируется). Обратите внимание, что это пространство бесконечномерно и обычно считается Fréchet space. Пункты S(Икс) - меры.
Выберите точку и рассмотрим касательное пространство . Тогда информационная метрика Фишера представляет собой внутренний продукт на касательном пространстве. С некоторыми злоупотребление обозначениями, можно записать это как
Вот, и - векторы в касательном пространстве; то есть, . Злоупотребление записью состоит в том, чтобы записывать касательные векторы, как если бы они были производными, и вставлять посторонние d при написании интеграла: предполагается, что интегрирование будет выполнено с использованием меры по всему пространству Икс. Такое злоупотребление обозначениями на самом деле считается совершенно нормальным в теория меры; это стандартное обозначение Производная Радона – Никодима.
Чтобы интеграл был определен корректно, пространство S(Икс) должен иметь Радон – Никодим свойство, а более конкретно, касательное пространство ограничено теми векторами, которые квадратично интегрируемый. Квадратная интегрируемость эквивалентна тому, что Последовательность Коши сходится к конечному значению при слабая топология: пространство содержит свои предельные точки.Обратите внимание, что Гильбертовы пространства обладают этим свойством.
Можно увидеть, что это определение метрики эквивалентно предыдущему в несколько этапов. Сначала выбирается подмногообразие из S(Икс), учитывая только те меры которые параметризуются некоторым плавно меняющимся параметром . Тогда, если конечномерно, то и подмногообразие тоже; аналогично, касательное пространство имеет ту же размерность, что и .
С некоторыми дополнительными злоупотреблениями языком можно отметить, что экспоненциальная карта обеспечивает отображение векторов касательного пространства в точки лежащего в основе многообразия. Таким образом, если вектор в касательном пространстве, то - соответствующая вероятность, связанная с точкой (после параллельный транспорт экспоненциального отображения в .) И наоборот, учитывая точку , логарифм дает точку в касательном пространстве (грубо говоря, как и снова, нужно перенести из начала в точку ; подробности см. в первоисточниках). Таким образом, в более простом определении, данном ранее, появляется логарифм.
Смотрите также
Заметки
- ^ Амари, Шун-ичи; Нагаока, Хориши (2000). «Теорема Ченцова и некоторые исторические замечания». Методы информационной геометрии. Нью-Йорк: Издательство Оксфордского университета. С. 37–40. ISBN 0-8218-0531-2.
- ^ Даути, Джеймс Г. (2018). "Теорема Ченцова для экспоненциальных семейств". Информационная геометрия. 1 (1): 117–135. arXiv:1701.08895. Дои:10.1007 / s41884-018-0006-4.
- ^ Обложка, Томас М .; Томас, Джой А. (2006). Элементы теории информации (2-е изд.). Хобокен: Джон Уайли и сыновья. ISBN 0-471-24195-4.
- ^ а б c Крукс, Гэвин Э. (2009). «Измерение термодинамической длины». Письма с физическими проверками: 100602. arXiv:0706.0559. Дои:10.1103 / PhysRevLett.99.100602.
- ^ а б Громов, Миша (2012). «В поисках структуры, часть 1: об энтропии» (PDF). Цитировать журнал требует
| журнал =
(Помогите) - ^ а б Факки, Паоло; и другие. (2010). "Классическая и квантовая информация Фишера в геометрической формулировке квантовой механики". Письма по физике. А 374: 4801. arXiv:1009.5219. Дои:10.1016 / j.physleta.2010.10.005.
- ^ Ито, Мицухиро; Шишидо, Юичи (2008). «Информационная метрика Фишера и ядра Пуассона». Дифференциальная геометрия и ее приложения. 26: 347–356. Дои:10.1016 / j.difgeo.2007.11.027. HDL:2241/100265.
Рекомендации
- Эдвард Х. Фенг, Гэвин Э. Крукс "Далекие от равновесия измерения термодинамической длины " (2009) Физический обзор E 79, pp 012104. DOI: 10.1103 / PhysRevE.79.012104
- Шунити Амари (1985) Дифференциально-геометрические методы в статистике, Конспект лекций по статистике, Springer-Verlag, Берлин.
- Сюнъити Амари, Хироши Нагаока (2000) Методы информационной геометрии, Переводы математических монографий; v. 191, Американское математическое общество.
- Паоло Гибилиско, Ева Риккоманьо, Мария Пьера Рогантин и Генри П. Винн, (2009) Алгебраические и геометрические методы в статистике, Cambridge U. Press, Кембридж.