Информация о взаимодействии - Interaction information

В информация о взаимодействии (McGill 1954), или количество информации (Ху Го Тин, 1962) или совместная информация (Bell 2003), является одним из нескольких обобщений взаимная информация.

Информация о взаимодействии выражает объем информации (избыточность или синергизм), связанный с набором переменных, вне то, что присутствует в любом подмножестве этих переменных. В отличие от взаимной информации, информация о взаимодействии может быть как положительной, так и отрицательной. Это сбивающее с толку свойство, вероятно, задержало его более широкое распространение в качестве информационной меры в машинное обучение и наука о мышлении. Эти функции, их отрицательность и минимумы имеют прямую интерпретацию в алгебраическая топология (Бодо и Беннекен, 2015).

Случай трех переменных

Для трех переменных , информация о взаимодействии дан кем-то

где, например, взаимная информация между переменными и , и это условная взаимная информация между переменными и данный . Формально,

и

Отсюда следует, что

Для случая трех переменных информация о взаимодействии разница между информацией, которой поделился когда был исправлен и когда не было исправлено. (См. Также учебник Фано 1961 года.) Информация о взаимодействии измеряет влияние переменной. об объеме информации, передаваемой между . Потому что срок может быть больше, чем - например, когда оба и оказывать совместное воздействие на но независимы друг от друга, не зная , информация о взаимодействии может быть как положительной, так и отрицательной. Положительный информация о взаимодействии указывает, что переменная подавляет (т.е. аккаунты для или же объясняет некоторые из) корреляция между , в то время как отрицательный информация о взаимодействии указывает, что переменная облегчает или усиливает корреляцию между .

Информация о взаимодействии ограничена. В случае трех переменных он ограничен (Yeung 91)

Пример информации о положительном взаимодействии

Информация о положительном взаимодействии кажется гораздо более естественной, чем информация об отрицательном взаимодействии в том смысле, что такая пояснительный эффекты типичны для структур общей причины. Например, облака вызывают дождь, а также закрывают солнце; следовательно, корреляция между дождем и темнотой частично объясняется наличием облаков, . Результат - положительная информация о взаимодействии .

Пример информации о негативном взаимодействии

Xor Interaction.png

Случай с информацией о негативном взаимодействии кажется немного менее естественным. Типичный пример негатива имеет как выход элемента XOR, к которому и являются независимыми случайными входами. В этом случае будет ноль, но будет положительным (1 кусочек ), поскольку один раз вывод известно, значение на входе полностью определяет значение на входе . С , результат - отрицательная информация о взаимодействии . Может показаться, что в этом примере используется своеобразное упорядочение чтобы получить отрицательное взаимодействие, но симметрия определения для указывает, что результат одного и того же отрицательного взаимодействия не зависит от того, какую переменную мы считаем нарушитель или кондиционирующая переменная. Например, введите и вывод также независимы до ввода фиксировано, и в этот момент они полностью зависят (очевидно), и у нас есть та же информация об отрицательном взаимодействии, что и раньше, .

Common-effect.png

Эта ситуация является примером, когда исправление общий эффект причин и вызывает зависимость между причинами, которых раньше не было. Такое поведение в просторечии называется объясняя и подробно обсуждается в Байесовская сеть литературе (например, Pearl 1988). Пример Перла - автоматическая диагностика: двигатель автомобиля может не заводиться. либо из-за разряженной батареи или из-за заблокированного топливного насоса . Обычно мы предполагаем, что выход из строя аккумуляторной батареи и блокировка топливного насоса являются независимыми событиями из-за существенной модульности таких автомобильных систем. Таким образом, в отсутствие другой информации знание того, разрядился аккумулятор или нет, не дает нам информации о том, заблокирован ли топливный насос. Однако, если мы узнаем, что машина не заводится (т. Е. Исправляем общий эффект ), эта информация вызывает зависимость между двумя причинами смерть батареи и засорение топлива. Таким образом, зная, что автомобиль не заводится, если проверка показывает, что аккумулятор находится в хорошем состоянии, мы можем сделать вывод, что топливный насос должен быть заблокирован.

Смерть батареи и засорение топлива таким образом зависят, обусловлены их общим действием запуск машины. Предыдущее обсуждение указывает на то, что очевидная направленность в графе общих эффектов противоречит глубокой информационной симметрии: если обусловленность общего эффекта увеличивает зависимость между двумя его родительскими причинами, то обусловливание одной из причин должно вызывать такое же усиление зависимости. между второй причиной и общим следствием. В автомобильном примере Перла, если машина заводится побуждает биты зависимости между двумя причинами батарея разряжена и топливо заблокировано, затем кондиционированиетопливо заблокировано должен побудить биты зависимости между батарея разряжена и машина заводится. Это может показаться странным, потому что батарея разряжена и машина заводится уже регулируются подтекстом батарея разряжена машина не заводится. Однако эти переменные все еще не полностью коррелированы, потому что обратное неверно. Кондиционирование на топливо заблокировано устраняет главную альтернативную причину неудачного запуска и усиливает обратную связь и, следовательно, связь между батарея разряжена и машина заводится. В статье Tsujishita (1995) более подробно рассматривается взаимная информация третьего порядка.

Положительность для цепей Маркова

Если три переменные образуют цепь Маркова , тогда , но . Отсюда мы сделали вывод, что

Случай с четырьмя переменными

Можно рекурсивно определить п-мерная информация о взаимодействии с точки зрения -мерная информация о взаимодействии. Например, информация о четырехмерном взаимодействии может быть определена как

или, что то же самое,

В п-переменный случай

Все эти результаты можно распространить на любое количество измерений. Общее выражение для информации о взаимодействии с набором переменных в терминах предельной энтропии дано Ху Куо Тингом (1962), Якулин и Братко (2003).

которая является альтернированной суммой (включение-исключение) по всем подмножествам , куда . Обратите внимание, что это теоретико-информационный аналог Приближение Кирквуда.

Трудности с интерпретацией информации о взаимодействии

Возможная негативность информации о взаимодействии может быть источником некоторой путаницы (Bell 2003). В качестве примера этой путаницы рассмотрим набор из восьми независимых двоичных переменных. . Агломерируйте эти переменные следующим образом:

Поскольку перекрывают друг друга (избыточны) по трем двоичным переменным , мы ожидаем, что информация о взаимодействии в равной биты, которые он делает. Однако теперь рассмотрим агломерированные переменные

Это те же переменные, что и раньше, с добавлением . Тем не мение, в этом случае фактически равно бит, указывающий на меньшую избыточность. Это правильно в том смысле, что

но по-прежнему трудно интерпретировать.

Использует

  • Якулин и Братко (2003b) предлагают алгоритм машинного обучения, который использует информацию о взаимодействии.
  • Киллиан, Кравиц и Гилсон (2007) используют расширение взаимной информации для извлечения оценок энтропии из молекулярного моделирования.
  • ЛеВин и Вайнштейн (2014) используют информацию о взаимодействии и другие меры информации о N-телах для количественной оценки аллостерических связей в молекулярном моделировании.
  • Мур и др. (2006), Chanda P, Zhang A, Brazeau D, Sucheston L, Freudenheim JL, Ambrosone C, Ramanathan M. (2007) и Chanda P, Sucheston L, Zhang A, Brazeau D, Freudenheim JL, Ambrosone C, Ramanathan M. (2008) демонстрируют использование информации о взаимодействии для анализа взаимодействия генов и генов со средой, связанных со сложными заболеваниями.
  • Панди и Саркар (2017) используют информацию о взаимодействии в космологии для изучения влияния крупномасштабной окружающей среды на свойства галактик.
  • Доступен пакет python для вычисления всего многомерного взаимодействия или взаимной информации, условной взаимной информации, совместных энтропий, общих корреляций, информационного расстояния в наборе данных из n переменных.[1]

Рекомендации

  1. ^ "InfoTopo: Анализ топологической информации. Глубокое статистическое обучение без учителя и с учителем - Обмен файлами - Github". github.com/pierrebaudot/infotopopy/. Получено 26 сентября 2020.