Обратная вероятность - Википедия - Inverse probability
В теория вероятности, обратная вероятность это устаревший термин для обозначения распределение вероятностей ненаблюдаемой переменной.
Сегодня проблема определения ненаблюдаемой переменной (каким-либо методом) называется выведенный статистика, метод обратной вероятности (присвоение распределения вероятностей ненаблюдаемой переменной) называется Байесовская вероятность, "распределение" данных с учетом ненаблюдаемой переменной скорее функция правдоподобия (что не является распределением вероятностей), и распределение ненаблюдаемой переменной с учетом как данных, так и предварительное распространение, это апостериорное распределение. Развитие области и терминологии от «обратной вероятности» к «байесовской вероятности» описывается следующим образом: Файнберг (2006).
Термин «обратная вероятность» появляется в статье 1837 г. Де Морган, в отношении Лаплас метод вероятностей (разработанный в статье 1774 г., в которой независимо были открыты и популяризированы байесовские методы, и в книге 1812 г.), хотя термин «обратная вероятность» в них не встречается.[1] Фишер использует этот термин в Фишер (1922), ссылаясь на «фундаментальный парадокс обратной вероятности» как на источник путаницы между статистическими терминами, которые относятся к истинному значению, которое необходимо оценить, с фактическим значением, полученным методом оценки, который подвержен ошибкам. Позже Джеффрис использует этот термин в своей защите методов Байеса и Лапласа в Джеффрис (1939). Термин «байесовский», заменивший «обратную вероятность», был введен Рональд Фишер в 1950 г.[2] Обратная вероятность, интерпретируемая по-разному, была доминирующим подходом к статистике до развития теории частотность в начале 20 века Рональд Фишер, Ежи Нейман и Эгон Пирсон.[3] Следуя развитию частотного стиля, термины частотник и Байесовский были разработаны, чтобы противопоставить эти подходы, и получили широкое распространение в 1950-х годах.
Подробности
Говоря современным языком, с учетом распределения вероятностей п(Икс| θ) для наблюдаемой величины Икс обусловлена ненаблюдаемой переменной θ, "обратная вероятность" - это апостериорное распределение п(θ |Икс), которая зависит как от функции правдоподобия (инверсия распределения вероятностей), так и от априорного распределения. Распространение п(Икс| θ) называется прямая вероятность.
В обратная вероятностная задача (в 18-19 вв.) была проблема оценки параметра по экспериментальным данным в экспериментальных науках, особенно астрономия и биология. Простым примером может быть проблема оценки положения звезды на небе (в определенное время в определенную дату) для целей навигация. Учитывая данные, необходимо оценить истинное положение (вероятно, путем усреднения). Эта проблема теперь будет считаться одной из выведенный статистика.
Термины «прямая вероятность» и «обратная вероятность» использовались до середины 20 века, когда термины «функция правдоподобия "и" апостериорное распределение "стало преобладающим.
Смотрите также
Рекомендации
- ^ Финберг 2006, п. 5.
- ^ Финберг 2006, п. 14.
- ^ Финберг 2006, 4.1 Частые альтернативы обратной вероятности, стр. 7–9.
- Фишер, Р. А. (1922). «О математических основах теоретической статистики». Филос. Пер. R. Soc. Лондон А. 222A: 309–368.
- См. Перепечатку в Коц, С. (1992). Прорыв в статистике Том 1. Springer-Verlag.
- Джеффрис, Гарольд (1939). Теория вероятности (Третье изд.). Издательство Оксфордского университета.
- Финберг, Стивен Э. (2006). «Когда байесовский вывод стал« байесовским »?». Байесовский анализ. 1 (1): 1–40. Дои:10.1214 / 06-BA101.