Принцип правдоподобия - Likelihood principle
В статистика, то принцип правдоподобия утверждение, что при заданном статистическая модель, все доказательства в образец относящиеся к параметрам модели, содержатся в функция правдоподобия.
Функция правдоподобия возникает из функция плотности вероятности рассматривается как функция его аргумента распределительной параметризации. Например, рассмотрим модель, которая дает функцию плотности вероятности ƒИкс(Икс | θ) наблюдаемых случайная переменная Икс как функция параметраθ. Затем для определенного значения Икс из Икс, функция (θ | Икс) = ƒИкс(Икс | θ) является функцией правдоподобияθ: дает меру того, насколько "вероятно" какое-либо конкретное значение θ если мы знаем, что Икс имеет ценностьИкс. Функция плотности может быть плотностью по отношению к счетной мере, т.е. функция массы вероятности.
Две функции правдоподобия: эквивалент если один является скалярным кратным другому.[а] В принцип правдоподобия заключается в следующем: вся информация из данных, которая имеет отношение к выводам о значении параметров модели, находится в классе эквивалентности, к которому принадлежит функция правдоподобия. В принцип сильной вероятности применяет тот же критерий к случаям, таким как последовательные эксперименты, когда доступная выборка данных является результатом применения правило остановки к наблюдениям ранее в эксперименте.[1]
Пример
Предполагать
- Икс это количество успехов из двенадцати независимый Бернулли испытания с вероятностью θ успеха в каждом испытании, и
- Y это количество независимых испытаний Бернулли, необходимое для достижения трех успехов, опять же с вероятностью θ (= 1/2 для подбрасывания монеты) успеха в каждом испытании.
Затем наблюдение, что Икс = 3 индуцирует функцию правдоподобия
в то время как наблюдение, что Y = 12 индуцирует функцию правдоподобия
Принцип правдоподобия гласит, что, поскольку данные в обоих случаях одинаковы, выводы, сделанные о ценности θ тоже должно быть таким же. Кроме того, все выводимое содержание данных о стоимости θ содержится в двух вероятностях и одинаково, если они пропорциональны друг другу. Так обстоит дело в приведенном выше примере, что отражает тот факт, что разница между наблюдением Икс = 3 и наблюдая Y = 12 лежит не в реальных данных, а просто в план эксперимента. В частности, в одном случае человек заранее решил попробовать двенадцать раз; в другом - продолжать попытки, пока не будут достигнуты три успеха. Вывод о θ должны быть одинаковыми, и это отражается в том факте, что две вероятности пропорциональны друг другу.
Однако это не всегда так. Использование частотник методы с участием p-значения приводит к различным выводам для двух приведенных выше случаев,[2] показывая, что результат частотных методов зависит от экспериментальной процедуры и, таким образом, нарушает принцип правдоподобия.
Закон вероятности
Связанная концепция - это закон вероятности, представление о том, что степень, в которой свидетельства поддерживают одно значение параметра или гипотезу по сравнению с другим, указывается отношением их правдоподобий, их отношение правдоподобия. То есть,
степень, в которой наблюдение Икс поддерживает значение параметра или гипотезу а против б. Если это соотношение равно 1, свидетельство безразлично; если больше 1, свидетельство поддерживает значение а против б; а если меньше, то наоборот.
В Байесовская статистика, это отношение известно как Фактор Байеса, и Правило Байеса можно рассматривать как применение закона вероятности к умозаключениям.
В частотный вывод, отношение правдоподобия используется в критерий отношения правдоподобия, но используются и другие тесты на отсутствие вероятности. В Лемма Неймана – Пирсона. заявляет, что критерий отношения правдоподобия является наиболее мощный тест для сравнения двух простые гипотезы при данном уровень значимости, который дает частотное обоснование закона вероятности.
Комбинирование принципа правдоподобия с законом правдоподобия приводит к тому, что значение параметра, которое максимизирует функцию правдоподобия, является значением, которое наиболее убедительно подтверждается свидетельствами. Это основа широко используемых метод максимального правдоподобия.
История
Принцип правдоподобия был впервые идентифицирован под этим названием в печати в 1962 году (Барнард и др., Бирнбаум и Сэвидж и др.), Но аргументы в пользу того же принципа, не названного, и его использование в приложениях восходят к работам из Р.А. Фишер в 1920-е гг. Закон правдоподобия был назван этим именем I. Взлом (1965). Совсем недавно принцип правдоподобия как общий принцип вывода отстаивали А. В. Ф. Эдвардс. Принцип правдоподобия был применен к философия науки пользователя R. Royall.[3]
Бирнбаум доказал, что принцип правдоподобия следует из двух более примитивных и, казалось бы, разумных принципов: принцип обусловленности и принцип достаточности:
- Принцип обусловленности гласит, что если эксперимент выбран случайным процессом, не зависящим от состояний природы , то только фактически проведенный эксперимент имеет отношение к выводам о .
- Принцип достаточности гласит, что если это достаточная статистика за , а если в двух экспериментах с данными и у нас есть , то свидетельство о Данные двух экспериментов одинаковы.
Аргументы за и против
Некоторые широко используемые методы традиционной статистики, например многие тесты значимости, не соответствуют принципу правдоподобия.
Давайте кратко рассмотрим некоторые аргументы за и против принципа правдоподобия.
Оригинальный аргумент Бирнбаума
Доказательство Бирнбаума принципа правдоподобия оспаривалось философами науки, в том числе Дебора Мэйо[4][5] и статистики, включая Майкла Эванса.[6] С другой стороны, Грег Ганденбергер предоставил новое доказательство принципа правдоподобия, в котором рассматриваются некоторые контраргументы против исходного доказательства.[7]
Аргументы экспериментального дизайна на основе принципа правдоподобия
Нереализованные события играют роль в некоторых общих статистических методах. Например, результат тест значимости зависит от п-ценить, вероятность результата как экстремального или более экстремального, чем наблюдение, и эта вероятность может зависеть от плана эксперимента. Поэтому в той мере, в которой принимается принцип правдоподобия, такие методы отвергаются.
Некоторые классические тесты значимости не основаны на вероятности. Ниже приводится их простой и более сложный пример, использующий часто цитируемый пример, называемый то дополнительная остановка проблема.
- Пример 1 - простая версия
Предположим, я говорю вам, что я подбросил монету 12 раз и в процессе заметил 3 решки. Вы можете сделать некоторые выводы о вероятности выпадения орла и справедливости монеты.
Предположим, теперь я скажу, что подбросил монету до того как Я заметил 3 головы и 12 раз подбросил их. Сделаете ли вы какой-нибудь другой вывод?
Функция правдоподобия в обоих случаях одинакова: она пропорциональна
Итак, согласно принцип правдоподобия, в любом случае вывод должен быть таким же.
- Пример 2 - более подробная версия той же статистики
Предположим, несколько ученых оценивают вероятность определенного результата (который мы будем называть «успехом») в экспериментальных испытаниях. Согласно общепринятому мнению, если нет предвзятости в сторону успеха или неудачи, вероятность успеха будет равна половине. Адам, ученый, провел 12 испытаний и получил 3 успеха и 9 неудач. Одним из таких успехов было 12-е и последнее наблюдение. Затем Адам покинул лабораторию.
Билл, коллега по той же лаборатории, продолжил работу Адама и опубликовал результаты Адама вместе с тестом значимости. Он проверил нулевая гипотеза который пвероятность успеха равна половине по сравнению с п < 0.5 . Вероятность наблюдаемого результата, что из 12 испытаний 3 или что-то меньшее (т.е. более экстремальное) были успешными, если ЧАС0 правда, это
который 299/4096 = 7.3% . Таким образом, нулевая гипотеза не отклоняется на уровне значимости 5%.
Шарлотта, другой ученый, читает статью Билла и пишет письмо, в котором говорится, что, возможно, Адам продолжал попытки, пока не получил 3 успеха, и в этом случае вероятность необходимости проведения 12 или более экспериментов определяется выражением
который 134/4096 = 3.27% . Теперь результат является статистически значимо на 5% уровень. Обратите внимание, что между этими двумя анализами нет противоречия; оба вычисления верны.
Для этих ученых, является ли результат значимым или нет, зависит от плана эксперимента, а не от вероятности (в смысле функции правдоподобия) того, что значение параметра будет1/2 .
- Резюме проиллюстрированных вопросов
Некоторые считают результаты такого рода аргументами против принципа правдоподобия. Для других он иллюстрирует ценность принципа правдоподобия и является аргументом против проверки значимости.
Похожие темы появляются при сравнении Точный тест Фишера с Критерий хи-квадрат Пирсона.
История вольтметра
Аргумент в пользу принципа правдоподобия приводится Эдвардсом в своей книге. Вероятность. Он цитирует следующую историю Дж. У. Пратт, здесь немного сжато. Обратите внимание, что функция правдоподобия зависит только от того, что произошло на самом деле, а не от того, что мог Произошло.
- Инженер рисует случайную выборку электронных ламп и измеряет их напряжения. Диапазон измерений от 75 до 99 вольт. Статистик вычисляет выборочное среднее и доверительный интервал для истинного среднего. Позже статистик обнаруживает, что вольтметр показывает только до 100 вольт, поэтому технически популяция выглядит как «подвергнутый цензуре ». Если статистик ортодоксален, это требует нового анализа. Однако инженер говорит, что у него есть еще одно показание счетчика на 1000 вольт, которое он использовал бы, если бы какое-либо напряжение было выше 100. Это облегчение для статистиков, потому что это означает, что население фактически не подвергалось цензуре. Но позже статистик констатирует, что второй счетчик на момент проведения измерений не работал. Инженер сообщает статистику, что он не задерживал бы исходные измерения до тех пор, пока второй счетчик не был установлен, и статистик сообщает ему, что требуются новые измерения. Инженер поражен. «Далее вы спросите о моем осциллографе!”
- Возврат к Пример 2 в предыдущем разделе
Эту историю можно перевести на приведенное выше правило остановки Адама следующим образом: Адам остановился сразу после 3 успехов, потому что его босс Билл проинструктировал его сделать это. После публикации Биллом статистического анализа Адам понимает, что он пропустил более позднее указание Билла провести вместо этого 12 испытаний, и что статья Билла основана на этой второй инструкции. Адам очень рад, что он получил свои 3 успеха после ровно 12 испытаний, и объясняет своей подруге Шарлотте, что случайно выполнил вторую инструкцию. Позже Адам с изумлением узнает о письме Шарлотты, в котором объясняется, что сейчас же результат значительный.
Смотрите также
Примечания
- ^ Геометрически, если они занимают одну и ту же точку в проективное пространство.
Рекомендации
- ^ Додж, Ю. (2003) Оксфордский словарь статистических терминов. ОУП. ISBN 0-19-920613-9
- ^ Видакович, Брани. «Принцип правдоподобия» (PDF). Школа промышленной и системной инженерии Х. Милтона Стюарта. Технологический институт Джорджии. Получено 21 октября 2017.
- ^ Ройалл, Ричард (1997). Статистические данные: парадигма вероятности. Бока-Ратон, Флорида: Чепмен и Холл. ISBN 0-412-04411-0.
- ^ Мэйо, Д. (2010) «Ошибка в аргументе от условности и достаточности к принципу правдоподобия» в Ошибка и вывод: недавние обмены мнениями об экспериментальных рассуждениях, надежности, объективности и рациональности науки (D Mayo and A. Spanos eds.), Кембридж: Издательство Кембриджского университета: 305-314.
- ^ Мэйо, Дебора (2014) "Об аргументе Бирнбаума в пользу сильного принципа правдоподобия ", Статистическая наука, 29: 227-266 (с обсуждением).
- ^ Эванс, Майкл (2013) Что доказывает доказательство теоремы Бирнбаума?
- ^ Ганденбергер, Грег (2014), «Новое доказательство принципа правдоподобия», Британский журнал философии науки, 66: 475-503; Дои:10.1093 / bjps / axt039.
- Барнард, Г.А.; Г. Дженкинс; К. Б. Винстен (1962). «Правдоподобный вывод и временные ряды». Журнал Королевского статистического общества, серия A. 125 (3): 321–372. Дои:10.2307/2982406. ISSN 0035-9238. JSTOR 2982406.
- Бергер, Дж.; Wolpert, R.L. (1988). Принцип правдоподобия (2-е изд.). Хейвуд, Калифорния: Институт математической статистики. ISBN 0-940600-13-7.
- Бирнбаум, Аллан (1962). «Об основах статистического вывода». Журнал Американской статистической ассоциации. 57 (298): 269–326. Дои:10.2307/2281640. ISSN 0162-1459. JSTOR 2281640. МИСТЕР 0138176. (С обсуждением.)
- Эдвардс, Энтони В.Ф. (1972). Вероятность (1-е изд.). Кембридж: Издательство Кембриджского университета.
- Эдвардс, Энтони В.Ф. (1992). Вероятность (2-е изд.). Балтимор: Издательство Университета Джона Хопкинса. ISBN 0-8018-4445-2.
- Эдвардс, Энтони В.Ф. (1974). «История правдоподобия». Международный статистический обзор. 42 (1): 9–15. Дои:10.2307/1402681. ISSN 0306-7734. JSTOR 1402681. МИСТЕР 0353514.
- Фишер, Рональд А. (1922). «О математических основах теоретической статистики» (Полный текст PDF). Философские труды Королевского общества A. 222 (594–604): 326. Bibcode:1922RSPTA.222..309F. Дои:10.1098 / рста.1922.0009. Получено 2008-12-28.
- Взлом, Ян (1965). Логика статистического вывода. Кембридж: Издательство Кембриджского университета. ISBN 0-521-05165-7.
- Джеффрис, Гарольд (1961). Теория вероятности. Издательство Оксфордского университета.
- Мэйо, Дебора Г. (2010), «Ошибка в аргументе от условности и достаточности к принципу правдоподобия» (PDF), в Mayo, D; Спанос, А (ред.), Ошибка и вывод: недавние обмены мнениями об экспериментальных рассуждениях, надежности, объективности и рациональности науки, Кембридж, Великобритания: Издательство Кембриджского университета, стр. 305–314, ISBN 9780521180252.
- Ройалл, Ричард М. (1997). Статистические данные: парадигма вероятности. Лондон: Чепмен и Холл. ISBN 0-412-04411-0.
- Сэвидж, Леонард Дж.; и другие. (1962). Основы статистического вывода. Лондон: Метуэн.
внешняя ссылка
- Энтони В.Ф. Эдвардс. "Вероятность ".
- Джефф Миллер. Самые ранние известные варианты использования некоторых слов математики (L)
- Джон Олдрич. Вероятность и вероятность в статистических методах Р. А. Фишера для научных работников