Матрица проекции - Projection matrix
В статистика, то матрица проекции ,[1] иногда также называют матрица влияния[2] или же шляпа матрица , отображает вектор значения ответа (значения зависимой переменной) в вектор подогнанные значения (или прогнозируемые значения). Он описывает влияние каждое значение ответа соответствует каждому подобранному значению.[3][4] Диагональные элементы матрицы проекции - это рычаги, которые описывают влияние каждого значения ответа на подобранное значение для того же наблюдения.
Обзор
Если вектор значения ответа обозначается и вектор подобранных значений ,
В качестве обычно произносится как «у-шляпа», матрица проекции также называется шляпа матрица как это "ставит шляпа на ". Формула для вектора остатки можно также компактно выразить с помощью матрицы проекции:
куда это единичная матрица. Матрица иногда называют остаточная матрица производителя. Более того, элемент в яй ряд и j-й столбец равно ковариация между jзначение ответа и я-ое подобранное значение, деленное на отклонение из первых:
Следовательно ковариационная матрица остатков , к распространение ошибки, равно
- ,
куда это ковариационная матрица вектора ошибок (и, соответственно, вектора отклика). Для линейных моделей с независимые и одинаково распределенные ошибки, в которых , это сводится к:[3]
- .
Интуиция
Из рисунка видно, что ближайшая точка от вектора на пространство столбцов , является , и это тот, где мы можем нарисовать линию, ортогональную пространству столбцов . Вектор, который ортогонален пространству столбцов матрицы, находится в нулевом пространстве транспонированной матрицы, поэтому
Оттуда меняют, так что
Следовательно, поскольку находится в пространстве столбцов матрица проекции, отображающая на просто , или же
Линейная модель
Предположим, что мы хотим оценить линейную модель с помощью линейных наименьших квадратов. Модель можно записать как
куда это матрица объясняющие переменные (в матрица дизайна ), β - вектор неизвестных параметров, подлежащих оценке, и ε - вектор ошибок.
Этой формулировке подлежат многие типы моделей и методов. Вот несколько примеров линейный метод наименьших квадратов, сглаживающие шлицы, регрессионные сплайны, локальная регрессия, регрессия ядра, и линейная фильтрация.
Обычный метод наименьших квадратов
Когда веса для каждого наблюдения идентичны и ошибки некоррелированы, расчетные параметры равны
поэтому подогнанные значения
Следовательно, матрица проекции (и матрица шляпы) имеет вид
Взвешенные и обобщенные методы наименьших квадратов
Вышеизложенное можно обобщить на случаи, когда веса не идентичны и / или ошибки коррелированы. Предположим, что ковариационная матрица ошибок составляет. Тогда, поскольку
- .
матрица шляпы, таким образом,
и снова можно увидеть, что , хотя теперь он уже не симметричен.
Характеристики
Матрица проекции обладает рядом полезных алгебраических свойств.[5][6] На языке линейная алгебра матрица проекции - это ортогональная проекция на пространство столбца матрицы проектирования .[4](Обратите внимание, что это псевдообратная к X.) Некоторые факты о матрице проекции в этой настройке резюмируются следующим образом:[4]
- и
- симметричен, и поэтому .
- идемпотентно: , и так .
- Если является п × р матрица с , тогда
- В собственные значения из состоит из р те и п − р нулей, а собственные значения состоит из п − р те и р нули.[7]
- инвариантен относительно : следовательно .
- уникален для некоторых подпространств.
Матрица проекции, соответствующая линейная модель является симметричный и идемпотент, то есть, . Тем не менее, это не всегда так; в локально взвешенное сглаживание диаграммы рассеяния (LOESS), например, матрица шляпы в общем случае не является ни симметричной, ни идемпотентной.
За линейные модели, то след матрицы проекции равна классифицировать из - количество независимых параметров линейной модели.[8] Для других моделей, таких как LOESS, которые по-прежнему линейны в наблюдениях матрицу проекции можно использовать для определения эффективные степени свободы модели.
Практические применения матрицы проекции в регрессионном анализе включают: использовать и Расстояние повара, которые связаны с идентификацией влиятельные наблюдения, т.е. наблюдения, которые имеют большое влияние на результаты регрессии.
Блочная формула
Предположим, что матрица дизайна можно разложить по столбцам как . Определите шляпу или оператор проекции как . Аналогично определим оператор невязки как .Тогда матрицу проекции можно разложить следующим образом:[9]
где, например, и .Существует ряд приложений такой декомпозиции. В классическом приложении представляет собой столбец всех единиц, который позволяет анализировать эффекты добавления члена перехвата к регрессии. Другое использование - в модель с фиксированными эффектами, куда большой разреженная матрица фиктивных переменных для условий с фиксированным эффектом. Это разбиение можно использовать для вычисления шляпной матрицы без явного формирования матрицы , который может быть слишком большим, чтобы поместиться в памяти компьютера.
Смотрите также
- Проекция (линейная алгебра)
- Студентизированные остатки
- Эффективные степени свободы
- Средний и прогнозируемый ответ
Рекомендации
- ^ Басилевский, Александр (2005). Прикладная матричная алгебра в статистических науках. Дувр. С. 160–176. ISBN 0-486-44538-0.
- ^ «Ассимиляция данных: диагностика влияния наблюдения на систему усвоения данных» (PDF). Архивировано из оригинал (PDF) на 2014-09-03.
- ^ а б Хоглин, Дэвид С .; Велш, Рой Э. (февраль 1978 г.). «Матрица шляп в регрессии и ANOVA» (PDF). Американский статистик. 32 (1): 17–22. Дои:10.2307/2683469. JSTOR 2683469.
- ^ а б c Дэвид А. Фридман (2009). Статистические модели: теория и практика. Издательство Кембриджского университета.
- ^ Ганс, П. (1992). Подбор данных в химических науках. Вайли. ISBN 0-471-93412-7.
- ^ Draper, N.R .; Смит, Х. (1998). Прикладной регрессионный анализ. Вайли. ISBN 0-471-17082-8.
- ^ Амемия, Такеши (1985). Продвинутая эконометрика. Кембридж: Издательство Гарвардского университета. стр.460 –461. ISBN 0-674-00560-0.
- ^ «Доказательство того, что след матрицы« шляпы »в линейной регрессии имеет ранг X». Обмен стеком. 13 апреля 2017 г.
- ^ Рао, Ч. Радхакришна; Тутенбург, Хельге; Шалаб; Хойман, Кристиан (2008). Линейные модели и обобщения (3-е изд.). Берлин: Springer. стр.323. ISBN 978-3-540-74226-5.