В статистика, то алгоритм подгонки простая итерационная процедура, используемая для подбора обобщенная аддитивная модель. Он был введен в 1985 году Лео Брейманом и Джеромом Фридманом вместе с обобщенными аддитивными моделями. В большинстве случаев алгоритм подгонки эквивалентен Метод Гаусса – Зейделя алгоритм решения некоторой линейной системы уравнений.
Аддитивные модели - это класс непараметрических регрессионных моделей вида:
где каждый переменная в нашем -размерный предсказатель , и наша конечная переменная. представляет нашу внутреннюю ошибку, которая, как предполагается, имеет нулевое среднее значение. В представляют собой неуказанные гладкие функции одного . Учитывая гибкость , у нас обычно нет уникального решения: остается неидентифицируемым, так как можно добавить любые константы к любому из и вычтите это значение из . Обычно это исправляют, ограничивая
для всех
уход
обязательно.
Тогда алгоритм обратной подгонки:
Инициализировать,Делать до того как сходятся: За каждый предсказатель j: (а) (шаг переоборудования) (б) (среднее центрирование оценочной функции)
куда - наш сглаживающий оператор. Обычно это выбирается кубический шлиц более гладкий но может быть любая другая подходящая операция подгонки, например:
более сложные операторы, такие как сглаживание поверхности для взаимодействий второго и более высокого порядка
Теоретически шаг (б) в алгоритме не требуется, так как оценки функций ограничиваются суммой до нуля. Однако из-за численных проблем на практике это может стать проблемой.[1]
Мотивация
Если мы рассмотрим проблему минимизации ожидаемой квадратичной ошибки:
Существует единственное решение теории проекций:
за я = 1, 2, ..., п.
Это дает интерпретацию матрицы:
куда . В этом контексте мы можем представить более гладкую матрицу, , что приблизительно соответствует нашему и дает оценку, , из
или сокращенно
Точное решение этого невозможно рассчитать для больших np, поэтому используется итерационный метод подгонки. Берем первоначальные догадки и обновите каждый в свою очередь, чтобы быть сглаженной для остатков всех остальных:
Глядя на сокращенную форму, легко увидеть, что алгоритм подгонки эквивалентен Метод Гаусса – Зейделя для линейных сглаживающих операторов S.
Явный вывод для двух измерений
Следующий,[2] мы можем явно сформулировать алгоритм подгонки для двумерного случая. У нас есть:
Если обозначить как оценка в я-го шага обновления, шаги дооснащения
По индукции получаем
и
Если мы установим тогда мы получаем
Где мы решили путем прямого отключения от .
Имеем сходимость, если . В этом случае, позволяя :
Мы можем проверить, что это решение проблемы, т.е. и сходиться к и соответственно, подставляя эти выражения в исходные уравнения.
вопросы
Выбор того, когда остановить алгоритм, является произвольным, и априори трудно знать, сколько времени займет достижение определенного порога сходимости. Кроме того, окончательная модель зависит от порядка, в котором переменные-предикторы подходят.
Кроме того, решение, найденное процедурой обратной подгонки, не является уникальным. Если вектор такой, что сверху, то если это решение, то так также решение для любого . Модификация алгоритма обратной подгонки с использованием проекций на собственное подпространство S может решить эту проблему.
Модифицированный алгоритм
Мы можем изменить алгоритм подбора, чтобы упростить предоставление уникального решения. Позволять - пространство, порожденное всеми собственными векторами Sя соответствующих собственному значению 1. Тогда любое б удовлетворение имеет и Теперь, если мы возьмем быть матрицей, которая ортогонально проецируется на , получаем следующий модифицированный алгоритм подгонки:
Инициализировать,, Делать до того как сходиться: Регресс в космос , параметр За каждый предсказатель j: Применить обновление подгонки к с помощью оператора сглаживания , давая новые оценки для
Эта статья включает в себя список общих Рекомендации, но он остается в основном непроверенным, потому что ему не хватает соответствующих встроенные цитаты. Пожалуйста, помогите улучшать эта статья введение более точные цитаты.(Декабрь 2009 г.) (Узнайте, как и когда удалить этот шаблон сообщения)
Рекомендации
^Хасти, Тревор, Роберт Тибширани и Джером Фридман (2001). Элементы статистического обучения: интеллектуальный анализ данных, вывод и прогнозирование. Спрингер, ISBN 0-387-95284-5.
^ Härdle, Вольфганг; и другие. (9 июня 2004 г.). «Переоборудование». Архивировано 10 мая 2015 года. Проверено 19 августа 2015.
Брейман, Л. и Фридман, Дж. Х. (1985). «Оценка оптимальных преобразований для множественной регрессии и корреляций (с обсуждением)». Журнал Американской статистической ассоциации. 80 (391): 580–619. Дои:10.2307/2288473. JSTOR2288473.
Хасти, Т. Дж. И Тибширани, Р. Дж. (1990). «Обобщенные аддитивные модели». Монографии по статистике и прикладной теории вероятностей. 43.
Хердле, Вольфганг; и другие. (9 июня 2004 г.). «Подгонка». Архивировано из оригинал на 2015-05-10. Получено 2015-08-19.