Регрессивный анализ - Regression analysis
Часть серии по |
Регрессивный анализ |
---|
Модели |
Оценка |
Фон |
|
Часть серии по |
Машинное обучение и сбор данных |
---|
Площадки для машинного обучения |
В статистическое моделирование, регрессивный анализ представляет собой набор статистических процессов для оценка отношения между зависимая переменная (часто называемой «переменной результата») и один или несколько независимые переменные (часто называемые «предикторами», «ковариатами» или «характеристиками»). Наиболее распространенной формой регрессионного анализа является линейная регрессия, в котором исследователь находит линию (или более сложную линейная комбинация ), который наиболее точно соответствует данным по определенному математическому критерию. Например, метод обыкновенный метод наименьших квадратов вычисляет уникальную строку (или гиперплоскость ), который минимизирует сумму квадратов разностей между истинными данными и этой линией (или гиперплоскостью). По определенным математическим причинам (см. линейная регрессия ), что позволяет исследователю оценить условное ожидание (или население Средняя стоимость ) зависимой переменной, когда независимые переменные принимают заданный набор значений. Менее распространенные формы регрессии используют несколько иные процедуры для оценки альтернативы. параметры местоположения (например., квантильная регрессия или анализ необходимого состояния[1]) или оцените условное ожидание по более широкому набору нелинейных моделей (например, непараметрическая регрессия ).
Регрессионный анализ в основном используется для двух концептуально различных целей. Во-первых, регрессионный анализ широко используется для прогноз и прогнозирование, где его использование существенно пересекается с областью машинное обучение. Во-вторых, в некоторых ситуациях регрессионный анализ может использоваться для вывода причинно-следственные связи между независимыми и зависимыми переменными. Важно отметить, что сами по себе регрессии выявляют только отношения между зависимой переменной и набором независимых переменных в фиксированном наборе данных. Чтобы использовать регрессии для прогнозирования или для вывода причинно-следственных связей, соответственно, исследователь должен тщательно обосновать, почему существующие отношения имеют предсказательную силу для нового контекста или почему связь между двумя переменными имеет причинную интерпретацию. Последнее особенно важно, когда исследователи надеются оценить причинно-следственные связи, используя данные наблюдений.[2][3]
История
Самой ранней формой регрессии была метод наименьших квадратов, который был опубликован Legendre в 1805 г.,[4] и по Гаусс в 1809 г.[5] И Лежандр, и Гаусс применили этот метод к проблеме определения на основе астрономических наблюдений орбит тел вокруг Солнца (в основном комет, но позже и недавно открытых малых планет). Гаусс опубликовал дальнейшее развитие теории наименьших квадратов в 1821 г.[6] включая версию Теорема Гаусса – Маркова.
Термин «регресс» был введен Фрэнсис Гальтон в девятнадцатом веке для описания биологического явления. Феномен заключался в том, что рост потомков высоких предков имеет тенденцию снижаться до нормального среднего значения (явление, также известное как регресс к среднему ).[7][8]Для Гальтона регрессия имела только такое биологическое значение,[9][10] но позже его работа была расширена Удный Йоль и Карл Пирсон в более общий статистический контекст.[11][12] В работах Юла и Пирсона совместное распределение ответных и объясняющих переменных предполагается равными Гауссовский. Это предположение было ослаблено Р.А. Фишер в его произведениях 1922 и 1925 гг.[13][14][15] Фишер предположил, что условное распределение переменной отклика является гауссовой, но совместное распределение не обязательно. В этом отношении предположение Фишера ближе к формулировке Гаусса 1821 года.
В 1950-х и 1960-х годах экономисты использовали электромеханические настольные «калькуляторы» для расчета регрессий. До 1970 г. получение результата одной регрессии иногда занимало до 24 часов.[16]
Методы регрессии продолжают оставаться областью активных исследований. В последние десятилетия были разработаны новые методы надежная регрессия, регрессия, включающая коррелированные ответы, такие как Временные ряды и кривые роста, регрессия, в которой предиктором (независимой переменной) или переменными ответа являются кривые, изображения, графики или другие сложные объекты данных, методы регрессии, учитывающие различные типы отсутствующих данных, непараметрическая регрессия, Байесовский методы регрессии, регрессия, в которой переменные-предикторы измеряются с ошибкой, регрессия с большим количеством переменных-предикторов, чем наблюдений, и причинный вывод с регрессом.
Модель регрессии
На практике исследователи сначала выбирают модель, которую они хотели бы оценить, а затем используют выбранный ими метод (например, обыкновенный метод наименьших квадратов ) для оценки параметров этой модели. В регрессионные модели входят следующие компоненты:
- В неизвестные параметры, часто обозначаемый как скаляр или же вектор .
- В независимые переменные, которые наблюдаются в данных и часто обозначаются как вектор (куда обозначает строку данных).
- В зависимая переменная, которые наблюдаются в данных и часто обозначаются с помощью скалярной .
- В условия ошибки, которые нет непосредственно наблюдаются в данных и часто обозначаются с помощью скаляра .
В различных области применения, вместо зависимые и независимые переменные.
Большинство регрессионных моделей предполагают, что является функцией и , с представляющий член аддитивной ошибки которые могут заменять немоделированные детерминанты или случайный статистический шум:
Цель исследователей - оценить функцию что наиболее точно соответствует данным. Для проведения регрессионного анализа вид функции необходимо указать. Иногда форма этой функции основана на знании взаимосвязи между и это не полагается на данные. Если таких знаний нет, гибкая или удобная форма для выбран. Например, простая одномерная регрессия может предложить , предполагая, что исследователь верит быть разумным приближением для статистического процесса, генерирующего данные.
Как только исследователи определят свои предпочтения статистическая модель, различные формы регрессионного анализа предоставляют инструменты для оценки параметров . Например, наименьших квадратов (включая его наиболее распространенный вариант, обыкновенный метод наименьших квадратов ) находит значение что минимизирует сумму квадратов ошибок . Данный метод регрессии в конечном итоге даст оценку , обычно обозначается чтобы отличить оценку от истинного (неизвестного) значения параметра, создавшего данные. Используя эту оценку, исследователь может затем использовать установленное значение для прогнозирования или оценки точности модели при объяснении данных. Заинтересован ли исследователь в оценке или прогнозируемое значение будет зависеть от контекста и их целей. Как описано в обыкновенный метод наименьших квадратов метод наименьших квадратов широко используется, поскольку оценочная функция приближается к условное ожидание .[5] Однако альтернативные варианты (например, наименьшие абсолютные отклонения или же квантильная регрессия ) полезны, когда исследователи хотят смоделировать другие функции .
Важно отметить, что для оценки регрессионной модели должно быть достаточно данных. Например, предположим, что исследователь имеет доступ к строки данных с одной зависимой и двумя независимыми переменными: . Предположим далее, что исследователь хочет оценить двумерную линейную модель через наименьших квадратов: . Если у исследователя есть доступ только к точки данных, то они могли бы найти бесконечно много комбинаций которые одинаково хорошо объясняют данные: можно выбрать любую комбинацию, которая удовлетворяет , все из которых приводят к и поэтому являются допустимыми решениями, которые минимизируют сумму квадратов остатки. Чтобы понять, почему вариантов бесконечно много, отметим, что система уравнения должны быть решены для 3 неизвестных, что делает систему недоопределенный. В качестве альтернативы можно визуализировать бесконечно много трехмерных плоскостей, которые проходят через фиксированные точки.
В более общем плане, чтобы оценить наименьших квадратов модель с отличные параметры, необходимо иметь отдельные точки данных. Если , то обычно не существует набора параметров, который идеально подходил бы к данным. Количество часто появляется в регрессионном анализе и называется степени свободы в модели. Кроме того, для оценки модели наименьших квадратов независимые переменные должно быть линейно независимый: кто-то должен нет уметь восстанавливать любую из независимых переменных, складывая и умножая оставшиеся независимые переменные. Как обсуждалось в обыкновенный метод наименьших квадратов, это условие гарантирует, что является обратимая матрица и поэтому уникальное решение существуют.
Скрытые предположения
Сама по себе регрессия - это просто расчет с использованием данных. Чтобы интерпретировать результат регрессии как значимую статистическую величину, которая измеряет отношения в реальном мире, исследователи часто полагаются на ряд классических предположения. К ним часто относятся:
- Выборка репрезентативна для населения в целом.
- Независимые переменные измеряются без ошибок.
- Отклонения от модели имеют ожидаемое значение, равное нулю, в зависимости от ковариат:
- Дисперсия остатков постоянно во всех наблюдениях (гомоскедастичность ).
- Остатки находятся некоррелированный друг с другом. Математически матрица дисперсии-ковариации ошибок диагональ.
Для того, чтобы оценка методом наименьших квадратов обладала желаемыми свойствами, достаточно нескольких условий: в частности, оценка Гаусс – Марков предположения подразумевают, что оценки параметров будут беспристрастный, последовательный, и эффективный в классе линейных несмещенных оценок. Практики разработали множество методов для поддержания некоторых или всех этих желаемых свойств в реальных условиях, поскольку эти классические допущения вряд ли будут выполняться в точности. Например, моделирование ошибки в переменных может привести к разумным оценкам, независимые переменные измеряются с ошибками. Стандартные ошибки, согласованные с гетероскедастичностью допускать отклонение изменять значения . Коррелированные ошибки, которые существуют в подмножествах данных или следуют определенным шаблонам, можно обрабатывать с помощью кластерные стандартные ошибки, географически взвешенная регрессия, или же Ньюи – Уэст стандартные ошибки, среди других методов. Когда строки данных соответствуют местоположениям в пространстве, выбор способа моделирования в пределах географических единиц может иметь важные последствия.[17][18] Подполе эконометрика в основном сосредоточена на разработке методов, которые позволяют исследователям делать разумные выводы из реальной жизни в реальных условиях, где классические предположения не выполняются в точности.
Линейная регрессия
В линейной регрессии спецификация модели такова, что зависимая переменная, это линейная комбинация из параметры (но не обязательно быть линейным по независимые переменные). Например, в простая линейная регрессия для моделирования точки данных есть одна независимая переменная: , и два параметра, и :
- прямая линия:
В множественной линейной регрессии есть несколько независимых переменных или функций от независимых переменных.
Добавление термина в к предыдущей регрессии дает:
- парабола:
Это по-прежнему линейная регрессия; хотя выражение в правой части квадратично по независимой переменной , линейна по параметрам , и
В обоих случаях, это член ошибки, а нижний индекс индексирует конкретное наблюдение.
Возвращаемся к случаю прямой линии: учитывая случайную выборку из совокупности, мы оцениваем параметры совокупности и получаем модель выборочной линейной регрессии:
В остаточный, , - разница между значением зависимой переменной, предсказанным моделью, , и истинное значение зависимой переменной, . Один из методов оценки - обыкновенный метод наименьших квадратов. Этот метод позволяет получить оценки параметров, которые минимизируют сумму квадратов остатки, ССР:
Минимизация этой функции приводит к набору нормальные уравнения, набор одновременных линейных уравнений относительно параметров, которые решаются для получения оценок параметров, .
В случае простой регрессии формулы для оценок наименьших квадратов имеют вид
куда это иметь в виду (среднее) из ценности и это среднее значение значения.
При предположении, что член ошибки генеральной совокупности имеет постоянную дисперсию, оценка этой дисперсии определяется следующим образом:
Это называется среднеквадратичная ошибка (MSE) регрессии. Знаменатель - это размер выборки, уменьшенный на количество параметров модели, оцененных на основе тех же данных, за регрессоры или же если используется перехват.[19] В этом случае, так что знаменатель .
В стандартные ошибки оценок параметров даются
При дальнейшем предположении, что член ошибки популяции распределен нормально, исследователь может использовать эти оцененные стандартные ошибки для создания доверительные интервалы и проводить проверка гипотез о параметры популяции.
Общая линейная модель
В более общей модели множественной регрессии есть независимые переменные:
куда это -е наблюдение -я независимая переменная. Если первая независимая переменная принимает значение 1 для всех , , тогда называется регрессионный перехват.
Оценки параметров наименьших квадратов получаются из нормальные уравнения. Остаток можно записать как
В нормальные уравнения находятся
В матричных обозначениях нормальные уравнения записываются как
где элемент является , то элемент вектора-столбца является , а элемент является . Таким образом является , является , и является . Решение
Диагностика
После построения регрессионной модели может оказаться важным подтвердить степень соответствия модели и Статистическая значимость расчетных параметров. Обычно используемые проверки соответствия включают R-квадрат, анализ структуры остатки и проверка гипотез. Статистическую значимость можно проверить с помощью F-тест от общей подгонки, а затем t-тесты индивидуальных параметров.
Интерпретация этих диагностических тестов во многом основывается на допущениях модели. Хотя изучение остатков может использоваться для признания недействительной модели, результаты t-тест или же F-тест иногда труднее интерпретировать, если допущения модели нарушаются. Например, если член ошибки не имеет нормального распределения, в небольших выборках оценочные параметры не будут следовать нормальному распределению и усложнят вывод. Однако с относительно большими выборками Центральная предельная теорема может быть вызван таким образом, что проверка гипотез может продолжаться с использованием асимптотических приближений.
Ограниченные зависимые переменные
Ограниченные зависимые переменные, которые являются переменными ответа, которые категориальные переменные или переменные, которые должны попадать только в определенный диапазон, часто возникают в эконометрика.
Переменная ответа может быть прерывистой («ограниченной» лежать на некотором подмножестве реальной линии). Для двоичных (ноль или единица) переменных, если анализ проводится с помощью линейной регрессии наименьших квадратов, модель называется линейная вероятностная модель. Нелинейные модели для двоичных зависимых переменных включают пробит и логит модель. В многомерный пробит Модель - это стандартный метод оценки совместной взаимосвязи между несколькими двоичными зависимыми переменными и некоторыми независимыми переменными. За категориальные переменные с более чем двумя значениями есть полиномиальный логит. За порядковые переменные с более чем двумя значениями есть заказанный логит и заказал пробит модели. Цензурированные регрессионные модели может использоваться, когда зависимая переменная наблюдается лишь иногда, и Поправка Хекмана Типовые модели могут использоваться, когда выборка не выбирается случайным образом из интересующей совокупности. Альтернативой таким процедурам является линейная регрессия на основе полихорическая корреляция (или полисериальные корреляции) между категориальными переменными. Такие процедуры различаются предположениями о распределении переменных в генеральной совокупности. Если переменная положительна с низкими значениями и представляет повторение возникновения события, тогда подсчитайте такие модели, как Регрессия Пуассона или отрицательный бином модель может быть использована.
Нелинейная регрессия
Если модельная функция не является линейной по параметрам, сумма квадратов должна быть минимизирована с помощью итерационной процедуры. Это приводит к множеству осложнений, которые кратко описаны в Различия между линейным и нелинейным методом наименьших квадратов.
Интерполяция и экстраполяция
Модели регрессии предсказывают значение Y переменная при известных значениях Икс переменные. Прогноз в диапазон значений в наборе данных, используемый для подгонки модели, неофициально известен как интерполяция. Прогноз за пределами этот диапазон данных известен как экстраполяция. Выполнение экстраполяции сильно зависит от предположений регрессии. Чем дальше экстраполяция выходит за рамки данных, тем больше возможностей для отказа модели из-за различий между предположениями и выборочными данными или истинными значениями.
Обычно рекомендуется[нужна цитата ] что при выполнении экстраполяции следует сопровождать оценочное значение зависимой переменной интервал прогноза что представляет собой неопределенность. Такие интервалы имеют тенденцию быстро расширяться по мере того, как значения независимых переменных выходят за пределы диапазона, охватываемого наблюдаемыми данными.
По этим и другим причинам некоторые склонны говорить, что было бы неразумно проводить экстраполяцию.[21]
Однако это не покрывает весь набор ошибок моделирования, которые могут быть сделаны: в частности, допущение определенной формы для связи между Y и Икс. Правильно проведенный регрессионный анализ будет включать оценку того, насколько хорошо предполагаемая форма согласуется с наблюдаемыми данными, но это можно сделать только в пределах диапазона значений фактически доступных независимых переменных. Это означает, что любая экстраполяция особенно зависит от предположений о структурной форме регрессионного отношения. Совет по передовой практике здесь[нужна цитата ] состоит в том, что отношения линейные по переменным и линейные по параметрам не следует выбирать просто для удобства вычислений, а в том, что все доступные знания должны быть использованы при построении регрессионной модели. Если это знание включает тот факт, что зависимая переменная не может выходить за пределы определенного диапазона значений, это можно использовать при выборе модели - даже если наблюдаемый набор данных не имеет значений, особенно близких к таким границам. Последствия этого шага выбора подходящей функциональной формы для регрессии могут быть большими, если рассматривать экстраполяцию. Как минимум, он может гарантировать, что любая экстраполяция, вытекающая из подобранной модели, «реалистична» (или соответствует тому, что известно).
Расчеты мощности и размера выборки
Не существует общепринятых методов соотнесения количества наблюдений с количеством независимых переменных в модели. Одно практическое правило, предложенное Гудом и Хардином: , куда размер выборки, - количество независимых переменных и - количество наблюдений, необходимых для достижения желаемой точности, если в модели была только одна независимая переменная.[22] Например, исследователь строит модель линейной регрессии, используя набор данных, содержащий 1000 пациентов (). Если исследователь решит, что для точного определения прямой линии (), то максимальное количество независимых переменных, которое может поддерживать модель, равно 4, поскольку
Другие методы
Хотя параметры регрессионной модели обычно оцениваются с использованием метода наименьших квадратов, использовались и другие методы:
- Байесовские методы, например Байесовская линейная регрессия
- Процентная регрессия для ситуаций, когда процент ошибок считается более подходящим.[23]
- Наименьшие абсолютные отклонения, который более устойчив при наличии выбросов, что приводит к квантильная регрессия
- Непараметрическая регрессия, требует большого количества наблюдений и требует больших вычислительных ресурсов.
- Оптимизация сценария, что приводит к модели интервального прогнозирования
- Дистанционное метрическое обучение, которое изучается путем поиска значимой дистанционной метрики в заданном входном пространстве.[24]
Программного обеспечения
Все основные пакеты статистического программного обеспечения выполняют наименьших квадратов регрессионный анализ и вывод. Простая линейная регрессия и множественная регрессия с использованием наименьших квадратов может быть выполнена в некоторых электронная таблица приложений и на некоторых калькуляторах. Хотя многие пакеты статистического программного обеспечения могут выполнять различные типы непараметрической и устойчивой регрессии, эти методы менее стандартизированы; разные программные пакеты реализуют разные методы, и метод с заданным именем может быть реализован по-разному в разных пакетах. Специальное программное обеспечение для регрессии было разработано для использования в таких областях, как анализ опросов и нейровизуализация.
Смотрите также
- Квартет анскомба
- Подгонка кривой
- Теория оценок
- Прогнозирование
- Необъяснимая доля дисперсии
- Аппроксимация функции
- Обобщенные линейные модели
- Кригинг (линейный алгоритм оценки наименьших квадратов)
- Локальная регрессия
- Задача изменяемой площади
- Многомерные сплайны адаптивной регрессии
- Многомерное нормальное распределение
- Коэффициент корреляции продукт-момент Пирсона
- Квази-дисперсия
- Интервал прогноза
- Проверка регрессии
- Надежная регрессия
- Сегментированная регрессия
- Обработка сигналов
- Пошаговая регрессия
- Оценка тренда
Рекомендации
- ^ Необходимый анализ условий
- ^ Дэвид А. Фридман (27 апреля 2009 г.). Статистические модели: теория и практика. Издательство Кембриджского университета. ISBN 978-1-139-47731-4.
- ^ Р. Деннис Кук; Сэнфорд Вайсберг Критика и анализ влияния в регрессии, Социологическая методология, Vol. 13. (1982), стр. 313–361.
- ^ ЯВЛЯЮСЬ. Legendre. Новые методы определения орбиты комет, Firmin Didot, Paris, 1805. «Sur la Méthode des moindres qurés» появляется как приложение.
- ^ а б Глава 1: Angrist, J. D., & Pischke, J. S. (2008). В основном безвредная эконометрика: помощник эмпирика. Издательство Принстонского университета.
- ^ К.Ф. Гаусс. Комбинированная теория наблюдения, erroribus minimis obnoxiae. (1821/1823)
- ^ Могулл, Роберт Г. (2004). Прикладная статистика за второй семестр. Кендалл / Хант Издательская Компания. п. 59. ISBN 978-0-7575-1181-3.
- ^ Гальтон, Фрэнсис (1989). "Родство и корреляция (переиздано в 1989 г.)". Статистическая наука. 4 (2): 80–86. Дои:10.1214 / сс / 1177012581. JSTOR 2245330.
- ^ Фрэнсис Гальтон. «Типичные законы наследственности», Nature 15 (1877), 492–495, 512–514, 532–533. (Гальтон использует термин «реверсия» в этой статье, где обсуждается размер гороха.)
- ^ Фрэнсис Гальтон. Послание Президента, Секция H, Антропология. (1885) (Гальтон использует термин «регрессия» в этой статье, где обсуждается рост человека.)
- ^ Юль, Г. Удный (1897). «К теории корреляции». Журнал Королевского статистического общества. 60 (4): 812–54. Дои:10.2307/2979746. JSTOR 2979746.
- ^ Пирсон, Карл; Yule, G.U .; Бланшар, Норман; Ли, Алиса (1903). "Закон наследственности". Биометрика. 2 (2): 211–236. Дои:10.1093 / biomet / 2.2.211. JSTOR 2331683.
- ^ Фишер, Р.А. (1922). «Степень соответствия формул регрессии и распределение коэффициентов регрессии». Журнал Королевского статистического общества. 85 (4): 597–612. Дои:10.2307/2341124. JSTOR 2341124. ЧВК 1084801.
- ^ Рональд А. Фишер (1954). Статистические методы для научных работников (Двенадцатое изд.). Эдинбург: Оливер и Бойд. ISBN 978-0-05-002170-5.
- ^ Олдрич, Джон (2005). «Фишер и регресс». Статистическая наука. 20 (4): 401–417. Дои:10.1214/088342305000000331. JSTOR 20061201.
- ^ Родни Рамчаран. Регрессии: почему экономисты ими одержимы? Март 2006 г. Проверено 2011-12-03.
- ^ Фотерингем, А. Стюарт; Брансдон, Крис; Чарльтон, Мартин (2002). Географически взвешенная регрессия: анализ пространственно изменяющихся отношений (Перепечатка ред.). Чичестер, Англия: Джон Вили. ISBN 978-0-471-49616-8.
- ^ Fotheringham, AS; Вонг, DWS (1 января 1991 г.). «Модифицируемая проблема площадных единиц в многомерном статистическом анализе». Окружающая среда и планирование A. 23 (7): 1025–1044. Дои:10.1068 / a231025. S2CID 153979055.
- ^ Стил, Р.Г.Д., и Торри, Дж. Х., Принципы и процедуры статистики с особым акцентом на биологические науки., Макгроу Хилл, 1960, стр.288.
- ^ Руо, Матье (2013). Вероятность, статистика и оценка (PDF). п. 60.
- ^ Чан, К.Л., (2003) Статистические методы анализа, World Scientific. ISBN 981-238-310-7 - стр. 274 раздел 9.7.4 «интерполяция против экстраполяции»
- ^ Хорошо, П.И.; Хардин, Дж. У. (2009). Распространенные ошибки в статистике (и как их избежать) (3-е изд.). Хобокен, Нью-Джерси: Wiley. п. 211. ISBN 978-0-470-45798-6.
- ^ Тофаллис, К. (2009). «Процентная регрессия наименьших квадратов». Журнал современных прикладных статистических методов. 7: 526–534. Дои:10.2139 / ssrn.1406472. SSRN 1406472.
- ^ Янцзин Лун (2009). «Оценка возраста человека с помощью метрического обучения для задач регрессии» (PDF). Proc. Международная конференция по компьютерному анализу изображений и паттернов: 74–82. Архивировано из оригинал (PDF) на 08.01.2010.
дальнейшее чтение
- Уильям Х. Крускал и Джудит М. Танур, изд. (1978), «Линейные гипотезы», Международная энциклопедия статистики. Свободная пресса, т. 1,
- Эван Дж. Уильямс, I. Regression, стр. 523–41.
- Джулиан С. Стэнли, "II. Дисперсионный анализ", стр. 541–554.
- Линдли, Д.В. (1987). «Регрессионно-корреляционный анализ», New Palgrave: экономический словарь, т. 4, стр. 120–23.
- Биркес, Дэвид и Додж, Ю., Альтернативные методы регрессии. ISBN 0-471-56881-3
- Чатфилд, К. (1993) "Расчет интервальных прогнозов," Журнал деловой и экономической статистики, 11. С. 121–135.
- Draper, N.R .; Смит, Х. (1998). Прикладной регрессионный анализ (3-е изд.). Джон Вили. ISBN 978-0-471-17082-2.
- Фокс, Дж. (1997). Прикладной регрессионный анализ, линейные модели и родственные методы. мудрец
- Хардл, В., Прикладная непараметрическая регрессия (1990), ISBN 0-521-42950-1
- Мид, Найджел; Ислам, Товидул (1995). «Интервалы прогноза для прогнозов кривой роста». Журнал прогнозирования. 14 (5): 413–430. Дои:10.1002 / для 3980140502.
- А. Сен, М. Шривастава, Регрессионный анализ - теория, методы и приложения, Springer-Verlag, Берлин, 2011 (4-е издание).
- Т. Струц: Подгонка данных и неопределенность (практическое введение в взвешенный метод наименьших квадратов и не только). Vieweg + Teubner, ISBN 978-3-8348-1022-9.
- Малакути, Б. (2013). Операционные и производственные системы с несколькими целями. Джон Вили и сыновья.
внешняя ссылка
- "Регрессивный анализ", Энциклопедия математики, EMS Press, 2001 [1994]
- Раннее использование: регрессия - основная история и ссылки
- Регрессия слабо коррелированных данных - как могут появляться ошибки линейной регрессии, когда диапазон Y намного меньше, чем диапазон X