Лассо (статистика) - Lasso (statistics)
В статистика и машинное обучение, лассо (оператор наименьшей абсолютной усадки и выбора; также Лассо или же ЛАССО) это регрессивный анализ метод, который выполняет оба выбор переменных и регуляризация для повышения точности прогнозов и интерпретируемости статистическая модель он производит. Первоначально он был представлен в геофизической литературе в 1986 г.[1] а позже независимо заново открыли и популяризировали в 1996 г. Роберт Тибширани,[2] кто придумал термин и предоставил дальнейшее понимание наблюдаемой производительности.
Лассо изначально было разработано для линейная регрессия модели, и этот простой случай раскрывает значительную информацию о поведении оценщика, включая его связь с регресс гребня и выбор лучшего подмножества и связь между оценками коэффициента лассо и так называемым мягким пороговым значением. Это также показывает, что (как и стандартная линейная регрессия) оценки коэффициентов не обязательно должны быть уникальными, если ковариаты находятся коллинеарен.
Хотя изначально он был определен для линейной регрессии, регуляризация лассо легко распространяется на широкий спектр статистических моделей, включая обобщенные линейные модели, обобщенные оценочные уравнения, модели пропорциональных опасностей, и М-оценки, простым способом.[2][3] Способность Лассо выполнять выбор подмножества зависит от формы ограничения и имеет множество интерпретаций, в том числе с точки зрения геометрия, Байесовская статистика, и выпуклый анализ.
LASSO тесно связан с базовый поиск шумоподавления.
Мотивация
Лассо было введено для повышения точности прогнозирования и интерпретируемости регрессионных моделей путем изменения процесса подбора модели, чтобы выбрать только подмножество предоставленных ковариат для использования в окончательной модели, а не использовать их все.[2][4] Он был разработан независимо в геофизике на основе предыдущих работ, в которых использовались штраф как за подгонку, так и за наложение коэффициентов, а также со стороны статистика, Роберт Тибширани, на основе Брейман Неотрицательная гаррота.[4][5]
До лассо наиболее широко используемым методом выбора ковариант для включения был пошаговый отбор, что улучшает точность прогнозов только в определенных случаях, например, когда только несколько ковариат имеют сильную связь с результатом. Однако в других случаях это может усугубить ошибку прогноза. Кроме того, в то время гребенчатая регрессия была самым популярным методом повышения точности прогнозов. Регрессия хребта улучшает ошибку предсказания на сокращение большой коэффициенты регрессии чтобы уменьшить переоснащение, но он не выполняет ковариативный выбор и, следовательно, не помогает сделать модель более интерпретируемой.
Лассо может достичь обеих этих целей, заставляя сумму абсолютных значений коэффициентов регрессии быть меньше фиксированного значения, что заставляет определенные коэффициенты обнуляться, эффективно выбирая более простую модель, которая не включает эти коэффициенты . Эта идея похожа на регрессию гребня, в которой сумма квадратов коэффициентов должна быть меньше фиксированного значения, хотя в случае регрессии гребня это только уменьшает размер коэффициентов, но не устанавливает никаких из них к нулю.
Основная форма
Изначально лассо было введено в контексте наименьших квадратов, и может быть поучительно сначала рассмотреть этот случай, поскольку он иллюстрирует многие свойства лассо в простой обстановке.
Рассмотрим образец, состоящий из N кейсы, каждый из которых состоит из п ковариаты и единый исход. Позволять быть результатом и вектор ковариации для яth дело. Тогда цель лассо - решить
Здесь - заранее заданный свободный параметр, определяющий степень регуляризации. Сдача - ковариантная матрица, так что и это яth ряд , выражение можно записать более компактно как
куда это стандарт норма, и является вектор единиц.
Обозначение скалярного среднего значений точек данных к и среднее значение переменных ответа к , итоговая оценка для в конечном итоге будет , так что
и поэтому стандартно работать с переменными, которые были центрированы (с нулевым средним). Кроме того, ковариаты обычно стандартизированный так что решение не зависит от шкалы измерений.
Может быть полезно переписать
в так называемом Лагранжиан форма
где точное соотношение между и зависит от данных.
Ортонормированные ковариаты
Теперь можно рассмотреть некоторые основные свойства оценщика лассо.
Предполагая сначала, что ковариаты равны ортонормированный так что , куда это внутренний продукт и это Дельта Кронекера, или, что то же самое, , затем используя субградиентные методы можно показать, что
называется оператором мягкого определения порога, поскольку он переводит значения в сторону нуля (делая их точно равными нулю, если они достаточно малы) вместо того, чтобы устанавливать меньшие значения на ноль и оставлять более крупные нетронутыми как оператор жесткого порога, часто обозначаемый , бы.
Это можно сравнить с регресс гребня, где цель - минимизировать
уступающий
Таким образом, регрессия гребня сокращает все коэффициенты на единый коэффициент и не обнуляет коэффициенты.
Его также можно сравнить с регрессией с выбор лучшего подмножества, в котором цель - минимизировать
куда это " норма », которая определяется как если ровно m компонент z отличны от нуля. В этом случае можно показать, что
куда - это так называемая функция жесткого порога, а - индикаторная функция (1, если ее аргумент истинен, и 0 в противном случае).
Следовательно, оценки лассо имеют общие черты оценок как из регрессии по гребню, так и из регрессии выбора наилучшего подмножества, поскольку они оба уменьшают величину всех коэффициентов, как регрессия гребня, но также обнуляют некоторые из них, как в случае выбора наилучшего подмножества. Кроме того, в то время как регрессия гребня масштабирует все коэффициенты с помощью постоянного коэффициента, лассо вместо этого переводит коэффициенты в сторону нуля на постоянное значение и устанавливает их в ноль, если они достигают его.
Возвращаясь к общему случаю, в котором разные ковариаты не могут быть независимый, можно рассмотреть частный случай, когда две ковариаты, скажем, j и k, идентичны для каждого случая, так что , куда . Тогда значения и которые минимизируют целевую функцию лассо, не определены однозначно. На самом деле, если есть какое-то решение в котором , то если замена к и к , сохраняя все остальные fixed, дает новое решение, поэтому целевая функция лассо имеет континуум допустимых минимизаторов.[6] Несколько вариантов лассо, включая Elastic Net, были разработаны для устранения этого недостатка, который обсуждается ниже.
Общая форма
Регуляризацию лассо можно распространить на широкий спектр целевых функций, например, для обобщенные линейные модели, обобщенные оценочные уравнения, модели пропорциональных опасностей, и М-оценки в общем очевидным образом.[2][3] Учитывая целевую функцию
Регуляризованная версия оценщика лассо будет решением
где только наказывается, пока может принимать любое допустимое значение, так же как не был наказан по основному делу.
Интерпретации
Геометрическая интерпретация
Как обсуждалось выше, лассо может устанавливать коэффициенты равными нулю, в то время как регрессия гребня, которая выглядит внешне похожей, не может. Это происходит из-за разницы в форме границ ограничений в двух случаях. И лассо, и регрессию гребня можно интерпретировать как минимизацию одной и той же целевой функции.
но с учетом различных ограничений: для лассо и для конька. Из рисунка видно, что область ограничения, определяемая норма - это квадрат, повернутый так, чтобы его углы лежали на осях (в общем случае кросс-многогранник ), а область, определяемая норма - круг (в общем п-сфера ), который вращательно инвариантный и, следовательно, не имеет углов. Как видно на рисунке, выпуклый объект, касающийся границы, такой как показанная линия, скорее всего, встретит угол (или его многомерный эквивалент) гиперкуба, для которого некоторые компоненты тождественно равны нулю, а в случае п-сфера, точки на границе, для которых некоторые компоненты равны нулю, не отличаются от других, и выпуклый объект, скорее всего, не соприкоснется с точкой, в которой некоторые компоненты равны нулю, чем один, для которых ни один из них не равен.
Упрощение интерпретации λ с компромиссом между точностью и простотой
Лассо можно масштабировать, чтобы было легко предвидеть и влиять на то, какая степень усадки связана с данным значением .[7] Предполагается, что стандартизирован с помощью z-значений, и что центрирован так, что имеет нулевое среднее значение. Позволять представляют собой предполагаемые коэффициенты регрессии и пусть относятся к оптимизированным по данным решениям методом наименьших квадратов. Затем мы можем определить лагранжиан как компромисс между точностью данных оптимизированных решений в выборке и простотой сохранения гипотетических значений. Это приводит к
куда указано ниже. Первая часть представляет относительную точность, вторая часть - относительную простоту, а балансирует между двумя.
Если существует единственный регрессор, то относительную простоту можно определить, указав в качестве , что является максимальной величиной отклонения от когда . При условии, что , затем путь решения может быть определен в терминах известной меры точности, называемой :
Если , используется решение OLS. Предполагаемое значение выбирается, если больше чем . Кроме того, если , тогда представляет собой пропорциональное влияние . Другими словами, измеряет в процентах, какое минимальное влияние имеет гипотетическое значение по сравнению с оптимизированным для данных решением OLS.
Если -norm используется для наказания отклонений от нуля, когда есть единственный регрессор, путь решения задается . Нравиться , движется в направлении точки когда близко к нулю; но в отличие от , влияние уменьшается в если увеличивается (см. рисунок).
При наличии нескольких регрессоров момент активации параметра (т. Е. Разрешено отклонение от ) также определяется вкладом регрессора в точность. Сначала определим
An 75% означает, что точность внутри выборки улучшается на 75%, если использовать неограниченные решения OLS вместо предполагаемых значения. Индивидуальный вклад отклонения от каждой гипотезы можно рассчитать с помощью раз матрица
куда . Если когда вычисляется, то диагональные элементы сумма к . Диагональ значения могут быть меньше 0 и, в более исключительных случаях, больше 1. Если регрессоры не коррелированы, то диагональный элемент просто соответствует Значение между и .
Теперь мы можем получить измененную версию адаптивного лассо Zou (2006), задав . Если регрессоры некоррелированы, момент, когда параметр активирован задается диагональный элемент . Если мы также для удобства предположим, что вектор нулей, получаем
То есть, если регрессоры некоррелированы, снова указывает, какое минимальное влияние является. Более того, даже когда регрессоры коррелированы, первый раз, когда параметр регрессии активируется, происходит, когда равен наивысшему диагональному элементу .
Эти результаты можно сравнить с масштабированной версией лассо, если мы определим , которое представляет собой среднее абсолютное отклонение из . Если предположить, что регрессоры некоррелированы, то момент активации регрессор дается
За , момент активации снова определяется выражением . Более того, если вектор нулей и существует подмножество соответствующие параметры, которые в равной степени отвечают за идеальную подгонку , то это подмножество будет активировано при значение . Ведь момент активации соответствующего регрессора тогда равен . Другими словами, включение нерелевантных регрессоров откладывает момент активации соответствующих регрессоров этим измененным лассо. Адаптивное лассо и лассо являются частными случаями оценщика 1ASTc. Последний группирует параметры вместе только в том случае, если абсолютная корреляция между регрессорами больше, чем значение, указанное пользователем. Подробнее см. Hoornweg (2018).[7]
Байесовская интерпретация
Точно так же, как регрессию гребня можно интерпретировать как линейную регрессию, для которой коэффициентам были присвоены нормальные априорные распределения, лассо можно интерпретировать как линейную регрессию, для которой коэффициенты имеют Априорные распределения Лапласа. Распределение Лапласа имеет резкий пик в нуле (его первая производная разрывная), и оно концентрирует свою вероятностную массу ближе к нулю, чем нормальное распределение. Это дает альтернативное объяснение того, почему лассо стремится установить некоторые коэффициенты равными нулю, а регрессия гребня - нет.[2]
Толкование выпуклой релаксации
Лассо также можно рассматривать как выпуклую релаксацию задачи регрессии выбора наилучшего подмножества, которая заключается в нахождении подмножества ковариат, что приводит к наименьшему значению целевой функции для некоторых фиксированных , где n - общее количество ковариат. " норма", , который дает количество ненулевых элементов вектора, является предельным случаем " нормы ", в форме (где кавычки означают, что это не совсем нормы для поскольку не выпуклый для , поэтому неравенство треугольника не выполняется). Следовательно, поскольку p = 1 - наименьшее значение, для которого " норма »является выпуклой (и, следовательно, фактически нормой), лассо в некотором смысле является наилучшим выпуклым приближением к задаче выбора наилучшего подмножества, поскольку область, определяемая это выпуклый корпус региона, определяемого за .
Обобщения
Было создано несколько вариантов лассо, чтобы устранить определенные ограничения оригинальной техники и сделать метод более полезным для решения конкретных задач. Почти все они сосредоточены на уважении или использовании различных типов зависимостей между ковариатами. Упругая сетевая регуляризация добавляет дополнительный штраф, подобный гребенчатой регрессии, который повышает производительность, когда количество предикторов превышает размер выборки, позволяет методу выбирать сильно коррелированные переменные вместе и повышает общую точность прогнозирования.[6] Групповое лассо позволяет выбирать группы связанных ковариат как единое целое, что может быть полезно в условиях, когда не имеет смысла включать одни ковариаты без других.[8] Также были разработаны дополнительные расширения группового лассо для выполнения выбора переменных внутри отдельных групп (разреженное групповое лассо) и обеспечения перекрытия между группами (перекрывающееся групповое лассо).[9][10] Слитное лассо может учитывать пространственные или временные характеристики проблемы, в результате чего получаются оценки, которые лучше соответствуют структуре изучаемой системы.[11] Регуляризованные модели лассо можно подобрать с помощью различных методов, включая субградиентные методы, регрессия по наименьшему углу (LARS) и проксимальные градиентные методы. Определение оптимального значения параметра регуляризации - важная часть обеспечения хорошей работы модели; обычно выбирается с помощью перекрестная проверка.
Эластичная сетка
В 2005 году Дзо и Хасти представили эластичная сетка для устранения некоторых недостатков лассо.[6] Когда п > п (количество ковариат больше, чем размер выборки) лассо может выбрать только п ковариат (даже если с результатом связано большее количество), и он стремится выбрать только одну ковариату из любого набора сильно коррелированных ковариат. Кроме того, даже когда п > п, если ковариаты сильно коррелированы, регрессия гребня имеет тенденцию работать лучше.
Эластичная сетка удлиняет лассо, добавляя дополнительную давание срока штрафа
что эквивалентно решению
Несколько удивительно, но эту задачу можно записать в простой форме лассо
позволяя
- , ,
потом , что, когда ковариаты ортогональны друг другу, дает
Таким образом, результат эластичного чистого штрафа - это комбинация эффектов штрафов лассо и хребта.
Возвращаясь к общему случаю, тот факт, что штрафная функция теперь строго выпуклая, означает, что если , , который отличается от лассо.[6] В общем, если
является выборочной корреляционной матрицей, поскольку нормализованы.
Следовательно, ковариаты с высокой степенью корреляции будут иметь сходные коэффициенты регрессии, причем степень сходства будет зависеть от обоих и , который сильно отличается от лассо. Это явление, при котором сильно коррелированные ковариаты имеют одинаковые коэффициенты регрессии, называется эффектом группирования и обычно считается желательным, поскольку во многих приложениях, таких как идентификация генов, связанных с заболеванием, хотелось бы найти все связанные ковариаты, вместо того, чтобы выбирать только одну из каждого набора сильно коррелированных ковариат, как это часто бывает с лассо.[6] Кроме того, выбор только одной ковариаты из каждой группы обычно приводит к увеличению ошибки прогнозирования, поскольку модель менее надежна (вот почему регрессия гребня часто превосходит лассо).
Групповое лассо
В 2006 году Юань и Линь представили групповое лассо, чтобы позволить заранее заданным группам ковариат быть выбранными в модель или из нее вместе, где все члены определенной группы либо включены, либо не включены.[8] Хотя есть много настроек, в которых это полезно, возможно, наиболее очевидным является то, когда уровни категориальной переменной кодируются как набор двоичных ковариат. В этом случае часто не имеет смысла включать только несколько уровней ковариаты; групповое лассо может гарантировать, что все переменные, кодирующие категориальную ковариату, либо включены, либо исключены из модели вместе. Другой случай, когда группирование является естественным, - это биологические исследования. Поскольку гены и белки часто лежат в известных путях, исследователя может больше интересовать, какие пути связаны с исходом, чем конкретные отдельные гены. Целевая функция для группового лассо является естественным обобщением стандартной цели лассо.
где матрица дизайна и ковариативный вектор были заменены набором матриц дизайна и ковариантные векторы , по одному для каждой из J-групп. Кроме того, срок штрафа теперь в сумме более нормы, определяемые положительно определенными матрицами . Если каждая ковариата находится в своей группе и , то это сводится к стандартному лассо, а если есть только одна группа и , это сводится к регрессу гребня. Поскольку штраф сводится к норма на подпространствах, определенных каждой группой, он не может выбрать только некоторые ковариаты из группы, так же как не может регрессия гребня. Однако, поскольку штраф является суммой по различным нормам подпространств, как в стандартном лассо, ограничение имеет некоторые недифференциальные точки, которые соответствуют тождественным нулю некоторых подпространств. Следовательно, он может установить векторы коэффициентов, соответствующие некоторым подпространствам, равными нулю, а другие только сжимать. Однако можно расширить групповое лассо до так называемого разреженного группового лассо, которое может выбирать отдельные ковариаты внутри группы путем добавления дополнительных штраф к каждому подпространству группы.[9] Другое расширение, групповое лассо с перекрытием, позволяет разделять ковариаты между разными группами, например если ген должен возникать двумя путями.[10]
Плавленое лассо
В некоторых случаях изучаемый объект может иметь важную пространственную или временную структуру, которую необходимо учитывать во время анализа, например временные ряды или данные на основе изображений. В 2005 году Тибширани и его коллеги представили слитное лассо, чтобы расширить использование лассо именно для этого типа данных.[11] Целевая функция слитого лассо равна
Первое ограничение - это просто типичное ограничение лассо, но второе прямо наказывает большие изменения в отношении временной или пространственной структуры, что заставляет коэффициенты изменяться плавно, что отражает основную логику изучаемой системы. Кластерный лассо[12] представляет собой обобщение объединенного лассо, которое идентифицирует и группирует соответствующие ковариаты на основе их эффектов (коэффициентов). Основная идея состоит в том, чтобы наказывать различия между коэффициентами, чтобы ненулевые коэффициенты образовывали кластеры вместе. Это можно смоделировать с помощью следующей регуляризации:
Напротив, можно сначала сгруппировать переменные в сильно коррелированные группы, а затем извлечь одну репрезентативную ковариату из каждого кластера.[13]
Существует несколько алгоритмов, решающих задачу слитного лассо, и некоторые ее обобщения в прямой форме, т.е. есть алгоритм, который решает ее точно за конечное число операций.[14]
Квазинормы и мостовая регрессия
Лассо, эластичная сетка, групповое и слитное лассо строят штрафные функции из и нормы (с весами при необходимости). Мостовая регрессия использует общие нормы () и квазинормы ().[16] Например, для п= 1/2 аналогом цели лассо в лагранжевой форме является решение
куда
Утверждается, что дробные квазинормы () дают более значимые результаты при анализе данных как с теоретической, так и с эмпирической точки зрения.[17] Но невыпуклость этих квазинорм вызывает трудности в решении оптимизационной задачи. Для решения этой проблемы разработана процедура минимизации математического ожидания.[18] и реализовано[15] для минимизации функции
куда - произвольная вогнутая монотонно возрастающая функция (например, дает штраф за лассо и дает штраф).
Эффективный алгоритм минимизации основан на кусочно-квадратичной аппроксимации субквадратичного роста (PQSQ).[18]
Адаптивный лассо
Адаптивное лассо было введено Цзоу (2006, JASA) для линейной регрессии и Чжаном и Лу (2007, Биометрика) для пропорциональной регрессии опасностей.
Приор лассо
Предыдущее лассо было введено Jiang et al. (2016) для обобщенных линейных моделей, чтобы включить априорную информацию, такую как важность определенных ковариат.[19] В предшествующем лассо такая информация суммируется в псевдоответы (называемые предыдущими ответами). а затем к обычной целевой функции обобщенных линейных моделей добавляется дополнительная целевая функция со штрафом лассо. Не умаляя общности, мы используем линейную регрессию для иллюстрации априорного лассо. В линейной регрессии новую целевую функцию можно записать как
что эквивалентно
обычная целевая функция лассо с ответами заменяется средневзвешенным значением наблюдаемых ответов и предыдущих ответов (называемые скорректированными значениями ответа по предварительной информации).
В предыдущем лассо параметр называется параметром балансировки, который уравновешивает относительную важность данных и предшествующей информации. В крайнем случае , предшествующее лассо сокращается до лассо. Если , предварительный лассо будет полагаться исключительно на предварительную информацию для соответствия модели. Кроме того, параметр балансировки имеет еще одну привлекательную интерпретацию: он контролирует дисперсию в его предварительном распределении с байесовской точки зрения.
Prior lasso is more efficient in parameter estimation and prediction (with a smaller estimation error and prediction error) when the prior information is of high quality, and is robust to the low quality prior information with a good choice of the balancing parameter .
Computing lasso solutions
The loss function of the lasso is not differentiable, but a wide variety of techniques from convex analysis and optimization theory have been developed to compute the solutions path of the lasso. These include coordinate descent,[20] subgradient methods, least-angle regression (LARS), and proximal gradient methods.[21] Subgradient methods, are the natural generalization of traditional methods such as градиентный спуск и стохастический градиентный спуск to the case in which the objective function is not differentiable at all points. LARS is a method that is closely tied to lasso models, and in many cases allows them to be fit very efficiently, though it may not perform well in all circumstances. LARS generates complete solution paths.[21] Proximal methods have become popular because of their flexibility and performance and are an area of active research. The choice of method will depend on the particular lasso variant being used, the data, and the available resources. However, proximal methods will generally perform well in most circumstances.
Choice of regularization parameter
Choosing the regularization parameter () is also a fundamental part of using the lasso. Selecting it well is essential to the performance of lasso since it controls the strength of shrinkage and variable selection, which, in moderation can improve both prediction accuracy and interpretability. However, if the regularization becomes too strong, important variables may be left out of the model and coefficients may be shrunk excessively, which can harm both predictive capacity and the inferences drawn. Перекрестная проверка is often used to select the regularization parameter.
Information criteria such as the Байесовский информационный критерий (BIC) and the Информационный критерий Акаике (AIC) might be preferable to cross-validation, because they are faster to compute while their performance is less volatile in small samples.[22] An information criterion selects the estimator's regularization parameter by maximizing a model's in-sample accuracy while penalizing its effective number of parameters/degrees of freedom. Zou et al. (2007) propose to measure the effective degrees of freedom by counting the number of parameters that deviate from zero.[23] The degrees of freedom approach was considered flawed by Kaufman and Rosset (2014)[24] and Janson et al. (2015),[25] because a model's degrees of freedom might increase even when it is penalized harder by the regularization parameter. As an alternative, one can use the relative simplicity measure defined above to count the effective number of parameters (Hoornweg, 2018).[22] For the lasso, this measure is given by
,
which monotonically increases from zero to as the regularization parameter decreases from to zero.
Смотрите также
Рекомендации
- ^ Santosa, Fadil; Symes, William W. (1986). "Linear inversion of band-limited reflection seismograms". Журнал SIAM по научным и статистическим вычислениям. СИАМ. 7 (4): 1307–1330. Дои:10.1137/0907087.
- ^ а б c d е ж грамм Tibshirani, Robert (1996). "Regression Shrinkage and Selection via the lasso". Журнал Королевского статистического общества. Series B (methodological). Вайли. 58 (1): 267–88. JSTOR 2346178.
- ^ а б Tibshirani, Robert (1997). "The lasso Method for Variable Selection in the Cox Model". Статистика в медицине. 16 (4): 385–395. CiteSeerX 10.1.1.411.8024. Дои:10.1002/(SICI)1097-0258(19970228)16:4<385::AID-SIM380>3.0.CO;2-3. PMID 9044528.
- ^ а б Santosa, Fadil; Symes, William W. (1986). "Linear inversion of band-limited reflection seismograms". Журнал SIAM по научным и статистическим вычислениям. СИАМ. 7 (4): 1307–1330. Дои:10.1137/0907087.
- ^ Breiman, Leo (1995). "Better Subset Regression Using the Nonnegative Garrote". Технометрика. 37 (4): 373–84. Дои:10.1080/00401706.1995.10484371.
- ^ а б c d е Zou, Hui; Hastie, Trevor (2005). "Regularization and Variable Selection via the Elastic Net". Журнал Королевского статистического общества. Series B (statistical Methodology). Вайли. 67 (2): 301–20. Дои:10.1111/j.1467-9868.2005.00503.x. JSTOR 3647580.
- ^ а б Hoornweg, Victor (2018). «Глава 8». Science: Under Submission. Hoornweg Press. ISBN 978-90-829188-0-9.
- ^ а б Yuan, Ming; Lin, Yi (2006). "Model Selection and Estimation in Regression with Grouped Variables". Журнал Королевского статистического общества. Series B (statistical Methodology). Вайли. 68 (1): 49–67. Дои:10.1111/j.1467-9868.2005.00532.x. JSTOR 3647556.
- ^ а б Puig, Arnau Tibau, Ami Wiesel, and Alfred O. Hero III. "A Multidimensional Shrinkage-Thresholding Operator ". Proceedings of the 15th workshop on Statistical Signal Processing, SSP’09, IEEE, pp. 113–116.
- ^ а б Jacob, Laurent, Guillaume Obozinski, and Jean-Philippe Vert. "Group Lasso with Overlap and Graph LASSO ". Appearing in Proceedings of the 26th International Conference on Machine Learning, Montreal, Canada, 2009.
- ^ а б Tibshirani, Robert, Michael Saunders, Saharon Rosset, Ji Zhu, and Keith Knight. 2005. “Sparsity and Smoothness via the Fused lasso”. Журнал Королевского статистического общества. Series B (statistical Methodology) 67 (1). Wiley: 91–108. https://www.jstor.org/stable/3647602.
- ^ She, Yiyuan (2010). "Sparse regression with exact clustering". Electronic Journal of Statistics. 4: 1055–1096. Дои:10.1214/10-EJS578.
- ^ Reid, Stephen (2015). "Sparse regression and marginal testing using cluster prototypes". Биостатистика. 17 (2): 364–76. arXiv:1503.00334. Bibcode:2015arXiv150300334R. Дои:10.1093/biostatistics/kxv049. ЧВК 5006118. PMID 26614384.
- ^ Bento, Jose (2018). "On the Complexity of the Weighted Fused Lasso". IEEE Letters in Signal Processing. 25 (10): 1595–1599. arXiv:1801.04987. Bibcode:2018ISPL...25.1595B. Дои:10.1109/LSP.2018.2867800. S2CID 5008891.
- ^ а б Mirkes E.M. PQSQ-regularized-regression repository, GitHub.
- ^ Fu, Wenjiang J. 1998. “The Bridge versus the Lasso ». Journal of Computational and Graphical Statistics 7 (3). Taylor & Francis: 397-416.
- ^ Aggarwal C.C., Hinneburg A., Keim D.A. (2001) "On the Surprising Behavior of Distance Metrics in High Dimensional Space." In: Van den Bussche J., Vianu V. (eds) Database Theory — ICDT 2001. ICDT 2001. Lecture Notes in Computer Science, Vol. 1973. Springer, Berlin, Heidelberg, pp. 420-434.
- ^ а б Gorban, A.N.; Mirkes, E.M.; Zinovyev, A. (2016) "Piece-wise quadratic approximations of arbitrary error functions for fast and robust machine learning. " Neural Networks, 84, 28-38.
- ^ Jiang, Yuan (2016). "Variable selection with prior information for generalized linear models via the prior lasso method". Журнал Американской статистической ассоциации. 111 (513): 355–376. Дои:10.1080/01621459.2015.1008363. ЧВК 4874534. PMID 27217599.
- ^ Jerome Friedman, Trevor Hastie, and Robert Tibshirani. 2010. “Regularization Paths for Generalized Linear Models via Coordinate Descent”. Journal of Statistical Software 33 (1): 1-21. https://www.jstatsoft.org/article/view/v033i01/v33i01.pdf.
- ^ а б Efron, Bradley, Trevor Hastie, Iain Johnstone, and Robert Tibshirani. 2004. “Least Angle Regression”. The Annals of Statistics 32 (2). Institute of Mathematical Statistics: 407–51. https://www.jstor.org/stable/3448465.
- ^ а б Hoornweg, Victor (2018). «Глава 9». Science: Under Submission. Hoornweg Press. ISBN 978-90-829188-0-9.
- ^ Zou, Hui; Хасти, Тревор; Tibshirani, Robert (2007). "On the 'Degrees of Freedom' of the Lasso". Анналы статистики. 35 (5): 2173–2792. Дои:10.1214/009053607000000127.
- ^ Kaufman, S.; Rosset, S. (2014). "When does more regularization imply fewer degrees of freedom? Sufficient conditions and counterexamples". Биометрика. 101 (4): 771–784. Дои:10.1093/biomet/asu034. ISSN 0006-3444.
- ^ Janson, Lucas; Fithian, William; Hastie, Trevor J. (2015). "Effective degrees of freedom: a flawed metaphor". Биометрика. 102 (2): 479–485. Дои:10.1093/biomet/asv019. ISSN 0006-3444. ЧВК 4787623. PMID 26977114.