Ранняя остановка - Early stopping

В машинное обучение, ранняя остановка это форма регуляризация используется, чтобы избежать переоснащение при обучении учащегося итеративным методом, например градиентный спуск. Такие методы обновляют учащегося, чтобы он лучше соответствовал обучающим данным с каждой итерацией. До некоторой степени это улучшает работу учащегося с данными за пределами обучающей выборки. Однако после этого улучшение приспособления учащегося к обучающим данным происходит за счет увеличения ошибка обобщения. Правила ранней остановки дают представление о том, сколько итераций можно выполнить, прежде чем учащийся начнет переориентироваться. Правила ранней остановки использовались во многих различных методах машинного обучения с разной теоретической базой.

Фон

В этом разделе представлены некоторые из основных концепций машинного обучения, необходимых для описания методов ранней остановки.

Переоснащение

Это изображение представляет проблему переобучения в машинном обучении. Красные точки представляют данные обучающего набора. Зеленая линия представляет истинную функциональную взаимосвязь, а синяя линия показывает изученную функцию, которая стала жертвой переобучения.

Машинное обучение алгоритмы тренируют модель на основе конечного набора обучающих данных. Во время этого обучения модель оценивается на основе того, насколько хорошо она предсказывает наблюдения, содержащиеся в обучающем наборе. В целом, однако, цель схемы машинного обучения - создать модель, которая обобщает, то есть предсказывает ранее невидимые наблюдения. Переоснащение происходит, когда модель хорошо соответствует данным в обучающем наборе, в то время как ошибка обобщения.

Регуляризация

В контексте машинного обучения под регуляризацией понимается процесс модификации алгоритма обучения с целью предотвращения переобучения. Обычно это подразумевает наложение некоторого ограничения плавности на изученную модель.[1]Эта гладкость может быть обеспечена явно, путем фиксации количества параметров в модели или путем увеличения функции стоимости, как в Тихоновская регуляризация. Тихоновской регуляризации, наряду с регрессия главных компонент и многие другие схемы регуляризации подпадают под действие спектральной регуляризации, то есть регуляризации, характеризующейся применением фильтра. Ранняя остановка также относится к этому классу методов.

Методы градиентного спуска

Методы градиентного спуска - это итерационные методы оптимизации первого порядка. Каждая итерация обновляет приближенное решение задачи оптимизации, делая шаг в направлении отрицательного градиента целевой функции. Путем выбора размера шага можно добиться сходимости такого метода к локальному минимуму целевой функции. Градиентный спуск используется в машинном обучении путем определения функция потерь который отражает ошибку учащегося в обучающей выборке, а затем минимизирует эту функцию.

Ранняя остановка на основании аналитических результатов

Ранняя остановка теория статистического обучения

Ранняя остановка может использоваться для упорядочения непараметрическая регрессия проблемы, возникшие в машинное обучение. Для данного входного пространства , выходное пространство, , и выборки, взятые из неизвестной вероятностной меры, , на , цель таких задач - аппроксимировать функция регрессии, , данный

,

куда условное распределение при индуцированный .[2]Один из распространенных вариантов аппроксимации функции регрессии - использование функций из воспроизводящее ядро ​​гильбертова пространства.[2] Эти пространства могут быть бесконечномерными, в которых они могут предоставлять решения, которые превосходят обучающие наборы произвольного размера. Поэтому регуляризация особенно важна для этих методов. Одним из способов регуляризации задач непараметрической регрессии является применение правила ранней остановки к итерационной процедуре, такой как градиентный спуск.

Правила ранней остановки, предложенные для этих задач, основаны на анализе верхних границ ошибки обобщения в зависимости от номера итерации. Они дают предписания по количеству итераций, которые нужно выполнить, которые могут быть вычислены до начала процесса решения.[3][4]

Пример: потеря наименьших квадратов

(По материалам Yao, Rosasco and Caponnetto, 2007 г.[3])

Позволять и . Учитывая набор образцов

,

взяты независимо от , минимизировать функционал

куда, является членом воспроизводящего ядра гильбертова пространства . То есть минимизировать ожидаемый риск для функции потерь наименьших квадратов. С зависит от неизвестной вероятностной меры , его нельзя использовать для вычислений. Вместо этого рассмотрите следующий эмпирический риск

Позволять и быть т-я итерация градиентного спуска, примененная к ожидаемому и эмпирическому рискам, соответственно, где обе итерации инициализируются в начале координат, и обе используют размер шага . В сформировать итерация популяции, который сходится к , но не может использоваться в вычислениях, а сформировать итерация образца которое обычно сходится к решению с переобучением.

Мы хотим контролировать разницу между ожидаемым риском выборочной итерации и минимальным ожидаемым риском, то есть ожидаемым риском функции регрессии:

Это различие можно переписать как сумму двух членов: разница в ожидаемом риске между итерациями выборки и генерации и между итерацией генерации и функцией регрессии:

Это уравнение представляет собой компромисс смещения и дисперсии, который затем решается для получения оптимального правила остановки, которое может зависеть от неизвестного распределения вероятностей. Это правило связано с вероятностными границами ошибки обобщения. Для анализа, ведущего к правилу и границам ранней остановки, читатель отсылается к исходной статье.[3] На практике методы, управляемые данными, например перекрестная проверка может использоваться для получения адаптивного правила остановки.

Раннее прекращение разгона

Повышение относится к семейству алгоритмов, в котором набор слабые ученики (учащиеся, которые лишь слегка коррелируют с истинным процессом) объединяются, чтобы произвести сильный ученик. Было показано, что для нескольких алгоритмов повышения (включая AdaBoost ), что регуляризация посредством ранней остановки может обеспечить гарантии последовательность, то есть результат алгоритма приближается к истинному решению по мере того, как количество выборок стремится к бесконечности.[5][6][7]

L2-бустинг

Методы повышения тесно связаны с описанными методами градиентного спуска. над можно рассматривать как метод повышения, основанный на потеря: L2Способствовать росту.[3]

Ранняя остановка на основе валидации

Эти правила ранней остановки работают, разделяя исходный обучающий набор на новый обучающий набор и набор для проверки. Ошибка в наборе проверки используется в качестве прокси для ошибка обобщения в определении момента начала переобучения. Эти методы чаще всего используются при обучении нейронные сети. Пречелт дает следующее резюме наивной реализации противник -основанная досрочная остановка:[8]

  1. Разделите обучающие данные на обучающий набор и набор проверки, например в соотношении 2: 1.
  2. Обучайте только на обучающем наборе и время от времени оценивайте ошибку для каждого примера на проверочном наборе, например после каждой пятой эпохи.
  3. Остановите обучение, как только ошибка на проверочном наборе станет выше, чем при последней проверке.
  4. Используйте веса, которые сеть имела на предыдущем шаге в результате тренировочного прогона.
    — Лутц Прешельт, Ранняя остановка - но когда?

Использование более сложных форм перекрестная проверка - несколько разделов данных на обучающий набор и набор проверки - вместо одного раздела на набор обучения и набор проверки. Даже эта простая процедура на практике усложняется тем фактом, что ошибка валидации может колебаться во время обучения, создавая несколько локальных минимумов. Это осложнение привело к созданию множества специальных правил для определения того, когда действительно началось переобучение.[8]

Смотрите также

Рекомендации

  1. ^ Джироси, Федерико; Майкл Джонс; Томазо Поджио (1995-03-01). «Теория регуляризации и архитектуры нейронных сетей». Нейронные вычисления. 7 (2): 219–269. CiteSeerX  10.1.1.48.9258. Дои:10.1162 / neco.1995.7.2.219. ISSN  0899-7667.
  2. ^ а б Смейл, Стив; Дин-Сюань Чжоу (2007-08-01). "Изучение оценок теории через интегральные операторы и их приближения". Конструктивная аппроксимация. 26 (2): 153–172. CiteSeerX  10.1.1.210.722. Дои:10.1007 / s00365-006-0659-у. ISSN  0176-4276.
  3. ^ а б c d Яо, юань; Лоренцо Росаско; Андреа Капоннетто (1 августа 2007 г.). «О раннем прекращении обучения по градиентному спуску». Конструктивная аппроксимация. 26 (2): 289–315. CiteSeerX  10.1.1.329.2482. Дои:10.1007 / s00365-006-0663-2. ISSN  0176-4276.
  4. ^ Raskutti, G .; М.Дж. Уэйнрайт; Бин Ю (2011). «Ранняя остановка для непараметрической регрессии: оптимальное правило остановки, зависящее от данных». 2011 49-я ежегодная конференция Allerton по коммуникациям, управлению и вычислениям (Allerton). 2011 49-я ежегодная конференция Allerton по коммуникациям, управлению и вычислениям (Allerton). С. 1318–1325. Дои:10.1109 / Allerton.2011.6120320.
  5. ^ Вэньсинь Цзян (февраль 2004 г.). «Согласованность процесса для AdaBoost». Анналы статистики. 32 (1): 13–29. Дои:10.1214 / aos / 1079120128. ISSN  0090-5364.
  6. ^ Бюльманн, Питер; Бин Ю (01.06.2003). «Повышение с потерей L₂: регрессия и классификация». Журнал Американской статистической ассоциации. 98 (462): 324–339. Дои:10.1198/016214503000125. ISSN  0162-1459. JSTOR  30045243.
  7. ^ Тонг Чжан; Бин Ю (2005-08-01). «Повышение эффективности с ранней остановкой: конвергенция и последовательность». Анналы статистики. 33 (4): 1538–1579. arXiv:математика / 0508276. Bibcode:2005математика ...... 8276Z. Дои:10.1214/009053605000000255. ISSN  0090-5364. JSTOR  3448617.
  8. ^ а б Прешельт, Лутц; Женевьева Б. Орр (01.01.2012). «Ранняя остановка - но когда?». В Грегуаре Монтавоне; Клаус-Роберт Мюллер (ред.). Нейронные сети: хитрости торговли. Конспект лекций по информатике. Springer Berlin Heidelberg. стр.53 –67. Дои:10.1007/978-3-642-35289-8_5. ISBN  978-3-642-35289-8.