Компромисс смещения и дисперсии - Википедия - Bias–variance tradeoff
Часть серии по |
Машинное обучение и сбор данных |
---|
Площадки для машинного обучения |
В статистика и машинное обучение, то компромисс между смещением и дисперсией свойство модели, что отклонение оценок параметров по образцы можно уменьшить, увеличив предвзятость в по оценкам параметры. дилемма смещения – дисперсии или же проблема смещения – дисперсии конфликт в попытке одновременно минимизировать эти два источника ошибка что предотвращает контролируемое обучение алгоритмы от обобщения за пределами их Обучающий набор:[1][2]
- В ошибка смещения ошибка из-за ошибочных предположений при обучении алгоритм. Сильное смещение может привести к тому, что алгоритм упустит соответствующие отношения между функциями и целевыми выходными данными (недостаточное соответствие).
- В отклонение - ошибка из-за чувствительности к небольшим колебаниям обучающей выборки. Высокая дисперсия может заставить алгоритм моделировать случайный шум в обучающих данных, а не в предполагаемых выходных данных (переоснащение ).
Этот компромисс универсален: было показано, что асимптотически несмещенная модель должна иметь неограниченную дисперсию.[3]
В разложение смещения – дисперсии это способ анализа алгоритма обучения ожидал ошибка обобщения применительно к конкретной проблеме в виде суммы трех членов, смещения, дисперсии и величины, называемой несводимая ошибка, возникающий из-за шума в самой проблеме.
Мотивация
Компромисс смещения и дисперсии является центральной проблемой контролируемого обучения. В идеале хочется выбрать модель что оба точно фиксируют закономерности в данных обучения, но также обобщает хорошо к невидимым данным. К сожалению, сделать и то и другое одновременно невозможно. Методы обучения с высокой дисперсией могут хорошо представлять свой обучающий набор, но рискуют переобучиться зашумленным или нерепрезентативным обучающим данным. Напротив, алгоритмы с высоким смещением обычно создают более простые модели, которые не имеют тенденции к переобучению, но могут не соответствовать данные их обучения, не в состоянии уловить важные закономерности.
Это часто делается заблуждение[4][5] предположить, что сложные модели должны иметь высокую дисперсию; В некотором смысле модели с высокой дисперсией являются «сложными», но обратное не обязательно. Кроме того, нужно быть осторожным при определении сложности: в частности, количество параметров, используемых для описания модели, является плохим показателем сложности. Это иллюстрируется примером, адаптированным из:[6] Модель имеет всего два параметра (), но он может интерполировать любое количество точек, колебаясь с достаточно высокой частотой, что приводит как к высокому смещению, так и к большой дисперсии.
Интуитивно понятно, что смещение уменьшается за счет использования только локальной информации, тогда как дисперсию можно уменьшить только путем усреднения по нескольким наблюдениям, что по сути означает использование информации из большего региона. Поучительный пример см. В разделе о k-ближайших соседях или на рисунке справа. Чтобы сбалансировать, сколько информации используется из соседних наблюдений, модель может быть сглаженный через явный регуляризация, Такие как усадка.
Разложение среднеквадратичной ошибки смещением – дисперсией
Предположим, что у нас есть обучающий набор, состоящий из набора точек и реальные ценности связанный с каждой точкой . Предположим, что существует функция с шумом , где шум, , имеет нулевое среднее значение и дисперсию .
Мы хотим найти функцию , что приближает истинную функцию насколько это возможно, с помощью некоторого алгоритма обучения, основанного на обучающем наборе данных (выборке) . Мы делаем «насколько это возможно» точными, измеряя среднеквадратичная ошибка между и : мы хотим быть минимальным, как для а для точек за пределами нашей выборки. Конечно, мы не можем надеяться на это идеально, поскольку содержать шум ; это означает, что мы должны быть готовы принять несводимая ошибка в любой функции, которую мы придумали.
Нахождение обобщение на точки за пределами обучающей выборки может быть выполнено с помощью любого из бесчисленных алгоритмов, используемых для обучения с учителем. Оказывается, какая бы функция выбираем, можем разложить его ожидал ошибка на невидимом образце следующее:[7]:34[8]:223
куда
и
Ожидание варьируется в зависимости от выбора обучающего набора. , все взяты из одного совместного распределения . Три термина представляют:
- площадь предвзятость метода обучения, который можно рассматривать как ошибку, вызванную упрощающими допущениями, встроенными в метод. Например, при приближении нелинейной функции используя метод обучения для линейные модели, будет ошибка в оценках из-за этого предположения;
- то отклонение метода обучения, или, интуитивно понятно, насколько метод обучения будет двигаться вокруг своего среднего;
- неприводимая ошибка .
Поскольку все три члена неотрицательны, это формирует нижнюю границу ожидаемой ошибки для невидимых выборок.[7]:34
Чем сложнее модель То есть, чем больше точек данных будет захвачено, тем меньше будет смещение. Однако сложность заставит модель больше «двигаться» для захвата точек данных, и, следовательно, ее дисперсия будет больше.
Вывод
Вывод разложения смещения – дисперсии для квадрата ошибки происходит следующим образом.[9][10] Для удобства обозначений мы сокращаем , и мы бросаем индекс в наших операторах ожидания. Прежде всего напомним, что по определению для любой случайной величины , у нас есть
Переставляя, получаем:
С является детерминированный, т.е. не зависит от ,
Таким образом, учитывая и (потому что шум), следует
Кроме того, поскольку
Таким образом, поскольку и независимы, мы можем написать
Наконец, функция потерь MSE (или отрицательная логарифм правдоподобия) получается путем взятия математического ожидания над :
Подходы
Снижение размерности и выбор функции может уменьшить дисперсию за счет упрощения моделей. Точно так же больший обучающий набор имеет тенденцию уменьшать дисперсию. Добавление функций (предикторов) имеет тенденцию уменьшать смещение за счет введения дополнительной дисперсии. Алгоритмы обучения обычно имеют некоторые настраиваемые параметры, которые контролируют смещение и дисперсию; Например,
- линейный и Обобщенный линейный модели могут быть упорядоченный чтобы уменьшить их дисперсию за счет увеличения предвзятости.[11]
- В искусственные нейронные сети, дисперсия увеличивается, а смещение уменьшается по мере увеличения количества скрытых единиц,[12] хотя это классическое предположение было предметом недавних дебатов.[5] Как и в GLM, обычно применяется регуляризация.
- В k-ближайший сосед модели, высокая стоимость k приводит к высокому смещению и низкой дисперсии (см. ниже).
- В инстанциальное обучение, регуляризацию можно добиться, варьируя смесь прототипы и экземпляры.[13]
- В деревья решений, глубина дерева определяет дисперсию. Деревья решений обычно обрезаются, чтобы контролировать дисперсию.[7]:307
Один из способов решить эту проблему - использовать модели смеси и ансамблевое обучение.[14][15] Например, повышение объединяет множество "слабых" (с высоким смещением) моделей в ансамбль, который имеет меньшее смещение, чем отдельные модели, в то время как упаковка объединяет «сильных» учеников таким образом, чтобы уменьшить их дисперсию.
Проверка модели такие методы как перекрестная проверка (статистика) может использоваться для настройки моделей с целью оптимизации компромисса.
k-ближайшие соседи
В случае kрегрессия ближайших соседей, когда ожидание принимается за возможное разметку фиксированного обучающего набора, выражение в закрытой форме существует, связывающее разложение смещения – дисперсии с параметром k:[8]:37, 223
куда являются k ближайшие соседи Икс в обучающем наборе. Смещение (первый член) - это монотонно возрастающая функция от k, а дисперсия (второй член) спадает как k увеличена. Фактически, при "разумных предположениях" смещение оценки первого ближайшего соседа (1-NN) полностью исчезает, когда размер обучающей выборки приближается к бесконечности.[12]
Приложения
В регрессе
Декомпозиция смещения – дисперсии составляет концептуальную основу регрессии. регуляризация такие методы как Лассо и регресс гребня. Методы регуляризации вносят смещение в регрессионное решение, которое может значительно уменьшить дисперсию по сравнению с метод наименьших квадратов (МНК) решение. Хотя решение OLS обеспечивает непредвзятые оценки регрессии, решения с более низкой дисперсией, полученные с помощью методов регуляризации, обеспечивают превосходную производительность MSE.
В классификации
Разложение смещения – дисперсии было первоначально сформулировано для регрессии методом наименьших квадратов. В случае классификация под 0-1 проигрыш (коэффициент ошибочной классификации), можно найти аналогичное разложение.[16][17] В качестве альтернативы, если проблема классификации может быть сформулирована как вероятностная классификация, то ожидаемая квадратичная ошибка предсказанных вероятностей относительно истинных вероятностей может быть разложена, как и раньше.[18]
В обучении с подкреплением
Несмотря на то, что разложение смещения-дисперсии не применяется напрямую в обучение с подкреплением, аналогичный компромисс также может характеризовать обобщение. Когда агент имеет ограниченную информацию о своей среде, неоптимальность алгоритма RL может быть разложена на сумму двух членов: члена, связанного с асимптотическим смещением, и члена, связанного с переобучением. Асимптотическая погрешность напрямую связана с алгоритмом обучения (независимо от количества данных), в то время как условие переобучения происходит из-за того, что количество данных ограничено.[19]
В человеческом обучении
Хотя дилемма смещения и дисперсии широко обсуждалась в контексте машинного обучения, была изучена в контексте человеческое познание, в первую очередь Герд Гигеренцер и коллеги в контексте изученной эвристики. Они утверждали (см. Ссылки ниже), что человеческий мозг решает дилемму в случае обычно разреженных, плохо охарактеризованных обучающих наборов, предоставляемых опытом, путем принятия эвристики с высоким смещением / низкой дисперсией. Это отражает тот факт, что подход с нулевым смещением плохо переносится на новые ситуации, а также необоснованно предполагает точное знание истинного состояния мира. Результирующие эвристики относительно просты, но дают лучшие выводы в более широком спектре ситуаций.[20]
Geman и другие.[12] утверждают, что дилемма смещения-дисперсии подразумевает, что такие способности, как общие распознавание объекта не может быть изучен с нуля, но требует определенной степени «жесткой проводки», которая позже настраивается на опыте. Это связано с тем, что безмодельные подходы к выводу требуют непрактично больших обучающих наборов, если они хотят избежать высокой дисперсии.
Смотрите также
Рекомендации
- ^ Кохави, Рон; Вольперт, Дэвид Х. (1996). «Разложение смещения плюс дисперсия для функций с нулевыми потерями». ICML. 96.
- ^ Luxburg, Ulrike V .; Шёлкопф, Б. (2011). «Статистическая теория обучения: модели, концепции и результаты». Справочник по истории логики. 10: Раздел 2.4.
- ^ Деруминьи, Алексис; Шмидт-Хибер, Йоханнес. «О нижних оценках компромисса смещения и дисперсии». arXiv.
- ^ Нил, Брэди (2019). «На компромиссе смещения-дисперсии: учебники нуждаются в обновлении». arXiv:1912.08286 [cs.LG ].
- ^ а б Нил, Брэди; Миттал, Сартак; Баратин, Аристид; Тантия, Винаяк; Scicluna, Мэтью; Лакост-Жюльен, Симон; Митлягкас, Иоаннис (2018). «Современный взгляд на компромисс смещения и дисперсии в нейронных сетях». arXiv:1810.08591 [cs.LG ].
- ^ Вапник, Владимир (2000). Природа статистической теории обучения. Нью-Йорк: Springer-Verlag. ISBN 978-1-4757-3264-1.
- ^ а б c Джеймс, Гарет; Виттен, Даниэла; Хасти, Тревор; Тибширани, Роберт (2013). Введение в статистическое обучение. Springer.
- ^ а б Хасти, Тревор; Тибширани, Роберт; Фридман, Джером Х. (2009). Элементы статистического обучения. Архивировано из оригинал на 2015-01-26. Получено 2014-08-20.
- ^ Виджаякумар, Сетху (2007). "Компромисс смещения и дисперсии" (PDF). Эдинбургский университет. Получено 19 августа 2014.
- ^ Шахнарович, Грег (2011). «Заметки о выводе разложения смещения-дисперсии в линейной регрессии» (PDF). Архивировано из оригинал (PDF) 21 августа 2014 г.. Получено 20 августа 2014.
- ^ Белсли, Дэвид (1991). Условная диагностика: коллинеарность и слабые данные в регрессии. Нью-Йорк (NY): Wiley. ISBN 978-0471528890.
- ^ а б c Джеман, Стюарт; Биненшток, Эли; Дурса, Рене (1992). «Нейронные сети и дилемма смещения / дисперсии» (PDF). Нейронные вычисления. 4: 1–58. Дои:10.1162 / neco.1992.4.1.1.
- ^ Гальярди, Франческо (май 2011 г.). «Классификаторы на основе экземпляров, применяемые к медицинским базам данных: диагностика и извлечение знаний». Искусственный интеллект в медицине. 52 (3): 123–139. Дои:10.1016 / j.artmed.2011.04.002. PMID 21621400.
- ^ Тинг, Джо-Энн; Виджайкумар, Сетху; Шааль, Стефан (2011). «Локально взвешенная регрессия для контроля». В Саммуте, Клод; Уэбб, Джеффри И. (ред.). Энциклопедия машинного обучения (PDF). Springer. п. 615. Bibcode:2010eoml.book ..... S.
- ^ Фортманн-Роу, Скотт (2012). "Понимание компромисса смещения и дисперсии".
- ^ Домингос, Педро (2000). Единое разложение смещения и дисперсии (PDF). ICML.
- ^ Валентини, Джорджио; Диттерих, Томас Г. (2004). «Дисперсионно-смещенный анализ машин опорных векторов для разработки ансамблевых методов на основе SVM» (PDF). Журнал исследований в области машинного обучения. 5: 725–775.
- ^ Мэннинг, Кристофер Д.; Рагхаван, Прабхакар; Шютце, Хинрих (2008). Введение в поиск информации. Издательство Кембриджского университета. С. 308–314.
- ^ Франсуа-Лаве, Винсент; Рабуссо, Гийом; Пино, Жоэль; Эрнст, Дэмиен; Фонтено, Рафаэль (2019). «О чрезмерной подгонке и асимптотическом смещении в пакетном обучении с подкреплением с частичной наблюдаемостью». Журнал исследований ИИ. 65: 1–30. Дои:10.1613 / jair.1.11478.
- ^ Гигеренцер, Герд; Брайтон, Генри (2009). «Homo Heuristicus: Почему предвзятые умы делают лучшие выводы». Темы когнитивной науки. 1 (1): 107–143. Дои:10.1111 / j.1756-8765.2008.01006.x. HDL:11858 / 00-001M-0000-0024-F678-0. PMID 25164802.