Усреднение по ансамблю (машинное обучение) - Ensemble averaging (machine learning)

В машинное обучение, особенно в создании искусственные нейронные сети, ансамблевое усреднение - это процесс создания нескольких моделей и их объединения для получения желаемого результата, в отличие от создания только одной модели. Часто ансамбль моделей работает лучше, чем любая отдельная модель, потому что различные ошибки моделей «усредняются».

Обзор

Усреднение по ансамблю - один из простейших видов комитетные машины. Вместе с повышение, это один из двух основных типов машин статических комитетов.[1] В отличие от стандартной конструкции сети, в которой создается много сетей, но сохраняется только одна, усреднение по ансамблю сохраняет менее удовлетворительные сети, но с меньшим весом.[2] Теория усреднения по ансамблю основана на двух свойствах искусственных нейронных сетей:[3]

  1. В любой сети смещение можно уменьшить за счет увеличения дисперсии.
  2. В группе сетей дисперсия может быть уменьшена без каких-либо затрат на смещение

Усреднение по ансамблю создает группу сетей, каждая с низким смещением и высокой дисперсией, затем объединяет их в новую сеть с (надеюсь) низким смещением и низкой дисперсией. Таким образом, это решение дилемма смещения-дисперсии.[4] Идея объединения экспертов восходит к Пьер-Симон Лаплас.[5]

Метод

Вышеупомянутая теория дает очевидную стратегию: создать набор экспертов с низким смещением и высокой дисперсией, а затем усреднить их. Обычно это означает создание набора экспертов с различными параметрами; часто это начальные синаптические веса, хотя другие факторы (такие как скорость обучения, импульс и т. д.) также могут варьироваться. Некоторые авторы не рекомендуют варьировать снижение веса и преждевременно прекращать занятия.[3] Таким образом, шаги следующие:

  1. Генерировать N экспертов, каждый со своими начальными ценностями. (Начальные значения обычно выбираются случайным образом из распределения.)
  2. Обучайте каждого эксперта отдельно.
  3. Объедините экспертов и усредните их значения.

В качестве альтернативы, базовые знания может использоваться для создания нескольких классы экспертов. Эксперт из каждого класса обучается, а затем объединяется.

Более сложная версия среднего по ансамблю рассматривает конечный результат не как простое среднее значение всех экспертов, а как взвешенную сумму. Если каждый эксперт , то общий результат можно определить как:

куда набор весов. Задача оптимизации поиска альфа легко решается с помощью нейронных сетей, следовательно, можно обучить «метасеть», где каждый «нейрон» фактически представляет собой целую нейронную сеть, а синаптические веса конечной сети - это вес, применяемый к каждой из них. эксперт. Это известно как линейная комбинация экспертов.[2]

Можно видеть, что большинство форм нейронных сетей представляют собой некоторое подмножество линейной комбинации: стандартная нейронная сеть (в которой используется только один эксперт) представляет собой просто линейную комбинацию со всеми и один . Необработанное среднее - это то, где все равны некоторому постоянному значению, а именно единице от общего числа экспертов.[2]

Более поздним методом ансамблевого усреднения является обучение с отрицательной корреляцией,[6] предложено Ю. Лю и Х. Яо. Сейчас этот метод получил широкое распространение в эволюционные вычисления.

Преимущества

  • Результирующий комитет почти всегда менее сложен, чем одна сеть, которая могла бы достичь того же уровня производительности.[7]
  • Получившийся комитет легче обучить на меньших наборах входных данных.[1]
  • В результате комитет часто улучшает производительность в любой отдельной сети.[2]
  • Риск переоснащение уменьшается, так как меньше параметров (весов), которые необходимо установить[1]

Смотрите также

Рекомендации

  1. ^ а б c Хайкин, Симон. Нейронные сети: всеобъемлющая основа. 2-е изд. Верхняя Седл-Ривер, штат Нью-Джерси: Prentice Hall, 1999.
  2. ^ а б c d Хашем, С. "Оптимальные линейные комбинации нейронных сетей". Нейронные сети 10, вып. 4 (1997): 599–614.
  3. ^ а б Нафтали У., Интратор Н., Хорн Д. «Оптимальное ансамблевое усреднение нейронных сетей». Сеть: вычисления в нейронных системах 8, вып. 3 (1997): 283–296.
  4. ^ Geman, S., E. Bienenstock и R. Doursat. «Нейронные сети и дилемма смещения / дисперсии». Нейронные вычисления 4, вып. 1 (1992): 1–58.
  5. ^ Клемен, Р. Т. "Объединение прогнозов: обзор и аннотированная библиография". Международный журнал прогнозирования 5, вып. 4 (1989): 559–583.
  6. ^ Ю. Лю и Х. Яо, Ансамблевое обучение через отрицательную корреляцию Нейронные сети, том 12, выпуск 10, декабрь 1999 г., стр. 1399-1404. Дои:10.1016 / S0893-6080 (99) 00073-8
  7. ^ Перлмуттер, Б.А., и Р. Розенфельд. «Сложность Чайтина – Колмогорова и обобщение в нейронных сетях». В материалах конференции 1990 г. по достижениям в системах обработки нейронной информации 3, 931. Morgan Kaufmann Publishers Inc., 1990.

дальнейшее чтение

  • Перроне, М. П. (1993), Улучшение оценки регрессии: методы усреднения для уменьшения дисперсии с расширениями общей оптимизации выпуклой меры
  • Вольперт, Д. Х. (1992), «Сложное обобщение», Нейронные сети, 5 (2): 241–259, CiteSeerX  10.1.1.133.8090, Дои:10.1016 / S0893-6080 (05) 80023-1
  • Хашем, С. (1997), "Оптимальные линейные комбинации нейронных сетей", Нейронные сети, 10 (4): 599–614, Дои:10.1016 / S0893-6080 (96) 00098-6, PMID  12662858
  • Хашем, С. и Б. Шмайзер (1993), «Аппроксимация функции и ее производных с использованием оптимальных для MSE линейных комбинаций обученных нейронных сетей с прямой связью», Труды совместной конференции по нейронным сетям., 87: 617–620