Контролируемое обучение - Supervised learning

Контролируемое обучение это машинное обучение задача изучения функции, которая отображает вход в выход на основе примеров пар вход-выход.[1] Он выводит функцию из маркированный данные обучения состоящий из набора примеры обучения.[2] В обучении с учителем каждый пример представляет собой пара состоящий из входного объекта (обычно вектора) и желаемого выходного значения (также называемого контрольный сигнал). Алгоритм обучения с учителем анализирует данные обучения и выдает предполагаемую функцию, которую можно использовать для отображения новых примеров. Оптимальный сценарий позволит алгоритму правильно определять метки классов для невидимых экземпляров. Это требует от алгоритма обучения «разумного» обобщения обучающих данных на невидимые ситуации (см. индуктивное смещение ).

Параллельная задача в психологии человека и животных часто упоминается как концептуальное обучение.

Шаги

Для решения данной проблемы контролируемого обучения необходимо выполнить следующие шаги:

  1. Определите тип обучающих примеров. Прежде чем делать что-либо еще, пользователь должен решить, какие данные будут использоваться в качестве обучающего набора. В случае анализ почерка, например, это может быть один рукописный символ, целое рукописное слово или целая строка рукописного ввода.
  2. Соберите тренировочный набор. Обучающий набор должен отражать реальное использование функции. Таким образом, собирается набор входных объектов и соответствующие выходные данные, полученные либо от экспертов-людей, либо на основе измерений.
  3. Определите входное представление функции изученной функции. Точность изученной функции сильно зависит от того, как представлен входной объект. Обычно входной объект преобразуется в вектор признаков, который содержит ряд функций, описывающих объект. Количество функций не должно быть слишком большим из-за проклятие размерности; но должен содержать достаточно информации, чтобы точно предсказать результат.
  4. Определите структуру изученной функции и соответствующий алгоритм обучения. Например, инженер может использовать опорные векторные машины или же деревья решений.
  5. Завершите дизайн. Запустите алгоритм обучения на собранной обучающей выборке. Некоторые алгоритмы обучения с учителем требуют от пользователя определения определенных параметров управления. Эти параметры можно настроить путем оптимизации производительности на подмножестве (называемом Проверка set) обучающей выборки или через перекрестная проверка.
  6. Оцените точность усвоенной функции. После настройки параметров и обучения производительность результирующей функции должна быть измерена на тестовом наборе, отдельном от обучающего набора.

Выбор алгоритма

Доступен широкий спектр алгоритмов контролируемого обучения, каждый со своими сильными и слабыми сторонами. Не существует единого алгоритма обучения, который лучше всего работал бы со всеми задачами обучения с учителем (см. Теорема о бесплатном обеде ).

При обучении с учителем следует учитывать четыре основных вопроса:

Компромисс смещения и дисперсии

Первая проблема - это компромисс между предвзятость и отклонение.[3] Представьте, что у нас есть несколько разных, но одинаково хороших наборов обучающих данных. Алгоритм обучения смещен для конкретного входа если при обучении на каждом из этих наборов данных он систематически неверен при прогнозировании правильного вывода для . Алгоритм обучения имеет высокую дисперсию для конкретного входа если он прогнозирует разные выходные значения при обучении на разных обучающих наборах. Ошибка предсказания изученного классификатора связана с суммой смещения и дисперсии алгоритма обучения.[4] Как правило, существует компромисс между смещением и отклонением. Алгоритм обучения с низким смещением должен быть «гибким», чтобы он мог хорошо соответствовать данным. Но если алгоритм обучения слишком гибкий, он будет соответствовать каждому набору обучающих данных по-разному и, следовательно, будет иметь высокую дисперсию. Ключевым аспектом многих контролируемых методов обучения является то, что они могут регулировать этот компромисс между смещением и дисперсией (либо автоматически, либо путем предоставления параметра смещения / дисперсии, который может регулировать пользователь).

Сложность функции и количество обучающих данных

Вторая проблема - это количество доступных обучающих данных относительно сложности «истинной» функции (классификатора или функции регрессии). Если истинная функция проста, то «негибкий» алгоритм обучения с высоким смещением и низкой дисперсией сможет изучить ее на небольшом количестве данных. Но если истинная функция очень сложна (например, потому что она включает сложные взаимодействия между множеством различных входных функций и ведет себя по-разному в разных частях входного пространства), тогда функция сможет учиться только на очень большом количестве обучающих данных. и использование «гибкого» алгоритма обучения с низким смещением и высокой дисперсией. Между входом и желаемым выходом существует четкое разграничение.

Размерность входного пространства

Третья проблема - размерность входного пространства. Если входные векторы признаков имеют очень высокую размерность, проблема обучения может быть сложной, даже если истинная функция зависит только от небольшого числа этих функций. Это связано с тем, что множество «дополнительных» измерений могут сбить с толку алгоритм обучения и привести к его высокой дисперсии. Следовательно, высокая входная размерность обычно требует настройки классификатора, чтобы иметь низкую дисперсию и высокое смещение. На практике, если инженер может вручную удалить нерелевантные функции из входных данных, это, вероятно, повысит точность изученной функции. Кроме того, существует множество алгоритмов для выбор функции которые стремятся идентифицировать релевантные особенности и отбрасывать нерелевантные. Это пример более общей стратегии уменьшение размерности, который пытается отобразить входные данные в пространство меньшей размерности до запуска алгоритма контролируемого обучения.

Шум в выходных значениях

Четвертая проблема - это степень шума в желаемых выходных значениях (контрольный целевые переменные ). Если желаемые выходные значения часто неверны (из-за человеческой ошибки или ошибок датчика), то алгоритм обучения не должен пытаться найти функцию, которая точно соответствует обучающим примерам. Попытка слишком тщательно подогнать данные приводит к переоснащение. Вы можете переобучить, даже если нет ошибок измерения (стохастический шум), если функция, которую вы пытаетесь изучить, слишком сложна для вашей модели обучения. В такой ситуации часть целевой функции, которую невозможно смоделировать, «портит» ваши обучающие данные - это явление было названо детерминированный шум. Когда присутствует какой-либо тип шума, лучше использовать более высокую систематическую погрешность и более низкую оценку дисперсии.

На практике существует несколько подходов к уменьшению шума в выходных значениях, например: ранняя остановка предотвращать переоснащение а также обнаружение и удаление зашумленных обучающих примеров перед обучением алгоритма обучения с учителем. Существует несколько алгоритмов, которые идентифицируют зашумленные примеры обучения и удаляют предполагаемые зашумленные обучающие примеры перед обучением. ошибка обобщения с Статистическая значимость.[5][6]

Другие факторы, которые следует учитывать

Другие факторы, которые следует учитывать при выборе и применении алгоритма обучения, включают следующее:

При рассмотрении нового приложения инженер может сравнить несколько алгоритмов обучения и экспериментально определить, какой из них лучше всего работает с рассматриваемой проблемой (см. перекрестная проверка ). Настройка производительности алгоритма обучения может занять очень много времени. При фиксированных ресурсах часто лучше потратить больше времени на сбор дополнительных обучающих данных и более информативных функций, чем на настройку алгоритмов обучения.

Алгоритмы

Наиболее широко используемые алгоритмы обучения:

Как работают алгоритмы контролируемого обучения

Учитывая набор обучающие примеры формы такой, что это вектор признаков i-го примера и - его метка (т. е. класс), алгоритм обучения ищет функцию , куда это входное пространство и это выходное пространство. Функция является элементом некоторого пространства возможных функций , обычно называемый пространство гипотез. Иногда удобно представлять с использованием функции оценки такой, что определяется как возврат значение, дающее наивысший балл: . Позволять обозначают пространство оценочных функций.

Несмотря на то что и может быть любым пространством функций, многие алгоритмы обучения являются вероятностными моделями, где принимает форму условная возможность модель , или же принимает форму совместная вероятность модель . Например, наивный байесовский и линейный дискриминантный анализ являются совместными вероятностными моделями, тогда как логистическая регрессия модель условной вероятности.

Есть два основных подхода к выбору или же : минимизация эмпирического риска и минимизация структурных рисков.[7] Минимизация эмпирического риска ищет функцию, которая лучше всего соответствует обучающим данным. Минимизация структурных рисков включает: штрафная функция который контролирует компромисс смещения / дисперсии.

В обоих случаях предполагается, что обучающая выборка состоит из выборки независимые и одинаково распределенные пары, . Чтобы измерить, насколько хорошо функция соответствует обучающим данным, функция потерь определено. Для тренировочного примера , потеря предсказания значения является .

В рисковать функции определяется как ожидаемая потеря . Это можно оценить по данным обучения как

.

Минимизация эмпирического риска

При минимизации эмпирического риска алгоритм обучения с учителем ищет функцию что сводит к минимуму . Следовательно, алгоритм обучения с учителем может быть построен путем применения алгоритм оптимизации найти .

Когда условное распределение вероятностей а функция потерь - это отрицательная логарифмическая вероятность: , то минимизация эмпирического риска эквивалентна оценка максимального правдоподобия.

Когда содержит много функций-кандидатов или обучающая выборка недостаточно велика, минимизация эмпирического риска приводит к высокой дисперсии и плохому обобщению. Алгоритм обучения способен запоминать обучающие примеры без хороших обобщений. Это называется переоснащение.

Минимизация структурных рисков

Минимизация структурных рисков стремится предотвратить переоснащение за счет включения штраф за регуляризацию в оптимизацию. Штраф за регуляризацию можно рассматривать как реализацию формы бритва Оккама который предпочитает более простые функции более сложным.

Применяются самые разные штрафы, соответствующие различным определениям сложности. Например, рассмотрим случай, когда функция является линейной функцией вида

.

Популярный штраф за регуляризацию , который является квадратом Евклидова норма весов, также известных как норма. Другие нормы включают норма, , а норма, то есть количество ненулевых с. Штраф будет обозначен .

Задача оптимизации обучения с учителем состоит в том, чтобы найти функцию что сводит к минимуму

Параметр контролирует компромисс смещения и дисперсии. Когда , это дает минимизацию эмпирического риска с низким смещением и высокой дисперсией. Когда большой, алгоритм обучения будет иметь высокую систематическую ошибку и низкую дисперсию. Значение можно выбрать эмпирически через перекрестная проверка.

Штраф за сложность имеет байесовскую интерпретацию как отрицательная логарифмическая априорная вероятность , , в таком случае это апостериорная вероятность из .

Генеративное обучение

Описанные выше методы обучения: разборчивое обучение методы, потому что они стремятся найти функцию который хорошо различает различные выходные значения (см. дискриминационная модель ). Для особого случая, когда это совместное распределение вероятностей а функция потерь - это отрицательное логарифмическое правдоподобие говорят, что алгоритм минимизации риска выполняет генеративное обучение, потому что можно рассматривать как генеративная модель это объясняет, как были созданы данные. Алгоритмы генеративного обучения часто проще и эффективнее с точки зрения вычислений, чем алгоритмы дискриминирующего обучения. В некоторых случаях решение может быть вычислено в закрытой форме, как в наивный байесовский и линейный дискриминантный анализ.

Обобщения

Существует несколько способов обобщения стандартной задачи контролируемого обучения:

  • Полу-контролируемое обучение: В этой настройке желаемые выходные значения предоставляются только для подмножества обучающих данных. Остальные данные не помечены.
  • Слабый надзор: В этой настройке используются источники шума, ограниченные или неточные источники для обеспечения сигнала контроля для маркировки данных обучения.
  • Активное изучение: Вместо того, чтобы предполагать, что все обучающие примеры даны в начале, активные алгоритмы обучения интерактивно собирают новые примеры, обычно путем выполнения запросов к пользователю-человеку. Часто запросы основаны на немаркированных данных, что представляет собой сценарий, сочетающий полу-контролируемое обучение с активным обучением.
  • Структурированный прогноз: Когда желаемое выходное значение представляет собой сложный объект, такой как дерево синтаксического анализа или помеченный граф, стандартные методы должны быть расширены.
  • Учимся ранжировать: Когда входные данные представляют собой набор объектов, а желаемый результат - ранжирование этих объектов, тогда стандартные методы должны быть расширены.

Подходы и алгоритмы

Приложения

Общие вопросы

Смотрите также

Рекомендации

  1. ^ Стюарт Дж. Рассел, Питер Норвиг (2010) Искусственный интеллект: современный подход, Третье издание, Прентис Холл ISBN  9780136042594.
  2. ^ Мехриар Мохри, Афшин Ростамизаде, Амит Талвалкар (2012) Основы машинного обучения, MIT Press ISBN  9780262018258.
  3. ^ С. Геман, Э. Биненшток и Р. Дурса (1992). Нейронные сети и дилемма смещения / дисперсии. Нейронные вычисления 4, 1–58.
  4. ^ Дж. Джеймс (2003) Дисперсия и смещение для общих функций потерь, Машинное обучение 51, 115-135. (http://www-bcf.usc.edu/~gareth/research/bv.pdf )
  5. ^ К.Е. Бродели и М.А.Фридл (1999). Выявление и устранение неправильно маркированных учебных заведений, журнал исследований искусственного интеллекта 11, 131-167. (http://jair.org/media/606/live-606-1803-jair.pdf )
  6. ^ М.Р. Смит и Т. Мартинес (2011). «Повышение точности классификации путем выявления и удаления экземпляров, которые должны быть неправильно классифицированы». Труды международной совместной конференции по нейронным сетям (IJCNN 2011). С. 2690–2697. CiteSeerX  10.1.1.221.1371. Дои:10.1109 / IJCNN.2011.6033571.
  7. ^ Вапник, В. Природа статистической теории обучения (2-е изд.), Springer Verlag, 2000.
  8. ^ А. Мэйти (2016). «Контролируемая классификация поляриметрических данных RADARSAT-2 для различных особенностей суши». arXiv:1608.00501 [cs.CV ].

внешняя ссылка