Одноразовое обучение - One-shot learning
Эта статья написано как исследовательская статья или научный журнал что может использовать чрезмерно технические термины или не может быть написано как энциклопедическая статья.Апрель 2016 г.) (Узнайте, как и когда удалить этот шаблон сообщения) ( |
Одноразовое обучение является проблема категоризации объектов, встречается в основном в компьютерное зрение. В то время как большинство машинное обучение Алгоритмы категоризации объектов на основе требуют обучения на сотнях или тысячах образцов / изображений и очень больших наборах данных, однократное обучение направлено на получение информации о категориях объектов из одной или только нескольких обучающих выборок / изображений.
Основное внимание в этой статье будет уделено решению этой проблемы, представленной Фэй-Фэй Ли, Р. Фергус и П. Перона в IEEE Transactions по анализу шаблонов и машинному анализу, Vol 28 (4), 2006, в котором используется генеративный модель категории объектов и вариационный байесовский фреймворк для представления и изучения категорий визуальных объектов на нескольких обучающих примерах. Еще один доклад, представленный на Международная конференция по компьютерному зрению и распознаванию образов (CVPR ) 2000 Эрика Миллера, Николаса Мацакиса и Пола Виолы также будут обсуждаться.
Мотивация
Способность изучать категории объектов на нескольких примерах и в быстром темпе была продемонстрирована на людях,[1][2] По оценкам, к шести годам ребенок выучил почти все из 10-30 тысяч категорий объектов в мире.[3] Это связано не только с вычислительной мощностью человеческого разума, но и с его способностью синтезировать и изучать новые классы объектов на основе существующей информации о различных, ранее изученных классах. Даны два примера из двух разных классов объектов: один - неизвестный объект, состоящий из знакомых форм, второй - неизвестная аморфная форма; Людям гораздо легче распознать первые, чем вторые, что предполагает, что люди используют существующие знания ранее изученных классов при изучении новых. Ключевым мотивом для метода однократного обучения является то, что системы, как и люди, могут использовать предварительные знания о категориях объектов для классификации новых объектов.[4][5]
Фон
Как и большинство схемы классификации, однократное обучение связано с тремя основными проблемами:
- Представление: Как нам моделировать объекты и категории?
- Учусь: Как мы можем приобрести такие модели?
- Признание: Учитывая новое изображение, как мы обнаруживаем присутствие известного объекта / категории среди беспорядка, несмотря на изменения окклюзии, точки обзора и освещения?[6]
Одноразовое обучение отличается от алгоритмов распознавания отдельных объектов и стандартных категорий тем, что обмен знаниями, который использует предварительные знания изученных категорий и позволяет учиться на минимальных обучающих примерах.
- Передача знаний по параметрам модели: Один набор алгоритмов для однократного обучения обеспечивает передачу знаний за счет повторного использования параметров модели на основе сходства между ранее изученными и вновь изученными классами. Классы объектов сначала изучаются на многочисленных обучающих примерах, затем новые классы объектов изучаются с использованием преобразований параметров модели из ранее изученных классов или выбора соответствующих параметров для классификатора, как в M. Fink, 2004.[7]
- Передача знаний путем обмена функциями: Другой класс алгоритмов обеспечивает передачу знаний путем совместного использования частей или характеристик объектов между классами. В статье, представленной на CVPR 2005 Барт и Уллман, алгоритм извлекает «диагностическую информацию» в исправлениях из уже изученных классов, максимизируя исправления. взаимная информация, а затем применяет эти функции к обучению нового класса. А собака класс, например, можно выучить одним выстрелом из предыдущих знаний лошадь и корова классы, потому что собака объекты могут содержать похожие отличительные пятна.[8]
- Передача знаний по контекстной информации: В то время как предыдущие две группы передачи знаний работают при однократном обучении, основывались на сходстве между новыми классами объектов и ранее изученными классами, на которых они были основаны, передача с помощью контекстной информации вместо этого обращается к глобальным знаниям о сцене, в которой объект размещен. Документ представлен на НИПС 2004 г. К. Мерфи и др. использует такую глобальную информацию, как частотные распределения в условное случайное поле рамки для распознавания объектов.[9] Другой алгоритм, разработанный D. Hoiem et al. использует контекстную информацию в виде высоты камеры и геометрии сцены, чтобы сократить обнаружение объектов.[10] У алгоритмов этого типа есть два преимущества. Во-первых, они должны уметь изучать классы объектов, которые относительно не похожи друг на друга по внешнему виду; и, во-вторых, они должны хорошо работать именно в тех ситуациях, когда изображение не было вручную обрезано и тщательно выровнено, а скорее возникает естественным образом.[11]
Теория
Алгоритм однократного байесовского обучения представляет передний план и фон изображений, параметризованные смесью моделей созвездий.[12] На этапе обучения параметры этих моделей изучаются с помощью сопрягать параметр плотности задний и вариационный байесовский Ожидание-максимизация (ВБЭМ).[13] На этом этапе ранее изученные классы объектов информируют выбор параметров модели посредством передачи контекстной информации. Для распознавания объектов на новых изображениях апостериор, полученный на этапе обучения, используется в байесовской структуре принятия решений для оценки отношения p (объект | тест, поезд) к p (фоновый беспорядок | тест, поезд).[14]
Байесовская структура
Учитывая задачу поиска конкретного объекта в изображении запроса, общая цель байесовского алгоритма однократного обучения состоит в том, чтобы сравнить вероятность того, что объект присутствует на изображении, и вероятность того, что в изображении присутствует только фоновый беспорядок. Если первая вероятность выше, алгоритм сообщает о наличии объекта на изображении, а если последняя вероятность выше, алгоритм сообщает об отсутствии этого объекта на изображении. Чтобы вычислить эти вероятности, класс объекта должен быть смоделирован из набора (1 ~ 5) обучающих изображений, содержащих примеры этого объекта.
Чтобы формализовать эти идеи, пусть быть изображением запроса, которое содержит либо пример категории переднего плана или только фоновый беспорядок из общей фоновой категории . Также позвольте набор обучающих изображений, используемых в качестве категории переднего плана. Решение о том, содержит объект из категории переднего плана или только беспорядок из категории фона:
где постеры класса и были расширены Теорема Байеса, что дает соотношение вероятность и соотношение категории объекта приоры. Решаем, что изображение содержит объект из класса переднего плана, если превышает определенный порог . Затем мы представим параметрические модели для классов переднего плана и фона с параметрами. и соответственно. Эта параметрическая модель переднего плана изучается на этапе обучения из обучающих изображений. , а также предварительная информация об изученных классах. Мы предполагаем, что фоновая модель одинакова для всех изображений. Исключая постоянное соотношение априорных категорий категорий, , и параметризация и дает:
- , упростив и к и
Апостериорное распределение параметров модели с учетом обучающих изображений, оценивается на этапе обучения алгоритма. В этой оценке однократное обучение резко отличается от более традиционных байесовских моделей оценивания, которые аппроксимируют интеграл как , в пользу вариационного подхода, который использует априорную информацию из ранее изученных категорий. Однако для фоновой модели, а также для категорий, изученных заранее с помощью многочисленных обучающих примеров, этот традиционный оценка максимального правдоподобия параметров модели.[15]
Модель категории объектов
Для каждого запроса изображение и обучающие изображения , а модель созвездия используется для представления.[16][17][18] Чтобы получить эту модель для данного изображения , сначала на изображении обнаруживается набор из N интересных областей с помощью Детектор выраженности кадира брейди.[19] Каждый выбранный регион представлен местоположением на изображении, и описание его внешнего вида, . Сдача и и аналогичные представления для обучающих изображений, выражение для R становится:
Вероятность и представлены как смеси моделей созвездий. Типичная модель созвездия состоит из P (3 ~ 7) частей, но есть N (~ 100) областей интереса. Таким образом, P-мерный вектор час назначает одну область интереса (из N областей) каждой части модели (для частей P). Таким образом час обозначает гипотеза (назначение областей интереса частям модели) для модели и полной модели созвездия представлено суммированием по всем возможным гипотезам час в пространстве гипотез . Наконец вероятность написана
Разные представляют собой разные конфигурации деталей, тогда как разные гипотезы час представляют различные назначения регионов частям, учитывая модель детали . Предположение, что форма модели (представленная , набор местоположений деталей) и внешний вид независимы, что позволяет учесть выражение правдоподобия как две отдельные вероятности появления и формы.[20]
Внешность
Внешний вид каждой функции представлен точкой в пространстве появления (обсуждается ниже в реализации). "Каждая часть в модели созвездия имеет гауссову плотность в этом пространстве со средними и точными параметрами . "На основе этих вероятностей, описанная выше, вычисляется как произведение гауссианов по частям модели для данной гипотезы. час и компонент смеси .[21]
Форма
Форма модели для данного компонента смеси и гипотеза час представлен как совместная гауссова плотность расположения объектов. Эти элементы преобразуются в пространство, инвариантное к масштабу и перемещению, перед моделированием относительного расположения частей с помощью 2 (P - 1) -мерного гауссова уравнения. Отсюда мы получаем вероятность формы, завершая наше представление . Чтобы уменьшить количество гипотез в пространстве гипотез , рассматриваются только те гипотезы, которые удовлетворяют ограничению порядка, что x-координата каждой части монотонно возрастает. Это устраняет гипотезы из .[22]
Конъюгированные плотности
Чтобы вычислить , интеграл должен быть оценен, но аналитически трудноразрешим. Модель категорий объектов выше дает информацию о , так что остается исследовать , задняя часть , и найти достаточное приближение, чтобы сделать интеграл управляемым. Предыдущая работа аппроксимирует апостериор на функция с центром в , сворачивая рассматриваемый интеграл в . Этот обычно оценивается с использованием Максимальное правдоподобие () или же Максимум A Posteriori () процедура. Однако, поскольку в однократном обучении используется несколько обучающих примеров, распределение не будет хорошо пиковым, как предполагается в аппроксимация функции. Таким образом, вместо этого традиционного приближения байесовский алгоритм однократного обучения стремится «найти параметрическую форму так что изучение выполнимо ". Алгоритм использует Нормальный -Распределение Уишарта как сопряженный предшествующий из , а на этапе обучения вариационные байесовские методы с той же вычислительной сложностью, что и методы максимального правдоподобия, используются для изучения гиперпараметры распределения. Тогда, поскольку является произведением гауссианов, выбранных в модели категорий объектов, интеграл сводится к многомерное распределение Стьюдента, который можно оценить.[23]
Выполнение
Обнаружение и представление функций
Чтобы обнаружить особенности изображения и представить его в виде модели созвездия, Детектор функций Кадира Брэди используется на изображениях в оттенках серого для поиска наиболее заметных участков изображения. Затем эти области группируются, давая ряд функций (кластеры) и параметр формы. , состоящий из центров кластеров. Детектор Kadir Brady был выбран потому, что он производит меньшее количество более заметных областей, в отличие от таких детекторов, как многомасштабные детекторы Harris, которые производят множество менее значимых областей.
Затем области берутся из изображения и масштабируются до небольшого фрагмента размером 11 на 11 пикселей, что позволяет представить каждый фрагмент в 121-мерном пространстве. Эта размерность уменьшается с помощью Анализ главных компонентов, и , параметр внешнего вида, затем формируется из первых 10 основных компонентов каждого патча.[24]
Учусь
Для получения априорных значений формы и внешнего вида изучаются три категории (пятнистые кошки, лица и самолеты) с использованием оценки максимального правдоподобия. Эти параметры модели категории объектов затем используются для оценки гиперпараметров желаемых априорных значений.
Учитывая набор обучающих примеров, алгоритм запускает детектор признаков на этих изображениях и определяет параметры модели из основных областей. Индекс гипотез час присвоение элементов деталям предотвращает решение замкнутой линейной модели, поэтому апостериорная оценивается вариационным байесовским ожиданием-максимизацией, который выполняется до сходимости параметров после ~ 100 итераций. Изучение категории таким образом занимает менее минуты на машине с частотой 2,8 ГГц с моделью из 4 частей и <10 обучающими изображениями.[25]
Результаты экспериментов
Пример мотоцикла
Чтобы узнать категорию мотоциклов:
- Шесть тренировочных изображений выбираются из категории мотоциклов набора данных Caltech 4, и применяется детектор Кадира Брейди, что дает и через PCA, .
- Затем параметры предыдущей модели вычисляются из 30 моделей. , По 10 из каждой из трех изученных категорий: пятнистые кошки, лица и самолеты. Это предшествующее кодирование знаний о том, что «модели, лишенные визуальной согласованности [то есть фоновый беспорядок], занимают другую часть пространства параметров [от] когерентных моделей».
- При обучении, которое выполняется следующим, априор смещает апостериорный к частям пространства параметров, соответствующих когерентным моделям. Используется только один компонент смеси, позволяя . Оценка апостериорного отдела показана ниже.
- Наконец, на рисунках ниже показана изученная модель мотоцикла с формой и внешним видом деталей и соответствующими функциями.
- Для тестов распознавания приведенная выше модель применяется к 50 изображениям, содержащим мотоциклы, и 50 изображениям, не содержащим их. На изображении ниже показана кривая ROC, измеряющая вероятность обнаружения по сравнению с вероятностью ложного обнаружения, а также некоторые известные примеры.
Альтернатива байесовскому алгоритму однократного обучения, алгоритм, представленный Эриком Миллером, Николасом Мацакисом и Полом Виолой на ICCV 2000, использует передачу знаний по параметрам модели для изучения новой категории объектов, которая внешне похожа на ранее изученные категории. В их статье изображение представлено как текстура и форма, или как скрытое изображение который был преобразован, обозначенный .
Затвердевание
В то время как термин векторизация обозначает процесс приведения одного изображения в соответствие с другим, авторы этой статьи ввели термин застывший быть «одновременной векторизацией каждого из набора изображений друг другу». Для набора обучающих изображений определенной категории сгущение итеративно преобразует каждое изображение, чтобы минимизировать совместные пиксельные энтропии изображений E, где
"куда двоичная случайная величина, определяемая значениями конкретного пикселя p для всех изображений, - дискретная функция энтропии этой переменной, а набор индексов пикселей для изображения ".
Алгоритм застывания начинается с набора изображений и соответствующая матрица преобразования , который в конце алгоритма будет представлять преобразование в его скрытый образ . Эти скрытые образы минимизировать совместные пиксельные энтропии. Таким образом, задача алгоритма застывания состоит в оценке преобразований .
Набросок алгоритма:
- Инициализировать к личности.
- Вычислить совместные пиксельные энтропии текущего набора изображений.
- Для каждого изображения , перебрать все возможные аффинные преобразования (вращение, перемещение по оси x, перемещение по оси y, масштаб по оси x, масштаб по оси y, сдвиг по оси x, сдвиг по оси Y) и проверьте, если уменьшает совместные пиксельные энтропии. Если да, установите .
- Повторяйте предыдущий шаг до схождения.
В конце алгоритма , и преобразует скрытое изображение обратно в первоначально наблюдаемое изображение. Свертывание, примененное к набору нулей и двоек, показано справа.[26]
Классификация
Чтобы использовать эту модель для классификации, мы должны оценить модель с максимальной апостериорной вероятностью для наблюдаемого изображения. . Применение правила Байеса к и параметризация преобразованием дает сложный интеграл, который авторы аппроксимируют, а затем ищут наилучшее преобразование . То есть преобразование, которое сопоставляет тестовое изображение с его скрытым изображением. Как только это преобразование найдено, тестовое изображение может быть преобразовано в его скрытое изображение, и классификатор ближайшего соседа на основе Расстояние Хаусдорфа между изображениями используется для классификации скрытого изображения (и, следовательно, тестового изображения) как принадлежащего к определенному классу .
Чтобы найти это оптимальное , авторы предлагают вставить тестовое изображение I в обучающий ансамбль процесса застывания. Поскольку мы предполагаем, что тестовое изображение нарисовано из одного из классов , застывание даст соответствующий который отображает I на свой скрытый образ. Теперь скрытое изображение можно классифицировать.[27]
Классификация на одном примере
Учитывая набор преобразований полученных в результате замораживания множества изображений определенной категории, авторы расширяют свой классификатор на случай, когда только одно обучение пример новой категории позволено. Применяем все преобразования последовательно к , мы создаем обучающий набор искусственных данных для . Этот искусственный набор данных можно расширить, заимствуя преобразования не только из одной, но и из многих уже известных категорий. Как только этот набор данных получен, , тестовый экземпляр , можно классифицировать как в обычной процедуре классификации. Ключевое предположение здесь состоит в том, что категории достаточно похожи, чтобы преобразования из одной можно было применить к другой.[28]
Смотрите также
- Вариационные байесовские методы
- Вариативная передача сообщений
- Алгоритм ожидания-максимизации
- Байесовский вывод
- Обнаружение функции
- Изучение правил ассоциации
- Сеть Хопфилда
Цитаты
- ^ F.F. Ли и др., 2002 г.
- ^ С. Торп и др., 1996 г.
- ^ Бидерман и др., 1987.
- ^ Л. Фей Фей и др., 2006, Раздел 1
- ^ Л. Фэй-Фэй, Обмен знаниями, 2006, Секция 1
- ^ Л. Фей-Фей и др., 2006, Раздел 2
- ^ М. Финк, 2004 г.
- ^ Барт и Ульман, 2005 г.
- ^ К. Мерфи и др., 2004 г.
- ^ Д. Хойем и др., 2005 г.
- ^ Передача знаний, Раздел 2
- ^ Burl et al., 1996.
- ^ Аттиас, 1999.
- ^ Л. Фей-Фей и др., 2006 г.
- ^ Л. Фей-Фей и др., 2006, Раздел 3.1.
- ^ Берл и др., 1996
- ^ М. Вебер и др., 2000 г.
- ^ Р. Фергус и др., 2003 г.
- ^ Т. Кадир и М. Брэди, 2001 г.
- ^ Л. Фей-Фей и др., 2006, раздел 3.2.
- ^ Л. Фей-Фей и др., 2006, раздел 3.2.1.
- ^ Л. Фей-Фей и др., 2006, раздел 3.2.1.
- ^ Л. Фей-Фей и др., 2006, раздел 3.4.3.
- ^ Л. Фей-Фей и др., 2006, Раздел 5.1.
- ^ Л. Фей-Фей и др., 2006, Раздел 4, Раздел 5.2
- ^ Miller et al., 2000, раздел 3
- ^ Miller et al., 2000, раздел 4
- ^ Миллер и др., 2000, Раздел 7
Рекомендации
- Л. Фей-Фэй, «Передача знаний при обучении распознаванию классов визуальных объектов». Международная конференция по развитию и обучению (ICDL). 2006. PDF
- Л. Фей-Фей, Р. Фергус и П. Перона, «Однократное обучение категорий объектов». IEEE Transactions по анализу шаблонов и машинному анализу, Том 28 (4), 594 - 611, 2006.PDF
- Миллер, Мацакис и Виола, «Обучение на одном примере через общие плотности преобразований». Proc. Компьютерное зрение и распознавание образов, 2000.PDF
- F.F. Ли, Р. Ван-Руллен, К. Коч и П. Перона, «Быстрая категоризация естественных сцен при почти полном отсутствии внимания». PNAS, 99(14):9596-9601, 2002.
- С. Торп, Д. Физе и К. Марлот, "Скорость обработки в зрительной системе человека". Природа, 381:520-522, 1996.
- И. Бидерман. «Распознавание по компонентам: теория человеческого понимания». Психологический обзор, 94:115-147, 1987.
- М. Финк, «Классификация объектов из единственного примера с использованием псевдо-метрик релевантности класса». НИПС, 2004.
- Барт и Ульман "Перекрестное обобщение: изучение новых классов на одном примере путем замены признаков". CVPR, 2005.
- К. Мерфи, А. Торральба, В. Т. Фриман, «Использование леса для просмотра деревьев: графическая модель, связывающая особенности, объекты и сцены». НИПС, 2004.
- Д. Хойем, А.А. Эфрос и М. Герберт, «Геометрический контекст из одного изображения». ICCV, 2005.
- Х. Аттиас, "Вывод параметров и структуры моделей со скрытыми переменными вариационным байесовским методом". Proc. 15-й конф. в неопределенности в искусственном интеллекте, стр. 21-30, 1999.
- М. Бурл, М. Вебер и П. Перона, "Вероятностный подход к распознаванию объектов с использованием локальной фотометрии и глобальной геометрии". Proc. Европейская конф. Компьютерное зрение, стр. 628-641, 1996.
- Р. Фергус, П. Перона и А. Зиссерман, "Распознавание классов объектов посредством неконтролируемого масштабно-инвариантного обучения". Proc. Компьютерное зрение и распознавание образов, стр. 264-271, 2003.
- М. Вебер, М. Веллинг и П. Перона, "Неконтролируемое обучение моделей для распознавания". Proc. Европейская конф. Компьютерное зрение, pp. 101-108, 2000.
- Т. Кадир и М. Брэди, «Масштаб, яркость и описание изображения». Международный журнал компьютерного зрения, т. 45, нет. 2. С. 83-105, 2001.