Квадратичный классификатор - Википедия - Quadratic classifier
Эта статья нужны дополнительные цитаты для проверка.Декабрь 2009 г.) (Узнайте, как и когда удалить этот шаблон сообщения) ( |
в машинное обучение, а квадратичный классификатор является статистический классификатор который использует квадратичный поверхность решения для разделения измерений двух или более классов объектов или событий. Это более общая версия линейный классификатор.
Проблема классификации
Статистическая классификация рассматривает набор векторов наблюдений Икс объекта или события, каждое из которых имеет известный тип у. Этот набор называется Обучающий набор. Тогда задача состоит в том, чтобы определить для данного нового вектора наблюдения, каким должен быть лучший класс. Для квадратичного классификатора правильное решение считается квадратичным по измерениям, поэтому у будет решено на основе
В частном случае, когда каждое наблюдение состоит из двух измерений, это означает, что поверхности, разделяющие классы, будут конические секции (т.е. либо линия, а круг или же эллипс, а парабола или гипербола ). В этом смысле мы можем утверждать, что квадратичная модель является обобщением линейной модели, и ее использование оправдано желанием расширить возможности классификатора для представления более сложных разделяющих поверхностей.
Квадратичный дискриминантный анализ
Квадратичный дискриминантный анализ (QDA) тесно связан с линейный дискриминантный анализ (LDA), где предполагается, что измерения каждого класса нормально распределенный.[1] Однако, в отличие от LDA, в QDA нет предположения, что ковариация каждого из классов идентичны.[2] Когда предположение нормальности верно, наилучшим возможным тестом для гипотезы о том, что данное измерение принадлежит данному классу, является тест отношения правдоподобия. Предположим, что есть только две группы (так что ), а средства каждого класса определены как а ковариации определяются как . Тогда отношение правдоподобия будет равно
- Отношение правдоподобия =
за какой-то порог . После некоторой перестановки можно показать, что результирующая разделяющая поверхность между классами является квадратичной. Выборочные оценки среднего вектора и матриц ковариации дисперсии заменят величины генеральной совокупности в этой формуле.
Другой
Хотя QDA - наиболее часто используемый метод получения классификатора, возможны и другие методы. Один из таких методов состоит в создании более длинного вектора измерений из старого путем добавления всех попарных произведений отдельных измерений. Например, вектор
станет
- .
В этом случае поиск квадратичного классификатора для исходных измерений стал бы таким же, как поиск линейного классификатора на основе расширенного вектора измерений. Это наблюдение было использовано при расширении моделей нейронных сетей;[3] «круговой» случай, который соответствует введению только суммы чистых квадратичных членов без смешанных продуктов (), оказался оптимальным компромиссом между расширением возможностей представления классификатора и контролем риска переобучения (Измерение Вапника-Червоненкиса ).[4]
Для линейных классификаторов, основанных только на точечные продукты, эти расширенные измерения не обязательно вычислять, поскольку скалярное произведение в многомерном пространстве просто связано с произведением в исходном пространстве. Это пример так называемого трюк с ядром, который может быть применен к линейному дискриминантному анализу, а также Машина опорных векторов.
Рекомендации
- ^ Тарват, Алаа (2016). «Классификатор линейного и квадратичного дискриминантного анализа: учебное пособие». Международный журнал прикладного распознавания образов. 3 (2): 145. Дои:10.1504 / IJAPR.2016.079050. ISSN 2049-887X.
- ^ "Линейный и квадратичный дискриминантный анализ · Руководство по программированию UC Business Analytics R". uc-r.github.io. Получено 2020-03-29.
- ^ Обложка ТМ (1965). «Геометрические и статистические свойства систем линейных неравенств с приложениями в распознавании образов». Транзакции IEEE на электронных компьютерах. ИС-14 (3): 326–334. Дои:10.1109 / pgec.1965.264137.
- ^ Риделла С, Роветта С, Зунино Р (1997). «Круговые сети обратного распространения для классификации». IEEE-транзакции в нейронных сетях. 8 (1): 84–97. Дои:10.1109/72.554194. PMID 18255613. href IEEE: [1].
Источники:
- Сатьянараяна, Шаши (2010). «Праймер для распознавания образов II». Вольфрам Демонстрационный проект.