Бинарная классификация - Binary classification

Бинарная классификация это задача классификация элементы набор на две группы на основе правило классификации. Типичные проблемы бинарной классификации включают:

Бинарная классификация дихотомия применительно к практической ситуации. Во многих практических задачах бинарной классификации эти две группы не являются симметричными, и, вместо общей точности, относительная пропорция различных типы ошибок представляет интерес. Например, при медицинском обследовании обнаружение болезни, когда ее нет ( ложно положительный ) рассматривается иначе, чем невыявление болезни при ее наличии ( ложноотрицательный ).

Статистическая бинарная классификация

Статистическая классификация это проблема, изучаемая в машинное обучение. Это тип контролируемое обучение, метод машинного обучения, в котором категории предопределены, и используется для категоризации новых вероятностных наблюдений по указанным категориям. Когда есть только две категории, проблема известна как статистическая двоичная классификация.

Некоторые из методов, обычно используемых для двоичной классификации:

Каждый классификатор лучше всего подходит только для выбранной области на основе количества наблюдений, размерности вектор признаков, шум в данных и многие другие факторы. Например, случайные леса работать лучше, чем SVM классификаторы для трехмерных облаков точек.[1][2]

Оценка бинарных классификаторов

В этом наборе протестированных экземпляров экземпляры, оставшиеся от разделителя, имеют проверяемое условие; правая половина нет. Овал ограничивает те экземпляры, которые алгоритм тестирования классифицирует как имеющие условие. Зеленые области выделяют экземпляры, которые алгоритм тестирования правильно классифицировал. Этикетки относятся к:
TP = истинно положительный; TN = истинно отрицательный; FP = ложное срабатывание (ошибка типа I); FN = ложноотрицательный (ошибка типа II); TPR = набор экземпляров для определения истинно положительной скорости; FPR = набор экземпляров для определения количества ложных срабатываний; PPV = положительная прогностическая ценность; NPV = отрицательная прогностическая ценность.

Есть много метрик, которые можно использовать для измерения производительности классификатора или предиктора; разные поля имеют разные предпочтения для конкретных показателей из-за разных целей. В медицине чувствительность и специфичность часто используются, а при поиске информации точность и отзыв являются предпочтительными. Важное различие между метриками, которые не зависят от того, как часто каждая категория встречается в популяции ( распространенность ) и метрики, которые зависят от распространенности - оба типа полезны, но имеют очень разные свойства.

Учитывая классификацию конкретного набора данных, существует четыре основных комбинации категории фактических данных и присвоенной категории: истинные положительные моменты ТП (правильные положительные задания), истинные негативы TN (правильные отрицательные присвоения), ложные срабатывания FP (неправильные положительные присвоения) и ложные отрицания FN (неправильные отрицательные присвоения).

Состояние положительное

Состояние отрицательное

Результат теста положительный

Истинно положительныйЛожно положительный
Результат теста отрицательныйЛожноотрицательныйИстинно отрицательный

Они могут быть скомпонованы в 2 × 2 Таблица сопряженности, со столбцами, соответствующими фактическому значению - положительному условию или отрицательному условию - и строкам, соответствующим значению классификации - положительному результату теста или отрицательному результату теста.

Восемь основных соотношений

Есть восемь основных соотношений, которые можно вычислить из этой таблицы, которые входят в четыре дополнительных пары (каждая пара в сумме равна 1). Они получаются путем деления каждого из четырех чисел на сумму его строки или столбца, в результате чего получается восемь чисел, на которые в общем случае можно ссылаться в форме «истинно положительное соотношение строк» ​​или «ложно отрицательное соотношение столбцов».

Таким образом, есть две пары соотношений столбцов и две пары соотношений строк, и можно суммировать их с четырьмя числами, выбрав одно соотношение из каждой пары - остальные четыре числа являются дополнительными.

Соотношения столбцов:

Соотношения рядов:

В диагностическом тестировании основными используемыми соотношениями являются истинные соотношения столбцов - истинно положительный показатель и истинно отрицательный показатель - где они известны как чувствительность и специфичность. В информационном поиске основными отношениями являются истинно положительные отношения (строка и столбец) - положительная прогностическая ценность и истинно положительная частота - где они известны как точность и отзыв.

Можно взять отношения дополнительной пары соотношений, давая четыре отношения правдоподобия (соотношение соотношений в двух столбцах, соотношение соотношений в двух строках). В первую очередь это делается для соотношений столбцов (условий), что дает отношения правдоподобия при диагностическом тестировании. Взяв отношение одной из этих групп соотношений, мы получаем окончательное соотношение: отношение шансов диагностики (DOR). Это также может быть определено напрямую как (TP × TN) / (FP × FN) = (TP / FN) / (FP / TN); это имеет полезную интерпретацию - как отношение шансов - и не зависит от распространенности.

Есть ряд других показателей, проще всего точность или Fraction Correct (FC), который измеряет долю всех экземпляров, которые правильно классифицированы; дополнение - это неправильная дробь (FiC). В F-оценка объединяет точность и отзыв в одно число за счет выбора взвешивания, наиболее просто равного взвешивания, как сбалансированный F-балл (Оценка F1 ). Некоторые показатели взяты из коэффициенты регрессии: the отмеченность и информированность, и их среднее геометрическое, то Коэффициент корреляции Мэтьюза. Другие показатели включают Статистика Юдена J, то коэффициент неопределенности, то коэффициент фи, и Каппа Коэна.

Преобразование непрерывных значений в двоичные

Тесты, результаты которых имеют непрерывные значения, такие как большинство значения крови, можно искусственно сделать двоичным, задав значение отсечки, при этом результаты испытаний обозначаются как положительным или отрицательным в зависимости от того, выше или ниже результирующее значение порогового значения.

Однако такое преобразование приводит к потере информации, поскольку результирующая двоичная классификация не сообщает сколько выше или ниже порогового значения. В результате при преобразовании непрерывного значения, близкого к отсечке, в двоичное, результирующее положительный или отрицательная прогностическая ценность обычно выше, чем Предполагаемая стоимость дано непосредственно из непрерывного значения. В таких случаях обозначение теста как положительного или отрицательного дает видимость неадекватно высокой достоверности, в то время как значение фактически находится в интервале неопределенности. Например, при концентрации в моче ХГЧ как непрерывная величина, моча тест на беременность то, что измерено 52 мМЕ / мл ХГЧ, может отображаться как "положительное" с 50 мМЕ / мл в качестве отсечки, но фактически находится в интервале неопределенности, которая может быть очевидна только при знании исходного непрерывного значения. С другой стороны, результат теста, находящийся очень далеко от порогового значения, обычно имеет результирующую положительную или отрицательную прогностическую ценность, которая ниже, чем прогностическая ценность, полученная из непрерывного значения. Например, значение ХГЧ в моче, равное 200 000 мМЕ / мл, дает очень высокую вероятность беременности, но преобразование в двоичные значения приводит к тому, что он показывает столь же «положительный», как и значение 52 мМЕ / мл.

Смотрите также

Рекомендации

  1. ^ Чжан и Захор, Ричард и Авидех (2014). «Автоматическая идентификация оконных областей на внутренних облаках точек с помощью LiDAR и камер». Публикации VIP Lab. CiteSeerX  10.1.1.649.303.
  2. ^ Ю. Лу и К. Расмуссен (2012). «Упрощенные марковские случайные поля для эффективной семантической маркировки трехмерных облаков точек» (PDF). IROS.

Библиография

  • Нелло Кристианини и Джон Шоу-Тейлор. Введение в опорные векторные машины и другие методы обучения на основе ядра. Издательство Кембриджского университета, 2000. ISBN  0-521-78019-5 ([1] Книга SVM)
  • Джон Шоу-Тейлор и Нелло Кристианини. Методы ядра для анализа паттернов. Издательство Кембриджского университета, 2004. ISBN  0-521-81397-2 (Сайт для книги )
  • Бернхард Шёлкопф и А. Й. Смола: Обучение с помощью ядер. MIT Press, Кембридж, Массачусетс, 2002. ISBN  0-262-19475-9