Расширение нейронной сети - Википедия - Extension neural network

Расширение нейронной сети - это метод распознавания образов, разработанный М. Х. Ван и С. П. Хунгом в 2003 году для классификации экземпляров наборов данных. Нейронная сеть расширения состоит из искусственная нейронная сеть и концепции теории расширений. Он использует возможности быстрого и адаптивного обучения нейронной сети и свойство оценки корреляции теории расширений путем вычисления расстояния расширения.
ENN использовался в:

  • Обнаружение отказов в технике.
  • Классификация тканей с помощью МРТ.
  • Распознавание неисправностей в автомобильном двигателе.
  • Оценка состояния заряда свинцово-кислотного аккумулятора.
  • Классификация с неполными данными обследования.

Теория расширений

Теория расширений была впервые предложена Цаем в 1983 году для решения противоречивых проблем. В то время как классическая математика знакома с количеством и формами объектов, теория расширений преобразует эти объекты в модель элементов материи.

 

 

 

 

(1)


где дело , это имя или тип, это его характеристики и - соответствующее значение характеристики. Соответствующий пример приведен в уравнении 2.

 

 

 

 

(2)

куда и характеристики формы комплектов расширения. Эти наборы расширений определяются значения, которые являются значениями диапазона для соответствующих характеристик. Теория расширений связана с корреляционной функцией расширения между моделями элементов материи, как показано в уравнении 2, и наборами расширений. Функция корреляции расширений используется для определения пространства расширений, которое состоит из пар элементов и их функций корреляции расширений. Формула пространства расширений показана в уравнении 3.

 

 

 

 

(3)


куда, это пространство расширения, это объектное пространство, - корреляционная функция расширения, это элемент из объектного пространства и - соответствующий выход функции корреляции расширения элемента . карты к интервалу членства . Отрицательная область представляет собой элемент, не принадлежащий степени принадлежности к классу, а положительная область - наоборот. Если отображается на теория расширений действует как нечеткое множество теория. Корреляционную функцию можно показать уравнением 4.

 

 

 

 

(4)


куда, и называются заинтересованной и соседней областью, а их интервалы равны (a, b) и (c, d) соответственно. Расширенная корреляционная функция, используемая для оценки степени принадлежности между и , показано в уравнении 5.

 

 

 

 

(5)


Функция корреляции расширений

Расширение нейронной сети

Нейронная сеть расширения имеет внешний вид нейросети. Вектор веса находится между входными узлами и выходными узлами. Выходные узлы представляют собой входные узлы путем передачи их через весовой вектор.

Общее количество узлов ввода и вывода представлено и , соответственно. Эти числа зависят от количества характеристик и классов. Вместо того, чтобы использовать одно значение веса между двумя узлами слоя, как в нейронная сеть, расширенная архитектура нейронной сети имеет два весовых значения. Например, в архитектуре расширенной нейронной сети , это вход, который принадлежит классу и соответствующий результат для класса . Выход рассчитывается с использованием расстояния выдвижения, как показано в уравнении 6.

 

 

 

 

(6)

Предполагаемый класс находится путем поиска минимального расстояния расширения среди вычисленных расстояний расширения для всех классов, как показано в уравнении 7, где это оценочный класс.

 

 

 

 

(7)

Алгоритм обучения

Каждый класс состоит из ряда характеристик. Эти характеристики являются входными типами или именами, которые взяты из модели элемента материи. Значения веса в расширенной нейронной сети представляют эти диапазоны. В алгоритме обучения первые веса инициализируются путем поиска максимального и минимального значений входных данных для каждого класса, как показано в уравнении 8.

 

 

 

 

(8)

куда, номер экземпляра и представляет собой номер ввода. Эта инициализация предоставляет диапазоны классов в соответствии с заданными данными обучения.

После сохранения весов центр кластеров находится с помощью уравнения 9.

 

 

 

 

(9)

Перед тем, как начнется процесс обучения, задается заранее определенный уровень эффективности обучения, как показано в уравнении 10.

 

 

 

 

(10)

куда, неправильно классифицированные экземпляры и общее количество экземпляров. Инициализированные параметры используются для классификации экземпляров с помощью уравнения 6. Если инициализации недостаточно из-за скорости обучения, требуется обучение. На этапе обучения веса корректируются для более точной классификации обучающих данных, поэтому нацелено снижение скорости обучения. На каждой итерации проверяется, чтобы проверить, достигается ли требуемая эффективность обучения. На каждой итерации каждый обучающий экземпляр используется для обучения.
Пример , принадлежит к классу отображается:

Каждая точка входных данных используется при расчете расстояния выдвижения для оценки класса . Если оценочный класс тогда обновление не требуется. А если то обновление выполнено. В случае обновления разделители, которые показывают взаимосвязь между входами и классами, смещаются пропорционально расстоянию между центром кластеров и точками данных.
Формула обновления:







Чтобы классифицировать экземпляр точно, разделитель классов для ввода перемещается близко к точке данных экземпляра , тогда как разделитель класса для ввода уходит далеко. На изображении выше представлен пример обновления. Предположим, что экземпляр принадлежит к классу A, тогда как он классифицируется как класс B, потому что расчет расстояния выноса . После обновления разделитель класса A приближается к точке данных экземпляра тогда как разделитель класса B удаляется далеко. Следовательно, расстояние удлинения дает , поэтому после экземпляра обновления относится к классу А.

Рекомендации

  1. Wang, M. H .; Ценг, Ю. Ф .; Chen, H.C .; Чао, К. Х. (2009). «Новый алгоритм кластеризации, основанный на теории расширений и генетическом алгоритме». Экспертные системы с приложениями. 36 (4): 8269–8276. Дои:10.1016 / j.eswa.2008.10.010.
  2. Гуй-Сян Чао, Мэн-Хуэй Ван и Цзя-Чанг Сюй. Новый метод оценки остаточной емкости на основе расширенной нейронной сети для свинцово-кислотных аккумуляторов. Международный симпозиум по нейронным сетям, страницы 1145–1154, 2007 г.
  3. Гуй-Сян Чао, Мэн-Хуэй Ван, Вэнь-Цай Сун и Гуань-Цзе Хуан. Использование enn-1 для распознавания неисправностей автомобильного двигателя. Экспертные системы с приложениями, 37 (4): 29432947, 2010
  4. Wang, C.M .; Wu, M. J .; Chen, J. H .; Ю., С. Ю. (2009). "Расширенный подход нейронной сети к классификации МРТ головного мозга". 2009 Пятая Международная конференция по интеллектуальному сокрытию информации и обработке мультимедийных сигналов. п. 515. Дои:10.1109 / IIH-MSP.2009.141. ISBN  978-1-4244-4717-6. S2CID  12072969.
  5. Е, Дж. (2009). "Применение теории расширения в диагностике пропусков зажигания бензиновых двигателей". Экспертные системы с приложениями. 36 (2): 1217–1221. Дои:10.1016 / j.eswa.2007.11.012.
  6. Цзунчай Чжан, Сюй Цянь, Ю Чжоу и Ай Дэн. Методика мониторинга состояния оборудования на базе нейронной сети расширения. Китайская конференция по контролю и принятию решений, страницы 1735–1740, 2010 г.
  7. Wang, M .; Хунг, С. П. (2003). «Расширение нейронной сети и ее приложения». Нейронные сети. 16 (5–6): 779–784. Дои:10.1016 / S0893-6080 (03) 00104-7. PMID  12850034.