Нейронная сеть общей регрессии - General regression neural network
Обобщенная регрессионная нейронная сеть (GRNN) это вариант радиальное основание нейронные сети. GRNN был предложен Д.Ф. Шпехтом в 1991 году.[1]
GRNN можно использовать для регресс, прогноз, и классификация. GRNN также может быть хорошим решением для онлайн динамические системы.
GRNN представляет собой усовершенствованный метод в нейронных сетях, основанный на непараметрическая регрессия. Идея состоит в том, что каждая обучающая выборка будет представлять среднее значение для радиального базиса. нейрон.[2]
Математическое представление
куда:
- это прогнозируемое значение ввода
- - вес активации нейрона слоя паттерна на
- это Ядро радиальной базисной функции (Гауссово ядро), как сформулировано ниже.
Гауссовское ядро
куда это квадрат евклидова расстояния между обучающими выборками и вход
Выполнение
GRNN был реализовано на многих компьютерных языках, включая MATLAB,[3] R- язык программирования, Python (язык программирования) и Node.js.
Нейронные сети (в частности, многослойный персептрон) могут определять нелинейные закономерности в данных, комбинируя их с обобщенными линейными моделями, учитывая распределение результатов (существенно отличается от исходной GRNN). Было несколько успешных разработок, в том числе регрессия Пуассона, порядковая логистическая регрессия, квантильная регрессия и полиномиальная логистическая регрессия, описанные Фаллахом в 2009 году.[4]
Преимущества и недостатки
Как и RBFNN, GRNN имеет следующие преимущества:
- Однопроходное обучение, поэтому нет обратное распространение необходимо.
- Высокая точность оценки, поскольку он использует Гауссовы функции.
- Он может обрабатывать шумы на входах.
- Это требует меньшего количества наборов данных.
Основными недостатками GRNN являются:
- Его размер может быть огромным, что сделало бы его затратным с точки зрения вычислений.
- Оптимального метода его улучшения не существует.
Рекомендации
- ^ Шпехт, Д. Ф. (6 августа 2002 г.). «Нейронная сеть общей регрессии». IEEE-транзакции в нейронных сетях. 2 (6): 568–576. Дои:10.1109/72.97934. PMID 18282872.
- ^ https://minds.wisconsin.edu/bitstream/handle/1793/7779/ch2.pdf?sequence=14
- ^ «Нейронные сети с обобщенной регрессией - MATLAB и Simulink - MathWorks Australia».
- ^ Фаллах, Надер; Гу, Хун; Мохаммад, Казем; Сейедсалехи, Сейед Али; Нуриджеляни, Керамат; Эшрагян, Мохаммад Реза (2009). «Нелинейная регрессия Пуассона с использованием нейронных сетей: моделирование». Нейронные вычисления и приложения. 18 (8): 939–943. Дои:10.1007 / s00521-009-0277-8.