Универсальная аппроксимационная теорема - Universal approximation theorem

в математический теория искусственные нейронные сети, универсальные аппроксимационные теоремы результаты[1] которые устанавливают плотность алгоритмически сгенерированного класса функций в заданном интересующем функциональном пространстве. Обычно эти результаты касаются аппроксимационных возможностей архитектура с прямой связью на пространстве непрерывных функций между двумя Евклидовы пространства, а приближение - по компактная сходимость топология. Однако есть также множество результатов между неевклидовыми пространствами.[2] и другие часто используемые архитектуры и, в более общем смысле, алгоритмически сгенерированные наборы функций, такие как сверточная нейронная сеть (CNN) архитектура,[3][4] радиальные базисные функции,[5] или нейронные сети с определенными свойствами.[6] Большинство универсальных аппроксимационных теорем можно разделить на два класса. Первый количественно оценивает аппроксимирующие возможности нейронных сетей с произвольным количеством искусственных нейронов ("произвольная ширина«case»), а второй - случай с произвольным количеством скрытых слоев, каждый из которых содержит ограниченное количество искусственных нейронов («произвольная глубина" дело).

Универсальные аппроксимационные теоремы подразумевают, что нейронные сети могут представлять широкий спектр интересных функций при соответствующем весе. С другой стороны, они обычно не обеспечивают конструкцию грузов, а просто заявляют, что такая конструкция возможна.

История

Одна из первых версий произвольная ширина дело было доказано Георгий Цибенко в 1989 г. для сигмовидный функции активации.[7] Курт Хорник показал в 1991 году[8] что это не конкретный выбор функции активации, а сама многослойная архитектура с прямой связью, которая дает нейронным сетям возможность быть универсальными аппроксиматорами. Моше Лешно и другие в 1993 г.[9] а позже Аллан Пинкус в 1999 г.[10] показал, что свойство универсальной аппроксимации[11], эквивалентно наличию неполиномиальной функции активации.

В произвольная глубина случай также изучался рядом авторов, таких как Чжоу Лу и другие в 2017 г.[12] Борис Ханин и Марк Селлке в 2018 году,[13] и Патрик Кидгер и Терри Лайонс в 2020 году.[14] В результате минимальная ширина на слой была уточнена в [15].

Существует несколько расширений теоремы, например, до разрывных функций активации.[9], некомпактные домены[14], сертифицированные сети[16] и альтернативные сетевые архитектуры и топологии[14][17]. Полная характеристика свойства универсальной аппроксимации на общих функциональных пространствах дана А. Крациосом в [11].

Случай произвольной ширины

Классическая форма универсальной аппроксимационной теоремы для произвольной ширины и ограниченной глубины выглядит следующим образом.[7][8][18][19] Он расширяется[10] классические результаты Георгий Цибенко и Курт Хорник.

Универсальная аппроксимационная теорема: Зафиксируем непрерывную функцию (функция активации) и положительные целые числа . Функция не является полиномом тогда и только тогда, когда для каждого непрерывный функция (целевая функция), каждые компактный подмножество из , и каждый существует непрерывная функция (выход слоя) с представлением

куда находятся составной аффинные карты и обозначает покомпонентный состав, такой, что оценка аппроксимации

справедливо для любого сколь угодно малое (расстояние от к может быть бесконечно малым).

Теорема утверждает, что результат первого слоя может аппроксимировать любую хорошо управляемую функцию . Такую функцию с хорошим поведением можно также аппроксимировать сетью большей глубины, используя ту же конструкцию для первого слоя и аппроксимируя функцию идентичности с более поздними уровнями.

Случай произвольной глубины

«Двойственные» версии теоремы рассматривают сети ограниченной ширины и произвольной глубины. Вариант универсальной аппроксимационной теоремы для случая произвольной глубины был доказан Чжоу Лу и др. в 2017 году.[12] Они показали, что сети шириной п + 4 с ReLU функции активации могут аппроксимировать любые Интегрируемая функция Лебега на п-мерное входное пространство относительно расстояние если разрешено увеличение глубины сети. Также было показано, что существует ограниченная выразительная сила, если ширина меньше или равна п. Все Интегрируемые по Лебегу функции за исключением набора нулевой меры не может быть аппроксимирован ReLU сети шириной п. В той же газете[12] было показано, что ReLU сети с шириной п + 1 были достаточны, чтобы приблизиться к любому непрерывный функция п-мерные входные переменные.[20] Следующее уточнение определяет оптимальную минимальную ширину, для которой такое приближение возможно, и обусловлено [21]

Универсальная аппроксимационная теорема (Расстояние L1, активация ReLU, произвольная глубина, минимальная ширина). Для любого P-интегрируемость Бохнера-Лебега функция и любой , существует полностью связанный ReLU сеть ширина точно , удовлетворяющий

.
Более того, существует функция и немного , для которого нет полностью связанный ReLU сеть шириной менее удовлетворяющие приведенной выше оценке приближения.

Вместе основные результаты [14] и из [2] дают следующую общую универсальную аппроксимационную теорему для сетей с ограниченной шириной между общими входными и выходными пространствами.

Универсальная аппроксимационная теорема (неаффинный активация, произвольная глубина, Неевклидово ). быть компактный топологическое пространство, быть метрика Космос, быть непрерывным и инъективным карта характеристик и разреши быть картой непрерывного считывания с раздел, имеющий плотное изображение с (возможно, пустой) границей с воротником. Позволять быть не-аффинный непрерывный функция, которая непрерывно дифференцируемый хотя бы один балл с ненулевым производная в таком случае. Позволять обозначают пространство нейронных сетей с прямой связью с входные нейроны, выходных нейронов и произвольное количество скрытых слоев, каждый с нейроны, так что каждый скрытый нейрон имеет функцию активации и каждый выходной нейрон имеет личность в качестве функции активации с входным слоем , и выходной слой . Тогда при любом и любой , Существует такой, что

Другими словами, является плотный в относительно равномерного расстояния.

Были установлены некоторые необходимые условия для случая ограниченной ширины, произвольной глубины, но все еще существует разрыв между известными достаточными и необходимыми условиями.[12][13][22]

Смотрите также

Рекомендации

  1. ^ Balázs Csanád Csáji (2001) Аппроксимация с помощью искусственных нейронных сетей; Факультет наук; Университет Этвёша Лоранда, Венгрия
  2. ^ а б Крациос, Анастасис; Билокопытов, Евгений (2020). Неевклидово универсальное приближение (PDF). Достижения в системах обработки нейронной информации 33. Curran Associates, Inc.
  3. ^ Чжоу, Дин-Сюань (2020) Универсальность глубоких сверточных нейронных сетей; Прикладной и вычислительный гармонический анализ 48.2 (2020): 787-794.
  4. ^ А. Хайнеке, Дж. Хо и В. Хванг (2020); Уточнение и универсальное приближение с помощью слабо связанных сверточных сетей ReLU; Письма об обработке сигналов IEEE, т. 27, с. 1175-1179.
  5. ^ Пак, Чжуён и Ирвин В. Сандберг (1991); Универсальная аппроксимация с использованием сетей радиальных базисных функций; Нейронные вычисления 3.2, 246-257.
  6. ^ Яроцкий, Дмитрий (2018); Универсальные аппроксимации инвариантных отображений нейронными сетями.
  7. ^ а б Цибенко, Г. (1989) «Аппроксимация суперпозициями сигмоидальной функции», Математика управления, сигналов и систем, 2(4), 303–314. Дои:10.1007 / BF02551274
  8. ^ а б Курт Хорник (1991) "[1] ", Нейронные сети, 4(2), 251–257. Дои:10.1016 / 0893-6080 (91) 90009-Т
  9. ^ а б Лешно, Моше; Лин, Владимир Я .; Пинкус, Аллан; Шокен, Шимон (январь 1993 г.). «Многослойные сети с прямой связью с неполиномиальной функцией активации могут аппроксимировать любую функцию». Нейронные сети. 6 (6): 861–867. Дои:10.1016 / S0893-6080 (05) 80131-5. S2CID  206089312.
  10. ^ а б Пинкус, Аллан (январь 1999 г.). «Теория приближений модели MLP в нейронных сетях». Acta Numerica. 8: 143–195. Дои:10.1017 / S0962492900002919.
  11. ^ а б Крациос, Анастасис (7 августа 2020 г.). «Свойство универсальной аппроксимации». Анналы математики и искусственного интеллекта. Дои:10.1007 / s10472-020-09723-1.
  12. ^ а б c d Лу, Чжоу; Пу, Хомгминг; Ван, Фэйчэн; Ху, Чжицян; Ван, Ливэй. «Выразительная сила нейронных сетей: взгляд из глубины». Достижения в системах обработки нейронной информации 30. Curran Associates, Inc .: 6231–6239.
  13. ^ а б Ханин, Борис; Селлке, Марк (март 2019 г.). «Приближение непрерывных функций сетями ReLU минимальной ширины». Математика. MDPI.
  14. ^ а б c d Кидгер, Патрик; Лион, Терри (июль 2020 г.). Универсальное приближение с глубокими узкими сетями. Конференция по теории обучения. arXiv:1905.08539.
  15. ^ Парк, Седжун; Юн, Чулхи; Ли, Джэхо; Шин, Джин Ву (октябрь 2020 г.). Минимальная ширина для универсального приближения. Конференция по теории обучения. arXiv:1905.08539.
  16. ^ Баадер, Максимилиан; Мирман, Мэтью; Вечев, Мартин (2020). Универсальное приближение с сертифицированными сетями. ICLR.
  17. ^ Линь, Хунчжоу; Жегелка, Стефани (2018). ResNet со скрытыми слоями с одним нейроном - универсальный аппроксиматор. Достижения в системах обработки нейронной информации 30. Curran Associates, Inc., стр. 6169–6178.
  18. ^ Хайкин, Саймон (1998). Нейронные сети: всеобъемлющий фундамент, Том 2, Прентис Холл. ISBN  0-13-273350-1.
  19. ^ Хассун, М. (1995) Основы искусственных нейронных сетей MIT Press, стр. 48
  20. ^ Ханин, Б. (2018). Аппроксимация непрерывных функций сетями ReLU минимальной ширины. Препринт arXiv arXiv: 1710.11278.
  21. ^ Пак, Юн, Ли, Шин, Седжун, Чулхи, Джэхо, Джину (2020-09-28). «Минимальная ширина для универсального приближения». ICLR.CS1 maint: несколько имен: список авторов (связь)
  22. ^ Джонсон, Джесси (2019). Глубокие, тощие нейронные сети не являются универсальными приближениями. Международная конференция по обучающим представительствам.