В математика, а гладкий максимум из индексированная семья Икс1, ..., Иксп чисел - это гладкое приближение к максимум функция
имея в виду параметрическая семья функций
так что для каждого α, функция
гладко, и семейство сходится к максимальной функции
в качестве
. Концепция чего-либо гладкий минимум аналогично определяется. Во многих случаях одно семейство аппроксимирует оба: максимум, когда параметр стремится к положительной бесконечности, минимальный, когда параметр стремится к отрицательной бесконечности; в символах,
в качестве
и
в качестве
. Этот термин также можно свободно использовать для конкретной гладкой функции, которая ведет себя аналогично максимуму, не обязательно являясь частью параметризованного семейства.
Примеры
Smoothmax применяется к функциям '-x' и x с различными коэффициентами. Очень гладко для
![альфа](https://wikimedia.org/api/rest_v1/media/math/render/svg/b79333175c8b3f0840bfb4ec41b8072c83ea88d3)
= 0,5 и резче для
![альфа](https://wikimedia.org/api/rest_v1/media/math/render/svg/b79333175c8b3f0840bfb4ec41b8072c83ea88d3)
=8.
При больших положительных значениях параметра
, следующая формулировка является гладкой, дифференцируемый приближение функции максимума. Для отрицательных значений параметра, больших по модулю, он приближается к минимуму.
![{ displaystyle { mathcal {S}} _ { alpha} (x_ {1}, ldots, x_ {n}) = { frac { sum _ {i = 1} ^ {n} x_ {i} e ^ { alpha x_ {i}}} { sum _ {i = 1} ^ {n} e ^ { alpha x_ {i}}}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ea5302e6fb5d229d98126f2de7e61b22d1010501)
обладает следующими свойствами:
в качестве ![альфа в infty](https://wikimedia.org/api/rest_v1/media/math/render/svg/1488b56a327cc223bac1548a520344c56552abf2)
это среднее арифметическое его входов
в качестве ![alpha to - infty](https://wikimedia.org/api/rest_v1/media/math/render/svg/d0f2a7db323c5c99c0c4527fa868a025a43a38aa)
Градиент
тесно связан с softmax и дается
![{ displaystyle nabla _ {x_ {i}} { mathcal {S}} _ { alpha} (x_ {1}, ldots, x_ {n}) = { frac {e ^ { alpha x_ { i}}} { sum _ {j = 1} ^ {n} e ^ { alpha x_ {j}}}} [1+ alpha (x_ {i} - { mathcal {S}} _ { альфа} (x_ {1}, ldots, x_ {n}))].}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1a1ed2997b3a0ceb8682440a0374158074ee3c73)
Это делает функцию softmax полезной для методов оптимизации, использующих градиентный спуск.
LogSumExp
Еще один плавный максимум - LogSumExp:
![{ Displaystyle mathrm {LSE} _ { alpha} (x_ {1}, ldots, x_ {n}) = 1 / alpha log ( exp ( alpha x_ {1}) + ldots + ехр ( альфа x_ {n}))}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a90ce79069077641c46404662511f63699f2d9ad)
Это также можно нормализовать, если
все неотрицательны, что дает функцию с областью определения
и диапазон
:
![{ Displaystyle г (x_ {1}, ldots, x_ {n}) = log ( exp (x_ {1}) + ldots + exp (x_ {n}) - (n-1))}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b008d984668d67fc1a852725de948363080e292a)
В
срок исправляет тот факт, что
отбрасывая все экспоненты, кроме одной, и
я упал
равны нулю.
р-Норма
Еще один плавный максимум - это p-норма:
![{ displaystyle || (x_ {1}, ldots, x_ {n}) || _ {p} = left (| x_ {1} | ^ {p} + cdots + | x_ {n} | ^ {p} right) ^ {1 / p}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/32d1a42688b5aef3572e5dda63588cea23824afa)
который сходится к
в качестве
.
Преимущество p-нормы в том, что это норма. Таким образом, он «масштабно инвариантен» (однороден):
, и он удовлетворяет треугольному неравенству.
Использование в численных методах
Другие варианты функции сглаживания
![{ displaystyle { mathcal {max}} _ { alpha} (x_ {1}, x_ {2}) = left ((x_ {1} + x_ {2}) + { sqrt {(x_ {1) } -x_ {2}) ^ {2} + alpha}} right) / 2}](https://wikimedia.org/api/rest_v1/media/math/render/svg/717d80b3cd1dd19fb60fcd6a7ab69826d644651a)
Где
является параметром.
Смотрите также
Рекомендации
М. Ланге, Д. Цюльке, О. Хольц и Т. Виллманн, «Применение lp-норм и их гладких приближений для градиентного векторного квантования обучения», в Proc. ESANN, Апрель 2014 г., стр. 271-276. (https://www.elen.ucl.ac.be/Proceedings/esann/esannpdf/es2014-153.pdf )