Soft-Clipping Mish激活函数
Soft-Clipping激活函數
論文:Soft Clipping Mish – A Novel Activation Function for Deep Learning
年份:2021
簡介
該函數與Soft-Clipping Swish激活函數十分相似,同樣都是在負區域硬規定為0,正區域為Mish激活函數。這樣可以增加正區域的非線性,但同樣負區域容易造成神經元死亡。
Mish(x)=x?tanh(softplus(x))Mish(x) = x\cdot tanh(softplus(x)) Mish(x)=x?tanh(softplus(x))
其中,Softplus激活函數為:
Softplus(x)=log(1+ex)Softplus(x) = log(1+e^x) Softplus(x)=log(1+ex)
由此可以獲得SC_Mish的公式:
f(x)=max?(0,x?tanh(softplus(αx)))f(x) = \max(0, x\cdot tanh(softplus(\alpha x))) f(x)=max(0,x?tanh(softplus(αx)))
參數α\alphaα是一個預定義參數,它被設置為1。SC_Mish是一種連續的,單調的功能,底部有邊界,頂部無邊無際。它接受范圍內的值[0,+∞)\left[0, +\infty\right)[0,+∞)。
當α\alphaα為可學習參數時,該可學習參數在訓練階段初始化,初始值為0.25,在網絡權值更新的情況下進行更新。
SC_Mish的導數為:
f′(x)=tanh(softplus(αx))+αeαxxsech2(softplus(1+eαx))1+eαxf^\prime(x) = tanh(softplus(\alpha x)) + \frac{\alpha e^{\alpha x}x sech^2(softplus(1+e^{\alpha x}))}{1+e^{\alpha x}} f′(x)=tanh(softplus(αx))+1+eαxαeαxxsech2(softplus(1+eαx))?
SC_Mish的曲線如下圖所示。
SC_Mish的導數如下圖所示
總結
以上是生活随笔為你收集整理的Soft-Clipping Mish激活函数的全部內容,希望文章能夠幫你解決所遇到的問題。