深度学习之激活函数——ELU
指数线性单元(ELU),全称Exponential Linear Units,使用了指数作为激活函数的一部分。
·
ELU
指数线性单元(ELU),全称Exponential Linear Units,使用了指数作为激活函数的一部分。
函数表达式
f(x)={α(ex−1),x≤0x,x>0 f(x)=\begin{cases} \alpha (e^x-1),\quad x\leq 0\\ x, \quad x>0 \end{cases} f(x)={α(ex−1),x≤0x,x>0
函数图像

在图像上,x>0x>0x>0部分与ReLU相似,而在x<0x<0x<0部分与sigmoid/tanh相似
函数特性
ELU激活函数上所有点都是连续且可微的(α=1\alpha =1α=1),所以不存在梯度消失和梯度爆炸的问题。ELU在x>0x>0x>0部分与ReLU相似,而在x<0x<0x<0部分与sigmoid/tanh相似,这样就能很好的结合两者的优点。理论上,ELU要好于ReLU,但是实际上,并没有证据表明ELU总是优于ReLU。
优点:
- 相比于ReLU、sigmoid、tanh激活函数,其训练时间更短、精确度也更高。因为其在原点处函数连续,这样能够加快函数收敛
- 没有dead relu神经元死亡问题
缺点:
- 计算速度较慢,因为涉及到非线性的运算,但是其较快的收敛速度会对其进行一定程度上的弥补
的弥补
更多推荐


所有评论(0)