常见激活函数
Sigmoid函数:能够将输入压缩到[0, 1]的范围内,通常用于二分类任务的输出层。Tanh函数:与Sigmoid类似,但是它能将输入压缩到[-1, 1]的范围内,通常具有比Sigmoid更好的性能。ReLU函数:修正线性单元,是目前最常用的激活函数之一,特别是在隐藏层中。它的优点是能够缓解梯度消失问题,并且计算简单。Leaky ReLU / Parametric ReLU / Exponent
·
- Sigmoid函数:能够将输入压缩到[0, 1]的范围内,通常用于二分类任务的输出层。
- Tanh函数:与Sigmoid类似,但是它能将输入压缩到[-1, 1]的范围内,通常具有比Sigmoid更好的性能。
- ReLU函数:修正线性单元,是目前最常用的激活函数之一,特别是在隐藏层中。它的优点是能够缓解梯度消失问题,并且计算简单。
- Leaky ReLU / Parametric ReLU / Exponential LU (ELU):这些是ReLU的变种,旨在解决ReLU神经元“死亡”的问题,即一旦神经元激活值进入负数区域,将不再对任何输入有响应。
- Softmax函数:主要用于多类分类任务的输出层,它将输出转换为概率分布。
更多推荐
所有评论(0)