• Sigmoid函数:能够将输入压缩到[0, 1]的范围内,通常用于二分类任务的输出层。
  • Tanh函数:与Sigmoid类似,但是它能将输入压缩到[-1, 1]的范围内,通常具有比Sigmoid更好的性能。
  • ReLU函数:修正线性单元,是目前最常用的激活函数之一,特别是在隐藏层中。它的优点是能够缓解梯度消失问题,并且计算简单。
  • Leaky ReLU / Parametric ReLU / Exponential LU (ELU):这些是ReLU的变种,旨在解决ReLU神经元“死亡”的问题,即一旦神经元激活值进入负数区域,将不再对任何输入有响应。
  • Softmax函数:主要用于多类分类任务的输出层,它将输出转换为概率分布。

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐