本文由「大千AI助手」原创发布,专注用真话讲AI,回归技术本质。拒绝神话或妖魔化。搜索「大千AI助手」关注我,一起撕掉过度包装,学习真实的AI技术!

Sigmoid函数,一个因其图形类似字母“S”而得名的经典数学函数,是机器学习与深度学习领域中最具代表性的激活函数之一。它像一个精妙的“翻译官”,能够将输入的任何实数“平滑地”映射到(0,1)的区间内,这个特性使其在需要输出概率的场景中不可或缺

1. Sigmoid函数的基本概念与数学形式

Sigmoid函数,也称为逻辑函数,其标准数学定义清晰而优雅:

f(x) = 1 / (1 + e^(-x))

它的函数图像是一条平滑的、从0增长到1的S型曲线。当输入x趋向于负无穷时,输出无限趋近于0;当x趋向于正无穷时,输出无限趋近于1;当x=0时,函数值恰好为0.5。这一特性使其天然适合用来表示概率某种程度的“激活”状态

更一般地,Sigmoid函数可以带有参数,以调整其形状:
y = 1 / (1 + e^(-a(x-b)))
其中,参数a控制曲线的陡峭程度(斜率),而参数b控制曲线中心点(即输出为0.5的点)在x轴上的位置。这种灵活性使其能够适配不同尺度数据的转换需求。

此外,Sigmoid函数的导数有一个非常优美的性质,可以用其自身来表示,这在神经网络的反向传播中至关重要:
f‘(x) = f(x) * (1 - f(x))

本文由「大千AI助手」原创发布,专注用真话讲AI,回归技术本质。拒绝神话或妖魔化。搜索「大千AI助手」关注我,一起撕掉过度包装,学习真实的AI技术!

往期文章推荐:

2. 函数起源与跨学科背景

Sigmoid函数并非诞生于计算机科学,其思想根源深厚,是多学科交叉的产物。

  • 数学与统计学起源:其核心形式——逻辑函数,早在19世纪就被用于描述人口增长等自然现象,是一种经典的S型生长曲线
  • 神经科学的启发:在计算神经科学中,Sigmoid函数被用来模拟神经元的激活特性,即当输入刺激(膜电位)超过某个阈值时,神经元以一定的概率产生兴奋。这与人工神经网络中“激活”的概念不谋而合。
  • 机器学习中的确立:在机器学习发展早期,研究者们系统地探索了Sigmoid函数的性质。例如,有理论研究证明,通过Sigmoid函数的叠加,可以近似实现复杂的连续映射,这为神经网络作为通用逼近器提供了理论基础。同时,其在逻辑回归模型中作为连接函数的核心地位,也使其成为统计学和机器学习教材中的标准内容。

3. 在机器学习中的核心作用 🎯

Sigmoid函数在机器学习中扮演了两个关键角色:

1. 作为二分类模型的输出层激活函数
这是Sigmoid最经典的应用。在逻辑回归或二分类神经网络的最后一层,Sigmoid将线性计算的得分(w·x + b)转换为一个介于0和1之间的值,并直接解释为样本属于正类的概率。例如,在垃圾邮件检测中,模型输出0.9就意味着“有90%的把握认为这是垃圾邮件”。

2. 作为早期神经网络的隐藏层激活函数
在深度学习初期,Sigmoid和Tanh函数是隐藏层的主要选择。它们引入了非线性,使得神经网络能够学习并拟合数据中复杂的非线性模式,从而超越了纯粹的线性模型。没有这些非线性激活函数,无论堆叠多少层网络,其整体仍然等价于一个线性变换。

4. 函数性质与对神经网络训练的影响

Sigmoid的优缺点都非常鲜明,深刻影响了神经网络架构的演进。

优点

  • 平滑可微:函数曲线处处光滑,导数易于计算(f‘(x) = f(x)(1-f(x))),这对于基于梯度的优化算法(如反向传播)是必不可少的。
  • 输出范围有界:(0,1)的有界输出可以有效地归一化神经元的激活值,使网络训练初期更加稳定。

缺点与挑战

  • 梯度消失问题:这是Sigmoid最受诟病的缺点。当输入值很大或很小时(对应S曲线两端平坦的部分),其导数会趋近于0。在深层网络的反向传播中,链式法则会导致梯度连乘,使得靠近输入层的网络权重更新非常缓慢,甚至停止学习。
  • 输出非零中心化:Sigmoid的输出恒为正。这意味着后一层神经元的输入全部为正,会导致其权重的梯度在更新时全部同为正或同为负,出现“之”字形更新路径,降低了梯度下降的效率
  • 计算开销较大:指数函数exp(-x)的计算相比简单的线性运算(如ReLU的max(0,x))要昂贵得多。

正是这些缺点,尤其是梯度消失问题,推动了ReLU及其变体等新型激活函数在深度神经网络中的广泛应用。如今,Sigmoid更多被保留在需要概率输出的最后输出层,而隐藏层则普遍使用ReLU等函数。

最后

Sigmoid函数是机器学习历史上的一座里程碑。它凭借其直观的概率解释平滑的性质,为逻辑回归和早期神经网络提供了关键的动力。它像一把钥匙,打开了利用非线性模型处理分类问题的大门。

然而,其固有的梯度消失计算效率问题,也促使研究者寻找更优的替代方案,如ReLU。如今,在深度神经网络的隐藏层中,Sigmoid已较少使用,但其在二分类输出层门控循环单元(如LSTM) 以及需要特定输出范围的任务中,依然保有一席之地。

本文由「大千AI助手」原创发布,专注用真话讲AI,回归技术本质。拒绝神话或妖魔化。搜索「大千AI助手」关注我,一起撕掉过度包装,学习真实的AI技术!

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐