一、基础款 “神经战士”:感知机

1957 年,美国大佬 Frank Rosenblatt 造出了 “感知机”—— 这是最最简单的 “AI 小细胞”,就像一个迷你开关:

  • 工作原理:接收输入(比如 x1、x2),给每个输入贴个 “重要性标签”(权重 w),再加上一个 “容易被激活的程度”(偏置 b),最后算总和:如果总和>0,输出 1(激活);否则输出 0(休眠)。
  • 技能应用:专克简单逻辑电路,比如 “与门”“或门”“与非门”,像搭积木一样设定 w 和 b 就行。比如 “与门”(只有两个输入都为 1,输出才是 1),给 w1=0.5、w2=0.5、b=-0.7,立马搞定!

二、感知机的 “致命短板”:搞不定 “异或门”

感知机看似万能,却栽在了 “异或门” 上。“异或门” 要求 “两个输入不一样时输出 1,一样时输出 0”,不管怎么调 w 和 b,感知机都算不出来。
为啥?因为它只能用一条直线划分数据(比如把 “0” 和 “1” 分成两拨),但 “异或门” 的数据得用曲线才能分开 —— 这就是 “线性不可分” 难题。

三、升级版 “神经军团”:多层感知机(MLP)

解决 “线性不可分” 的办法超简单:给感知机 “加帮手”!多层感知机就像给单个战士配了 “小分队”,核心是多了个 “隐藏层”:

  • 结构:输入层(接收原始数据)→隐藏层(中间 “脑回路”,可不止一层)→输出层(给结果)。隐藏层里的 “小神经” 越多、层数越多,处理复杂问题的能力越强(隐藏层的数量和神经元个数叫 “超参数”,得咱们自己调)。
  • 核心武器:激活函数:隐藏层能干活,全靠 “激活函数” 这个 “转换器”。它把输入的总和变成非线性输出,让网络能画曲线!常见的有 3 种:
    • 阶跃函数:感知机用的 “老古董”,非 0 即 1,像电灯开关。
    • Sigmoid 函数:把输出压在 0-1 之间,像 “渐变开关”。
    • ReLU 函数:输入正数就原样输出,负数直接归 0,简单又好用,现在最流行!
  • 终极技能:用 Softmax 函数处理多分类问题(比如分辨猫、狗、兔子),输出每个类别的概率,超靠谱。

四、训练 “神经军团”:从 “菜鸟” 到 “高手”

神经网络不是天生就会干活,得靠 “训练” 升级:

  • 学习本质:不断调整 “权重 w” 和 “偏置 b”,让输出越来越接近咱们想要的结果。
  • 两大步骤
    1. 前向传播:数据从输入层 “流” 到输出层,算出当前结果。
    2. 反向传播:根据输出和标准答案的 “误差”,从输出层往回走,修正每一层的 w 和 b。
  • 关键指标
    • 训练误差:在 “练习题”(训练数据)上的错误率。
    • 泛化误差:在 “新考题”(陌生数据)上的错误率。就像学生刷题厉害(训练误差低),不代表考试能考好(泛化误差低)。

五、避坑指南:别让模型 “学废了”

训练时容易踩两个坑:

  • 欠拟合:模型太 “笨”,连练习题都做不对(比如把所有绿色的东西都认成树叶)。解决办法:给模型加层、加神经元,让它更 “聪明”。
  • 过拟合:模型太 “死磕”,把练习题的错题、笔迹都当成 “考点”(比如认为树叶必须有锯齿),换套新题就翻车。解决办法:用 “权重衰减”“暂退法”(随机让部分神经元 “休息”),或者多找些数据让模型见世面。
  • 小技巧:用 “K - 折交叉验证”(把数据分成 K 份,轮流用 1 份当考题、其余当练习题),尤其适合数据少的时候。

六、一句话总结

从单个感知机(只能画直线),到多层感知机(靠隐藏层和激活函数画曲线),本质是让 AI 从 “处理简单问题” 进化到 “搞定复杂任务”。训练时只要避开欠拟合、过拟合,调对超参数,“神经军团” 就能越来越强~

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐