《AI进化志》22 附录2: AI 核心术语通俗解释表
·
AI 核心术语通俗解释表
| 专业术语 | 口语化解释 | 生活化类比 |
|---|---|---|
| 人工神经网络(1943 年首次提出) | 模仿人类大脑 “神经元” 工作的计算机模型,简单说就是让机器像大脑一样 “连上线”,把零散信息串起来处理 | 就像串珠子:每个神经元是一颗珠子,珠子之间的线就是信息传递的通道,串得越合理,信息处理越顺畅 |
| 图灵测试(1950 年提出) | 判断机器是否 “像人” 的测试:如果一个人跟机器聊天,聊半天没发现对方是机器,那这机器就通过了测试 | 好比网上 “匿名聊天”:你不知道对面是真人还是机器人,要是没察觉异常,说明这机器人 “演得够像” |
| 符号主义(1960s-1990s 主流) | 让机器靠 “规则和逻辑” 解决问题,比如先给机器设定 “狗有四条腿、会叫” 的规则,再让它判断什么是狗 | 像教小孩认动物:先告诉他 “有长鼻子、大耳朵、会喷水的是大象”,他就按这个规则去认,可遇到 “大象雕塑” 就会出错(因为规则没涵盖 “真假”) |
| 深度学习(2000s 后崛起) | “多层神经网络” 的升级版,能处理更复杂的信息 —— 比如看图片时,第一层先认 “线条”,第二层认 “色块”,最后一层拼出 “这是猫” | 类似剥洋葱:从外层 “皮”(简单特征)一层层往里剥,直到看到 “芯”(最终结果),层数越多,越能看清复杂事物的细节 |
| ReLU 激活函数(2012 年 AlexNet 用) | 给神经网络 “提精神” 的工具:让有用的信息 “使劲传”,没用的信息 “别捣乱”,避免机器处理时 “越算越慢、越算越错” | 像公司里的 “筛选员”:重要文件优先传给老板,没用的垃圾邮件直接拦下,让工作效率变高 |
| Transformer 架构(2017 年提出) | 让机器能 “抓重点” 的处理方式 —— 读文章时,自动把 “核心词”(比如 “追” 在 “猫追老鼠” 里)标出来,重点关注,还能联系上下文 | 好比读小说:看到 “他” 这个字,你会自动联想到前面提到的 “小明”,知道 “他” 指谁;Transformer 就是让机器也会这种 “联想和抓重点” |
| 自注意力机制(Transformer 核心) | 机器 “判断信息重要性” 的能力:处理一句话时,给每个词打分,重要的词(比如 “病” 在 “看医生治什么病” 里)分数高,优先处理 | 像听人说话:别人说 “我今天头疼,想请假”,你会重点听 “头疼”“请假”,忽略 “今天” 这种次要词,机器也靠这个机制抓关键 |
| 大模型(2020 年 GPT-3 后流行) | 参数量特别大、能处理多种任务的 AI 模型 —— 参数量就像 “机器的知识储备量”,储备越多,能做的事越多(比如写文章、算数学、画画) | 好比 “全能型学霸”:不仅语文好,数学、英语也厉害,不用单独学一门课,靠平时积累的知识就能应对多种考试 |
| 多模态 AI(2023 年 GPT-4 代表) | 能同时处理 “文字、图片、语音” 的 AI—— 比如你发一张猫的照片,它能说出 “这是橘猫,看起来很胖”,还能把这句话读给你听 | 像会 “全能翻译” 的人:既能看文字懂意思,又能看图片说内容,还能听语音转文字,不用换工具就能处理多种信息 |
| RLHF(人类反馈强化学习,2022 年 ChatGPT 用) | 让 AI “听人的话” 的训练方式:先让 AI 输出结果,人判断 “这个好”“那个不好”,再让 AI 根据人的反馈调整,越练越符合人的需求 | 类似教宠物:小狗做对动作(比如握手)就给奖励,做错就纠正,慢慢它就知道 “怎么做能让主人开心” |
| 低风险 AI(2023 年欧盟法案定义) | 出错了影响不大的 AI—— 比如视频推荐、购物推荐,就算推错了,大不了划走不看、不买 | 像超市里的 “导购员”:推荐的零食你不爱吃,换一个就行,不会有大损失 |
| 高风险 AI(2023 年欧盟法案定义) | 出错了会影响健康、安全的 AI—— 比如医疗诊断 AI、自动驾驶 AI,要是判断错了,可能危及生命 | 好比医院里的 “医生助手”:要是帮医生看错了病情,可能耽误治疗,所以必须严格把关,每一步都得说清楚 “为什么这么判断” |
更多推荐



所有评论(0)