AI 核心术语通俗解释表

专业术语 口语化解释 生活化类比
人工神经网络(1943 年首次提出) 模仿人类大脑 “神经元” 工作的计算机模型,简单说就是让机器像大脑一样 “连上线”,把零散信息串起来处理 就像串珠子:每个神经元是一颗珠子,珠子之间的线就是信息传递的通道,串得越合理,信息处理越顺畅
图灵测试(1950 年提出) 判断机器是否 “像人” 的测试:如果一个人跟机器聊天,聊半天没发现对方是机器,那这机器就通过了测试 好比网上 “匿名聊天”:你不知道对面是真人还是机器人,要是没察觉异常,说明这机器人 “演得够像”
符号主义(1960s-1990s 主流) 让机器靠 “规则和逻辑” 解决问题,比如先给机器设定 “狗有四条腿、会叫” 的规则,再让它判断什么是狗 像教小孩认动物:先告诉他 “有长鼻子、大耳朵、会喷水的是大象”,他就按这个规则去认,可遇到 “大象雕塑” 就会出错(因为规则没涵盖 “真假”)
深度学习(2000s 后崛起) “多层神经网络” 的升级版,能处理更复杂的信息 —— 比如看图片时,第一层先认 “线条”,第二层认 “色块”,最后一层拼出 “这是猫” 类似剥洋葱:从外层 “皮”(简单特征)一层层往里剥,直到看到 “芯”(最终结果),层数越多,越能看清复杂事物的细节
ReLU 激活函数(2012 年 AlexNet 用) 给神经网络 “提精神” 的工具:让有用的信息 “使劲传”,没用的信息 “别捣乱”,避免机器处理时 “越算越慢、越算越错” 像公司里的 “筛选员”:重要文件优先传给老板,没用的垃圾邮件直接拦下,让工作效率变高
Transformer 架构(2017 年提出) 让机器能 “抓重点” 的处理方式 —— 读文章时,自动把 “核心词”(比如 “追” 在 “猫追老鼠” 里)标出来,重点关注,还能联系上下文 好比读小说:看到 “他” 这个字,你会自动联想到前面提到的 “小明”,知道 “他” 指谁;Transformer 就是让机器也会这种 “联想和抓重点”
自注意力机制(Transformer 核心) 机器 “判断信息重要性” 的能力:处理一句话时,给每个词打分,重要的词(比如 “病” 在 “看医生治什么病” 里)分数高,优先处理 像听人说话:别人说 “我今天头疼,想请假”,你会重点听 “头疼”“请假”,忽略 “今天” 这种次要词,机器也靠这个机制抓关键
大模型(2020 年 GPT-3 后流行) 参数量特别大、能处理多种任务的 AI 模型 —— 参数量就像 “机器的知识储备量”,储备越多,能做的事越多(比如写文章、算数学、画画) 好比 “全能型学霸”:不仅语文好,数学、英语也厉害,不用单独学一门课,靠平时积累的知识就能应对多种考试
多模态 AI(2023 年 GPT-4 代表) 能同时处理 “文字、图片、语音” 的 AI—— 比如你发一张猫的照片,它能说出 “这是橘猫,看起来很胖”,还能把这句话读给你听 像会 “全能翻译” 的人:既能看文字懂意思,又能看图片说内容,还能听语音转文字,不用换工具就能处理多种信息
RLHF(人类反馈强化学习,2022 年 ChatGPT 用) 让 AI “听人的话” 的训练方式:先让 AI 输出结果,人判断 “这个好”“那个不好”,再让 AI 根据人的反馈调整,越练越符合人的需求 类似教宠物:小狗做对动作(比如握手)就给奖励,做错就纠正,慢慢它就知道 “怎么做能让主人开心”
低风险 AI(2023 年欧盟法案定义) 出错了影响不大的 AI—— 比如视频推荐、购物推荐,就算推错了,大不了划走不看、不买 像超市里的 “导购员”:推荐的零食你不爱吃,换一个就行,不会有大损失
高风险 AI(2023 年欧盟法案定义) 出错了会影响健康、安全的 AI—— 比如医疗诊断 AI、自动驾驶 AI,要是判断错了,可能危及生命 好比医院里的 “医生助手”:要是帮医生看错了病情,可能耽误治疗,所以必须严格把关,每一步都得说清楚 “为什么这么判断”
Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐