从LLM到Agent的进阶之路(三):揭秘大模型思考的第二步:词嵌入——大模型如何“理解”了文字的意义
当我们向AI大模型输入“今天天气不错”,它看到的并不是这六个汉字,而是一串冰冷的数字。然而,它却能从中理解语义,并生成富有逻辑和情感的回应。
今天,我们从一个看似简单却至关重要的问题开始:AI模型,到底是如何“读懂”人类语言的?
当我们向AI大模型输入“今天天气不错”,它看到的并不是这六个汉字,而是一串冰冷的数字。然而,它却能从中理解语义,并生成富有逻辑和情感的回应。
这一切都源于AI心智的起源——词嵌入 (Word Embedding)。
1
一、 从符号到数字:文字向量化
在AI模型内部,所有运算都基于数学。因此,在我们深入Transformer的复杂结构之前,必须解决一个更根本的问题:如何将离散的、符号化的文字(Token),转化为机器可以处理的、有意义的数字?
这条“进化之路”充满了挑战,也见证了AI对语言理解的逐步深化。
- 最初的尝试:索引与独热编码的困境
最直观的想法,莫过于给每个字或词编一个号。就像字典里的页码,“今天”是100,“天气”是120。
例如,假设“今天天气不错”这个句子被切分为“今天”、“天气”、“不错”三个词,若“今天”在词典中对应的位置为100,“天气”在词典中的位置为120,“不错”在词典中的位置为230,那么“今天天气不错”可以被表示为:[100, 120, 230]。
这种方式看似简单合理,但存在一个严重的问题:无法表示Token的语义。用索引来表示Token,数字完全取决于Token在词典中的位置,跟Token的含义无关。
从数字表示上看,一些差距较小的数字,例如1、2或3、4等,在数字上的差距较小,但是所代表的Token含义可能完全不同。
而一些含义相近的Token,例如“西红柿”、“番茄”,在词典中可能一个在第200位,另一个可能在第1888位,这两个数字差距非常大,但所代表的Token含义相似。
后来,一个更“科学”的方法出现了——独热编码 (One-Hot Encoding)。假设我们的词典只有三个词:“今天”、“天气”、“不错”,那么:
“今天” -> [1, 0, 0]
“天气” -> [0, 1, 0]
“不错” -> [0, 0, 1]
这种表示法在传统机器学习中很常见,但对于拥有数万甚至数十万词汇的自然语言处理而言,它带来了两个致命缺陷:
维度灾难与稀疏性
以DeepSeek为例,DeepSeek模型的词表大小超过12万。如果用独热编码,每个词的向量就是12万维,其中只有一个1,其余全是0。这在计算和存储上都是一场噩梦。
语义的缺失
更严重的是,从数学上看,任何两个不同的独热向量都是正交的。在向量空间中,正交意味着“毫无关系”。这意味着,“西红柿”与“番茄”的关系,和“西红柿”与“飞船”的关系是完全等价的。这显然是对人类语言丰富内涵的巨大误读。
这些早期的尝试,仅仅是将文字变成了“数字符号”,却未能赋予这些数字“灵魂”——也就是语义。
- 词嵌入的“降维打击”
词嵌入技术,正是为了解决上述所有问题而诞生的。它的核心思想,源于语言学中一个优雅的假说——分布假说 (Distributional Hypothesis):
分布假说
“一个词的意义,由它上下文中的词所决定。” (You shall know a word by the company it keeps.)
简单来说,如果“国王”和“女王”都常常与“城堡”、“统治”、“国家”一同出现,那么它们的意义就是相近的。
基于此,词嵌入不再将词视为孤立的符号。它通过一个专门训练的神经网络(如Word2Vec, GloVe,嵌入层等),将高维、稀疏的独热向量,“压缩”成一个低维、稠密的实数向量。这个模型的最常用的训练方法是:输入一句话,并将其中的一个词语抹掉,让模型根据其它词语预测这个词语。

词嵌入的过程,堪称一场“降维打击”:
- 维度从词典大小(如DeepSeek的129,280)急剧压缩到几百或几千维(如DeepSeek的7168维)。
- 向量从只有一个1的“稀疏”状态,变为每个元素都是非零浮点数的“稠密”状态。
- 最关键的是,这场“压缩”并非信息的损失,而是语义的注入。原本冰冷的向量,从此拥有了“温度”和“意义”。
2
二、 语义空间
那么,一个词嵌入向量,究竟代表了什么?
它代表了一个词在某个高维语义空间中的精确“坐标”。
让我们将这个高维空间简化为一个二维平面来理解。
假设一个词嵌入向量的长度为2,向量的第一个元素为x,第二个元素为y。在这个空间里,每一个词都是一个点。你会惊奇地发现:
在这个空间中,语义相近,则空间相邻: “国王”与“女王”、“男人”与“女人”这些词,会自然地聚集在一起。我们可以通过计算向量间的余弦相似度来量化这种“亲疏关系”。
关系可计算,则语义可推理: 更神奇的是,这些“星座”之间还存在着奇妙的几何关系。从“男人”指向“女人”的向量,几乎与从“国王”指向“女王”的向量平行且等长。这意味着:
v(“国王”) - v(“女王”) ≈ v(“男人”) - v(“女人”)
其中,v(“国王”)表示“国王”这个词的词嵌入向量。
这个关系可以解释为:“国王”跟“女王”的差距与“男人”跟“女人”的差距差不多。
我们把这个式子变换一下:
v(“国王”) - v(“男人”) + v(“女人”) ≈ v(“女王”)
这个解释更为直观:“国王”减去“男人”,再加上“女人”,就约等于“女王”。这个解释更加符合我们的认知。
这个经典的类比关系,说明AI能够用数学运算,捕捉到了语言中“性别”这一抽象概念。向量空间中的方向,开始对应现实世界中的特定语义关系。
3
三、 从“词”到“世界”
掌握了表示“词”的方法后,嵌入技术的征途便奔向了星辰大海——表示更复杂的概念。
- 句子嵌入
现在,我们已经理解了如何把一个词转为一个词嵌入向量,让我们考虑一个更复杂的问题,如何用向量表示一个完整的句子?
简单地将这句话所有词向量相加或平均,会丢失至关重要的语序信息,比如“我为人人” 和 “人人为我”,两个句子将会得到相同的向量,但语义完全不同。
现代大模型通过其核心的自注意力机制,动态地为句子中的每个词生成一个“上下文感知”的嵌入。最终,整个句子被编码成一个能概括其核心思想的、独一无二的向量——句子嵌入。
这项技术,直接催生了语义检索的革命。我们不再依赖关键词,而是能真正理解查询意图,从海量知识库中找到最相关的答案。这,便是当今大热的RAG(检索增强生成)技术的核心基石,我们将在后续内容中深入拆解。

- 多模态嵌入:打破感官的次元壁
我们的世界是多模态的——有文字、有图像、有声音。为了让AI拥有更完整的“世界观”,多模态嵌入应运而生。
它的目标,是创建一个统一的、跨越所有感官的“概念空间”。在这个空间里:
一张猫的图片,和文字“一只可爱的猫”,它们的向量坐标将无限接近。
通过这种方式,模型得以在视觉和语言之间建立起一座坚实的桥梁,从而实现了“看图说话”、“以文生图”等令人惊叹的跨模态能力。
例如,我们可以实现这样一个效果:


我们通过两句诗词:“正是江南好风景,落花时节又逢君”,分别在一个庞大的图像库中,检索它们对应的图像,就实现了这样一个效果。
4
结语
从简单的数字索引,到蕴含宇宙奥秘的词嵌入向量,我们走过了AI理解语言的第一里路,也是最重要的一里路。
词嵌入层,正是整个AI大模型的“地基”。这块基石的质量,直接决定了 Transformer 所能达到的高度和稳固性。
在下一期中,我们将沿着数据的流向继续向上,探索大模型是如何基于这些嵌入向量,一步步“思考”并生成下一个词的。
想入门 AI 大模型却找不到清晰方向?备考大厂 AI 岗还在四处搜集零散资料?别再浪费时间啦!2025 年 AI 大模型全套学习资料已整理完毕,从学习路线到面试真题,从工具教程到行业报告,一站式覆盖你的所有需求,现在全部免费分享!
👇👇扫码免费领取全部内容👇👇

一、学习必备:100+本大模型电子书+26 份行业报告 + 600+ 套技术PPT,帮你看透 AI 趋势
想了解大模型的行业动态、商业落地案例?大模型电子书?这份资料帮你站在 “行业高度” 学 AI:
1. 100+本大模型方向电子书

2. 26 份行业研究报告:覆盖多领域实践与趋势
报告包含阿里、DeepSeek 等权威机构发布的核心内容,涵盖:
- 职业趋势:《AI + 职业趋势报告》《中国 AI 人才粮仓模型解析》;
- 商业落地:《生成式 AI 商业落地白皮书》《AI Agent 应用落地技术白皮书》;
- 领域细分:《AGI 在金融领域的应用报告》《AI GC 实践案例集》;
- 行业监测:《2024 年中国大模型季度监测报告》《2025 年中国技术市场发展趋势》。
3. 600+套技术大会 PPT:听行业大咖讲实战
PPT 整理自 2024-2025 年热门技术大会,包含百度、腾讯、字节等企业的一线实践:

- 安全方向:《端侧大模型的安全建设》《大模型驱动安全升级(腾讯代码安全实践)》;
- 产品与创新:《大模型产品如何创新与创收》《AI 时代的新范式:构建 AI 产品》;
- 多模态与 Agent:《Step-Video 开源模型(视频生成进展)》《Agentic RAG 的现在与未来》;
- 工程落地:《从原型到生产:AgentOps 加速字节 AI 应用落地》《智能代码助手 CodeFuse 的架构设计》。
二、求职必看:大厂 AI 岗面试 “弹药库”,300 + 真题 + 107 道面经直接抱走
想冲字节、腾讯、阿里、蔚来等大厂 AI 岗?这份面试资料帮你提前 “押题”,拒绝临场慌!

1. 107 道大厂面经:覆盖 Prompt、RAG、大模型应用工程师等热门岗位
面经整理自 2021-2025 年真实面试场景,包含 TPlink、字节、腾讯、蔚来、虾皮、中兴、科大讯飞、京东等企业的高频考题,每道题都附带思路解析:

2. 102 道 AI 大模型真题:直击大模型核心考点
针对大模型专属考题,从概念到实践全面覆盖,帮你理清底层逻辑:

3. 97 道 LLMs 真题:聚焦大型语言模型高频问题
专门拆解 LLMs 的核心痛点与解决方案,比如让很多人头疼的 “复读机问题”:

三、路线必明: AI 大模型学习路线图,1 张图理清核心内容
刚接触 AI 大模型,不知道该从哪学起?这份「AI大模型 学习路线图」直接帮你划重点,不用再盲目摸索!

路线图涵盖 5 大核心板块,从基础到进阶层层递进:一步步带你从入门到进阶,从理论到实战。

L1阶段:启航篇丨极速破界AI新时代
L1阶段:了解大模型的基础知识,以及大模型在各个行业的应用和分析,学习理解大模型的核心原理、关键技术以及大模型应用场景。

L2阶段:攻坚篇丨RAG开发实战工坊
L2阶段:AI大模型RAG应用开发工程,主要学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。

L3阶段:跃迁篇丨Agent智能体架构设计
L3阶段:大模型Agent应用架构进阶实现,主要学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造Agent智能体。

L4阶段:精进篇丨模型微调与私有化部署
L4阶段:大模型的微调和私有化部署,更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调,并通过Ollama、vLLM等推理部署框架,实现模型的快速部署。

L5阶段:专题集丨特训篇 【录播课】

四、资料领取:全套内容免费抱走,学 AI 不用再找第二份
不管你是 0 基础想入门 AI 大模型,还是有基础想冲刺大厂、了解行业趋势,这份资料都能满足你!
现在只需按照提示操作,就能免费领取:
👇👇扫码免费领取全部内容👇👇

2025 年想抓住 AI 大模型的风口?别犹豫,这份免费资料就是你的 “起跑线”!
更多推荐

所有评论(0)