前言

在我上大学后,AI的热度逐渐提高。开始我不屑一顾,但是后来跟一些比较厉害的人交流后,发现我真的落后很多。别人在聊什么RAG,LLM,我:"?"。

其实我也希望大家多去了解一些这些的新的东西,国外的大模型什么的该用用,花点钱什么关系的,以后都会赚回来的。

本篇文章对一些大模型常见的术语进行总结,看完至少能知道别人在聊的是个什么东西。

另外,本篇文章会一直进行补充,我学了什么,就会补充什么。

一.模型

模型可以理解成一个从数据中学习规律的程序。你给它出了海量例子,并告诉它该怎么做。它通过这些例子可以自己总结出一些规则,学会了完成某个特定的任务。

模型的三个特点:

特定任务,一个模型通常只擅长一件事
需要标注数据,训练模型需要大量的标准答案
参数较少

二.大语言模型

1.介绍

大语言模型,LLM(Large Language Model)是指基于大规模神经网络(参数规模通常达数十亿至万亿级别,例如GPT-3包含1750亿参数),通过自监督半监督方式,对海量文本进行训练的语言模型

下面对一些专业属于进行解释:

1)神经网络

神经网络就是模仿人脑的工作模式。

它由大量虚拟的“神经元”(也就是参数)和连接组成。每个神经元都像⼀个小处理单元,负责处理一点点信息。无数个神经元分成很多层,前一层的输出作为后一层的输入。

通过海量数据的训练,这个网络会自己调整每个“神经元”的重要性(即参数的值),最终形成一个非常复杂的“判断流水线”。比如,一个识别猫的神经网络,某些参数可能专门负责识别猫的眼睛,另⼀些参数专门负责识别猫的轮廓。

简单说:神经网络就是⼀个通过数据训练出来的、由大量参数组成的复杂决策系统。

2)自监督学习

自己训练自己,从数据本身找规律

3)半监督学习

师傅领进门,修行在个人。用少量带标签的数据引模型入门,掌握一些基本规律,然后再根据这些规律,从海量数据中训练自己

4)语言模型

预测下一个词,判断接下来会说什么

2.提示词编写

提示词的编写相当重要,对于同一个模型,写好提示词跟没写好差距很大。就算你使用了目前最先进的大模型,写的提示词依托,等于没用。

还有,我们现在使用的大模型多是国内的,比如说DeepSeek、豆包啥的,都是免费的。但是,当我们调用API的时候就要花钱,每个字都是钱,因此减少不必要的沟通,减少不必要的输出是至关重要的。

写提示词的宗旨是:将你的问题限定范围,让 AI 知道你要的答案具体要包含什么,提示词效果会大幅提升。

1)CO-STAR 框架

在目标设定和问题解决的场景下,清晰性和结构性是至关重要的。

CO-STAR 可以拆解为六个维度。

模块 说明 示例
Context 任务背景与上下文  “你是电商客服,需解答用户关于iPhone 17的咨询,知识库包含最新价格和库存”
Objective 核心目标  “准确回答价格、发货时间,推荐适配配件”
Steps 执行步骤 “1. 识别用户问题类型;2. 检索知识库;3. 用亲切语气整理回复”
Tone 语言风格 “口语化,避免专业术语,使用‘亲~’‘呢’等语⽓词”
Audience 目标用户 “20-35岁年轻消费者,对价格敏感,关注性价比”
Response 输出格式 “价格:XXX元\n库存:XXX件\n推荐配件:XXX(链接)”

上面的六个维度也不难理解,我们再写提示词的时候也比较容易去遵守。

2)少样本提示 / 多示例提示

这种方式通过给 AI 提供一两个 输入-输出 的例子,让它“照葫芦画瓢”。

核心思想:你不是在给它下指令,而是在“教”它你想要的格式、风格和逻辑。

适用场景:格式固定、风格独特、逻辑复杂的任务,如风格仿写、数据提取、复杂格式生成。

3)思维链提示

常用的思维链提示有两种:少样本思维链(Few-shot-CoT)和零样本思维链(Zero-shot-CoT)。

零样本思维链(Zero-shot-CoT)的核心思想是通过指令 “请⼀步步进行推理并得出结论” ,强制 AI 在给出答案前先进行内部推理。像我们国内的一些模型的深度思考能力其实就是基于思维链构建的一个系统级特性。

少样本思维链(Few-shot-CoT)的核心思想是要求 AI “展示其工作过程”,而不是直接给出最终答案。这模仿了人类解决问题时的思考方式。

4)自我批判与迭代

要求 AI 在生成答案后,从特定角度对自己的答案进行审查和优化。

核心思想:将“生成”和“评审”两个步骤分离,利用 AI 的批判性思维来提升内容质量。

适用场景:代码审查、文案优化、论证强化、安全检查。

在实际应用中,这些技巧常常是组合适用的。例如,我们可以:使用 CO-STAR 框架设定基本结构和角色。在框架的“Steps”或“Response”部分,融入思维链指令。对于格式复杂的输出,在最后附上少样本示例。最后,要求 AI 进行自我审查。

3.词元(Tokens)

词元是大语言模型 (LLM) 处理文本时的最小语义单位。用于将文本拆解为模型可理解的离散单元。

词元通过分词器将文本拆分而来,不同模型的分词规则不同,同一个词在不同模型中可能被拆分成不同词元。

模型的上下文窗口(如128K)实际是词元数量限制,API收费通常按词元数计费(词元=金钱),词元数越多,计算耗时和内存占用越高。

三.嵌入模式

1.介绍

大语言模型(LLM)是生成式模型。它理解输入并生成新的文本(回答问题、写文章)。它内部实际上也使用嵌入技术来理解输入,但最终目标是“创造”。而嵌入模型(Embedding Model)是表示型模型。它的目标不是生成文本,而是为输入的文本创建一个最佳的、富含语义的数值表示(向量)。

由于计算机天生擅长处理数字,但不理解文字、图片的含义。嵌入(Embedding)的核心思想就是将人类世界的符号(如单词、句子、产品、图片)转换为计算机能够理解的数值形式(即向量,本质上是一个数字列表),并且要求这种转换能够保留原始符号的语义和关系,也就是度量语义

用数学度量语义主要有两种方式:欧式距离和余弦相似度

2.应用场景

从上面介绍可知,嵌入模型最根本的特点就是将文本(图片等等)转化为数值向量,并让这个向量包含其语义信息,根据这个特点,嵌入模型有下面的应用场景。

1)语义搜索(Semantic Search)

传统搜索:依赖关键词匹配(搜 “苹果” ,只能找到包含 “苹果” 这个词的文档)。

语义搜索:则能将查询和文档都转换为向量,通过计算向量间的相似度来找到相关内容,即使文档中没有查询的确切词汇也能被检索到。(搜“苹果”,能找到其他包含水果的文档)。

2)检索增强生成(Retrieval-Augmented Generation, RAG)

这是当前大语言模型应用的核心模式。当用户向 LLM 提问时,系统首先使用嵌入模型在知识库(如公司内部文档)中进行语义搜索,找到最相关的内容,然后将这些内容和问题一起交给 LLM 来生成答案。这极大地提高了答案的准确性和时效性。

嵌入模型主要负责“检索部分”,而将问题与答案整合是“增强(提示词)”部分,打包一起发给LLM最终生成结果的流程则是“生成”部分,整个流程被成为检索增强生成。

3)推荐系统(Recommendation Systems)

将用户(根据其历史行为、偏好)和物品(商品、电影、新闻)都转换为向量。喜欢相似物品的用户,其向量会接近;相似的物品,其向量也会接近。通过计算用户和物品向量的相似度,就可以进行精准推荐。

4)异常检测(Anomaly Detection)

正常数据的向量通常会聚集在一起。如果一个新数据的向量远离大多数向量的聚集区,它就可能是一个异常点(如垃圾邮件、欺诈交易)。

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐