AI大模型应用开发全攻略:零基础入门,掌握Messages、RAG、Agent等核心技术!
AI 大模型应用开发作为新兴领域,不断出现新的技术:LLM、Prompt、RAG、Agent、Fine-tuning、MCP 等,本文聚焦 AI 大模型应用开发,带领大家入门,带领大家了解 AI 大模型应用开发的全攻略。
AI 大模型应用开发作为新兴领域,不断出现新的技术:LLM、Prompt、RAG、Agent、Fine-tuning、MCP 等,本文聚焦 AI 大模型应用开发,带领大家入门,带领大家了解 AI 大模型应用开发的全攻略。
一、AI 大模型应用开发全攻略
尽管市面上的大语言模型(LLMs)种类繁多,但大家在使用时其实都是通过 API 来与大模型交互的。这些大模型的接口通常遵循一些通用的规范,比如: OpenAI 的标准。下面,我们就以 OpenAI 接口为例,来聊聊这些大模型都有哪些能力。
当你和大模型交流时,除了可以控制大模型输出的随机性之外,最关键的参数就是 Messages 和 Tools。可以说,现在市面上的各种大模型应用,都是基于这两个参数设计的。
1、Messages - 大模型是如何“记住”对话的?
- Messages 是一个对话记录的列表,里面的角色包括:
- System:代表系统级别的指令,通常用来放置提示词。
- User:用户发出的指令。
- Assistant:LLM 给出的回复。
不同厂商可能会在这个基础上增加一些额外的定义。
大模型所谓的“记忆”对话,其实是依赖于这个列表来传递信息的。
比如,第一轮对话中我告诉大模型我的名字。
第二轮对话时,如果问大模型我是谁,它就能“记住”我的名字。这是因为我在 Messages 列表中提供了这个名字信息。
提示词的不稳定性:容易被指令注入攻击。
看完这三张图,我们来总结一下:
为什么大模型能“记住”之前的对话呢?其实,它并不是真的记住了,而是每次请求时,系统都会给它之前对话的内容。大模型的每次请求调用都是无状态的,它的行为完全取决于你每次提供的信息。
那么,大模型的提示词(Prompt)有什么用呢?提示词可以进一步控制(或者说覆盖)大模型的行为,具有高优先级,但同时也存在不稳定的风险。
希望这样的解释能帮助你更好地理解大语言模型的工作原理和它们的应用方式。
2、RAG - 检索增强生成
让我们深入了解一种重要的大模型应用范式:检索增强生成,简称 RAG(Retrieval-Augmented Generation)。
简单来说,RAG 就是利用检索到的知识来提升生成答案的质量。举个例子,假设我手头有一堆关于数据仓库的问题和答案(Q&A),我想基于这些 Q&A 来创建一个问答机器人,让它能够根据这些 Q&A 来回答用户的问题。这个问答机器人的工作流程就是:检索到的 Q&A -> 利用检索到的 Q&A 来回复用户,这正是 RAG 的典型应用场景。显然,RAG 的最终目标是为用户提供可靠的答案。
构建 RAG 链路相对简单,但要达到好的效果却不容易。从流程中我们可以发现两个关键点:
知识库检索召回:这里需要解决如何检索到最相关、最准确的答案。
基于知识库的 LLM 回答:这里需要解决的是如何让模型在众多知识中给出自信且准确的回答。
这些都是业界正在不断探索的问题,没有统一的标准答案,只有最适合当前业务需求的方案。
3、Tools - 大模型能执行任何工具?
很多同学经常对大语言模型(LLM)的能力有所误解,比如询问大模型是否能执行数据库操作,或者是否能将数据仓库中的数据导入到对象存储等。这些问题通常源于对大模型的“Tools”参数理解不足。
“Tools”是一个工具集合的数组,其中包含了工具的作用描述和所需参数,例如天气查询工具的定义如图示。
使用这些工具时,通常需要两次调用大模型:
第一次、将用户的查询和工具信息一起提供给模型,模型会根据这些信息推理出需要执行相应的工具及其参数。
后端系统根据大模型的选择结果执行相应的工具,获取结果。
第二次,再次请求大模型,此时上下文中包含了工具执行的结果,大模型基于这些信息生成回复。
总结一下
大模型本身并不能直接执行任何工具,但能决定接下来要执行哪些工具。一旦做出选择,实际的工具执行将由配合的系统(通常是 Agent)完成并获取结果。
4、ReAct - 推理 + 行动
接下来,我们可以探讨第二个重要的大模型范式:ReAct(推理+行动)。
需要强调的是,大模型的许多范式都是对人类行为的模拟,因此我们可以通过生活中的案例来理解大模型。
案例:老板让写一份调研外部大模型框架的报告
工具:互联网搜索、PPT、思维导图
思考 (Reasoning): 需要调研外部大模型框架,明确调研目标是了解行业内的主要框架、特点和应用场景。需要先明确有哪些主流框架,然后针对性地收集资料。
思考 (Reasoning): 我已经拿到了想要的资料,接下来使用思维导图搭建汇报思路
思考 (Reasoning): 信息基本收集完毕,需要将所有信息整理成结构化的报告,并使用PPT进行总结和分析。
这个思考的流程就是 ReAct 模式。
5、Agent - 自主完成复杂任务
许多人可能已经注意到,大模型在数学计算方面并不擅长,如果直接用它们来做计算器,很容易出现错误。
这里,我们用 llama_index 的 Agent 框架来举个例子:
-
我们定义了三个工具函数:乘法、加法和减法。
-
然后,我们构建了一个 Agent 来执行这些操作模式。
import os
> Running step cba1a160-74c3-4e34-bcc4-88e6a678eaf9. Step input: What is60-(20+(2*4))? Calculate step by step
之前有朋友问到,在这种流程中,大语言模型(LLM)究竟扮演了什么角色?大模型最突出的能力是理解自然语言并进行推理,我们可以尝试将规则进一步复杂化,比如用“张三”来代表减法,“李四”代表加法,“王二”代表乘法。那么,问题“张三(李四(王二王24))”等于多少呢?如果要求一步步计算,尽管表现可能仍有不足,但大模型展现出了对自然语言的容错能力,能够像人类一样去思考,而不是遵循一成不变的逻辑。
Thought: The current language of the user is English. I need to use a tool to help me answer the question. The expression given is60张三(20李四(2王二4)), which translates to 60 - (20 + (2 * 4)). I will calculate step by step.
6、Fine-tuning 微调- 让大模型具备精确处理公司任务的能力
让我们通过一个具体的生产案例来说明这一点。当我们为 World First 提供客服服务时,遇到了很多特殊的业务知识,例如,用户在万里汇下载的银行对账单并不等于下载交易流水单。这里涉及到具体的业务背景:银行对账单是亚马逊要求的账户证明文件。这类业务背景知识对于大模型来说很难掌握,这时就需要引入微调(Fine-tuning),将这部分知识整合到大模型中。
目前,业界的主流做法正在逐渐减少对微调的依赖,因为这个过程既耗时又费力,而且不总是能带来预期的正面效果。更多的工程实践倾向于将提示词(Prompt)复杂化和动态化,在工程上做更多的容错处理工作。
7、Prompt 提示词工程- 说人话
调优提示词:大模型工程中的核心,提示词的优秀与否决定了你是否需要链路上做额外的兜底。
调优提示词有三种实践方式:直接使用提示词、提示词中引入 CoT(Chain-of-Thought)、提示词中引入动态 Few-Shot。
大语言模型(LLM)确实能够引发工作方式和思考模式的重大变革,它们让问题的解决方式变得依赖于你的创造力。然而,业务成效并不完全依赖于大模型。许多人误以为拥有了 LLM,就能轻松解决业务效果、开发效率和交付质量等问题,这种将所有问题都推给 LLM 的想法是一个很大的误区。
以客服场景为例,最初大家都认为客服是非常适合应用大型模型的场景,我最初也是这么认为的。但深入实践后发现事实并非如此,特别是在对专业度和准确率有明确要求的场景中。客服作为售后服务,用户带着问题和情绪而来,他们需要的是明确的解决方案,而不是机械式的安慰和模糊的答案。因此,业务能力和人性化是客服成功的关键因素。确定这些关键因素后,再去思考 LLM 能在这些方面带来哪些帮助,然后构建你的解决方案,这样的应用方式才是可靠的。
简而言之,大模型可以是一个强大的工具,但它们并不是万能的。在构建解决方案时,我们需要综合考虑业务需求、用户期望和模型的能力,以确保我们提供的服务既有效又人性化。
二、如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
一直在更新,更多的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇
01.大模型风口已至:月薪30K+的AI岗正在批量诞生
2025年大模型应用呈现爆发式增长,根据工信部最新数据:
国内大模型相关岗位缺口达47万
初级工程师平均薪资28K(数据来源:BOSS直聘报告)
70%企业存在"能用模型不会调优"的痛点
真实案例:某二本机械专业学员,通过4个月系统学习,成功拿到某AI医疗公司大模型优化岗offer,薪资直接翻3倍!
02.大模型 AI 学习和面试资料
1️⃣ 提示词工程:把ChatGPT从玩具变成生产工具
2️⃣ RAG系统:让大模型精准输出行业知识
3️⃣ 智能体开发:用AutoGPT打造24小时数字员工
📦熬了三个大夜整理的《AI进化工具包》送你:
✔️ 大厂内部LLM落地手册(含58个真实案例)
✔️ 提示词设计模板库(覆盖12大应用场景)
✔️ 私藏学习路径图(0基础到项目实战仅需90天)
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
更多推荐
所有评论(0)