收藏!AI落地面试通关·判断篇:16道Agent高频题,教你从Prompt到微调精准定位问题根因!
一句话结论缺行为先看 Prompt,缺知识先看 RAG,只有当稳定模式足够明确且高频重复时,才考虑微调。面试锦囊先定位问题根因——到底是行为没约束住,还是知识没补进去。Prompt 管行为,RAG 管外部知识,微调只处理已经稳定且高频的输入输出模式。任何时候都先跑 baseline 和 eval,对比方案提升,再决定是否值得上更重的路线。判断 Checklist☐ 问题主要是格式、步骤、角色约束没
本文针对AI Agent工程中常见的“效果不稳定”问题,探讨了Prompt优化、RAG补充和模型微调的优先级判断。核心观点是:应先分析问题根源,缺行为约束优先调整Prompt,缺外部知识优先补充RAG,只有当输入输出模式稳定且高频时才考虑微调。文章通过腾讯AI岗位面试真题、典型误判分析、正确判断框架及落地案例,强调了先诊断后行动、控制成本和复杂度的工程思维,并提供了面试锦囊和避坑指南,适合AI应用工程师参考学习。

一、面试现场
面试题
“我们做一个研究报告生成系统,效果总是不稳定。你会优先改 Prompt、补 RAG,还是直接上微调?”
腾讯某 AI 应用平台组终面。岗位是做行业研究与内容生成的 Agent 工程。面试官给了一个很像真实项目的场景:同一套系统,要给消费、汽车、金融三个行业生成周报。候选人听完马上说:“效果不好就微调,微调完更稳。”本文按截至 2026 年 4 月仍然通用的工程判断口径来讨论,不追逐短期模型榜单。
面试官没有否定,只追问了一句:“你确定这是模型不会,还是模型不知道?”这道题真正考的,不是你会不会背术语,而是你能不能先判断问题的根因,再决定该往哪条路上加复杂度。
这不是某一次面试的原题,而是从真实面经和 AI 工程岗 JD 中提炼的高频判断题。
二、大多数人怎么答的
常见回答大概分三类:一种是“先疯狂改 Prompt,总能调出来。”另一种是“加个 RAG,什么知识问题都能补。”还有一种是“直接微调,省事也稳定。”
问题是,这三种回答都默认自己已经知道问题在哪。但工程里最贵的,不是“选错技术”,而是在没有定位问题前就开始加方案。模型输出差,有可能是指令不够清楚;也可能是缺你自己的行业知识;还可能是你想要的其实是一种长期稳定的固定风格和决策偏好。三个根因,对应三条完全不同的路。

典型误判
“效果不好就上微调。” —— 很多时候不是模型不会做,而是你还没把“行为问题”和“知识问题”分开。
三、正确判断框架
这道题更合适的回答顺序只有一句话:缺行为先看 Prompt,缺知识先看 RAG,只有稳定模式已经足够明确且高频重复时,才考虑微调。
先拆三个概念。Prompt 解决的是“怎么做”:角色、步骤、格式、约束、输出风格。RAG 解决的是“知道什么”:企业文档、行业数据、FAQ、实时信息。微调解决的是“长期稳定地总是这样做”:某类输入到某类输出的固定模式、稳定口吻、特定决策偏好。

判断 1:知识是不是在模型外面?
如果答案依赖公司制度、私有文档、实时数据、行业库,优先补 RAG。违反后果:你把“模型不知道”误当成“模型不会”,最后花钱微调一个仍然拿不到当前数据的模型。
判断 2:问题是不是可通过指令显式描述?
如果你能清楚写出步骤、字段、结构、禁止项,先做 Prompt 工程,包括 few-shot、system/user 分层、版本管理和 eval 对比。违反后果:本来靠一轮 prompt 重构就能解决的事,被你升级成一个长期维护项目。
判断 3:输入到输出的模式是不是已经稳定到可标注?
如果同类任务高频出现、成功样本足够多、验收标准明确,微调才值得谈。违反后果:样本不够、目标不稳,微调出来的只是把当前噪声固化进模型。
判断 4:维护成本谁最低?
知识变化快时,RAG 更新索引通常比重新微调便宜;规则经常改时,Prompt 比重新造数据集更灵活。违反后果:你选了最重的方案,结果每次业务变动都要大修。
真正成熟的团队很少一上来就说“我们要微调”。他们更像在做诊断:先用 Prompt 验证行为边界,再用 RAG 补知识缺口,最后才问——有没有一块模式已经稳定到值得固化进模型。
四、面试官追问链
追问 1
“你怎么判断一个 Prompt 已经到天花板了,不是你写得还不够好?”
回答思路:不要靠感觉,靠表现特征。其一,同类输入产出方差仍然很大;其二,长尾 case 只能靠不断补示例,越补越碎;其三,格式和语气总在概率上漂移,不能稳定收敛。出现这三种信号,说明 Prompt 已经把“行为约束”压到上限,再硬调的性价比就很差。

追问 2
“如果一个项目既缺知识又缺风格,你先做哪个?”
回答思路:先补知识,再调风格。因为模型连事实都拿不到时,先谈语气和版式没有意义。工程上通常是:RAG 补行业资料与数据口径,Prompt 定义章节结构和表达要求,如果仍然要求某个垂直领域保持长期一致口吻,再评估微调是否划算。
加分题
“为什么很多所谓微调需求,其实是检索没做好?”
方向:因为模型答错的根因常常不是能力不够,而是上下文里根本没有正确证据。检索召回不到、切块不对、数据过期,微调也补不回缺失事实。
五、落地案例
实战拆解
研究报告生成系统:从“只会堆 Prompt”到“Prompt + RAG”,最后只对一类固定风格评估微调
**起步版本只有 Prompt。**团队先做了很细的提示词:规定标题层级、摘要格式、风险提示和结论段落,还给了两篇 few-shot 示例。结果消费行业报告还能看,换到汽车和金融就开始露怯——不是结构乱,而是细节空、事实弱、引用不稳。
**根因判断:**这里先不是风格问题,而是知识缺口。模型知道怎么写研究报告,却不知道你们公司的行业口径、历史周报、券商模板和当前指标解释。于是下一版接入 RAG:检索内部行业数据库、近三个月周报、关键指标定义和事件时间线。
**Prompt + RAG 接上后,知识问题明显缓解。**报告引用更准了,行业背景不再靠猜。但新的问题暴露出来:金融行业的输出仍然不够稳定。同一个输入,有时偏卖方研报腔,有时像公司内部周报,结论口吻忽松忽紧。
**这时才轮到微调评估。**团队没有对整套系统一把梭微调,而是把问题缩到一个稳定、高频的子任务:金融行业周报结论段。因为这里样本足够多、验收标准明确、输出格式固定,才有资格谈微调。最终做法是:绝大多数内容继续走 Prompt + RAG,只有金融结论段进入专门模型或适配层。

这条路线最重要的不是“最后有没有微调”,而是每一步都先回答了一个工程问题:现在缺的是行为、知识,还是稳定模式。这样做,成本和复杂度都能被控制在需要的范围里。
六、上线坑点
坑 1:没 baseline 就谈微调
如果你不知道 Prompt + RAG 已经能做到什么程度,就根本没法证明微调带来了净收益。最后只会得到一个更贵、但提升来源说不清的系统。
坑 2:Prompt 不做版本管理
一条 system prompt 改动,可能让整套系统的语气、步骤、风险提示同时变化。没有版本号、没有 eval 对比、没有回滚点,线上行为一漂就找不到是谁改坏的。
坑 3:拿微调掩盖链路设计问题
检索召回差、切块不合理、数据过期、输出 schema 模糊,这些都不是微调该背的锅。系统设计没补齐时,微调只是在更高成本上把问题包装得没那么明显。
七、本课总结与面试锦囊
一句话结论
缺行为先看 Prompt,缺知识先看 RAG,只有当稳定模式足够明确且高频重复时,才考虑微调。
面试锦囊
先说: 先定位问题根因——到底是行为没约束住,还是知识没补进去。
再说: Prompt 管行为,RAG 管外部知识,微调只处理已经稳定且高频的输入输出模式。
最后补: 任何时候都先跑 baseline 和 eval,对比方案提升,再决定是否值得上更重的路线。
判断 Checklist
☐ 问题主要是格式、步骤、角色约束没说清 → 先调 Prompt
☐ 需要企业私有知识、实时数据、行业文档 → 先补 RAG
☐ 同类任务高频、样本足够、验收标准清楚 → 才评估微调
☐ 方案升级前先有 baseline 和回滚点
别再踩的坑
• 把“效果不好”直接翻译成“该微调了”
• RAG 没补好就开始讨论模型定制
• Prompt、检索、微调三条链路没有独立评估,改完不知道哪里真的变好了
适合谁: 已经在做内容生成、问答、审核、Copilot 这类 AI 应用,但总在 Prompt、RAG、微调之间摇摆的工程师。
不适合谁: 如果你现在连 baseline、样本集和评估口径都没有,先别急着谈微调,先把诊断链路补起来。
怎么用在自己项目里: 先各抽 20 个真实样本,分别验证 Prompt 是否已说清规则、RAG 是否真能拿到证据,再决定微调有没有资格进入候选清单。
最后
对于正在迷茫择业、想转行提升,或是刚入门的程序员、编程小白来说,有一个问题几乎人人都在问:未来10年,什么领域的职业发展潜力最大?
答案只有一个:人工智能(尤其是大模型方向)
当下,人工智能行业正处于爆发式增长期,其中大模型相关岗位更是供不应求,薪资待遇直接拉满——字节跳动作为AI领域的头部玩家,给硕士毕业的优质AI人才(含大模型相关方向)开出的月基础工资高达5万—6万元;即便是非“人才计划”的普通应聘者,月基础工资也能稳定在4万元左右。
再看阿里、腾讯两大互联网大厂,非“人才计划”的AI相关岗位应聘者,月基础工资也约有3万元,远超其他行业同资历岗位的薪资水平,对于程序员、小白来说,无疑是绝佳的转型和提升赛道。

对于想入局大模型、抢占未来10年行业红利的程序员和小白来说,现在正是最好的学习时机:行业缺口大、大厂需求旺、薪资天花板高,只要找准学习方向,稳步提升技能,就能轻松摆脱“低薪困境”,抓住AI时代的职业机遇。
如果你还不知道从何开始,我自己整理一套全网最全最细的大模型零基础教程,我也是一路自学走过来的,很清楚小白前期学习的痛楚,你要是没有方向还没有好的资源,根本学不到东西!
下面是我整理的大模型学习资源,希望能帮到你。

👇👇扫码免费领取全部内容👇👇

1、大模型学习路线

2、从0到进阶大模型学习视频教程
从入门到进阶这里都有,跟着老师学习事半功倍。

3、 入门必看大模型学习书籍&文档.pdf(书面上的技术书籍确实太多了,这些是我精选出来的,还有很多不在图里)

4、 AI大模型最新行业报告
2026最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

5、面试试题/经验

【大厂 AI 岗位面经分享(107 道)】

【AI 大模型面试真题(102 道)】

【LLMs 面试真题(97 道)】

6、大模型项目实战&配套源码

适用人群

四阶段学习规划(共90天,可落地执行)
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
-
硬件选型
-
带你了解全球大模型
-
使用国产大模型服务
-
搭建 OpenAI 代理
-
热身:基于阿里云 PAI 部署 Stable Diffusion
-
在本地计算机运行大模型
-
大模型的私有化部署
-
基于 vLLM 部署大模型
-
案例:如何优雅地在阿里云私有部署开源大模型
-
部署一套开源 LLM 项目
-
内容安全
-
互联网信息服务算法备案
-
…
👇👇扫码免费领取全部内容👇👇

3、这些资料真的有用吗?
这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。
资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

更多推荐


所有评论(0)