AI大模型产品经理学习路线(应用层方向)
自己搭一个智能体WorkFlow建议动手做一个项目(使用Coze/Dify即可):垂直领域知识助手(例如:法律合同审查助手、电商客服助手、雅思口语陪练)。你需要讲清楚的故事:解决了谁的什么问题?你的Prompt是怎么写的?为什么这么写?刚开始效果不好(比如幻觉严重),你引入了知识库(RAG)或者优化了Prompt之后,效果提升了多少?你选用了什么模型(比如为了省钱把GPT-4换成了DeepSeek
·
AI大模型产品经理学习路线(应用层方向)
第一阶段:去魅与基础概念
目标: 理解大模型“是什么”、“能做什么”、“不能做什么”。
-
核心概念理解(必知必会)
- LLM原理通识: 视频看一下原理。理解什么是Next Token Prediction(下一个词预测)。
- 关键术语:
- Token(词元): 计费和计算单位。
- Context Window(上下文窗口): 模型的短期记忆极限。
- Temperature(温度): 控制输出的随机性与创造性。
- Parameters(参数量): 7B, 13B, 70B代表什么含义。
- 幻觉(Hallucination): 为什么模型会一本正经胡说八道?如何看待它?
-
体验主流模型
感受不同模型的差别
- 闭源模型: 使用 ChatGPT,Claude, Gemini。
- 开源/国产模型: 体验 DeepSeek、Kimi、Qwen等,了解国内生态。
- 推理模型与非推理模型区别:比如DeepSeek R1与 DeepSeek v3
- MOE模型与Dense模型区别:比如Qwen3 30B 以及 Qwen3-30B-A3B-Instruct-2507
第二阶段:应用层技术栈
目标: 掌握AI应用开发的“乐高积木”,这是应用型PM的核心壁垒。
-
Prompt Engineering(提示词工程)
- 这是AI PM的“原型开发语言”。
- 技巧: Zero-shot (零样本), Few-shot (少样本), CoT (思维链), Role Playing (角色扮演)。
- 结构化提示词: 学习编写结构清晰的System Prompt(例如:Markdown格式的提示词)。
-
RAG 知识库(检索增强生成)—— 应用层的灵魂
- 必学! 目前90%的企业级AI应用都是基于RAG。
- 原理: 把企业私有数据变成知识库 -> 用户提问 -> 检索相关片段 -> 喂给大模型 -> 生成答案。
- 解决什么问题: 解决模型幻觉、数据时效性、私有数据保护问题。
-
Fine-tuning(微调)vs RAG
- 弄清楚什么时候用RAG(查资料),什么时候用微调(学风格/特定格式)。
- 产品经理要懂决策: 微调成本高、维护难;RAG成本低、更灵活。
-
Agent(智能体)与 Function Calling
- 理解模型如何“使用工具”(比如联网搜索、查数据库、调API)。
- 这是从“对话框”变成“自动执行任务”的关键。
-
MCP
- MCP基础概念
- MCP应用场景
第三阶段:低代码实战与原型能力
目标: 不写代码也能做出可用的Demo,验证产品逻辑。这是初级AI PM最加分的项。 低代码工具,上手简单。
-
掌握 LLM Ops / 编排工具
- Coze (扣子) / Dify(重要且上手简单): 强烈推荐。这两个是目前最主流的低代码/无代码AI应用编排平台。
- 任务:
- 在Coze上搭建一个“小红书文案生成器”(练习Prompt)。
- 在Dify上上传一份PDF文档,搭建一个“文档问答助手”(练习RAG)。
- 搭建一个能搜索新闻并总结发送到飞书/钉钉的Bot(练习Workflow/Agent)。
-
理解 API 与 成本计算
- 学会看API文档(如DeepSeek或OpenAI的API)。
- 算账: 如果一个用户每天对话10次,每次消耗1000 Tokens,结合模型定价,一个月的成本是多少?这直接决定你的产品商业模式能否跑通。
💡 总结:项目建议
自己搭一个智能体WorkFlow
建议动手做一个项目(使用Coze/Dify即可):
- 项目名: 垂直领域知识助手(例如:法律合同审查助手、电商客服助手、雅思口语陪练)。
- 你需要讲清楚的故事:
- 场景: 解决了谁的什么问题?
- 实现: 你的Prompt是怎么写的?为什么这么写?
- 调优: 刚开始效果不好(比如幻觉严重),你引入了知识库(RAG)或者优化了Prompt之后,效果提升了多少?
- 成本: 你选用了什么模型(比如为了省钱把GPT-4换成了DeepSeek-V3),为什么?
更多推荐



所有评论(0)