白话大模型增强技术系列之概览篇
而对于绝大多数的中小型企业和数字个体,我们能做的,也是主要发力点,就是学会利用各类增强技术去赋能大模型这个强力底座,实现业务应用,创造业务价值。
系列文章目录
白话大模型增强技术系列之LLM速通
白话大模型增强技术系列之概览篇
白话大模型增强技术系列之Prompt Engineering
白话大模型增强技术系列之Agent
白话大模型增强技术系列之Agent Skills
前言
本章作为该博客系列的概览,说实话没什么干货,仅给大家做简单梳理,着急学具体技术的可以省略不看。
在系统学习大模型增强技术之前,强烈建议您先读一下之前的"白话速通LLM",先对LLM大模型有一个整体的理解,以便更好的学习后续内容。
为了凑行数😃,让我们再来看一遍流程图:
先来看数据层,要处理几乎互联网上所有的数据,等于全人类古今中外的知识,咱小老百姓的,没能力哎没能力;再看训练层,且不说买数百张A卡的钱,每次数周训练所要花掉的电费也逼近数百万美金,咱这小公司犯不着啊犯不着;那我就只管部署呗?那又要另外掏钱买服务器,再搞几个牛马保证7*24小时的稳定服务,GPU的CPU,划不来啊划不来。这么分析下来,就只有业务应用这一块我们能点施展点拳脚了。
我并不否认底层模型的重要性,在这个大国博弈时代,AI技术是各国关注的重点之一,中国人要在AI领域走在世界前列,光靠一个Deepseek R1是不够的,还需要大模型厂商和专家科研团队的努力,不断投入先进底层模型的开发。而对于绝大多数的中小型企业和数字个体,我们能做的,也是主要发力点,就是学会利用各类增强技术去赋能大模型这个强力底座,实现业务应用,创造业务价值。
技术概览
让我们先看看有哪些大模型增强技术:
| 技术类别 | 2026年状态 | 咱老百姓还有必要学吗 | 原因 | 怎么学 |
|---|---|---|---|---|
| 提示词工程(Promt Engineering) | 基座能力,但手写提示词被自动化工具替代大半 | ⭐ 必须 | 模型交互的底层语言,框架自动化后仍需人设计架构和评估效果,不会提示词等于不会和模型沟通 | 学DSPy/LangChain框架化开发,掌握动态组装和版本管理,别背模板 |
| 检索增强(RAG) | 标配技术,向量库成熟 | ⭐ 必须 | 企业知识库问答刚需,幻觉问题未根治,RAG仍是成本最低的领域适配方案 | 重点学查询改写、重排策略、多路召回融合,向量库用现成的 |
| Agent | 主流落地,Multi-Agent成复杂任务标准架构 | ⭐ 必须 | 大模型从聊天工具进化为生产力工具的核心路径,复杂任务拆解和协作是应用层最大价值所在 | 掌握ReAct规划模式,学AutoGen/Dify等Agent框架,关注任务拆解而非单Agent |
| 工具/协议标准 | MCP已成事实标准,Function Calling原生支持 | ⭐ 必须 | 生态统一趋势,会MCP等于能对接所有工具,不会则被锁定在单一平台 | 直接上手MCP SDK开发工具&学会在工作流中接入tools能力 |
| Agent Skills | 新兴技术,模块化技能快速成为Agent开发标配 | ⭐ 必须 | 让通用Agent快速成为领域专家,标准化可复用的"能力包",降低定制开发成本 | 学Claude Skills格式,掌握YAML/JSON定义技能,理解输入输出Schema设计 |
| 模型微调 | 被RAG+长上下文挤压,垂直领域硬需求保留,技术宅需掌握 | ✅ 按需 | 普通场景RAG+提示词已够用,微调成本高周期长不适合中小型企业,仅在有数据敏感或极致性能场景下需要 | 普通工程师学LoRA原理即可,有训练条件或场景需求的可以进阶学习 |
| 记忆增强 | 被长上下文+智能分层存储替代,MemGPT等方案边缘化 | ✅ 按需 | 128K+上下文让短期记忆够用,长期记忆用现有向量服务即可,自研记忆系统ROI低,模型厂商正在研究内置化 | 学上下文窗口管理策略,外部记忆用现有服务(如Pinecone),自研记忆系统需求减少 |
| 多模态融合 | GPT-4o/Claude 3.5原生多模态,端到端替代拼接方案 | ⚠️ 了解 | 原生多模态API已统一,旧拼接方案淘汰,但需理解多模态交互设计而非模型结构 | 学统一多模态API调用即可,CLIP/LLaVA等拼接方案已过时,除非做研究 |
| 安全对齐 | 基座模型内置,应用层做输入过滤+输出审计即可 | ⚠️ 了解 | 模型厂商已重仓投入,应用层只需做最后一道防线,底层技术迭代快且深,跟进成本高 | 学Prompt Injection防御和输出合规检查即可,RLHF/DPO交给模型厂商 |
| 推理优化 | 云厂商全托管,普通工程师无需关心 | ❌ 跳过 | 云厂商竞争白热化,推理优化是基础设施层的标配能力,应用工程师无需重复造轮子 | 了解KV Cache原理即可,量化/投机解码用vLLM/SGLang现成方案 |
| 长文本扩展 | 128K-1M上下文成标配,技术细节被封装 | ❌ 跳过 | 上下文长度已从技术瓶颈变为产品参数,选型时直接看API文档即可,无需懂实现 | 知道RoPE能外推即可,用API时直接选长上下文模型 |
以上是我基于当前现状整理的信息,供大家参考,其中一些技术并没有明显的分界线,比如mcp通常跟agent组合使用,而rag本质上是以prompt engineering的形式起作用的。不过实话实说,说不定哪天这个表格就不对了。AI发展真的太快了,大模型增强技术也是日新月异,技术“过时”已经是常态,甚至大模型增强技术本身被模型内置化或淘汰也不一定。焦虑无法解决问题,我们能做的唯有拥抱变化和学习。
接下来,我会根据上述表格,对其中重点技术逐一研究并成篇,我将以尽可能通俗的语言将所学分享给大家(小白适用),欢迎大家加入我一起学习,如有不对的地方,欢迎指正。毕竟还有班要上,且要对读者负责虽然没几个人读,所以本人的写作进度会比较慢,等不及的同学可以依据以上信息去进行搜索,网上也早有大量相关的更成熟的研究和文章。
拓展
我相信现在大部分人对大模型都是小白水平,想转行大模型开发,有必要整体性的从数学基础到机器学习,再从到深度学习到神经网络这样学一遍AI吗?我个人认为对大多数同学来讲完全没有必要,如果你只做应用,或者你是自媒体只想做一个个人助手,完全可以直接从大模型增强技术开始,以实践为本,直接学习Dify,coze这样的框架,两三天就能落地一个agent,解决你目前棘手的问题。就比如我在写文章,有必要先把编辑器的语法全学一遍吗,那黄花菜都凉了。需要插图片了,去了解一下怎么插图,需要插入代码块,再看看怎么写代码块,以写文章的目的去学习。对绝大多数企业和个人来说,实现业务价值才是重中之重,不要为了学而学。
当然,我相信有不少同学是有志之士,对底层更感兴趣,想要在技术领域有长足的发展,那我觉得上面那条长路径是没毛病的。大模型背后的算法Transformer,实际上属于深度学习领域,而深度学习实际上是机器学习的一个子集,只不过最近大模型炒的太火,盖住了这些声音,现实生活中仍有大量场景需求,例如银行信贷风险评估、设备故障检测、医学影像分割等等,都要用传统机器学习来实现。机器学习和深度学习将是永恒的底座,作为AI算法工程师的必备基础。
更多推荐



所有评论(0)