别再搜了!关于Legal AI的底层逻辑和Prompt,看这篇“Legal AI 4”就够了!
使用AI时,你会不会也觉得,AI的回复很不错,但好像总欠一些火候,无法做到完美。如果你也有类似的经验,那么这篇文章对你或许有用。生活中,顺畅沟通的秘诀是,知己知彼。同样的,为了更好的AI“沟通”,我想我们需要了解AI背后的技术,大语言模型(LLM) 到底什么,导致今天各种AI应用能听懂我们的问题,回答我们问题,帮我们工作的底层逻辑是什么。
使用AI时,你会不会也觉得,AI的回复很不错,但好像总欠一些火候,无法做到完美。如果你也有类似的经验,那么这篇文章对你或许有用。
生活中,顺畅沟通的秘诀是,知己知彼。同样的,为了更好的AI“沟通”,我想我们需要了解AI背后的技术,大语言模型(LLM) 到底什么,导致今天各种AI应用能听懂我们的问题,回答我们问题,帮我们工作的底层逻辑是什么。
于是,文科生的我开始调动所有脑细胞,听课、看论文、看给小白的解释性文件。有关LLM的发展和底层逻辑总结如下。最后会附上法律工作prompt实用写作指南。
一、大语言模型(LLM)的发展历程梳理
- 1950-1990年代:理想主义的失败
1950年,计算机科学之父阿兰·图灵提出著名的"图灵测试":如果机器能在对话中骗过人类,它就具备了智能。但早期AI研究走了弯路,试图用编程规则来教会机器"思考"——这条路在法律领域尤其行不通,因为法律推理太复杂,无法穷尽所有规则。
转机出现在1986年。Geoffrey Hinton等人提出"反向传播"算法,让神经网络能够自主学习。但当时的计算机太弱,数据太少,进展缓慢。
- 2013-2017年:技术突破的前夜
2013年,Google的Tomas Mikolov发明Word2Vec,首次让计算机用数学方式"理解"词义。
真正的革命发生在2017年6月。Google团队发表论文《Attention Is All You Need》,提出Transformer架构——这是GPT中的"T"。这个架构的核心创新叫"注意力机制":让模型能够自动判断一句话中哪些词最重要。
- 2018-2020年:规模的力量
2018年6月,OpenAI(由Sam Altman领导,核心科学家是Ilya Sutskever)发布GPT-1,参数量1.17亿。
2019年2月,GPT-2扩大到15亿参数,效果提升明显。
2020年5月,GPT-3问世,参数量达到1750亿——相当于前代的100倍。这次跨越带来了质变:模型突然展现出"涌现能力",能做许多没有专门训练过的任务,包括法律文书摘要、合同条款分析等。
科学家们发现了一个规律:模型越大、数据越多,能力就越强,而且是非线性提升。这就像给学生更多书读,他不仅记住更多知识,还能触类旁通、举一反三。
- 2022年:走向大众
2022年11月30日,ChatGPT上线,5天内突破100万用户。这是GPT-3.5的对话版本,加入了大量人类反馈训练,变得礼貌、有用、安全。
- 2023-2025年:AI Agent时代
2023年3月,GPT-4发布,能力再次飞跃,可以处理图像、进行复杂推理。同期,Anthropic推出Claude,Google推出Gemini(前身Bard),竞争加剧。这一时期出现了关键转变:AI从"聊天工具"进化为"Agent"(智能代理)。
二、GPT的T - Transformer的本质
Transformer引入注意力机制“attention", 让模型可以同时看到所有词,自动计算词与词的关联性,并通过多层处理,从浅层语法到深层语义。
具体来讲,transformer会这样工作:
第一步:把文字变成数字(Embedding)
每个词转换成一串数字(比如"原告"=[0.2, -0.5, 0.8, …]) 这些数字捕捉了词的含义,相似的词数字也相近。
第二步:标记位置(Position Encoding)
因为Transformer同时看所有词,需要知道词的顺序,给每个词加上"位置标签":第1个词、第2个词…
第三步:多头注意力(Multi-Head Attention)—— 核心机制
Transformer会计算每个词和其他所有词的相关性。举例来说:“合同无效"这句话包含"合同"和"无效”
"合同"问其他词:“谁和我相关?”
“合同” ↔ “无效”:关系密切(0.9分)
“合同” ↔ “的”:语法关联(0.3分)
"无效"问其他词:“谁和我相关?”
“无效” ↔ “合同”:关系密切(0.9分)
“无效” ↔ “的”:关系一般(0.2分)
基于相关性重新理解:
"合同"的最终理解 = 0.9×"无效"的意思 + 0.3×"的"的意思
这样"合同"就被上下文"染色"了,变成了"无效的合同"
那么,"多头"是什么意思?就像律师从多个角度分析案件:
头1:关注法律关系(谁起诉谁)
头2:关注时间顺序(什么时候发生)
头3:关注因果关系(为什么这样)
头4:关注金额数字(涉及多少钱)
Transformer同时用8个或16个"头",每个头关注不同类型的关联,最后综合起来。
第四步:前馈神经网络(Feed-Forward)
把上一步得到的"染色后的词"进行深度加工:识别更复杂的模式、做出更抽象的理解。
第五步:堆叠多层(Layer Stacking)
GPT-4有96层这样的结构!
第1层:理解简单语法(主谓宾)
第10层:理解句子逻辑
第30层:理解段落主题
第96层:理解全文意图和微妙含义
三、理解transformer后,如何写出好的prompt
原则1:清晰的结构帮助AI建立正确的关联
Transformer通过计算词与词的关联来理解。如果你的prompt结构混乱,AI会建立错误的关联。
原则2:明确的指令词汇像"法律术语"
Transformer在训练中学到了某些词的"特殊地位"。使用明确的指令动词,能激活正确的处理模式。
有效的指令动词:
分析:激活逻辑推理模式
总结:激活提取要点模式
起草:激活创作模式
比较:激活对比模式
检查:激活审查模式
❌ 模糊例子:
这个合同你觉得怎么样?
(AI不知道你要评估什么:合法性?公平性?文字表达?)
✅ 明确例子:
请从以下三个角度分析这份合同:
-
法律合规性(是否违反强制性规定)
-
风险点(对我方不利的条款)
-
遗漏项(常见条款中缺少哪些)
原则3:提供上下文让AI建立正确的"知识框架"
Transformer没有记忆,每次对话都是从零开始。提供背景能让它激活正确的"知识区域"。
❌ 缺乏上下文:
这个赔偿金额合理吗?
✅ 提供上下文:
背景:这是一起劳动合同纠纷,员工工作5年后被违法解除。
月工资:15,000元
公司规模:500人以上
所在地:北京
原则4:分步骤引导像律师的思维链
Transformer的多层结构天然适合分步骤处理。明确的步骤能激活"逐层推理"模式。
❌ 一次性要求:
帮我判断这个案子能不能赢
✅ 分步引导:
请按以下步骤分析这个案件:
步骤1:识别法律关系
-
这是什么类型的纠纷?
-
适用哪个部门法?
步骤2:梳理事实要件
-
原告主张的事实是什么?
-
需要哪些证据支持?
步骤3:评估证据充分性
-
现有证据能否形成证据链?
-
存在哪些证据缺口?
步骤4:预测判决结果
-
我方胜诉概率
-
主要风险点
技术原理:这利用了Transformer的"链式推理"能力——每一步的输出成为下一步的输入。
原则5:示例教学(Few-shot Learning)
Transformer最擅长"模式识别"。给它示例,就是直接展示你想要的模式。
原则6:告诉AI它的角色
角色定义能激活Transformer训练数据中相应领域的模式。
✅ 有效的角色设定:
你是一位执业15年的资深合同法律师,擅长商事合同审查。
现在客户是一家科技创业公司(乙方),对方是大型国企(甲方)。
请以保护我方利益为原则,审查以下采购合同…
以上就是,我这周的学习成果的总结,希望对你有帮助。
总结一下,好Prompt的原则:
结构化:帮助AI建立正确关联
明确化:使用清晰的指令动词
上下文化:提供必要背景
分步化:复杂任务拆解
示例化:展示期望模式
角色化:激活专业领域知识
大家在使用AI的过程中,有什么好用的技巧么?欢迎分享。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我们整理出这套 AI 大模型突围资料包:
- ✅ 从零到一的 AI 学习路径图
- ✅ 大模型调优实战手册(附医疗/金融等大厂真实案例)
- ✅ 百度/阿里专家闭门录播课
- ✅ 大模型当下最新行业报告
- ✅ 真实大厂面试真题
- ✅ 2025 最新岗位需求图谱
所有资料 ⚡️ ,朋友们如果有需要 《AI大模型入门+进阶学习资源包》,下方扫码获取~
① 全套AI大模型应用开发视频教程
(包含提示工程、RAG、LangChain、Agent、模型微调与部署、DeepSeek等技术点)
② 大模型系统化学习路线
作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!
③ 大模型学习书籍&文档
学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。
④ AI大模型最新行业报告
2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。
⑤ 大模型项目实战&配套源码
学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。
⑥ 大模型大厂面试真题
面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。

以上资料如何领取?

为什么大家都在学大模型?
最近科技巨头英特尔宣布裁员2万人,传统岗位不断缩减,但AI相关技术岗疯狂扩招,有3-5年经验,大厂薪资就能给到50K*20薪!

不出1年,“有AI项目经验”将成为投递简历的门槛。
风口之下,与其像“温水煮青蛙”一样坐等被行业淘汰,不如先人一步,掌握AI大模型原理+应用技术+项目实操经验,“顺风”翻盘!

这些资料真的有用吗?
这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。
资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。

以上全套大模型资料如何领取?

更多推荐
所有评论(0)