MedPlan:基于两阶段RAG的个性化医疗AI系统实战案例
MedPlan提出了一种基于两阶段RAG的个性化医疗方案生成系统,通过模拟临床SOAP推理流程实现更精准的治疗方案规划。系统首先基于患者主观症状和客观检查数据生成临床评估,再结合患者历史记录和相似病例参考生成个性化治疗方案。实验表明,该方法在BLEU评分上提升6倍,临床评估改进66%,已在实际医院部署应用。该系统创新性地将临床推理流程与大语言模型相结合,为医疗AI提供了新的技术思路。
MedPlan是基于两阶段RAG的个性化医疗方案生成系统,采用SOAP临床推理流程:第一阶段基于患者主观(S)和客观(O)信息生成评估(A),第二阶段基于评估和原始信息生成方案§。系统整合患者历史记录和相似病例参考,通过两步检索机制提升准确性。实验显示BLEU评分提升6倍,临床评估改进66%,已在实际医院部署,为医疗AI提供了新思路。
MedPlan: 基于两阶段RAG的个性化医疗治疗方案生成系统
论文信息
| 项目 | 内容 |
|---|---|
| 论文标题 | MedPlan: A Two-Stage RAG-Based System for Personalized Medical Plan Generation |
| 作者 | Hsin-Ling Hsu, Cong-Tinh Dao, Luning Wang, Zitao Shuai, et al. |
| 机构 | 台湾政治大学、交通大学、密歇根大学、史蒂文斯理工学院、亚东纪念医院、佛罗里达国际大学 |
| 发表会议 | ACL 2025 Industry Track |
| 论文链接 | arXiv:2503.17900[1] |
| 代码仓库 | GitHub[2] |
- 研究背景与问题定义
1.1 医疗AI系统的现状与不足
尽管大语言模型(LLM)在电子健康记录(EHR)领域取得了显著进展,但现有系统存在一个关键缺陷:大多数系统聚焦于诊断评估(Assessment),而忽视了结构化的治疗方案规划(Plan)。
论文识别出现有方法的三大局限性:
| 局限性 | 具体问题 |
|---|---|
| 一次性生成 | 直接从临床数据生成治疗方案,未遵循临床医生的顺序认知推理过程 |
| 缺乏个性化上下文 | 很少整合患者特定的历史背景,如既往病史、历史治疗反应 |
| 信息混淆 | 未能有效区分主观患者叙述(Subjective)与客观临床测量(Objective) |
1.2 SOAP方法论
SOAP是临床文档和推理的黄金标准,将临床信息组织为结构化的顺序决策过程:
| 组件 | 含义 | 示例 |
|---|---|---|
| S (Subjective) | 患者主观叙述 | “我感觉胸闷、呼吸困难” |
| O (Objective) | 客观检查数据 | 血压160/100mmHg,心电图异常 |
| A (Assessment) | 临床评估诊断 | 高血压合并冠心病可能 |
| P (Plan) | 治疗方案计划 | 降压药物调整、心脏导管检查 |
- 系统架构
2.1 整体设计
MedPlan采用两阶段架构,模拟临床医生的推理过程:
MedPlan与现有方法对比
图1:现有方法(左)与MedPlan(右)的对比。MedPlan采用SOAP协议,通过LLM模拟医生诊断过程生成医疗方案
核心设计理念:
- 第一阶段:基于S(主观)和O(客观)信息生成A(临床评估)
- 第二阶段:基于生成的A和原始S、O生成P(治疗方案)
图2:MedPlan框架整体架构
2.2 两阶段生成流程
阶段一:临床评估生成(Assessment Generation)
整合患者当前S和O信息,并融入两类参考:
| 参考类型 | 说明 | 作用 |
|---|---|---|
| 自我历史参考 | 患者前期SOAP记录 | 提供个体化纵向信息 |
| 跨患者参考 | 相似病例的SOAP记录 | 借鉴类似病例的诊疗经验 |
生成公式:
其中 为跨患者参考, 为自我历史参考。
阶段二:治疗方案生成(Plan Generation)
使用生成的评估 和原始S、O检索并生成治疗方案:
2.3 两步检索机制
每个阶段的检索采用两步精细化策略:
| 步骤 | 方法 | 说明 |
|---|---|---|
| 第一步:粗筛 | BM25 + 双编码器语义搜索 | 混合检索获取候选集 |
| 第二步:精排 | 交叉编码器重排序 | 深度语义匹配精细化选择 |
关键参数设置:
- :自我历史记录数量
- :跨患者参考数量
- :初始候选数量
- 实验设置
3.1 数据集
| 配置项 | 设置 |
|---|---|
| 数据来源 | 台湾亚东纪念医院(FEMH)2021年数据 |
| 记录规模 | 350,684份门诊和急诊EHR SOAP记录 |
| 患者数量 | 55,890名患者 |
| 预处理 | 删除短于2字符的记录,规范化文本 |
数据划分策略(患者中心采样):
- RAG知识库:6,000名患者记录
- 训练/测试集:3,000名患者记录
3.2 实现细节
| 配置项 | 设置 |
|---|---|
| 微调框架 | Unsloth |
| 微调方法 | LoRA(参数高效微调) |
| 嵌入模型 | OpenAI text-embedding-3-large |
| 重排序模型 | VoyageAI Reranker-2 |
| 硬件环境 | NVIDIA RTX 6000 Ada GPUs |
| 最大序列长度 | 65,536 tokens |
3.3 基线模型
| 模型 | 类型 |
|---|---|
| o1 | OpenAI闭源模型 |
| GPT-4o | OpenAI闭源模型 |
| Medical-Llama3-8B | 医疗领域微调开源模型 |
| Bio-Medical-Llama3-8B | 生物医学领域微调模型 |
| Medical-Mixtral-7B-v2k | 医疗领域MoE模型 |
- 实验结果
4.1 治疗方案生成性能
表1:不同模型和配置的治疗方案生成性能对比
| 方法 | 模型 | 自我历史 | 指令微调 | 跨患者 | BLEU | METEOR | BERTScore |
|---|---|---|---|---|---|---|---|
| S+O→P | o1 | - | - | - | 0.016 | 0.140 | 0.817 |
| S+O→P | GPT-4o | - | - | - | 0.029 | 0.166 | 0.827 |
| S+O→P | Medical-Llama3-8B | - | - | - | 0.053 | 0.173 | 0.847 |
| S+O→P | Medical-Llama3-8B | ✓ | ✓ | - | 0.179 | 0.307 | 0.867 |
| S+O→P | Medical-Llama3-8B | ✓ | ✓ | ✓ | 0.291 | 0.477 | 0.908 |
| S+O→A→P (MedPlan) | Medical-Llama3-8B | ✓ | ✓ | ✓ | 0.315 | 0.516 | 0.916 |
| S+O→A→P (MedPlan) | Medical-Mixtral-7B | ✓ | ✓ | ✓ | 0.318 | 0.521 | 0.917 |
关键发现:
- MedPlan(S+O→A→P)在所有骨干模型上均优于直接生成方案(S+O→P)
- RAG使BLEU从0.053提升至0.307(约6倍提升)
- 两阶段方法进一步将BLEU从0.307提升至0.315
4.2 临床评估生成性能
表2:患者特定评估生成性能对比
| 模型 | 自我历史 | 指令微调 | 跨患者 | BLEU | METEOR | BERTScore |
|---|---|---|---|---|---|---|
| Medical-Mixtral-7B | ✓ | - | - | 0.302 | 0.469 | 0.906 |
| Medical-Mixtral-7B | ✓ | ✓ | - | 0.485 | 0.654 | 0.941 |
| Medical-Mixtral-7B | ✓ | ✓ | ✓ | 0.493 | 0.666 | 0.943 |
4.3 定性案例分析
图3:人类医生、基线LLM与MedPlan的治疗方案生成对比
面对复杂病例(高脂血症、高血压、代谢综合征、糖尿病前期等心血管风险因素):
| 来源 | 生成的治疗方案 |
|---|---|
| 基线模型 | “Keep current Rx”(保持当前处方) |
| MedPlan | “Cardiac catheterization. If symptoms persist, keep Kerlone, Cozaar, and encourage exercise and diet control”(心脏导管检查。如症状持续,继续服用Kerlone、Cozaar,并鼓励运动和饮食控制) |
4.4 临床医生评估
MedPlan相比基线方法在临床评估上展示约66%的改进
- 临床应用系统
5.1 系统架构
图4:MedPlan临床应用系统概览
5.2 技术实现
| 组件 | 技术栈 |
|---|---|
| 前端界面 | React |
| 后端服务 | FastAPI + RESTful API |
| 患者数据存储 | MSSQL数据库 |
| 向量检索 | Weaviate向量数据库 |
| 核心模型 | 两个专用LLM(A生成 + P生成) |
- 技术贡献总结
6.1 核心创新
| 创新点 | 技术贡献 | 解决的问题 |
|---|---|---|
| 两阶段SOAP对齐架构 | 先生成评估再生成方案 | 符合临床推理流程 |
| 双类型RAG增强 | 自我历史 + 跨患者参考 | 个性化与经验借鉴 |
| 两步检索精排 | 混合检索 + 交叉编码器 | 高效精准的知识检索 |
| 端到端临床系统 | 完整的生产级原型 | 可实际部署应用 |
6.2 性能提升汇总
| 对比场景 | 指标 | 提升幅度 |
|---|---|---|
| 无RAG → 有RAG | BLEU | +0.254(约6倍) |
| 直接生成 → 两阶段 | BLEU | +0.008 |
| 基线 → MedPlan | 临床评估 | +66% |
- 局限性与未来方向
7.1 当前局限
| 局限性 | 说明 |
|---|---|
| 数据依赖性 | 仅在单一医院数据上验证 |
| 语言限制 | 目前仅支持中文EHR |
| 专科覆盖 | 未验证在所有专科的泛化性 |
| 实时性 | 两阶段生成增加延迟 |
7.2 未来研究方向
- 多中心验证:在多家医院数据上验证泛化性
- 多语言支持:扩展到英文等其他语言EHR
- 专科适配:针对特定专科(如肿瘤、心内科)的定制优化
- 实时优化:通过模型蒸馏等方法降低推理延迟
- 实践启示
8.1 医疗AI系统设计建议
- 遵循临床工作流:系统设计应对齐医生的实际推理过程(如SOAP)
- 整合患者纵向数据:历史记录是个性化治疗的关键
- 借鉴相似病例:跨患者参考可提升方案质量
- 区分信息类型:主观叙述与客观数据应分别处理
8.2 伦理考量
- MedPlan是辅助工具,最终决策权在医生
- 所有数据经过脱敏处理
- 系统经过医院伦理委员会审批
如何系统的学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
一直在更新,更多的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇

01.大模型风口已至:月薪30K+的AI岗正在批量诞生

2025年大模型应用呈现爆发式增长,根据工信部最新数据:
国内大模型相关岗位缺口达47万
初级工程师平均薪资28K(数据来源:BOSS直聘报告)
70%企业存在"能用模型不会调优"的痛点
真实案例:某二本机械专业学员,通过4个月系统学习,成功拿到某AI医疗公司大模型优化岗offer,薪资直接翻3倍!
02.大模型 AI 学习和面试资料
1️⃣ 提示词工程:把ChatGPT从玩具变成生产工具
2️⃣ RAG系统:让大模型精准输出行业知识
3️⃣ 智能体开发:用AutoGPT打造24小时数字员工
📦熬了三个大夜整理的《AI进化工具包》送你:
✔️ 大厂内部LLM落地手册(含58个真实案例)
✔️ 提示词设计模板库(覆盖12大应用场景)
✔️ 私藏学习路径图(0基础到项目实战仅需90天)






第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

更多推荐
所有评论(0)