【AI产品经理学习案例】深度实战:我用 Dify 复刻了 1688 的 AI 搜索,“多路召回”才是灵魂
摘要:本文介绍了如何从0到1构建一个能理解自然语言的AI搜索系统。作者通过踩坑发现单纯依赖大语言模型(LLM)存在响应慢、结果不准确等问题,转而设计出"多路召回+重排序"的架构方案:让LLM担任"项目经理"拆解用户需求,三个专家模块(向量检索、文本检索、属性过滤)并行处理,最后由LLM进行智能排序。文章详细演示了使用Dify平台搭建该工作流的步骤,并探讨了生
公众号:dify实验室
AI产品经理学习的社区。使用dify搭建快速验证的产品原型。
关注我,让我的实验,成为你的经验。
大家好,我是dify实验室的超人阿亚。
我们每天都在用各种搜索,但你有没有觉得,传统的“关键词搜索”有时候真的很“笨”?你搜“夏天穿的透气T恤”,它可能因为你不懂行话,没输入“速干”、“涤纶”这些词,就给你推荐一堆厚重的纯棉款。
最近,我接到了一个极具挑战的任务:构建一个能听懂“人话”的工业级AI搜索系统,就像 1688 那样,能精准理解复杂的采购需求。这篇文章,就是我从0到1,用 Dify 把这套系统复刻出来的完整记录。准备好了吗?我们出发!
核心1:我踩过的坑——“一把梭哈”的 LLM 陷阱
一开始,我的想法很天真。现在的大语言模型(LLM)这么强大,我能不能把用户需求和所有商品资料,一股脑儿地喂给它,让它直接告诉我答案?我把这个不成熟的想法称为“一把梭哈法”。
结果呢?惨败!
- 又慢又贵:
每次查询都要处理海量的商品文本,Token 消耗巨大,响应时间长到无法忍受。
- 事实幻觉:
LLM 开始“一本正经地胡说八道”,给我推荐一些根本不存在的商品组合。
- 无法扩展:
商品库稍微大一点,上下文窗口就直接被撑爆了。
这次失败让我彻底明白:LLM 是一个顶级的“战略家”,但不应该让它去做“地毯式搜索”这种脏活累活。
核心2:顿悟时刻——“专家团队”与“多路召回”架构
痛定思痛后,我悟出了一个绝佳的比喻:一个强大的AI搜索系统,应该像一个高效的“专家团队”,而不是一个孤军奋战的天才。
在这个团队里,LLM 扮演 “项目经理” 的角色,它负责理解用户的复杂需求,并将其拆解成具体的任务指令。然后,它把这些指令分发给三个“专家”成员并行处理:
1. 向量检索专家 (Vector Search): 它最懂“感觉”。负责理解语义,处理“夏天户外运动穿的”这种模糊、感性的需求。
2. 文本检索专家 (Text Search): 它是个“老古董”,最认“死理”。负责处理“纯棉”、“T恤”这种必须包含的关键词。
3. 属性过滤专家 (Attribute Filter): 它是“数据控”。负责处理“价格低于50元”、“供应商在广州”这种精确的结构化数据筛选。
这三位专家从各自的渠道把可能符合要求的商品ID(候选人)找出来,这个过程就叫做“多路召回”。最后,再由“项目经理”LLM 对所有候选人进行最终面试(重排序),选出最优答案。
而 Dify 的工作流画布,就是搭建这个“专家团队”协同工作的完美“办公室”!
核心3:实战步骤——用 Dify 组建你的“AI搜索专家团队”
接下来,就是最激动人心的“保姆级”实操环节。我将带领你一步步构建后端服务,并在Dify中完成工作流编排。
Phase 1: 搭建三位“专家”的微服务 (后端环境)
我们使用 Docker 来快速部署三位专家的“办公室”和“资料库”。
- Qdrant:
向量数据库,供“向量检索专家”使用。
- Meilisearch:
全文搜索引擎,供“文本检索专家”使用。
- SQLite:
关系型数据库,供“属性过滤专家”使用。
(为节省篇幅,此处聚焦于 Dify 的工作流搭建。)
Phase 2: 在 Dify 中编排工作流 (核心环节)
现在,进入Dify,让我们把整个流程串起来。
第一步:意图识别 (LLM担任项目经理)
我们创建一个 LLM 节点,让它把用户的自然语言查询分解成三路专家能看懂的结构化指令。
用户输入: "帮我找一款适合夏天户外运动的速干T恤,要求是纯棉材质,价格在50元以内,供应商在广州地区。"
LLM拆解输出:
semantic_query
"夏天 户外运动 速干 T恤" (给向量专家)
keyword_query
"速干T恤 纯棉" (给文本专家)
max_price
50 (给属性专家)
location
"广州" (给属性专家)
第二步:并行召回 (三位专家同时开工)
使用 Dify 的并行分支功能,同时创建三个 HTTP 请求节点,分别去调用我们 搭建好的三个微服务 API,并将上一步的输出作为参数传入。
第三步:结果融合与详情获取 (汇总候选人)
三位专家都交回了他们找到的商品ID列表。我们需要用一个代码节点,将这些ID合并、去重,并调用服务获取所有候选商品的详细信息。
# Python 代码节点
def main(v_res: list, t_res: list, a_res: list) -> dict:
# 1. 合并并去重所有召回的 ID
seen_ids = set()
all_ids = []
for res_list in [v_res, t_res, a_res]:
for item in res_list:
product_id = item.get('id')
if product_id and product_id not in seen_ids:
seen_ids.add(product_id)
all_ids.append(product_id)
# 2. 调用服务批量获取商品详情
full_details = get_product_details(all_ids)
return {"fused_list": full_details}
第四步:智能重排序 (LLM的最终面试)
这是画龙点睛的一步。我们再次请出“项目经理”LLM,将用户的原始需求和候选商品池都交给它,并要求它根据相关性进行最终排序,输出一个有序的ID列表。
第五步:生成总结话术并回复
最后,用一个 LLM 节点,根据最终筛选出的商品,生成一段友好、专业的推荐语,连同商品详情一起返回给用户。
升华:生产级的思考
到这里,我们的 AI 搜索系统 Demo 已经完美运行。但从 Demo 到真正服务千万用户的生产环境,还有几个问题需要思考:
- 数据同步:
如何保证商品上下架、价格变动时,三个数据库能实时同步?(可能需要引入CDC或消息队列)
- 效果评估:
如何评估排序模型的好坏?是否需要引入 A/B 测试框架?
- 性能优化:
如何处理高并发请求?是否需要为每个微服务增加缓存和负载均衡?
这些问题的探讨,也许就是我们下一篇文章的主题了!你对哪个方向最感兴趣呢?可以在评论区告诉我!
附赠:我的工具箱
- AI应用编排:
Dify (我们故事的主角,胶水层和大脑)
- 容器化:
Docker & Docker Compose (一键部署环境,省心省力)
- 向量数据库:
Qdrant (高性能,开源免费)
- 全文搜索引擎:
Meilisearch (开箱即用,速度飞快)
- 后端微服务:
Python + Flask (轻量、快速开发API)
结尾:总结与回归
今天,我们通过复刻 1688 的 AI 搜索,亲手验证了“多路召回+重排序”这套工业级架构的强大之处。它告诉我们,构建复杂的 AI 应用,往往不是依赖于某个无所不能的“银弹”模型,而是通过巧妙的架构设计,让不同能力的组件各司其职、协同作战。
而 Dify 正是这种“协同作战”的完美平台。它让我们能聚焦于架构设计本身,而不用陷入繁琐的底层代码中。
从 Demo 到生产还有很长的路,但我们已经迈出了最坚实的一步。
我是阿亚,我们下次再聊!
这篇文章对你有帮助吗?
请帮忙点个「赞」、「转发」、「喜欢」,让需要的人也能看到这篇文章。
更多推荐
所有评论(0)