Ubuntu部署RAGflow详细过程,大模型入门到精通,收藏这篇就足够了!
RAGFlow也改进了很多工作流设计方面的内容,这些都是以后慢慢去测试的,目的是能够准确地满足个人业务。本次采用的操作系统是ubuntu22.02版本。
ubuntu部署详细过程
一、操作系统
本次部署主要是测试RAGFlow的知识库召回能力与dify自带的知识库召回能力差距是否可以通过一些人为干涉来解决,因为编者主要使用dify来构建工作流等应用,但是在此过程中,RAGFlow也改进了很多工作流设计方面的内容,这些都是以后慢慢去测试的,目的是能够准确地满足个人业务。本次采用的操作系统是ubuntu22.02版本。
二、安装docker和docker-compose
安装过程详见上一篇:https://mp.weixin.qq.com/s/O8Hy6jGF5nysonjEaoyQBA
,该篇文章不仅详细介绍了Ubuntu中docker的具体安装方式,同时也提供了dify的部署详细说明。如果有需要的小伙伴,不妨再去看看。
三、部署ragflow
检查docker环境
通过上述操作,应该已经完成基本环境的搭建,可以通过以下命令进行检查:
docker --version
创建目录并授权
创建相应的目录,并授予适合的权限:这里根据具体情况具体设置,因为测试环境,所以设置了777.
拉取ragflow资源
git clone http://192.168.152.141:3000/sunshine5683/ragflow.git
添加执行权限
进入下载好的ragflow的docker目录下,给entrypoint文件添加执行权限,执行下面命令后,该文件将会拥有所者、所属组、其他人的执行权限;
chmod +x entrypoint.sh
拉取镜像
知识点介绍
两种拉取镜像的方式如下:最终都会把服务“跑起来”,但区别就在于-f 选项是否显式指定了 compose 文件。
通过上述过程,就可以完整实现RAGFlow的本地部署了,在此过程中,如果遇到问题,可以随时评论区讨论或者加编者微信进行讨论!
聊一聊
随着Dify1.8.0的发布,有一部分功能确实满足了当下的需求,由于编者近期在做模型微调相关工作,时间比较紧,在后期的更新中,如果有总结的RAG相关文档或者微调相关的文档,都会定期更新出来,咱们共同讨论!
我们该怎样系统的去转行学习大模型 ?
很多想入行大模型的人苦于现在网上的大模型老课程老教材,学也不是不学也不是,基于此,我用做产品的心态来打磨这份大模型教程,深挖痛点并持续修改了近100余次后,终于把整个AI大模型的学习门槛,降到了最低!
您只需要听我讲,跟着我做即可,为了让学习的道路变得更简单,这份大模型教程已经给大家整理并打包,现在将这份 LLM大模型资料
分享出来: 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓
一、大模型经典书籍(免费分享)
AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源。
二、640套大模型报告(免费分享)
这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)
三、大模型系列视频教程(免费分享)
四、2025最新大模型学习路线(免费分享)
我们把学习路线分成L1到L4四个阶段,一步步带你从入门到进阶,从理论到实战。
L1阶段:启航篇丨极速破界AI新时代
L1阶段:我们会去了解大模型的基础知识,以及大模型在各个行业的应用和分析;学习理解大模型的核心原理、关键技术以及大模型应用场景。
L2阶段:攻坚篇丨RAG开发实战工坊
L2阶段是我们的AI大模型RAG应用开发工程,我们会去学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。
L3阶段:跃迁篇丨Agent智能体架构设计
L3阶段:大模型Agent应用架构进阶实现,我们会去学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造我们自己的Agent智能体。
L4阶段:精进篇丨模型微调与私有化部署
L4阶段:大模型的微调和私有化部署,我们会更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调。
L5阶段:专题集丨特训篇 【录播课】
全套的AI大模型学习资源已经整理打包
,有需要的小伙伴可以微信扫描下方二维码
,免费领取
更多推荐
所有评论(0)