ubuntu部署详细过程

一、操作系统

本次部署主要是测试RAGFlow的知识库召回能力与dify自带的知识库召回能力差距是否可以通过一些人为干涉来解决,因为编者主要使用dify来构建工作流等应用,但是在此过程中,RAGFlow也改进了很多工作流设计方面的内容,这些都是以后慢慢去测试的,目的是能够准确地满足个人业务。本次采用的操作系统是ubuntu22.02版本。

二、安装docker和docker-compose

安装过程详见上一篇:https://mp.weixin.qq.com/s/O8Hy6jGF5nysonjEaoyQBA,该篇文章不仅详细介绍了Ubuntu中docker的具体安装方式,同时也提供了dify的部署详细说明。如果有需要的小伙伴,不妨再去看看。

三、部署ragflow

检查docker环境

通过上述操作,应该已经完成基本环境的搭建,可以通过以下命令进行检查:

docker --version

图片

创建目录并授权

创建相应的目录,并授予适合的权限:这里根据具体情况具体设置,因为测试环境,所以设置了777.

图片

拉取ragflow资源
git clone http://192.168.152.141:3000/sunshine5683/ragflow.git

图片

添加执行权限

进入下载好的ragflow的docker目录下,给entrypoint文件添加执行权限,执行下面命令后,该文件将会拥有所者、所属组、其他人的执行权限;

图片

chmod +x entrypoint.sh

拉取镜像

知识点介绍

两种拉取镜像的方式如下:最终都会把服务“跑起来”,但区别就在于-f 选项是否显式指定了 compose 文件。

图片

图片

图片

通过上述过程,就可以完整实现RAGFlow的本地部署了,在此过程中,如果遇到问题,可以随时评论区讨论或者加编者微信进行讨论!

聊一聊

随着Dify1.8.0的发布,有一部分功能确实满足了当下的需求,由于编者近期在做模型微调相关工作,时间比较紧,在后期的更新中,如果有总结的RAG相关文档或者微调相关的文档,都会定期更新出来,咱们共同讨论!

我们该怎样系统的去转行学习大模型 ?

很多想入行大模型的人苦于现在网上的大模型老课程老教材,学也不是不学也不是,基于此,我用做产品的心态来打磨这份大模型教程,深挖痛点并持续修改了近100余次后,终于把整个AI大模型的学习门槛,降到了最低!

您只需要听我讲,跟着我做即可,为了让学习的道路变得更简单,这份大模型教程已经给大家整理并打包,现在将这份 LLM大模型资料 分享出来: 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

一、大模型经典书籍(免费分享)

AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源。

二、640套大模型报告(免费分享)

这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)
在这里插入图片描述

三、大模型系列视频教程(免费分享)

在这里插入图片描述

四、2025最新大模型学习路线(免费分享)

我们把学习路线分成L1到L4四个阶段,一步步带你从入门到进阶,从理论到实战。

L1阶段:启航篇丨极速破界AI新时代

L1阶段:我们会去了解大模型的基础知识,以及大模型在各个行业的应用和分析;学习理解大模型的核心原理、关键技术以及大模型应用场景。

L2阶段:攻坚篇丨RAG开发实战工坊

L2阶段是我们的AI大模型RAG应用开发工程,我们会去学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。

L3阶段:跃迁篇丨Agent智能体架构设计

L3阶段:大模型Agent应用架构进阶实现,我们会去学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造我们自己的Agent智能体。

L4阶段:精进篇丨模型微调与私有化部署

L4阶段:大模型的微调和私有化部署,我们会更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调。

L5阶段:专题集丨特训篇 【录播课】

全套的AI大模型学习资源已经整理打包,有需要的小伙伴可以微信扫描下方二维码,免费领取

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐