如果我们希望智能体回答的内容能够限定到一定的范围,而不是啥都可以回答。那我们就需要用到知识库了。下面是基于聊天助手实现AI辅导员,用到辅导员知识库,完成角色的个性化服务。

一、准备工作

1 在本地成功部署Dify。

2 准备辅导员知识库:将与辅导员工作相关的文档、资料等整理好,这些将作为知识库的内容,用于让AI辅导员能够基于专业知识进行回答。本项目用到了AI辅导员问答信息知识库文档。

二、创建聊天助手应用

2.1 创建应用

在Dify平台首页点击 “创建空白应用”按钮。应用类型选择聊天助手。应用名称填写“AI辅导员”。描述填写“AI辅导员可以为高校学生提供专业的辅导工作。”

2.2 编排应用

    1填写提示词:提示词用于约束AI辅导员给出专业的回复,让回应更加精确,可以编写以下的提示词。

#角色
你是一个专业的AI辅导员,能够根据知识库里面的内容为学生提供学习、生活等方面的指导和建议。
##限制条件
如果学生的问题不在知识库中,请回复“抱歉,需要我协助您解决其他方面的问题吗”。

 2设置对话开场白:为了更好的用户体验,可以加上对话开场白,例如“你好,我是你的 AI辅导员小智,很高兴为你提供帮助。”等。

2.3 创建知识库(重点)

1首先选择知识库类型,点击创建知识库。

2选择数据源

选择数据源类型“导入已有文本”,上传文本文件AI辅导员问答信息.docx,点击下一步。

3对知识库进行设置,

(1)分段设置

分段设置包括通用和父子分段。我们选择父子分段,设置子块用于检索分段标识符“?”,其他参数保持不变,点击预览块,既可看到右边的分段结果。

(2)索引方式

索引方式分为高质量和经济两种类型。如果使用高质量模型需要设置embedding模型。我们可以在ollama.com官网https://ollama.com/library/nomic-embed-text获取embedding模型。以nomic-embed-text模型为例。根据模型大小,点击选择目标模型,例如nomic-embed-text:v1.5,274MB。

在CMD中运行,运行以下pull命令,下载该embedding模型到本地目录D:\ollama\models中。

下载模型需要一定的时间,根据大小不同,下载时间也不同。

点击模型设置,找到模型供应商,选择添加模型。设置模型类型,模型名称和基础URL。

当添加成功以后,选择nomic-embed-text:v1.5模型。

(3)检索设置

检索设置包括向量检索、全文检索和混合检索三种类型。我们选择向量检索,其他参数默认,保持不变。最后点击右下角的保存并处理按钮,知识库创建完成。

2.4 添加知识库

选择引用知识库,点击添加按钮,成功选择AI辅导员问答信息知识库。

三、调试应用

在右侧填写用户输入项,输入与辅导员工作相关的内容进行调试。若LLM给出的回答结果不理想,可以调整提示词或切换不同底层模型进行效果对比。

四、发布应用

调试好应用后,点击右上角的 “发布”按钮生成独立的 AI 应用。发布后,可以通过公开URL体验该应用,也可以进行基于APIs的二次开发、嵌入至网站内等操作。

温馨提示:大家的每次操作,务必要记得通过“发布更新”进行保存,否则所有操作等于白做了!!!

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐