本地大模型下载以及接入

ollama部署本地大模型

  1. 下载ollama

https://ollama.com/

  1. 下载模型

可以直接在官网下载。

id=img-CjxBXzWq-1755189570826)
在这里插入图片描述

选择自己想下载的版本,根据电脑配置选择,一般本地8b,14b,32b中选。

origin_url=%2FUsers%2Flipengyu%2FLibrary%2FApplication%20Support%2Ftypora-user-images%2Fimage-20250814133848501.png&pos_id=img-7hDpC1EB-1755189534804)

复制命令终端执行即可自动下载。

在这里插入图片描述

下载好进行测试。

在这里插入图片描述

dify接入本地大模型

ollama配置

  1. 配置ollama服务可以接受请求统一网络其他。
launchctl setenv OLLAMA_HOST "0.0.0.0"

在这里插入图片描述

  1. 重启容器,让设置生效。

因为ollama默认绑定的127.0.0.1也就是允许本机访问,我们是docker部署的dify,即使docker运行在本机也不行,因为127.0.0.1属于容器外部,对docker内部容器是不可见的。

设置为0.0.0.0就可以让监听统一网络下的全部端口,包括docker端口。

dify配置

在工具插件市场中搜索ollama插件,安装。

在这里插入图片描述

在这里插入图片描述

点击设置,选择ollama配置大模型。

配置路径:

http://host.docker.internal:11434

这个是docker内部访问外部的特殊域名。

在这里插入图片描述

保存后,随便创建一个对话切换为我们刚接入的本地模型测试一下。

在这里插入图片描述
恭喜你成功完成接入哦。

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐