在这里插入图片描述

从"数据不能出门"到"AI 随叫随到"
读完本文,你将在 30 分钟内搭建一个完全私有化的 AI 对话平台,数据不出服务器,成本为零。


故事的开始:
老板说数据不能上云

周一早会,老板扔下一句话:“咱们的客户资料、内部文档、技术手册,能不能也用 AI 问答?但数据绝对不能传到外面去。”

小禾脑子里飞速过了一遍方案:

ChatGPT? —— 数据要传到 OpenAI 服务器,pass。

文心一言/通义千问? —— 也是云端,pass。

Coze/扣子? —— 虽然能建知识库,但数据还是在字节的服务器上,pass。

合着就是要:模型自己跑,数据自己存,外网一个字节都不能漏

小禾深吸一口气:“老板,给我一周时间。”

然后只花了三天就搞定了——因为有 DeepSeekDify 这对黄金搭档。

这篇文章,就是这三天的完整复盘。如果你也想"零成本"搭建一个私有化 AI 知识库,跟着走就行。


为什么是 DeepSeek + Dify?

先说结论:

组合 模型能力 部署成本 中文能力 知识库支持
OpenAI + LangChain API 按量付费 一般 需自己写代码
通义千问 + 百炼 云端付费 有,但数据在云上
DeepSeek + Dify 本地免费 开箱即用

DeepSeek 是目前开源模型里的"卷王":

  • DeepSeek-V3:性能对标 GPT-5.1,中文能力拉满
  • DeepSeek-R1:推理能力堪比 GPT-5.2,思维链清晰
  • 完全开源,本地部署无授权费

Dify 是 AI 应用开发平台的"瑞士军刀":

  • 开源免费,私有化部署
  • 可视化工作流,不用写代码
  • 知识库开箱即用,支持 RAG
  • GitHub 125K+ Star,社区活跃

两者结合,就是:免费的模型 + 免费的平台 + 数据全在自己手里


你需要准备什么?

方案一:纯本地部署(真·零成本)

适合有 GPU 服务器的团队。

组件 最低配置 推荐配置
GPU RTX 3090 24GB RTX 4090 24GB / A100 40GB
内存 32GB 64GB+
硬盘 100GB SSD 500GB+ NVMe
系统 Ubuntu 22.04 Ubuntu 22.04

方案二:DeepSeek API + 本地 Dify(低成本)

没有 GPU?用 DeepSeek 官方 API,价格非常良心:

模型 输入价格 输出价格 对比 GPT-4
DeepSeek-V3 ¥1/百万 token ¥2/百万 token 便宜 50 倍
DeepSeek-R1 ¥4/百万 token ¥16/百万 token 便宜 10 倍

数据安全说明:用 API 时,对话内容会经过 DeepSeek 服务器。如果是敏感数据,建议走方案一。

本文先讲方案二(更容易上手),方案一的本地模型部署会在文末补充。


部署 Dify:20 分钟搞定

第一步:克隆代码

git clone https://github.com/langgenius/dify.git
cd dify/docker

第二步:复制环境变量

cp .env.example .env

第三步:启动服务

docker compose up -d

等待 3-5 分钟,所有容器启动完成。

第四步:访问 Dify

打开浏览器,访问 http://localhost(或你的服务器 IP)。

第一次访问会让你设置管理员账号:

邮箱:admin@example.com(随便填)
密码:至少 8 位

看到 Dify 的控制台界面,第一步就完成了!

踩坑提醒

坑 1:端口被占用

如果 80 端口被占了,改 .env 文件:

# .env
EXPOSE_NGINX_PORT=8080

然后访问 http://localhost:8080

坑 2:容器启动失败

大概率是之前的残留数据:

docker compose down -v  # 清理所有容器和数据卷
docker compose up -d    # 重新启动

接入 DeepSeek:让 Dify 有"大脑"

Dify 装好了,但它现在还是个"空壳"——没有模型,啥也干不了。

获取 DeepSeek API Key

  1. 访问 platform.deepseek.com
  2. 注册账号(手机号即可)
  3. 进入「API Keys」页面
  4. 点击「创建 API Key」
  5. 复制保存(只显示一次!)

新用户会送一些免费额度,够折腾好一阵了。

在 Dify 中配置 DeepSeek

  1. 登录 Dify 控制台
  2. 点击右上角头像 → 「设置」
  3. 左侧选择「模型供应商」
  4. 找到 DeepSeek,点击「设置」
  5. 填入你的 API Key
  6. 点击「保存」

配置完成后,Dify 会自动检测可用模型:

  • deepseek-chat(DeepSeek-V3)
  • deepseek-reasoner(DeepSeek-R1)

验证一下

创建一个简单的聊天应用:

  1. 点击「创建应用」→「聊天助手」
  2. 应用名称随便填,比如"测试助手"
  3. 在右侧「模型」下拉框选择 deepseek-chat
  4. 点击「发布」→「运行」
  5. 试着问一句:“你好,介绍一下你自己”

如果 DeepSeek 回复了,恭喜你,"大脑"接上了!


配置细节优化

基础功能通了,但有些细节值得调整。

模型参数调优

在应用设置里,可以调整模型参数:

参数 建议值 说明
Temperature 0.3-0.5 知识库问答建议低一点,更准确
Top P 0.9 一般不用动
Max Tokens 2048 根据需要调整,太大会慢

系统提示词(System Prompt)

给 AI 一个"人设",让回答更专业:

你是一个专业的企业知识库助手。
- 回答要简洁准确,不要废话
- 如果不确定,就说"我不确定,建议查阅原始文档"
- 回答格式清晰,善用列表和分点
- 涉及代码时,给出完整可运行的示例

开场白设置

让用户知道这个 AI 能干啥:

你好!我是企业知识库助手,可以帮你:
- 查询公司制度和规范
- 解答技术文档相关问题
- 搜索历史项目资料

请问有什么可以帮你的?

架构长啥样?一图概括

到目前为止,搭建的架构是这样的:

当前架构

HTTP

API 调用

Dify 容器组

Web 前端

API 服务

异步任务

PostgreSQL

Redis

用户

Dify 平台

DeepSeek API

下一步,要加上最关键的部分——知识库


本篇小结:完成了什么?

步骤 状态 耗时
Dify 部署 完成 20 分钟
DeepSeek 接入 完成 10 分钟
基础配置优化 完成 10 分钟
知识库构建 下篇 -
RAG 优化 下篇 -

到这里,你已经有了一个能对话的 AI 助手。但它现在还不认识你的文档——问它公司制度,它只能瞎编。

下篇预告:把公司文档、技术手册、FAQ 等"喂"给它,让它变成真正的"企业知识库"。包括:

  • 知识库创建与文档导入
  • 分段策略:怎么切才能问得准
  • 检索优化:让 AI 找到最相关的内容
  • 实战踩坑:那些文档里没写的坑

附录:方案一补充——本地部署 DeepSeek

如果你有 GPU 服务器,想完全私有化,可以用 vLLM 或 Ollama 部署 DeepSeek 模型。

使用 Ollama(最简单)

# 安装 Ollama
curl -fsSL https://ollama.com/install.sh | sh

# 拉取 DeepSeek 模型(7B 版本,需要约 8GB 显存)
ollama pull deepseek-r1:7b

# 启动服务
ollama serve

然后在 Dify 中配置:

  • 模型供应商选择「Ollama」
  • Base URL 填 http://localhost:11434
  • 模型名称填 deepseek-r1:7b

使用 vLLM(性能更好)

# 安装 vLLM
pip install vllm

# 启动 DeepSeek 服务
python -m vllm.entrypoints.openai.api_server \
  --model deepseek-ai/DeepSeek-V3 \
  --host 0.0.0.0 \
  --port 8000 \
  --tensor-parallel-size 1 \
  --gpu-memory-utilization 0.9

在 Dify 中配置:

  • 模型供应商选择「OpenAI-API-compatible」
  • Base URL 填 http://localhost:8000/v1
  • 模型名称填 deepseek-ai/DeepSeek-V3

显存需求参考

模型 参数量 显存需求(FP16) 显存需求(INT4)
DeepSeek-R1-7B 7B 16GB 6GB
DeepSeek-V3-7B 7B 16GB 6GB
DeepSeek-R1-32B 32B 70GB 20GB
DeepSeek-V3-67B 67B 140GB 40GB

如果显存不够,可以用量化版本(INT4/INT8),或者用 deepseek-r1:7b 这样的小模型。


我在公众号已经发布 下一篇:DeepSeek + Dify:零成本打造私有化 AI 知识库(下) ,欢迎 点击 前往阅读,一起把知识库玩明白。


环境信息:
- Dify 1.0.0+(2026-01 最新版)
- DeepSeek API / DeepSeek-R1-7B
- Docker 24.0+
- 测试环境:Ubuntu 22.04 / macOS 14

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐