【保姆级教程】本地部署DeepSeek-R1:从零开始搭建私人强力AI助手(Ollama + Chatbox + VSCode)
通过的组合,我们完全免费地搭建了一套本地化、隐私安全、高性能的 AI 开发环境。在这个 AI 爆发的时代,拥抱工具就是提升生产力。趁着 DeepSeek 这么火,赶紧动手部署一个试试吧!
前言
最近,国产开源大模型 DeepSeek-R1 彻底火出圈了。它的推理能力(Reasoning)在多项基准测试中不仅吊打一众开源模型,甚至在某些维度逼近 o1。
作为开发者,我们为什么需要本地部署?
-
隐私安全:代码和文档不需要上传云端,断网也能用。
-
零成本:不需要充值API Token,算力只消耗自己的显卡/内存。
-
低延迟:本地交互,响应速度取决于你的硬件,不受网络波动影响。
今天这篇教程,主打一个**“有手就行”**,带大家通过 Ollama 快速运行 DeepSeek-R1,并将其集成到 VS Code 中,打造一个免费的“GitHub Copilot”平替!
🛠️ 准备工作
在开始之前,请确认你的电脑配置。DeepSeek-R1 提供了不同参数规模的版本(蒸馏版),大家可以根据自己的硬件按需选择:
-
1.5B:几乎所有现代电脑(包括集成显卡)都能跑,速度飞快,适合简单对话。
-
7B / 8B:推荐配置。需要至少 8GB 内存(最好有 6GB+ 显存的N卡,或者Mac M1/M2/M3),性能与速度的最佳平衡。
-
14B / 32B:需要 16GB~24GB 显存的高端显卡。
-
671B (满血版):普通人洗洗睡吧,这是服务器级别的。
本文演示环境:
-
OS: Windows 11 / macOS
-
工具: Ollama
第一步:下载并安装 Ollama
Ollama 是目前最流行的本地大模型运行工具,它把复杂的模型部署简化成了一个命令行工具。
-
下载:访问官网 ollama.com,点击 "Download" 下载对应系统的安装包。
-
安装:一路 Next 即可。
-
验证:打开终端(CMD 或 PowerShell 或 Terminal),输入以下命令:
codeBash
ollama --version
如果显示版本号(例如 ollama version 0.5.4),说明安装成功。
第二步:拉取并运行 DeepSeek-R1
DeepSeek 官方已经将模型上传到了 Ollama 仓库。
-
选择模型:
我们以性价比最高的 7B 版本为例。在终端输入以下命令:
codeBash
ollama run deepseek-r1:7b
codeCode
*注:如果你的电脑配置较低,可以把 `:7b` 换成 `:1.5b`。*
-
等待下载:
Ollama 会自动从镜像源下载模型文件(约 4.7GB)。下载速度取决于你的网速。 -
开始对话:
下载完成后,你会直接进入交互界面。你可以试着问它一个经典的逻辑题:User: 9.11 和 9.8 哪个大?
DeepSeek: ...(开始思考过程 Wait)... 9.11 比 9.8 大。
(注:R1模型拥有思维链 CoT,你会看到它先输出 <think> 标签里的思考过程,非常硬核)
第三步:安装可视化界面 (Chatbox AI)
虽然黑乎乎的命令行很极客,但日常使用还是图形界面更方便。这里推荐 Chatbox AI(开源、跨平台)。
-
下载 Chatbox:去 Chatbox 官网 下载安装包。
-
配置连接:
-
打开设置,在“模型提供方”选择 Ollama。
-
API 域名通常默认为:http://localhost:11434。
-
在“模型”下拉菜单中,你应该能看到刚才下载的 deepseek-r1:7b。
-
-
起飞:
保存设置,现在你拥有了一个类似 ChatGPT 的本地桌面客户端了!
第四步:集成到 VS Code (打造免费 Copilot)
这才是程序员的重头戏。我们要把 DeepSeek 装进 IDE 里写代码。
-
安装插件:
打开 VS Code,在扩展商店搜索并安装 "Continue" (或者 "Cline")。本文以 Continue 为例。 -
配置 Continue:
安装完成后,点击左侧边栏的 Continue 图标,进入设置(点击齿轮图标 config.json)。 -
修改配置代码:
在 models 数组中添加 DeepSeek 的配置:
codeJSON
{
"models": [
{
"title": "DeepSeek R1",
"provider": "ollama",
"model": "deepseek-r1:7b",
"apiBase": "http://localhost:11434"
}
],
// ... 其他配置
}
-
实测效果:
-
代码解释:选中一段代码,按 Cmd/Ctrl + L,问它“这段代码是什么意思?”
-
代码生成:在编辑器中按 Cmd/Ctrl + I,输入需求“帮我写一个Python的冒泡排序”,它会直接在编辑器里生成代码。
-
常见问题 (FAQ)
Q1: 下载速度太慢怎么办?
A: Ollama 的默认源在国外。你可以尝试配置代理,或者寻找国内的 Ollama 镜像源加速下载。
Q2: 运行起来电脑非常卡?
A: 说明模型占满了你的内存。尝试换更小的模型,比如 deepseek-r1:1.5b,或者关闭其他吃内存的软件(Chrome: 正是在下)。
Q3: 为什么 DeepSeek-R1 有时候会输出很多废话(思考过程)?
A: 这是 R1 系列的特性(思维链)。如果你只想要结果,可以在 Prompt 中加上“请直接给出结果,不要输出思考过程”。不过目前 R1 的精华就在于它的思考过程。
总结
通过 Ollama + DeepSeek-R1 + VSCode 的组合,我们完全免费地搭建了一套本地化、隐私安全、高性能的 AI 开发环境。
在这个 AI 爆发的时代,拥抱工具就是提升生产力。趁着 DeepSeek 这么火,赶紧动手部署一个试试吧!

更多推荐
所有评论(0)