前言

最近,国产开源大模型 DeepSeek-R1 彻底火出圈了。它的推理能力(Reasoning)在多项基准测试中不仅吊打一众开源模型,甚至在某些维度逼近 o1。

作为开发者,我们为什么需要本地部署

  1. 隐私安全:代码和文档不需要上传云端,断网也能用。

  2. 零成本:不需要充值API Token,算力只消耗自己的显卡/内存。

  3. 低延迟:本地交互,响应速度取决于你的硬件,不受网络波动影响。

今天这篇教程,主打一个**“有手就行”**,带大家通过 Ollama 快速运行 DeepSeek-R1,并将其集成到 VS Code 中,打造一个免费的“GitHub Copilot”平替!


🛠️ 准备工作

在开始之前,请确认你的电脑配置。DeepSeek-R1 提供了不同参数规模的版本(蒸馏版),大家可以根据自己的硬件按需选择:

  • 1.5B:几乎所有现代电脑(包括集成显卡)都能跑,速度飞快,适合简单对话。

  • 7B / 8B推荐配置。需要至少 8GB 内存(最好有 6GB+ 显存的N卡,或者Mac M1/M2/M3),性能与速度的最佳平衡。

  • 14B / 32B:需要 16GB~24GB 显存的高端显卡。

  • 671B (满血版):普通人洗洗睡吧,这是服务器级别的。

本文演示环境:

  • OS: Windows 11 / macOS

  • 工具: Ollama


第一步:下载并安装 Ollama

Ollama 是目前最流行的本地大模型运行工具,它把复杂的模型部署简化成了一个命令行工具。

  1. 下载:访问官网 ollama.com,点击 "Download" 下载对应系统的安装包。

  2. 安装:一路 Next 即可。

  3. 验证:打开终端(CMD 或 PowerShell 或 Terminal),输入以下命令:

codeBash

ollama --version

如果显示版本号(例如 ollama version 0.5.4),说明安装成功。


第二步:拉取并运行 DeepSeek-R1

DeepSeek 官方已经将模型上传到了 Ollama 仓库。

  1. 选择模型
    我们以性价比最高的 7B 版本为例。在终端输入以下命令:

codeBash

ollama run deepseek-r1:7b

codeCode

*注:如果你的电脑配置较低,可以把 `:7b` 换成 `:1.5b`。*
  1. 等待下载
    Ollama 会自动从镜像源下载模型文件(约 4.7GB)。下载速度取决于你的网速。

  2. 开始对话
    下载完成后,你会直接进入交互界面。你可以试着问它一个经典的逻辑题:

    User: 9.11 和 9.8 哪个大?

    DeepSeek: ...(开始思考过程 Wait)... 9.11 比 9.8 大。
    (注:R1模型拥有思维链 CoT,你会看到它先输出 <think> 标签里的思考过程,非常硬核)


第三步:安装可视化界面 (Chatbox AI)

虽然黑乎乎的命令行很极客,但日常使用还是图形界面更方便。这里推荐 Chatbox AI(开源、跨平台)。

  1. 下载 Chatbox:去 Chatbox 官网 下载安装包。

  2. 配置连接

    • 打开设置,在“模型提供方”选择 Ollama

    • API 域名通常默认为:http://localhost:11434。

    • 在“模型”下拉菜单中,你应该能看到刚才下载的 deepseek-r1:7b。

  3. 起飞
    保存设置,现在你拥有了一个类似 ChatGPT 的本地桌面客户端了!


第四步:集成到 VS Code (打造免费 Copilot)

这才是程序员的重头戏。我们要把 DeepSeek 装进 IDE 里写代码。

  1. 安装插件
    打开 VS Code,在扩展商店搜索并安装 "Continue" (或者 "Cline")。本文以 Continue 为例。

  2. 配置 Continue
    安装完成后,点击左侧边栏的 Continue 图标,进入设置(点击齿轮图标 config.json)。

  3. 修改配置代码
    在 models 数组中添加 DeepSeek 的配置:

codeJSON

{
  "models": [
    {
      "title": "DeepSeek R1",
      "provider": "ollama",
      "model": "deepseek-r1:7b",
      "apiBase": "http://localhost:11434"
    }
  ],
  // ... 其他配置
}
  1. 实测效果

    • 代码解释:选中一段代码,按 Cmd/Ctrl + L,问它“这段代码是什么意思?”

    • 代码生成:在编辑器中按 Cmd/Ctrl + I,输入需求“帮我写一个Python的冒泡排序”,它会直接在编辑器里生成代码。


常见问题 (FAQ)

Q1: 下载速度太慢怎么办?
A: Ollama 的默认源在国外。你可以尝试配置代理,或者寻找国内的 Ollama 镜像源加速下载。

Q2: 运行起来电脑非常卡?
A: 说明模型占满了你的内存。尝试换更小的模型,比如 deepseek-r1:1.5b,或者关闭其他吃内存的软件(Chrome: 正是在下)。

Q3: 为什么 DeepSeek-R1 有时候会输出很多废话(思考过程)?
A: 这是 R1 系列的特性(思维链)。如果你只想要结果,可以在 Prompt 中加上“请直接给出结果,不要输出思考过程”。不过目前 R1 的精华就在于它的思考过程。


总结

通过 Ollama + DeepSeek-R1 + VSCode 的组合,我们完全免费地搭建了一套本地化、隐私安全、高性能的 AI 开发环境。

在这个 AI 爆发的时代,拥抱工具就是提升生产力。趁着 DeepSeek 这么火,赶紧动手部署一个试试吧!

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐