本文为Windows系统下,从0到1完成Ollama安装、DeepSeek-R1模型部署、Cherry Studio安装个人AI聊天助手的完整教程,全程遵循“零基础能看懂、每步可复现”原则,标注关键注意事项和避坑点,助力快速搭建本地私有化问答系统。

一、前置准备:明确环境要求

部署前先确认电脑满足基础条件,避免后续踩坑:

  • 系统版本:Windows 10/11 64位(优先推荐Windows 11,兼容性更优)

  • 硬件要求

    • 内存:至少16GB(推荐32GB+,DeepSeek-R1运行需足够内存支撑,避免卡顿)

    • 显卡:NVIDIA显卡(带CUDA核心)最佳,可开启GPU加速;无独显也可运行(纯CPU模式,推理速度稍慢)

    • 硬盘:至少20GB空闲空间(Ollama框架+DeepSeek-R1模型约占用10-15GB,预留冗余空间)

  • 网络要求:需能访问外网(用于拉取模型,访问慢可配置国内镜像)

  • 其他:暂时关闭电脑杀毒软件实时防护(部分操作可能被误判为风险行为)

二、第一步:安装Ollama(本地大模型运行核心)

Ollama是轻量级大模型管理框架,支持一键完成模型的下载、运行、推理,是部署DeepSeek-R1的基础工具。

1. 下载Ollama安装包

2. 安装Ollama(全程默认,重点关注路径)

  1. 双击「OllamaSetup.exe」,弹出安装界面后点击「Next」,全程默认即可(新手为了不必要的麻烦建议不要更改安装路径);

  2. 点击「Install」开始安装,等待1-2分钟(安装过程会自动配置系统环境变量,无需手动操作);

  3. 安装完成后点击「Finish」,Ollama会自动在后台启动,任务栏右下角可看到Ollama图标。

3. 验证Ollama安装成功

  1. 按下「Win+R」,输入「cmd」,回车打开命令提示符(无需管理员权限);

  2. 输入命令:ollama -v

  3. 若输出类似「ollama version 0.5.7」的版本信息,说明安装成功;若提示“不是内部或外部命令”,则是环境变量未生效,可能安装时修改了路径。

三、第二步:部署DeepSeek-R1模型

Ollama官网上查找模型

在这里插入图片描述

DeepSeek-R1是深度求索推出的开源大模型,中文理解能力强、适配个人知识库场景,Ollama已原生适配该模型,可一键拉取部署。

1. 拉取DeepSeek-R1模型(核心步骤)

  1. 保持命令提示符窗口打开,输入对应参数的拉取命令:

基础版(7B参数,适合16GB内存)

ollama run deepseek-r1:7b

2. 验证DeepSeek-R1模型运行正常

  1. 命令提示符中输入:ollama run deepseek-r1:7b(若拉取的是16B版本,替换为对应命令);
    在这里插入图片描述

  2. 等待模型加载完成(首次加载约30秒,出现「>>> 」提示符即代表就绪);

  3. 输入测试问题(如“你好,介绍一下自己”),回车后模型给出回复,说明运行正常;

  4. 退出模型:输入「/bye」回车即可。

四、第三步:安装配置Cherry Studio

Cherry Studio是开源本地知识库工具,支持导入PDF/Word/TXT等格式文档,结合本地大模型实现私有化问答,所有数据存储在本地,无需担心泄露。

1. 下载Cherry Studio

选择Windows版本,下载至无中文、无空格路径(如「D:\CherryStudio」)。

2. 启动Cherry Studio并连接Ollama

在这里插入图片描述
在这里插入图片描述

  1. 进入主界面后,点击左侧「设置」→「模型服务」;

  2. 配置模型连接参数(核心步骤,务必准确):

    • 模型类型:选择「Ollama」;

    • Ollama地址:填写「http://localhost:11434」(Ollama默认端口,无需修改);

    • 模型管理:选择「deepseek-r1:7b」(与拉取的模型版本完全一致);

    • 检查模型:点击检查,选择自己需要的模型
      在这里插入图片描述

3. 进入聊天模式

在这里插入图片描述

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐