在当今数字化时代,人工智能技术蓬勃发展,大语言模型如 DeepSeek 展现出了强大的能力,能够为我们在工作、学习等诸多场景提供高效的帮助。对于一些对数据隐私有较高要求,或者希望在本地环境中充分利用硬件资源,实现更个性化、高效的模型应用的用户来说,将 DeepSeek 安装在本地电脑上是一个不错的选择。下面就为大家详细介绍在电脑上本地安装 DeepSeek 的完整流程。

一、安装前准备

(一)系统要求

MacOS:无论是 Intel 芯片还是 Apple silicon 芯片的 Mac 电脑均可支持。建议将系统更新至最新版本,以确保系统具备良好的稳定性和兼容性,为后续安装和运行 DeepSeek 提供可靠的基础。

Linux:支持 x86_64 或 arm64 架构。Ubuntu 24.04 是较为推荐的发行版,其他主流发行版理论上也可尝试安装,但可能需要根据实际情况对依赖进行额外的调整。

Windows:借助 Windows Subsystem for Linux (WSL 2),Windows 10 及以上版本的系统可开启此功能。开启后,系统环境近似于在 Linux 环境下操作,方便后续进行安装相关的命令行操作。

(二)硬件要求

内存:最低需要 8GB 内存。然而,若想在使用 DeepSeek 时获得较为流畅的体验,建议配备 16GB 及以上的内存。尤其是在运行大型模型时,更大的内存能够有效减少卡顿现象,保证模型运行的稳定性。

存储:准备至少 10GB 的空闲空间,用于存放 DeepSeek 的模型文件。如果后续计划进行模型训练或处理大量数据,建议预留更多的存储空间,以满足不断增长的数据存储需求。

GPU:虽然并非必需硬件,但如果电脑配备了兼容的 GPU(如 NVIDIA 的部分型号),将能够大幅提升模型的推理速度。在处理复杂任务时,GPU 的并行计算能力优势将尤为明显,显著提高模型的运行效率。

(三)软件要求

终端工具:MacOS 和 Linux 系统自带终端,可直接用于执行命令。对于 Windows 系统使用 WSL 2 的情况,可在 “开始菜单” 中搜索安装的 Linux 发行版(如 “Ubuntu”)来启动终端,也可以通过 PowerShell 开启 WSL 2 环境。

基础工具:需要安装 Python 3.10 及以上版本,在安装过程中务必勾选 “Add Python to PATH” 选项,这样可以确保在系统的任何路径下都能方便地调用 Python。同时,确保系统中安装了 pip(Python 包管理工具,一般会随 Python 安装)和 Git(用于代码管理和获取资源)。

二、使用 Ollama 安装 DeepSeek

Ollama 是一个简便易用的工具,可帮助我们轻松在本地安装和管理大语言模型,下面介绍使用它安装 DeepSeek 的具体步骤。

(一)安装 Ollama

MacOS 系统:访问 ollama.ai 官网,点击下载 MacOS 应用程序。下载完成后,在 “下载” 文件夹中找到 ollama.zip 文件,解压该文件,然后将解压得到的 Ollama 图标拖移至 “应用程序” 文件夹。打开 “应用程序” 中的 Ollama,按照系统提示授予相应权限,完成命令行工具的安装。

Linux/Ubuntu 24.04/WSL(Windows)系统:打开终端,运行安装脚本curl -fsSL https://ollama.com/install.sh | sh 。安装完成后,执行ollama serve 命令启动 Ollama 服务。在终端输入 ollama --version ,若显示版本号(例如 ollama version 0.1.25),则表明 Ollama 已成功安装。

(二)下载和安装 DeepSeek - R1

检查模型是否在 Ollama 默认库中:在终端运行ollama list 命令,查看列表中是否有 deepseek - R1 模型。若列表中存在该模型,直接运行 ollama pull deepseek - R1 命令进行下载。下载所需时间取决于网络速度,请耐心等待。

手动设置(模型不在默认库时):若在 Ollama 默认库中未找到 deepseek - R1 模型,可从 Hugging Face 或 DeepSeek 官方仓库获取 gguf 格式的 DeepSeek - R1 模型文件(例如 deepseek - R1.q4_k_m.gguf) 。将获取到的模型文件保存到指定文件夹(如~/models )。在同一文件夹中,创建一个名为 modelfile 的文件,文件内容为 from./deepseek - R1.q4_k_m.gguf (注意:需根据实际下载的模型文件名进行修改)。最后,在终端运行ollama create deepseek - R1 -f modelfile 命令完成模型构建。

(三)运行 DeepSeek - R1

在终端输入ollama run deepseek - R1 命令,即可启动与 DeepSeek - R1 模型的对话。例如,输入 >> write a Python function to calculate fibonacci numbers. ,模型会根据输入进行处理并给出相应回答。

(四)验证安装(可选)

运行ollama list 命令,确认列表中出现 deepseek - R1 模型,这表明模型已成功安装在本地。此外,还可以使用不同的示例提示对模型进行测试,观察模型的推理速度和回答质量,检查是否满足个人使用需求。

(五)在 Web UI 中运行 DeepSeek

运行ollama web 命令启动 Ollama 的 Web UI,在浏览器中打开相应网址(通常为http://localhost:11434 ),即可在图形界面中与 DeepSeek 进行交互。Web UI 提供了更为直观方便的操作方式,无需在命令行中输入指令,降低了使用门槛。

三、其他安装方式简介

若不想使用 Ollama 安装 DeepSeek,也可通过 Python&Hugging Face、Docker、llama.cpp 等方式进行安装,但这些方式的安装过程相对更为复杂。

Python&Hugging Face:需要先安装 Python 以及 Hugging Face 相关库,安装完成后,还需从 Hugging Face 平台下载 DeepSeek 模型。在安装和下载过程中,需要仔细配置各种参数和依赖,对用户的技术能力有一定要求。

Docker:首先要安装 Docker 引擎,安装完成后,需编写容器配置文件,通过配置文件来指定 DeepSeek 模型的相关参数和运行环境。这种方式虽然可以实现环境的隔离和统一部署,但配置过程较为繁琐。

llama.cpp:该方式侧重于在 CPU 上对模型进行优化运行。安装时需要编译代码,并且要根据 CPU 的性能和特点配置运行参数,以达到较好的运行效果。整个安装过程涉及到代码编译和参数调优,具有一定的技术难度。

四、安装后的优化与注意事项

(一)性能优化

硬件加速:若电脑配备了 NVIDIA GPU,安装 CUDA Toolkit 和 cuDNN 库可以实现 GPU 加速。根据 GPU 型号和系统版本,从 NVIDIA 官方网站下载并安装对应的 CUDA Toolkit 和 cuDNN 库版本,安装完成后,在运行 DeepSeek 时,模型将自动调用 GPU 资源,提升运行速度。

模型量化:使用量化版本的 DeepSeek 模型,如带有q4_k_m后缀的模型(如 deepseek - R1:7b - q4_k_m)。量化模型在保持一定精度的同时,能够大幅减少内存占用,对于内存资源有限的电脑来说,是提升模型运行效率的有效方法。

(二)注意事项

文件路径:在安装和配置过程中,涉及到的文件路径应尽量避免使用中文和空格,以免在命令行操作或程序运行时出现路径识别错误的问题。

版本兼容性:确保安装的各软件版本之间相互兼容,如 Python 版本、深度学习框架版本以及 DeepSeek 模型版本等。不兼容的版本可能导致程序运行出错或无法正常运行。在安装前,查阅相关文档或社区论坛,了解推荐的版本组合。

数据备份:如果在本地使用 DeepSeek 处理重要数据,建议定期对数据进行备份。防止因硬件故障、软件错误或其他意外情况导致数据丢失。

通过以上步骤和注意事项,相信你能够顺利在本地电脑上安装 DeepSeek,并根据自己的需求进行优化和使用。在安装过程中,若遇到问题,可查阅相关技术文档或在技术社区中寻求帮助。

大模型算是目前当之无愧最火的一个方向了,算是新时代的风口!有小伙伴觉得,作为新领域、新方向人才需求必然相当大,与之相应的人才缺乏、人才竞争自然也会更少,那转行去做大模型是不是一个更好的选择呢?是不是更好就业呢?是不是就暂时能抵抗35岁中年危机呢?

答案当然是这样,大模型必然是新风口!

那如何学习大模型 ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。但是具体到个人,只能说是:

最先掌握AI的人,将会比较晚掌握AI的人有竞争优势。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

但现在很多想入行大模型的人苦于现在网上的大模型老课程老教材,学也不是不学也不是,基于此我用做产品的心态来打磨这份大模型教程,深挖痛点并持续修改了近100余次后,终于把整个AI大模型的学习路线完善出来!

在这里插入图片描述

在这个版本当中:

您只需要听我讲,跟着我做即可,为了让学习的道路变得更简单,这份大模型路线+学习教程已经给大家整理并打包分享出来, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

👉CSDN大礼包🎁:全网最全《LLM大模型学习资源包》免费分享(安全咨料,放心领取)👈

一、大模型经典书籍(免费分享)

AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源

在这里插入图片描述

二、640套大模型报告(免费分享)

这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)
在这里插入图片描述

三、大模型系列视频教程(免费分享)

在这里插入图片描述

四、2025最新大模型学习路线(免费分享)

我们把学习路线分成L1到L4四个阶段,一步步带你从入门到进阶,从理论到实战。

img

L1阶段:启航篇丨极速破界AI新时代

L1阶段:了解大模型的基础知识,以及大模型在各个行业的应用和分析,学习理解大模型的核心原理、关键技术以及大模型应用场景。

img

L2阶段:攻坚篇丨RAG开发实战工坊

L2阶段:AI大模型RAG应用开发工程,主要学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。

img

L3阶段:跃迁篇丨Agent智能体架构设计

L3阶段:大模型Agent应用架构进阶实现,主要学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造Agent智能体。

img

L4阶段:精进篇丨模型微调与私有化部署

L4阶段:大模型的微调和私有化部署,更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调,并通过Ollama、vLLM等推理部署框架,实现模型的快速部署。

img

L5阶段:专题集丨特训篇 【录播课】

img

全套的AI大模型学习资源已经整理打包,有需要的小伙伴可以微信扫描下方二维码免费领取

👉CSDN大礼包🎁:全网最全《LLM大模型学习资源包》免费分享(安全资料,放心领取)👈

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐