一.为什么要进行AI大模型的本地化部署?

日常工作中,需要紧急处理的公司事务,需要 AI 帮忙分析提高处理速度和效率,但是由于文件涉密...不能把内容传到AI平台;出差乘机,正好想到好点子要优化方案,想找 AI 帮忙,但是许多航班并没有网络服务;学校老师给学生出题目,想到用AI来帮忙,但是发现AI出的题目,并不能get到你想要的点,AI出的题目的考查点与课堂内容相差颇大;也有可能你在用某个AI大模型时,官网提供的访问路径再三提示“服务器繁忙,请稍后再试”;……

本地大模型的优势:

  • 完全免费:不用每月支付AI模型的订阅费

  • 速度飞快:本地运行,部署与电脑性能匹配的大模型后,和延迟说bye-bye

  • 隐私安全:所有对话都在你自己电脑上完成,数据安全有保障

  • 完全控制:可以自由选择模型和调整模型参数

  • 永不掉线:不需要联网也能用,在飞机上、火车上没有网络也能随时可用

  • 支持自建知识库:通过自建知识库,使得AI的输出更加精准、专业

    简单来说,100% 本地运行,100% 隐私安全,100% 免费,100%专业。

二.怎么本地化部署AI大模型

以笔者的Mac为例,其配置如下;

与本机对应的AI大型选型如下:

名称

模型硬盘需求

模型运行内存需求

Deepseek r1:32b 

19G

32G

Qwen2.5:32b

19G

32G

Gemma3:27b

17G

32G

下面以部署deepseek r1:32b为例。

1.安装ollama。有两种方式:

(1)访问官网:

https://ollama.com

点击Download下载并安装即可。

(2)访问Ollama 的官方Github地址:https://github.com/ollama/ollama

对于macOS和Windows系统,点击Download进行ollama的下载并进行安装。

2.打开终端,在终端输入以下命令:

ollama pull deepseek-r1:32b 

或者也可以直接输入以下命令:

ollama pull deepseek-r1:32b  

类似的办法,依次输入:

ollama run qwen2.5-coder:32b  
ollama run gemma3:27b

完成Qwen2.5和Gemma3的安装。完成安装后,终端输入以下命令进行确认:

ollama list

当刚刚安装的AI大模型出现在清单中,说明顺利完成了安装。

三.试运行测试AI大模型性能

本次测试的拟定任务是依次向deepseek-r1:32b模型、gemma3:27b模型和qwen2.5-coder:32b模型输入:

R134a制冷剂在工况条件:冷凝温度50℃,过冷度3 ℃;蒸发温度-10℃,吸气过热度度2℃,采用等熵绝热压缩,等焓节流,忽略管路和换热器流阻。请通过制冷循环过程分析,计算制冷系数。

测试三个模型在计算过程中,所用的时间和功耗(平均功耗和峰值功耗)、占用内存和推导结果的准确性,综合测试AI大模型的运行效率。测试结果需要用到命令;

sudo asitop 

运行后,会显示mac当前的cpu、gpu、内存占用比例和功耗等运行数据,和mac自带的活动监视器差不多。但数据是显示一屏里,看起来比“活动监视器“方便多了。

(1)deeseek r1:32b测试情况

  • 资源消耗:该模型从收到测试任务到完成结果输出,一共用时15min。运行过程中,10颗GPU芯片全部占用。AI大模型在接受到任务后,功率消耗瞬间达到峰值,GPU峰值功率19.91W,CPU峰值功率4.46W,内存占用26.9G/32G;运行初期,GPU平均功率12.75W,CPU平均功率0.20W;运行后期,功率消耗进一步下降,GPU平均功率8.94W,CPU平均功率0.11W。

  • 计算结果:该模型通过调用内部存储的制冷剂物性值(需要说明的是,状态点的温度、压力计算准确,但查出来的各个状态点物性参数数值并不准确),运用公式COP=Qcoo/Qcom计算出制冷系数COP=2.38

,时长00:44

(2)gemma3:27b测试情况

  • 资源消耗:该模型从收到测试任务到完成结果输出,一共用时4min。运行过程中,10颗GPU芯片全部占用。AI大模型在接受到任务后,功率消耗瞬间达到峰值,GPU峰值功率19.61W,CPU峰值功率3.89W,内存占用26.6G/32G;运行初期,GPU平均功率14.2W,CPU平均功率0.24W;运行后期,功率消耗进一步下降,GPU平均功率10.5W,CPU平均功率0.13W。

  • 计算结果:该模型通过调用内部存储的制冷剂物性值,运用公式COP=Qcoo/Qcom计算出制冷系数COP=8.28

    需要说明的是,该模型对各个状态点的压力计算不准确,导致查出来的各个状态点物性参数数值很不准确,最后的输出结果更是大相径庭

,时长00:23

(3)qwen2.5-coder:32b

  • 资源消耗:该模型从收到测试任务到完成结果输出,一共用时3min多一点。运行过程中,10颗GPU芯片全部占用。AI大模型在接受到任务后,功率消耗瞬间达到峰值,GPU峰值功率20.46W,CPU峰值功率1.24W,内存占用26.7G/32G;运行初期,GPU平均功率14.5W,CPU平均功率0.08W;运行后期,功率消耗进一步下降,GPU平均功率10.85W,CPU平均功率0.08W。

  • 计算结果:该模型通过调用内部存储的制冷剂物性值,运用公式COP=Qcoo/Qcom计算出制冷系数COP=0.389

    需要说明的是,该模型对各个状态点的温度、压力计算都不准确,导致查出来的各个状态点物性参数数值很不准确,最后的输出结果更是大相径庭

,时长00:16

四.测试总结

名称

求解时间

(min)

内存占用

(G)

GPU功率(W)

CPU功率

(W)

计算结果

准确度

峰值

均值

峰值

均值

Deepseek r1

32b 

15

26.9

19.91

12.75

4.46

0.11

状态点物性参数取值不准确

Gemma3:27b

4

26.6

19.61

14.2

3.89

0.13

状态点的压力

取值不准确

Qwen2.5:32b

3

26.7

20.46

14.5

1.24

0.08

状态点的温度、压力取值不准确

综上测试结果表明,Deepseek r1:32b模型花最多的时间,占用了最大的内存,GPU+CPU消耗了最多的能量,同时输出了准确的状态点压力和温度值,计算出了最接近准确值的制冷系数值,相对来说最靠谱;Gemma:27b,占用内存和Deepseek r1:32b相当,GPU+CPU能耗略低,尽管将时间缩短至4min,但是却带来了计算的不准确,特别是状态点压力值计算出现错误,导致结果大幅偏离;Qwen2.5:32b,占用内存和Deepseek r1:32b相当,GPU+CPU能耗略低,尽管将时间进一步缩短至3min左右,但是却带来了计算更加的不准确,特别是状态点的温度和压力值计算都出现错误,导致结果跑了火车,可以说是相当的不准确,最不靠谱。

如何学习AGI大模型?

作为一名热心肠的互联网老兵,我决定把宝贵的AI知识分享给大家。 至于能学习到多少就看你的学习毅力和能力了 。我已将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

因篇幅有限,仅展示部分资料,需要点击下方链接即可前往获取

**

一、2025最新大模型学习路线

一个明确的学习路线可以帮助新人了解从哪里开始,按照什么顺序学习,以及需要掌握哪些知识点。大模型领域涉及的知识点非常广泛,没有明确的学习路线可能会导致新人感到迷茫,不知道应该专注于哪些内容。

我们把学习路线分成L1到L4四个阶段,一步步带你从入门到进阶,从理论到实战。

L1级别:AI大模型时代的华丽登场

L1阶段:我们会去了解大模型的基础知识,以及大模型在各个行业的应用和分析;学习理解大模型的核心原理,关键技术,以及大模型应用场景;通过理论原理结合多个项目实战,从提示工程基础到提示工程进阶,掌握Prompt提示工程。

L2级别:AI大模型RAG应用开发工程

L2阶段是我们的AI大模型RAG应用开发工程,我们会去学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。

L3级别:大模型Agent应用架构进阶实践

L3阶段:大模型Agent应用架构进阶实现,我们会去学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造我们自己的Agent智能体;同时还可以学习到包括Coze、Dify在内的可视化工具的使用。

L4级别:大模型微调与私有化部署

L4阶段:大模型的微调和私有化部署,我们会更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调;并通过Ollama、vLLM等推理部署框架,实现模型的快速部署。

整个大模型学习路线L1主要是对大模型的理论基础、生态以及提示词他的一个学习掌握;而L3 L4更多的是通过项目实战来掌握大模型的应用开发,针对以上大模型的学习路线我们也整理了对应的学习视频教程,和配套的学习资料。

二、大模型经典PDF书籍

书籍和学习文档资料是学习大模型过程中必不可少的,我们精选了一系列深入探讨大模型技术的书籍和学习文档,它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础(书籍含电子版PDF)

三、大模型视频教程

对于很多自学或者没有基础的同学来说,书籍这些纯文字类的学习教材会觉得比较晦涩难以理解,因此,我们提供了丰富的大模型视频教程,以动态、形象的方式展示技术概念,帮助你更快、更轻松地掌握核心知识

四、大模型项目实战

学以致用 ,当你的理论知识积累到一定程度,就需要通过项目实战,在实际操作中检验和巩固你所学到的知识,同时为你找工作和职业发展打下坚实的基础。

五、大模型面试题

面试不仅是技术的较量,更需要充分的准备。

在你已经掌握了大模型技术之后,就需要开始准备面试,我们将提供精心整理的大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。


因篇幅有限,仅展示部分资料,需要点击下方链接即可前往获取

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐