在deepseek的热潮下,本地部署有很多教程了,我就不详细介绍了。安装ollama后输入一个命令行即可完成部署。

        下面重点讲下在一台电脑上部署,局域网下的电脑都能够使用。deepseek还是很吃硬件配置的,办公室的电脑不是每台都能达标,也没有必要每人都部署一遍。配置要求如下:

        

        我这里用到是一台配备RTX3090Ti(24G)显卡的电脑,部署的是14b的模型,当输入一千字的文本时,从任务管理器中看到GPU使用率超过了50%,并且温度甚至超过了70度,截图如下

        本地部署完成后,我们需要在一个可视化的界面上使用,网页上使用的方案有多种,包括:Chatbox、docker+Open WebUI等,这些坑我踩过了,本地部署本地访问可行,修改成目标IP后无法获取到模型选项。

        

        总结:可视化界面请使用page-assist扩展。

        详细教程参考:全网最简单!本地部署DeepSeek-R1联网教程!-CSDN博客 

        如果page-assist修改成目标电脑IP后未显示模型,设置下两个系统环境变量:

        OLLAMA_HOST=0.0.0.0:11434

        OLLAMA_ORIGINS=*

        

        综上,即使部署了14b版本的模型,参数量级离671b还差了几十倍,使用效果还是没有官方或者其他第三方提供的deepseek模型好。

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐