今天,我把6850亿参数的“巨兽”装进手机,居然还能跑?!

没错,就是那个一口气刷新 3 项 SOTA、把 LLaMA-3 按在地上摩擦的 DeepSeek V3.1
今天,我用一杯奶茶的电费,把它塞进了我的 MacBook Air,跑起来的那一刻,我差点以为自己穿越到了 2030 年。


1️⃣ 先别急着翻走,它到底是个啥?

一句话总结:
DeepSeek V3.1 = 6850 亿参数的通用大模型 + 完全开源 + 本地可跑 + 商用免费。

对比维度 DeepSeek V3.1 LLaMA-3 70B GPT-4
参数量 685B 70B ~1.7T
上下文长度 128K 8K 32K
开源协议 Apache 2.0 半开源 闭源
本地推理

换句话说,GPT-4 能干的事,它 80% 都能干;GPT-4 不能干的事(比如本地部署),它也能干。


2️⃣ 为什么你一定要关心它?3 个场景告诉你

场景 以前 现在(DeepSeek V3.1)
写代码 Copilot 每月 10 美元 完全免费,离线也能补全
读论文 20 页 PDF 打开就卡 128K 长上下文,一口气总结 10 篇
做客服 调 OpenAI 接口 0.06 美元/1K tokens 本地部署,0 成本,数据不出内网

如果你是 开发者/科研狗/中小企业老板,这三个场景至少能帮你每年省下 一辆特斯拉


3️⃣ 3 步上手,把 6850 亿参数装进电脑

别怕,全程 10

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐