如果你最近在研究大模型应用,尤其是想让大模型在本地无网运行、随开随用、成本为零,那你一定已经听过——或者马上就会听到一个名字:Ollama

这玩意儿为什么这么火?一句话:

Ollama = 本地大模型的 Docker
你一句命令就能拉起一个 Llama、Qwen、DeepSeek……堪称 AI 时代的“apt-get install”。

今天,我将用一篇文章,把所有你可能想知道的问题一次说清楚:

  • Ollama 是什么?
  • 支持哪些大模型?为什么 DeepSeek 都能跑?
  • 三分钟安装与运行方法(Windows / Mac / Linux)
  • 如何用一行命令拉取并启动本地模型?
  • Python 如何调用 Ollama 做推理?
  • 如何自定义模型 Modelfile?

1. Ollama 是什么?为什么人人都在用?

如果你接触过 Docker,你会发现 Ollama 的设计理念几乎一模一样。
只需要一句命令即可在本地运行大模型:

ollama run llama3

Ollama 的优势:

  • 无需配置环境(不用装 CUDA、不用装 Transformers、连 Python 都不用)
  • 支持超多模型(并持续更新),包括:Llama 3 全系列、Qwen、DeepSeek等
  • 跨平台:Windows / macOS / Linux 全支持
  • 同时支持 CPU / GPU 推理
  • 提供 HTTP API & Python SDK,你完全可以把它当成自己的“本地 OpenAI API”。

2. Ollama下载安装

2.1 下载Ollama

在Ollama官网(https://ollama.com/download )按需下载:
在这里插入图片描述

2.2 安装Ollama

我是在MacOS中安装,直接打开Ollama.dmg把应用拖动到Applications中即可安装完成。在这里插入图片描述
MacOS中,也可以通过brew install ollama安装。安装后可以通过ollama --version验证是否安装成功。

3. 下载并运行一个本地模型(例如:Llama3 / DeepSeek)

Ollama 的使用体验就是:你想用哪个模型?直接拉!

运行指定模型(第一次运行会自动下载,速度会慢一些),比如这里运行llama3(也可以运行deepseek-r1:1.5b、deepseek-r1:7b等模型,所有支持的模型列表见官网https://ollama.com/search):

ollama run llama3

在这里插入图片描述

启动成功后,就可以进行问答了:
在这里插入图片描述

其他常用命令:

退出:在会话中输入 /bye 或使用快捷组合键盘 Ctrl+d

查询当前本地模型列表:ollama list

删除模型:ollama rm llama3

4. Python API 调用(本地等于自建 OpenAI)

4.1 安装Python SDK

pip install ollama

4.2 调用 Ollama 生成回答(阻塞输出)

import ollama

response = ollama.chat(
    model='deepseek-r1:1.5b',
    messages=[
        {
            'role': 'user',
            'content': '为什么天空是蓝色的?',
        },
    ])
print(response['message']['content'])

4.3 调用 Ollama 生成回答(stream 流式输出)

import ollama

stream = ollama.chat(
    model='deepseek-r1:1.5b',
    messages=[{'role': 'user', 'content': '为什么天空是蓝色的?'}],
    stream=True,
)

for chunk in stream:
    print(chunk['message']['content'], end='', flush=True)

5. 进阶:如何自定义自己的模型(Modelfile)

如果你想对模型做微调(比如加系统提示、合并 LoRA 权重等),创建一个 Modelfile:

FROM deepseek-r1

SYSTEM """
你是一个专业数据分析助手,回答要简洁精炼。
"""

然后构建:

ollama create my-deepseek -f Modelfile

运行:

ollama run my-deepseek

是不是很像【Dockerfile → Image → 容器】的流程?




转载请注明出处《Ollama:本地大模型的真正“平替神器”——从入门到实战,一篇就够了》 https://blog.csdn.net/huyuyang6688/article/details/155612503

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐