1、背景

最近我在学习大模型相关的知识,因此想通过本地运行一些离线大模型来观察效果。经过了解,我发现Ollama可以运行离线模型,于是决定记录一下Ollama安装过程。

2、Ollama是什么

Ollama 是一个开源工具,旨在帮助用户轻松地在本地运行和管理大型语言模型(LLMs)。它提供了一个简单的命令行界面,使用户能够下载、部署和运行各种开源的大模型(如 LLaMA、GPT-J 等),而无需依赖云服务或互联网连接。

2.1 Ollama 的核心功能:

  • 本地运行:Ollama 允许用户在本地计算机上运行大模型,适合对数据隐私或网络环境有要求的场景。
  • 模型管理:通过 Ollama,用户可以轻松下载、更新和管理不同的模型。
  • 简单易用:Ollama 提供了直观的命令行工具,用户只需几条命令即可启动和运行模型。
  • 跨平台支持:Ollama 支持 macOS、Linux 和 Windows 等主流操作系统。
  • 多种模型支持:Ollama 支持多种开源大模型,用户可以根据需求选择合适的模型。

2.2 典型使用场景:

  • 离线推理:在没有互联网连接的环境中运行大模型。
  • 隐私保护:在本地处理敏感数据,避免将数据上传到云端。
  • 开发与测试:开发者可以在本地测试和调试大模型,而无需依赖外部服务。

3、安装步骤

这里以Mac下载安装为例

3.1 进入Ollama的下载界面

Ollama的下载界面
Ollama下载界面

3.2 安装

将下载下来的 zip包进行解压,然后放入到应用程序中。

3.3 Ollama默认模型目录

mac系统中,模型的默认目录为~/.ollama/models,日志目录为~/.ollama/logs

修改模型的默认目录,通过设置环境变量OLLAMA_MODELS=具体的路径来进行修改。

4、运行一个本地模型

4.1 选择一个模型

选择一个模型
Ollama的模型页面进行搜索并选择一个合适的模型。

4.2 安装模型

此处以安装deepseek-r1-14b模型为例。 b表示10亿模型参数,b的值越小,需要的资源越小。
安装模型

➜  ~ ollama pull deepseek-r1:14b
pulling manifest
pulling 6e9f90f02bb3... 100% ▕████████████████▏ 9.0 GB
pulling 369ca498f347... 100% ▕████████████████▏  387 B
pulling 6e4c38e1172f... 100% ▕████████████████▏ 1.1 KB
pulling f4d24e9138dd... 100% ▕████████████████▏  148 B
pulling 3c24b0c80794... 100% ▕████████████████▏  488 B
verifying sha256 digest
writing manifest
success
➜  ~ ollama run deepseek-r1:14b
>>> Send a message (/? for help)

ollama run 如果这个模型在本地不存在的话,会先拉取模型,然后在运行模型。

4.3 启动Ollama服务

在电脑中找到Ollama图标或在命令行中执行ollama server命令进行启动ollama服务。
启动Ollama服务
修改ollama的运行端口: OLLAMA_HOST=0.0.0.0:11434 .
通过设置环境变量来解决。

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐