1、下载安装包

前往github上下载最新的ollama Linux安装包

2、解压安装包

sudo tar -xzf ollama-linux-amd64.tgz

3、创建ollama服务文件

vim /etc/systemd/system/ollama.service

[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/bin/ollama serve
#对应系统自己的用户
User=ollama
#对应系统自己的用户
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=$PATH"
#代表让ollama能识别到第几张显卡
Environment="CUDA_VISIBLE_DEVICES=0,1,2,3"
#这几张卡均衡使用
Environment="OLLAMA_SCHED_SPREAD=1" 
#模型一直加载, 不自动卸载
Environment="OLLAMA_KEEP_ALIVE=-1" 
#配置远程访问
Environment="OLLAMA_HOST=0.0.0.0:11380"
#配置跨域请求
Environment="OLLAMA_ORIGINS=*"
#配置OLLAMA的模型存放路径,默认路径是/usr/share/ollama/.ollama/models/
Environment="OLLAMA_MODELS=/data/soft/ollama/.ollama/models"
[Install]
WantedBy=default.target

4、赋予文件夹权限

sudo chown -R ollama:ollama /data/soft/ollama/

5、执行命令启动

sudo systemctl daemon-reload
sudo systemctl start ollama

6、创建全局环境变量

vi /etc/profile.d/ollama.sh

#ollama.sh内容如下
PATH=$PATH:/data/ollama/bin
export PATH

#刷新
source /etc/profile

#验证是否成功
ollama ls

7、事项注意

执行ollama 命令,如果修改过端口,必须带入端口,如下

OLLAMA_HOST=127.0.0.1:11434 ollama list

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐