OpenClaw 本地部署指南:把大模型揣进自己服务器,数据隐私全掌控
《openclaw本地大模型部署指南:从零搭建私有AI助手》摘要 本文提供了一份详细的本地大模型部署教程,帮助开发者规避常见问题。针对云服务API的高成本和隐私风险,文章推荐在自有Linux服务器(推荐8卡或2卡配置)部署OpenClaw方案。教程包含四个关键步骤:1)基础依赖安装;2)项目代码克隆;3)Python虚拟环境配置;4)依赖安装。特别整理了CUDA版本匹配、Node.js版本过低等常
这篇文章写给想在自己服务器部署本地大模型助手,但又怕部署太复杂踩坑的开发者。我踩了各种坑整理出这套 step by step 教程,新手也能跟着一步步跑通。
痛点场景
用云服务商的大模型 API 有两个绕不开的问题:
太贵了:调用量上去之后,每个月 API 账单吓死人,随便折腾一下就是几百上千
隐私问题:敏感数据不敢传给第三方 API,公司内部资料更不敢往外发
能不能把大模型直接跑在自己服务器上?数据存在自己这儿,隐私安全,想怎么折腾就怎么折腾,不用怕账单爆炸。
我折腾了几天,终于把 OpenClaw 完整部署到了自己的服务器上,这篇把完整过程和踩过的坑都记下来,你跟着做就能成。
适用场景:
有一台自己的 Linux 服务器(推荐 8 卡或者 2 卡,单卡 16GB 显存也能跑 7B 模型)
想拥有完全属于自己的本地 AI 助手
数据隐私敏感,不想把内容传给第三方 API
喜欢折腾,想自己掌控整套 AI 工具链
环境准备
首先确认你的服务器满足最低要求:
配置项
最低要求
推荐配置
系统
Ubuntu 20.04 / 22.04
Ubuntu 22.04
Python 版本
Python 3.9+
Python 3.10
显存
16GB(跑 7B 量化模型)
24GB+
硬盘
50GB 空闲空间
100GB+
CUDA
11.8+
12.1+
第一步:安装基础依赖
先更新系统,安装需要的基础包:
更新系统
sudo apt update && sudo apt upgrade -y
安装基础依赖
sudo apt install -y git curl wget build-essential \
libssl-dev zlib1g-dev libbz2-dev \
libreadline-dev libsqlite3-dev llvm \
libncurses5-dev libncursesw5-dev xz-utils tk-dev \
libffi-dev liblzma-dev python3-openssl
第二步:克隆项目代码
克隆 OpenClaw 官方仓库
git clone https://github.com/openclaw/openclaw.git
cd openclaw
查看分支,切换到最新稳定版
git branch -a
git checkout main
第三步:配置 Python 虚拟环境
我推荐用 pyenv 管理 Python 版本,避免系统版本冲突:
安装 pyenv(如果你还没装)
curl https://pyenv.run | bash
添加到环境变量(根据你的 shell 选一个)
echo 'export PYENV_ROOT="$HOME/.pyenv"' >> ~/.bashrc
echo 'command -v pyenv >/dev/null || export PATH="$PYENV_ROOT/bin:$PATH"' >> ~/.bashrc
echo 'eval "$(pyenv init -)"' >> ~/.bashrc
重新加载环境变量
source ~/.bashrc
安装 Python 3.10
pyenv install 3.10.14
pyenv local 3.10.14
创建虚拟环境
python -m venv venv
source venv/bin/activate
第四步:安装 Python 依赖
升级 pip
pip install --upgrade pip setuptools wheel
安装项目依赖
pip install -r requirements.txt
避坑指南这里是我实际踩过的几个坑,一定要注意:
坑 1:CUDA 版本不匹配导致 PyTorch 用不了 GPU
问题现象:安装完 PyTorch 之后,运行 python -c "import torch; print(torch.cuda.is_available())" 输出 False
原因:你的系统 CUDA 版本和 PyTorch 编译的 CUDA 版本不匹配
解决方法:
重新安装对应你 CUDA 版本的 PyTorch:
先查看你的 CUDA 版本
nvcc --version
去 https://pytorch.org/ 获取对应你系统的安装命令
比如 CUDA 12.1 用这个:
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
验证:
python -c "import torch; print('CUDA available:', torch.cuda.is_available())"
print('GPU count:', torch.cuda.device_count())
应该输出:
CUDA available: True
GPU count: 你显卡的数量
坑 2:Node.js 版本太低,前端构建失败
问题现象:构建前端的时候报错,一堆语法错误不识别
原因:Ubuntu 源里的 Node.js 版本太老(通常是 12.x 或者 14.x),OpenClaw 前端需要 Node 18+
解决方法:用 nvm 安装新版 Node.js:
安装 nvm
curl -o- https://raw.githubusercontent.com/nvm-sh/nvm/v0.39.3/install.sh | bash
source ~/.bashrc
安装 Node 18
nvm install 18
nvm use 18
验证版本
node -v
应该输出 v18.x.x 以上
坑 3:依赖安装慢或者超时
问题现象:pip install 卡着不动,经常超时失败
解决方法:换国内镜像源:
新建 pip 配置文件
mkdir -p ~/.pip
cat > ~/.pip/pip.conf << EOF
[global]
index-url = https://pypi.tuna.tsinghua.edu.cn/simple
trusted-host = pypi.tuna.tsinghua.edu.cn
EOF
然后重新安装就快很多了。
坑 4:端口被占用,启动失败
问题现象:启动的时候报 Address already in use
解决方法:找到占用端口的进程杀掉,或者改配置文件换个端口:
查找占用 8000 端口的进程
lsof -i :8000
杀掉进程
kill -9 <PID>
配置模型
OpenClaw 支持多种大模型后端,我这里以 Llama 3 7B 为例,用量化版本 16GB 显存就能跑。
- 1. 下载模型
推荐用 Hugging Face 下载,或者用模型镜像站更快:
安装 huggingface-cli
pip install huggingface_hub
登录(如果你有 HF 账号)
huggingface-cli login
下载量化好的 Llama 3 7B
这里用的是 4-bit 量化版本,大约 4GB 大小
huggingface-cli download bartowski/Llama-3-7B-Instruct-GGUF Llama-3-7B-Instruct.Q4_K_M.gguf --local-dir models
- 2. 修改配置文件
OpenClaw 用 config.yaml 配置,复制一份模板开始修改:
cp config.example.yaml config.yaml
vi config.yaml
主要修改这几个地方:
model:
模型类型,llama-cpp 适合单 CPU/GPU 运行
backend: llama-cpp
你刚才下载的模型文件路径
model_path: ./models/Llama-3-7B-Instruct.Q4_K_M.gguf
上下文窗口大小,根据你的显存调整
n_ctx: 4096
线程数,根据你的 CPU 核心数调整
n_threads: 8
GPU 层数,全给 GPU 加速就好
n_gpu_layers: 35
配置说明:
n_gpu_layers: 7B 模型总共 33 层左右,设 35 就是全部放 GPU,速度最快
n_ctx: 越大能处理越长的上下文,也越吃显存,4096 足够日常用了
如果你的显存不够,可以降到 2048
启动运行
配置完就可以启动了:
激活虚拟环境(如果你还没激活)
source venv/bin/activate
前端构建(第一次需要,之后不用)
cd frontend
npm install
npm run build
cd ..
启动 OpenClaw
python main.py
正常启动你会看到类似这样的输出:
INFO: Started server process [XXXX]
INFO: Listening on http://0.0.0.0:8000
INFO: OpenClaw is ready!
验证部署
打开浏览器访问 http://你的服务器IP:8000,能看到界面就说明启动成功了:
随便输个问题测试一下,能正常回复就是部署完成了!
Nginx 反向代理(可选)
如果你想通过域名访问,并且加 HTTPS,可以用 Nginx 反向代理:
server {
listen 80;
server_name your-domain.com;
location / {
proxy_pass http://127.0.0.1:8000;
proxy_set_header Host $host; proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for; proxy_set_header X-Forwarded-Proto $scheme;
}
}
然后用 Let's Encrypt 申请免费证书:
sudo certbot --nginx -d your-domain.com
开机自启(推荐)
用 systemd 设置开机自启,服务器重启后 OpenClaw 自动起来:
sudo vim /etc/systemd/system/openclaw.service
内容如下(修改成你自己的路径):
[Unit]
Description=OpenClaw AI Assistant
After=network.target
[Service]
Type=simple
User=你的用户名
WorkingDirectory=/path/to/openclaw
ExecStart=/path/to/openclaw/venv/bin/python main.py
Restart=always
RestartSec=10
Environment=PYTHONUNBUFFERED=1
[Install]
WantedBy=multi-user.target
保存后启用:
sudo systemctl daemon-reload
sudo systemctl enable openclaw
sudo systemctl start openclaw
查看状态
sudo systemctl status openclaw
总结
现在你已经拥有了一个完全本地运行的大模型助手了:
✅ 数据完全存在自己服务器,隐私有保障
✅ 不用再交 API 月租,一次部署终身可用
✅ 支持各种模型,随时可以换更大更好的模型
✅ OpenClaw 自带工具调用能力,能扩展各种功能
这篇是《大模型落地踩坑日记》的第五篇,下一篇我会分享 RAG 优化实战:五种方法提升大模型知识库回答准确率,感兴趣可以关注专栏。
如果你部署的时候碰到其他坑,欢迎在评论区留言,我会帮你解答。
标签:OpenClaw 大模型 本地部署 Llama3 AI 隐私 服务器部署
本篇文章收录于专栏 《大模型落地踩坑日记》,记录从 0 到 1 搭建 AI 应用踩过的坑,帮你少走弯路,持续更新中。
更多推荐


所有评论(0)