本地部署智能体OpenClaw
OpenClaw 这是目前最成熟、社区最活跃的选项之一。它不仅能聊天,核心价值在于执行——将你的指令转化为实际的电脑操作。如果你想找一个能立刻帮忙干活、且对中文支持极佳的助手,选它准没错。
OpenClaw 这是目前最成熟、社区最活跃的选项之一。它不仅能聊天,核心价值在于执行——将你的指令转化为实际的电脑操作。如果你想找一个能立刻帮忙干活、且对中文支持极佳的助手,选它准没错。
penClaw 本地部署实战(Windows 11 + Ollama)
这个方案最大的优点是数据完全私有化,所有处理和存储都在你的电脑上完成,无需担心隐私泄露,而且断网也能用。它通过Ollama调用本地大模型(如阿里的Qwen系列),再配合OpenClaw这个“大脑”来完成任务。
第一步:准备你的电脑
在开始前,请确认你的电脑满足以下基本条件,这能保证后面的过程比较流畅:
-
硬件:建议16GB内存+NVIDIA显卡(显存≥4GB)。如果没有好显卡,也能运行,只是需要选择更小的模型,速度会慢一些。
-
软件:Node.js (版本≥18) 和 PowerShell (以管理员身份运行)。
第二步:安装“大脑”——Ollama 和大模型
Ollama是一个超级好用的工具,能让你轻松地在本地运行大模型。
-
下载Ollama:去Ollama官网下载Windows版本,一路“下一步”安装就行。
-
拉取模型:打开PowerShell,输入下面的命令来下载一个对中文非常友好的模型(通义千问)。这个命令会自动下载约4.7GB的模型文件,需要稍等一会儿。
ollama pull qwen2.5:7b
(关键步骤)定制模型:OpenClaw需要模型有较大的“记忆力”(上下文窗口)。我们需要手动创建一个记忆力更强的版本
# 创建一个配置文件
echo "FROM qwen2.5:7b\nPARAMETER num_ctx 32768" > Modelfile
# 基于配置文件创建新模型
ollama create qwen2.5:7b-32k -f Modelfile
三步:安装“执行官”——OpenClaw
-
一键安装:在PowerShell里输入下面的命令,OpenClaw就装好了
npm install -g openclaw
连接模型:运行配置向导,让OpenClaw知道该去找哪个模型“聊天”
openclaw onboard
-
然后根据提示,一步步选择或输入以下信息:
-
Model/auth provider: 选择
Custom Provider(自定义) -
API Base URL: 输入
http://127.0.0.1:11434/v1(这是Ollama的地址) -
API Key: 随便输入点什么,比如
ollama(不能留空) -
Model ID: 输入我们刚才创建的模型名
qwen2.5:7b-32k
-
-
启动服务:一切顺利的话,运行这个命令启动OpenClaw,它会告诉你一个Web地址(通常是
http://127.0.0.1:18789)和管理员Token
openclaw gateway start
第四步:验收成果
打开浏览器,访问http://127.0.0.1:18789,输入你的Token登录。现在,你可以试着命令它-8:
-
“在当前目录下帮我创建一个名为‘项目笔记’的文件夹。”
-
“写一个Python脚本,计算斐波那契数列前20项,并保存为fib.py。”
-
“我的电脑C盘空间不多了,帮我分析一下哪些文件夹最大。”
-

更多推荐



所有评论(0)