在使用 OpenClaw + 飞书对接本地文件时,Token 消耗快、API 限流、响应变慢是最常见问题。本文把最实用、最稳定、不影响功能的省 Token 方案整理成文,照着配就能大幅降低成本。

一、核心思路:只干活、不废话、不吞上下文

GLM 系列模型 Token 消耗高,尤其是长文本、图片、全量文件读取。优化原则只有 4 条:

  1. 不全文读文件,只摘要 / 片段读取
  2. 重复指令不重复计费
  3. 上下文自动裁剪,不无限累积
  4. 少用图片输入,优先纯文本指令

下面是可直接落地的配置与用法。


二、必开技能:summarize + file-system-manager

这两个组合是 省 Token 神器 ,也是查看本地文件的最佳实践。

1. file-system-manager(本地文件管理)

  • 作用:列出、读取、搜索、预览本地文件
  • 优势:支持限制读取行数,不会把整份大文件塞进上下文
  • 安装:

bash

openclaw plugins install file-system-manager

2. summarize(内容压缩 / 摘要)

  • 作用:把长文本、长文件、长对话压成极简要点
  • 优势:一次只消耗少量 Token,却能拿到核心信息
  • 安装:

bash

openclaw plugins install summarize

最佳实践(必学)

  • 列出文件:

plaintext

列出 workspace 所有文件
  • 只读前 N 行,不全文读取:

plaintext

读 xxx.py 前30行
  • 直接摘要文件,不吞全量 Token:

plaintext

总结 workspace 里 report.md 的内容

三、开启上下文压缩:maxMessages + trimStrategy

openclaw.jsonagents.defaults 中加入以下配置, 自动压缩历史对话 ,从根源上省 Token。

json

"context": {
  "maxMessages": 10,
  "trimStrategy": "middle",
  "enableCompression": true
}

含义说明

  • maxMessages: 10:只保留最近 10 轮对话,不无限累积
  • trimStrategy: middle:自动裁剪中间冗余内容,保留头尾关键信息
  • enableCompression: true:开启上下文压缩,超长内容自动摘要

四、文件读取限制:只预览、不全读

继续在 agents.defaults 中加入:

json

"tools": {
  "file": {
    "maxSize": 102400,
    "previewLines": 30
  }
}
  • previewLines: 30:默认只读取文件前 30 行
  • maxSize:限制单文件最大体积,避免超大文件吞 Token

五、模型侧优化:低温度 + 限制输出长度

agents.defaults.models 中配置:

json

"models": {
  "zai/glm-4.6v": {
    "maxTokens": 4096,
    "temperature": 0.1
  },
  "zai/glm-4.5-air": {
    "maxTokens": 4096,
    "temperature": 0.1
  }
}
  • temperature: 0.1:AI 只执行任务,不发散创作
  • maxTokens: 4096:限制单次回复长度,避免超长废话

六、最重要的一条:少用图片输入

GLM-4.6V 视觉能力强,但 图片 Token 消耗极高

  • 能用文字描述 → 不用截图
  • 能用文件内容 → 不用图片上传
  • 能发文本指令 → 不发长图 / 多图

这是最省钱、最稳定的习惯。


七、完整可复制的 agents 优化片段

json

"agents": {
  "defaults": {
    "model": {
      "primary": "zai/glm-4.6v",
      "fallbacks": ["zai/glm-4.5-air"]
    },
    "models": {
      "zai/glm-4.6v": {
        "maxTokens": 4096,
        "temperature": 0.1
      },
      "zai/glm-4.5-air": {
        "maxTokens": 4096,
        "temperature": 0.1
      }
    },
    "workspace": "you workspace XXXXXXXXXXXXXXXXXXXXX",
    "context": {
      "maxMessages": 10,
      "trimStrategy": "middle",
      "enableCompression": true
    },
    "tools": {
      "file": {
        "maxSize": 102400,
        "previewLines": 30
      }
    }
  }
}

八、总结:4 条省 Token 铁律

  1. 优先 summarize + file-system-manager :读文件只摘要、只预览,不全文吞 Token
  2. 控制上下文 :maxMessages=10 + trimStrategy=middle,自动清理冗余
  3. 低温度 + 短输出 :模型只干活、不废话
  4. 少图片、多文本 :GLM-4.6V 图片消耗极高,能不用就不用

按这套配置,Token 消耗可降低 50%–80% ,同时大幅减少限流、报错,飞书 + OpenClaw 查看本地文件会更稳定。

也可以直接设置App ID和App Secret(1.2.1部分),

关联飞书机器人

在这里插入图片描述
实现手机远程操控你的电脑!!!!

在PowerShell运行下面三个命令:
openclaw config set channels.feishu.appId "你的飞书机器人app-id"
openclaw config set channels.feishu.appSecret "你的飞书机器人-app-secret"
设置连接模式(推荐websocket)
openclaw config set channels.feishu.connectionMode "websocket"

地址:https://open.feishu.cn/app/cli_a92f82797ef9dbd2/baseinfo
image
在这里插入图片描述

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐