返回博客2026年2月12日

在 Telegram 里掌控 OpenClaw 上下文 - 这些命令你该知道

OpenClawTelegramAI 智能体上下文实用技巧

在 Telegram 里掌控 OpenClaw 上下文 - 这些命令你该知道

用 OpenClaw 在 Telegram 里跟 AI 智能体对话的时候,你有没有想过 - 它每次回复前,脑子里到底装了多少东西?

系统提示词、工具定义、技能列表、对话历史、工具调用结果… 这些全部打包成一个"上下文",每次请求都重新发给 LLM。上下文越大,token 消耗越高,响应越慢,甚至可能触发模型的上下文限制。

好消息是,OpenClaw 在 Telegram 里直接提供了一组命令,让你随时看到上下文的全貌,还能主动管理它。


这些命令怎么来的?

在 Telegram 里,你点击输入框旁边的 "/" 菜单,或者直接输入斜杠,就能看到 OpenClaw 注册的所有命令。

这不是什么黑魔法 - OpenClaw 启动时通过 Telegram Bot API 的 setMyCommands 把命令列表注册到 Telegram。当你点击一个命令,Telegram 把它作为消息发送给 bot,OpenClaw 识别后直接处理并返回结果,不需要经过 LLM。

换句话说,这些命令是"系统级"的,响应几乎是即时的,也不会消耗 token。


/context - 看看上下文里有什么

这是最实用的命令。发送 /context,你会得到一个简要的上下文概览:

<!-- screenshot: /context 命令的基本输出 -->

包括:

  • 系统提示词总大小
  • 项目上下文(workspace 文件)大小
  • 技能列表占用
  • 工具定义占用

/context detail - 逐项分解

想看更细?发 /context detail

<!-- screenshot: /context detail 的详细输出 -->

这个模式会列出:

  • 每个 workspace 文件的大小和状态 - 是正常注入还是被截断了
  • 每个技能的占用 - 哪些技能最占空间
  • 每个工具的 schema 大小 - 你可能会惊讶某些工具有多大

我第一次看到 message 工具的 schema 占了 775 token 的时候,确实有点意外。光这一个工具就快 800 token 了。

/context json - 给程序用的

如果你想把数据拿出来做分析,/context json 返回机器可读的 JSON 格式。


/compact - 压缩对话历史

聊了很久之后,对话历史会占掉大量上下文空间。特别是如果智能体做了很多工具调用 - 每个工具的输出都完整保留在上下文里。

这时候手动输入 /compact 发送(这个命令不在 Telegram 的 "/" 菜单里,需要自己打),OpenClaw 会:

  1. 把旧的对话历史分块摘要
  2. 保留最近几轮对话不动
  3. 用摘要替换原始历史

聪明的是,摘要不会丢掉关键信息 - 文件操作记录、工具失败日志、重要决策都会保留。

你还可以带上指令,告诉它保留什么:

/compact 只保留关于 API 设计的讨论

除了手动压缩,OpenClaw 还有一个自动裁剪机制在后台运行:超过一定时间的工具输出会被缩短或替换为占位符,最近几轮的内容受保护。这个不需要你操作,通过配置 agents.defaults.contextPruning 控制。


/new - 开始全新会话

当你想彻底重新开始:

/new

这会清空所有对话历史,生成一个全新的 session。但要注意 - 系统提示词、工具定义、技能列表这些"底座"不会变。如果底座本身就很大,新会话的初始上下文一样不小。

小技巧:/new 之后立刻发 /context,看看干净状态下的基线上下文有多大。这个数字就是你的"最小开销"。


/usage - 看看花了多少 token

想知道当前会话消耗了多少 token?

/usage cost

会显示会话级别和更长周期的 token 用量和费用。

如果你想在每条回复后面都看到 token 用量,可以开启:

/usage tokens

之后每条回复都会附带一个 token 统计的小尾巴。


/verbose - 看到更多细节

开启 verbose 模式:

/verbose on

智能体的回复会包含更多调试信息。对排查问题很有帮助,日常使用可以关掉。


/model - 看看当前用的什么模型

不确定当前在用哪个模型?

/model

它会告诉你当前的 provider 和 model ID。不同模型的 context window 差异很大 - Claude 有 200k,GPT-4 有 128k,有些小模型可能只有 8k 或 16k。了解你的模型上限,才知道上下文够不够用。

你也可以直接切换:

/model anthropic/claude-sonnet-4-5

/think - 调整思考深度

思考(thinking)也会占用上下文和 token:

/think off      # 关闭思考
/think low      # 轻量思考
/think medium   # 中等
/think high     # 深度思考

在简单对话里关掉 thinking 可以节省不少 token。需要复杂推理的时候再开。


实际场景:诊断 "prompt too large"

把这些命令串起来,遇到上下文问题时的排查流程:

第一步:看基线

/new
/context detail

看看干净会话的初始上下文有多大。如果这个数字已经接近模型上限 - 问题在底座。

第二步:找大户

/context detail 的输出里,找占用最高的项目:

  • 工具 schema 太大?→ 考虑用 tools.deny 关掉不用的工具
  • 技能太多?→ 禁用闲置技能
  • AGENTS.md 太长?→ 精简规则

第三步:运行时监控

/usage tokens

开启后观察每轮对话的 token 增长。如果某次工具调用后 token 暴涨 - 可能是工具输出太大。

第四步:压缩

/compact

长对话随时可以压一下。不会丢失关键上下文。


所有上下文相关命令一览

命令用途
/context上下文概览
/context detail逐项详细分解
/context jsonJSON 格式输出
/compact压缩对话历史(手动输入)
/compact <指令>按指令压缩(手动输入)
/new开始全新会话
/usage cost查看 token 消耗和费用
/usage tokens每条回复附带 token 统计
/verbose on/off开关详细模式
/model查看/切换模型
/think off/low/high调整思考深度

大部分命令都是系统级的,即时响应,不消耗 token。在 Telegram 的 "/" 菜单里可以直接点击。/compact 需要手动输入,不在菜单里。


上下文管理听起来技术感很强,但其实就是一件事:知道你的智能体脑子里装了什么,然后决定该留什么、该丢什么。

OpenClaw 把这个能力直接放在了 Telegram 里。下次跟你的 AI 聊天觉得它反应变慢了,或者突然报错了 - 先发个 /context detail 看看。答案往往就在那里。

相关文章

2026年2月9日

给 Agent 加定时任务?七个你一定会踩的坑

从 OpenClaw 一次关掉 60+ cron issues 的重构中,提炼出 Agent 定时任务系统的七个可靠性教训:亚秒精度陷阱、LLM 调用必须有超时、失败退避不能省、单次任务的死循环、投递上下文会过期、重复管道要合并、以及 —— 不是所有模型都会按你的 schema 传参。

AIAgentCron

准备开始了吗?

先简单说明目标,我会给出最合适的沟通方式。