1. /status - 实时系统诊断
这是日常使用频率最高的命令之一。输入后,OpenClaw会立即返回当前的核心状态面板,包括:版本号、正在使用的大模型、上下文Token的用量与百分比等关键信息。
使用场景:在处理长文档或复杂任务链之前,先执行一次 /status。如果发现上下文容量已接近红线(例如超过80%),果断开启新会话或压缩历史对话摘要,能有效避免因Token溢出导致的回复质量下降或额外消耗。
2. /new - 开启全新会话
当你觉得当前对话话题过于混杂,或者Token堆积严重时,使用此命令。会清空当前的整个上下文记忆。/new命令会创建一个全新的会话线程,生成新的Session ID。执行后,OpenClaw会开启一个干净的、零上下文的全新对话。该命令支持同时切换模型,如/new kimi或/new claude-opus
3. /reset-在当前会话内进行重置
清空当前会话的短期上下文,保留保存在MEMORY.md等文件中的长期记忆,保持当前模型不变,重新开始对话但保持会话标识不变。
4. /skills 查看当前已加载的技能列表
你在对话框里输入 /skills,OpenClaw就会回复它当前掌握了哪些能力(比如PDF解析、语音识别、文件读写等)。/skills 会列出所有已安装并启用的技能模块。
5. /think - 调整推理深度
发送不带参数的/think或/think:命令,OpenClaw会返回当前的思考级别设置,帮助你确认配置状态
(off/minimal/low/medium/high/xhigh)
- 低级别(off/minimal/low):适合信息检索、简单问答、快速指令执行。在这些级别下,AI会直接基于已有知识生成答案,几乎不进行额外的内部推理链展开。响应速度快,Token消耗少,但可能缺乏深度分析1。
- 中级别(medium):平衡速度与质量的最佳选择。AI会进行适度的内部推理,展开关键逻辑步骤,适合有一定复杂度的任务,如代码调试、数据分析、中等复杂度的规划任务4。
- 高级别(high/xhigh):开启深度思考模式。AI会完整展开推理链,考虑多种可能性,进行系统性分析。适合复杂逻辑推理、架构设计、策略规划、深度代码分析等场景。但代价是响应时间显著增加(从几秒变为几十秒),Token消耗也大幅上升