早上刚升级到v2026.4.9 ,用了没一会,又看见 OpenClaw 项目发布了 v2026.4.10 版本,这是一个功能极其丰富的重大更新。新版本不仅引入了革命性的"主动记忆"(Active Memory)系统,还在多平台集成、安全防护、QA测试基础设施等方面实现了全面突破。本文将为您详细解读这一版本的核心亮点。
🧠 主动记忆系统:让AI真正"记住"你的对话
Active Memory 插件正式登场
本次更新最引人注目的功能莫过于全新的 Active Memory(主动记忆)插件。这是一个可选的专用记忆子代理系统,能够在主回复生成之前自动检索和整合相关信息。
核心特性:
- 自动上下文检索:无需用户手动输入"记住这个"或"搜索记忆",系统会自动在持续对话中拉取相关的偏好设置、上下文和历史细节
- 灵活的上下文模式:支持消息级、近期和完整上下文三种配置模式,可根据需求灵活调整
- 实时调试能力 :通过
/verbose命令进行实时检查,方便开发者调试和优化 - 高级定制选项:提供可配置的提示词和思维覆盖,允许用户根据具体场景进行调优
- 可选的转录持久化:支持开启转录持久化功能,便于问题排查和行为分析
这一功能的引入,标志着 OpenClaw 在构建真正个性化、上下文感知的 AI 助手方面迈出了重要一步。
🔧 多平台集成能力大幅增强
Microsoft Teams 全面升级
Microsoft Teams 集成获得了前所未有的功能增强:
- 消息操作支持:新增置顶、取消置顶、标记已读、反应和列出反应等消息操作功能
- 媒体下载修复:恢复个人私信、Bot Framework 对话、OneDrive/SharePoint 共享文件和基于 Graph 的聊天 ID 的媒体下载功能
- SSO 单点登录:添加 SSO 登录回调支持
- 线程上下文注入:为线程回复注入父级上下文,确保对话连贯性
- 定时任务支持:支持将定时任务公告发送到 Teams 对话
WhatsApp 媒体发送修复
修复了 WhatsApp 媒体发送的关键问题:
- 媒体上下文保持 :在网关模式下,通过
--media发送的媒体文件现在会正确通过通道的 sendMedia 路径路由 - 连接重连优化:在重连间隙保持入站回复、媒体、撰写指示器和排队的出站交付,确保消息不丢失
macOS 语音支持实验性推出
为 macOS 用户带来了实验性的本地语音功能:
- MLX 语音提供者:基于本地 MLX 的语音提供者,无需云端依赖
- 显式提供者选择:支持手动选择语音提供者
- 本地语音播放:支持本地语音播放和中断处理
- 系统语音回退:当本地语音不可用时,自动回退到系统语音
🎥 媒体生成能力再升级
Seedance 2.0 模型支持
在视频生成工具方面,新增了对 Seedance 2.0 模型的完整支持:
- 添加了捆绑的 fal 提供者中的 Seedance 2.0 模型引用
- 提交了提供者特定的持续时间、分辨率、音频和种子元数据字段
- 支持实时 Seedance 2.0 运行
Matrix 部分流式传输增强
为 Matrix 通道添加了 MSC4357 实时标记支持:
- 在草稿预览发送和编辑时添加实时标记
- 支持的 Matrix 客户端可以渲染实时/打字机动画
- 当最终编辑到达时,动画会自动停止
🔒 安全防护体系全面加固
浏览器安全深度强化
针对浏览器和沙箱导航防御进行了全面加固:
- 严格的 SSRF 默认设置
- 主机名白名单机制
- 交互驱动的重定向防护
- 子框架安全控制
- CDP 发现保护
- 现有会话安全
- 标签页操作防护
- noVNC 安全
- 标记范围净化
- Docker CDP 源范围强制执行
工具执行安全增强
对工具执行进行了多层次的安全加固:
- exec 预检读取硬化
- 主机环境拒绝列表
- 节点输出边界控制
- 出站主机媒体读取保护
- 配置文件变更授权
- 插件安装依赖扫描
- ACPX 工具钩子安全
- Gmail 监视器令牌脱敏
- 超大实时 WebSocket 帧处理
🧪 QA 测试基础设施重大升级
多平台实时 QA 通道
新增了多个实时 QA 测试通道:
Matrix QA 通道:
- 基于一次性 Matrix homeserver
- 共享实时传输接缝
- Matrix 特定的传输覆盖,包括线程、反应、重启和白名单行为
Telegram QA 通道:
- 支持私有群组的 bot-to-bot 检查
- 强化了工件处理
- 保留原生 Telegram 命令回复线程用于 QA 验证
Multipass 测试通道:
- 支持在一次性 Linux VM 中运行基于仓库的 QA 场景
- 可写回常规报告、摘要和 VM 日志
🛠️ 开发者工具与 CLI 增强
本地 exec 策略管理
新增了 openclaw exec-policy 命令:
- show:显示当前策略
- preset:预设策略模板
- set:设置自定义策略
- 支持同步请求的 tools.exec.* 配置与本地 exec 批准文件
- 包含节点主机拒绝、回滚安全和同步冲突检测等后续加固
网关命令发现
新增了 commands.list RPC:
- 允许远程网关客户端发现运行时原生、文本、技能和插件命令
- 支持表面感知的命名
- 序列化的参数元数据
Codex 提供者集成
新增了捆绑的 Codex 提供者:
- codex/gpt-* 模型使用 Codex 管理的认证、原生线程、模型发现和压缩
- openai/gpt-* 保持在正常的 OpenAI 提供者路径上
- 添加了必需的 Codex OAuth 范围
- 更清晰地分类提供者/运行时故障
📊 模型与代理系统优化
私有网络访问控制
为可信的自托管 OpenAI 兼容端点添加了每提供者的私有网络访问配置:
- 通过
models.providers.*.request.allowPrivateNetwork进行配置 - 保持选择性,仅限于模型请求表面
- 当请求传输覆盖更改时,刷新缓存的 WebSocket 管理器
严格代理执行合同
为 GPT-5 系列运行添加了可选的严格代理嵌入式 Pi 执行合同:
- 计划性或填充性轮次会持续执行,直到遇到真正的阻塞点
- 增强了提供者拥有的 OpenAI/Codex 工具模式兼容性
- 支持嵌入式运行重播/活跃状态
超时与回退优化
- 默认 LLM 空闲窗口延长:从原来的 60 秒延长到 120 秒
- 静默空闲超时保持:在恢复路径上保持静默无令牌空闲超时
- 模型选择保持 :在临时主模型故障和配置重载期间保持
/models选择 - 超时冷却探测:允许超时冷却探测
- OpenRouter 无端点响应检测:分类处理
- llama.cpp 上下文溢出检测:新增检测机制
🌍 国际化与文档改进
文档翻译优化
对文档国际化进行了多项改进:
- 原始文档翻译分块处理
- 拒绝截断的标记输出
- 避免模糊的仅主体包装器解包
- 从终止的 Pi 翻译会话中恢复,而不改变默认的 openai/gpt-5.4 路径
Feishu 部署标准化
- 标准化请求用户代理
- 将机器人注册为 AI 代理
- 确保 Feishu 部署一致地识别 OpenClaw
总结
OpenClaw v2026.4.10 是一个里程碑式的版本更新,它不仅在核心功能上实现了重大突破(特别是主动记忆系统),还在安全性、多平台集成和开发者体验方面达到了新的高度。无论是普通用户还是开发者,都能从这一版本中获得显著的体验提升。
关键亮点回顾:
- ✨ 主动记忆系统:让 AI 真正理解并记住你的对话上下文
- 🔐 全面安全加固:浏览器、工具执行、网络访问等多层面安全防护
- 🤝 多平台深度集成:Microsoft Teams、WhatsApp、Matrix 等平台功能大幅增强
- 🧪 QA 基础设施升级:多平台实时测试通道,提升开发效率
- 🎯 开发者工具增强:exec 策略管理、命令发现等新功能
这一版本充分体现了 OpenClaw 团队对用户体验、安全性和开发者友好的持续追求,为未来的 AI 应用开发奠定了更加坚实的基础。
老徐,2026/04/10