5 月中旬,Meta 给 Ray-Ban Display 智能眼镜推了一次更新。
新功能听起来有点科幻:戴着眼镜,再戴上 Meta Neural Band,手在空中写几下,就能回消息。
这事乍看像一个炫技小功能。可我越看越觉得,它碰到的是 AI 眼镜真正尴尬的地方。
过去大家聊 AI 眼镜,总绕着模型、摄像头、屏幕、续航打转。问题是,就算眼镜里住着一个很聪明的 AI,你也得先告诉它你想干什么。
这一步,今天还挺别扭。

先看几个硬信息:
- Meta Ray-Ban Display 在 2025 年 9 月 发布,起售价 799 美元 ,随眼镜配 Meta Neural Band。
- 这条腕带用的是 EMG 肌电信号识别 ,不是用摄像头看你的手。
- The Verge 报道称,Meta 正在把"虚拟手写"推给所有 Display 用户,可用于 WhatsApp、Messenger、Instagram 和原生手机消息。
- Meta 也在开放开发者工具预览,第三方应用开始能摸到眼镜的摄像头、音频、显示和输入能力。
眼镜开始补"打字"这块短板
The Verge 5 月 14 日报道,Meta 正在把 Ray-Ban Display 的虚拟手写能力推给所有用户。这个功能依赖 Meta Neural Band,也就是那条戴在手腕上的神经腕带。
用户不用掏手机,可以直接通过手势写消息。Meta 给出的适用范围包括 WhatsApp、Messenger、Instagram,以及 Android / iOS 的原生消息。
同一轮更新里,Meta 还加了 display recording,扩大导航覆盖,并让 Live Captions 支持 WhatsApp、Facebook Messenger 和 Instagram DM 的语音消息。
这些功能单独拿出来,都不算什么"改变世界"。但放在一起看,Meta 在补一条很现实的链路:你看到了信息,然后要能选择、输入、修改、发送。
只看见,还不够。
一副眼镜如果只能提醒你"有人找你",那它更像通知器。能回、能改、能确认,才开始像一台计算设备。

语音好用,但它不是键盘
AI 眼镜最自然的交互方式,当然是语音。
戴着眼镜问一句:"帮我看下这是什么?"或者"把这段翻译一下。"这比掏手机顺手多了。
但语音有个麻烦:它适合问问题,不适合改东西。
你可以在路上问 AI:"这家店怎么样?"
可你很难在地铁里念出一段私密消息。也很难靠语音精确改一个错别字、删掉半句话、选中一个联系人,或者把"太强了"改成"这个方向可以继续观察"。
更别提输入密码、验证码、会议纪要里的敏感内容。
语音还有社交成本。不是用户不会说,是很多时候不方便说。
所以只靠语音的 AI 眼镜,更像"耳机 + 摄像头 + AI 助手"。它能回答你,但很难让你安静地操作数字世界。
Meta 的腕带,其实是在找一副隐形键盘
Meta Neural Band 的核心是 EMG,也就是肌电信号识别。
简单说,它不是让摄像头盯着你的手,而是读取手腕附近的肌肉电信号,判断你想做什么动作。
Meta 官方介绍里提到,EMG 可以识别 finger taps、thumb swipes、wrist rolls 这类细微动作,也有潜力识别更复杂的交互,比如 handwriting 和 typing on a surface。
这句话比它看起来更有分量。
因为它不是在发明一种更夸张的手势,而是在把输入动作变小。
传统手势识别常常要求摄像头看见你的手。你在公共场合挥手、捏空气、划菜单,技术上能做,心理上未必舒服。
腕带走的是另一条路。它不要求你表演给机器看,而是让机器读懂那些很小的动作。
输入设备从桌面键盘、手机屏幕,往手腕上挪了一点。

AI 眼镜缺的不是大脑,而是手
今天的模型能力,已经越来越像一种可调用资源。
一副眼镜不一定要把最强模型塞进镜腿里。它可以通过手机、云端、边缘设备去调用 GPT、Gemini、Claude 或 Meta AI。
但输入不一样。
输入必须发生在用户身上,发生在当下。你要不要点开这条消息?回不回?怎么改?发给谁?撤回还是保存?这些动作不能全靠模型替你猜。
模型再强,如果表达意图太费劲,用户很快就会退回手机。
随身 Agent 真要成立,需要的是一条低摩擦链路:
| 环节 | 用户要做什么 | 只靠语音的问题 |
|---|---|---|
| 看见 | 获取消息、字幕、导航、提醒 | 能解决一部分 |
| 选择 | 点开、切换、确认、取消 | 语音太重,触控太窄 |
| 输入 | 回复、搜索、记录、命令 | 公开、不私密、难编辑 |
| 修改 | 改字、删句、调整语气 | 编辑成本高 |
| 执行 | 发送、保存、调用应用 | 需要稳定确认 |
虚拟手写的价值就在这里。
它不是为了证明"眼镜也能写字"。它在补一个很基础的动作:输入和修改。
没有这一步,眼镜上的 AI 再聪明,也像站在门口等你发话的顾问。
有了这一步,它才有机会进入应用内部,替你完成更连续的事。
开发者入口比官方功能更要紧
这次 Meta 还开放了 Ray-Ban Display 的开发者工具预览。
Meta Wearables Device Access Toolkit 允许开发者在移动应用里调用 AI 眼镜的能力,包括视频流、拍照、麦克风和音频。对于 Display 眼镜,开发者还可以访问 on-device display。
Meta 也给 Display 眼镜提供 Web Apps 路线,开发者可以用 HTML、CSS、JavaScript 构建眼镜上的体验。
开发者 FAQ 里提到,Web Apps 初期可访问 motion / orientation、手机 GPS、Meta Neural Band 输入、captouch 输入和本地存储。
这部分比听起来重要。
如果没有稳定输入事件,开发者能做的多半是通知、卡片、只读信息流。用户看看可以,真要操作,还得回手机。
一旦腕带、触控、显示、传感器和 Web Apps 接起来,眼镜才有机会从一个配件,变成一个小平台。
当然,现在还只是机会,不是结果。

其他厂商也绕不开这个坑
把视野放宽一点,市面上的 AI / AR 眼镜都在处理同一个问题:不掏手机,怎么输入?
Ray-Ban Meta 这类无屏 AI 眼镜,主要靠语音、镜腿触控和拍摄按钮。优点是自然,学习成本低;缺点也明显,文本输入带宽太低。
Brilliant Labs Frame 走多模态 AI + 手机 App 路线,能做视觉搜索、翻译和问答,但复杂操作还是容易绕回手机。
Even Realities G1 / G2 更强调轻量 HUD、翻译、提词、导航和笔记,输入上也离不开语音、触控或配套 App。
XREAL、Rokid 这类偏 AR 显示的产品,往往需要手机、Beam Pro、Station 之类的伴侣设备来承担控制和计算。
这些方案都能解决一段路,但都没有完全回答那个朴素问题:我不掏手机,怎么安静、快速、准确地输入?
所以戒指、腕带、低可见度手势会变得越来越有意思。
它们不一定就是最终答案。但方向很明确:输入要更私密,更连续,更不打扰人。
先别急着喊 iPhone 时刻
Meta 这套方案还远没到"下一代键盘已经诞生"的程度。
Ray-Ban Display 仍是早期产品。它有小屏幕,有 AI,有腕带,但日常高频场景和应用生态还要慢慢验证。
虚拟手写也需要真实体验检验。能写短消息,不等于能处理复杂文本;能识别手势,不等于能长期低误触。
腕带本身也是一道门槛。用户愿不愿意每天多戴一个设备?续航怎么样?夏天闷不闷?左右手习惯怎么适配?这些都很现实。
但这次更新至少提醒了一个事实:AI 眼镜的竞争,不能只看谁接了更强模型。
下一轮可能会很土,也很关键:谁先找到眼镜时代的键盘。
这个键盘未必长得像键盘。
它可能是一条腕带,一个戒指,一组很小的手势,也可能是几种输入方式拼在一起。
可它要解决的事情一点都不新鲜:让人更快、更准、更私密地告诉机器,自己到底想干什么。
附链接
- The Verge:Meta brings virtual writing to everyone with Meta Ray-Ban Display glasses
www.theverge.com/tech/930941...
- Meta Newsroom:Meta Ray-Ban Display: AI Glasses With an EMG Wristband
- Meta:EMG Wristbands and Technology
- Meta Developers:Introducing the Meta Wearables Device Access Toolkit
developers.meta.com/blog/introd...
- 9to5Google:Meta braces for Android XR, opens Ray-Ban Display glasses to third-party apps