下一代键盘,可能戴在手腕上

5 月中旬,Meta 给 Ray-Ban Display 智能眼镜推了一次更新。

新功能听起来有点科幻:戴着眼镜,再戴上 Meta Neural Band,手在空中写几下,就能回消息。

这事乍看像一个炫技小功能。可我越看越觉得,它碰到的是 AI 眼镜真正尴尬的地方。

过去大家聊 AI 眼镜,总绕着模型、摄像头、屏幕、续航打转。问题是,就算眼镜里住着一个很聪明的 AI,你也得先告诉它你想干什么。

这一步,今天还挺别扭。

先看几个硬信息:

  • Meta Ray-Ban Display 在 2025 年 9 月 发布,起售价 799 美元 ,随眼镜配 Meta Neural Band。
  • 这条腕带用的是 EMG 肌电信号识别 ,不是用摄像头看你的手。
  • The Verge 报道称,Meta 正在把"虚拟手写"推给所有 Display 用户,可用于 WhatsApp、Messenger、Instagram 和原生手机消息。
  • Meta 也在开放开发者工具预览,第三方应用开始能摸到眼镜的摄像头、音频、显示和输入能力。

眼镜开始补"打字"这块短板

The Verge 5 月 14 日报道,Meta 正在把 Ray-Ban Display 的虚拟手写能力推给所有用户。这个功能依赖 Meta Neural Band,也就是那条戴在手腕上的神经腕带。

用户不用掏手机,可以直接通过手势写消息。Meta 给出的适用范围包括 WhatsApp、Messenger、Instagram,以及 Android / iOS 的原生消息。

同一轮更新里,Meta 还加了 display recording,扩大导航覆盖,并让 Live Captions 支持 WhatsApp、Facebook Messenger 和 Instagram DM 的语音消息。

这些功能单独拿出来,都不算什么"改变世界"。但放在一起看,Meta 在补一条很现实的链路:你看到了信息,然后要能选择、输入、修改、发送。

只看见,还不够。

一副眼镜如果只能提醒你"有人找你",那它更像通知器。能回、能改、能确认,才开始像一台计算设备。

语音好用,但它不是键盘

AI 眼镜最自然的交互方式,当然是语音。

戴着眼镜问一句:"帮我看下这是什么?"或者"把这段翻译一下。"这比掏手机顺手多了。

但语音有个麻烦:它适合问问题,不适合改东西。

你可以在路上问 AI:"这家店怎么样?"

可你很难在地铁里念出一段私密消息。也很难靠语音精确改一个错别字、删掉半句话、选中一个联系人,或者把"太强了"改成"这个方向可以继续观察"。

更别提输入密码、验证码、会议纪要里的敏感内容。

语音还有社交成本。不是用户不会说,是很多时候不方便说。

所以只靠语音的 AI 眼镜,更像"耳机 + 摄像头 + AI 助手"。它能回答你,但很难让你安静地操作数字世界。

Meta 的腕带,其实是在找一副隐形键盘

Meta Neural Band 的核心是 EMG,也就是肌电信号识别。

简单说,它不是让摄像头盯着你的手,而是读取手腕附近的肌肉电信号,判断你想做什么动作。

Meta 官方介绍里提到,EMG 可以识别 finger taps、thumb swipes、wrist rolls 这类细微动作,也有潜力识别更复杂的交互,比如 handwriting 和 typing on a surface。

这句话比它看起来更有分量。

因为它不是在发明一种更夸张的手势,而是在把输入动作变小。

传统手势识别常常要求摄像头看见你的手。你在公共场合挥手、捏空气、划菜单,技术上能做,心理上未必舒服。

腕带走的是另一条路。它不要求你表演给机器看,而是让机器读懂那些很小的动作。

输入设备从桌面键盘、手机屏幕,往手腕上挪了一点。

AI 眼镜缺的不是大脑,而是手

今天的模型能力,已经越来越像一种可调用资源。

一副眼镜不一定要把最强模型塞进镜腿里。它可以通过手机、云端、边缘设备去调用 GPT、Gemini、Claude 或 Meta AI。

但输入不一样。

输入必须发生在用户身上,发生在当下。你要不要点开这条消息?回不回?怎么改?发给谁?撤回还是保存?这些动作不能全靠模型替你猜。

模型再强,如果表达意图太费劲,用户很快就会退回手机。

随身 Agent 真要成立,需要的是一条低摩擦链路:

环节 用户要做什么 只靠语音的问题
看见 获取消息、字幕、导航、提醒 能解决一部分
选择 点开、切换、确认、取消 语音太重,触控太窄
输入 回复、搜索、记录、命令 公开、不私密、难编辑
修改 改字、删句、调整语气 编辑成本高
执行 发送、保存、调用应用 需要稳定确认

虚拟手写的价值就在这里。

它不是为了证明"眼镜也能写字"。它在补一个很基础的动作:输入和修改。

没有这一步,眼镜上的 AI 再聪明,也像站在门口等你发话的顾问。

有了这一步,它才有机会进入应用内部,替你完成更连续的事。

开发者入口比官方功能更要紧

这次 Meta 还开放了 Ray-Ban Display 的开发者工具预览。

Meta Wearables Device Access Toolkit 允许开发者在移动应用里调用 AI 眼镜的能力,包括视频流、拍照、麦克风和音频。对于 Display 眼镜,开发者还可以访问 on-device display。

Meta 也给 Display 眼镜提供 Web Apps 路线,开发者可以用 HTML、CSS、JavaScript 构建眼镜上的体验。

开发者 FAQ 里提到,Web Apps 初期可访问 motion / orientation、手机 GPS、Meta Neural Band 输入、captouch 输入和本地存储。

这部分比听起来重要。

如果没有稳定输入事件,开发者能做的多半是通知、卡片、只读信息流。用户看看可以,真要操作,还得回手机。

一旦腕带、触控、显示、传感器和 Web Apps 接起来,眼镜才有机会从一个配件,变成一个小平台。

当然,现在还只是机会,不是结果。

其他厂商也绕不开这个坑

把视野放宽一点,市面上的 AI / AR 眼镜都在处理同一个问题:不掏手机,怎么输入?

Ray-Ban Meta 这类无屏 AI 眼镜,主要靠语音、镜腿触控和拍摄按钮。优点是自然,学习成本低;缺点也明显,文本输入带宽太低。

Brilliant Labs Frame 走多模态 AI + 手机 App 路线,能做视觉搜索、翻译和问答,但复杂操作还是容易绕回手机。

Even Realities G1 / G2 更强调轻量 HUD、翻译、提词、导航和笔记,输入上也离不开语音、触控或配套 App。

XREAL、Rokid 这类偏 AR 显示的产品,往往需要手机、Beam Pro、Station 之类的伴侣设备来承担控制和计算。

这些方案都能解决一段路,但都没有完全回答那个朴素问题:我不掏手机,怎么安静、快速、准确地输入?

所以戒指、腕带、低可见度手势会变得越来越有意思。

它们不一定就是最终答案。但方向很明确:输入要更私密,更连续,更不打扰人。

先别急着喊 iPhone 时刻

Meta 这套方案还远没到"下一代键盘已经诞生"的程度。

Ray-Ban Display 仍是早期产品。它有小屏幕,有 AI,有腕带,但日常高频场景和应用生态还要慢慢验证。

虚拟手写也需要真实体验检验。能写短消息,不等于能处理复杂文本;能识别手势,不等于能长期低误触。

腕带本身也是一道门槛。用户愿不愿意每天多戴一个设备?续航怎么样?夏天闷不闷?左右手习惯怎么适配?这些都很现实。

但这次更新至少提醒了一个事实:AI 眼镜的竞争,不能只看谁接了更强模型。

下一轮可能会很土,也很关键:谁先找到眼镜时代的键盘。

这个键盘未必长得像键盘。

它可能是一条腕带,一个戒指,一组很小的手势,也可能是几种输入方式拼在一起。

可它要解决的事情一点都不新鲜:让人更快、更准、更私密地告诉机器,自己到底想干什么。

附链接

  • The Verge:Meta brings virtual writing to everyone with Meta Ray-Ban Display glasses

www.theverge.com/tech/930941...

  • Meta Newsroom:Meta Ray-Ban Display: AI Glasses With an EMG Wristband

about.fb.com/news/2025/0...

  • Meta:EMG Wristbands and Technology

www.meta.com/emerging-te...

  • Meta Developers:Introducing the Meta Wearables Device Access Toolkit

developers.meta.com/blog/introd...

  • 9to5Google:Meta braces for Android XR, opens Ray-Ban Display glasses to third-party apps

9to5google.com/2026/05/15/...

相关推荐
wyg_0311131 小时前
codex features
人工智能
小程故事多_801 小时前
Agent Loop 核心突破,上下文压缩四大流派,重新定义窗口资源利用率
java·开发语言·人工智能
小小工匠1 小时前
Spring AI RAG - 09 AI 绘图 ImageModel 集成
人工智能·spring
渣渣苏2 小时前
硬核拆解 HNSW:亿级向量如何实现毫秒级召回?(上篇)
人工智能·算法·支持向量机·ai·向量数据库·hnsw·智能体
CCC:CarCrazeCurator2 小时前
DriveGen: 基于扩散 Transformer 的驾驶场景视频生成器
人工智能·机器学习·自动驾驶
AI创界者2 小时前
HiDream-O1 整合包发布:解压即用!原生统一图像生成模型,彻底告别 VAE 与独立文本编码器
人工智能
十铭忘2 小时前
个人思考4——价值驱动的重要性
人工智能
项目申报小狂人2 小时前
一种使用双向长短时记忆网络结合鲸鱼优化算法的类火星矿物元素精确定量分析模型
人工智能·算法·lstm