先说说浏览器的原生支持情况。目前主要依赖Web Speech API,但各家的实现程度天差地别。Chromium内核的浏览器支持度最好,Firefox和Safari就有点玄学。特别是在移动端,iOS上的限制更多,需要用户主动触发才能启动语音识别。这点特别坑,第一次测试时在iPhone上死活调不起来,后来才发现必须绑定在用户点击事件里。
具体实现时我封装了个语音识别Hook。核心是利用window下的SpeechRecognition对象,不过记得要加浏览器前缀。创建实例后要设置几个关键参数:continuous控制是否持续监听,interimResults决定是否返回中间结果,lang指定语言类型。这里建议一定要设置中文普通话,不然默认会识别成英语。
实际开发中最头疼的是稳定性问题。经常遇到识别服务突然断开的情况,这时候就需要在onerror事件里做重连机制。我现在的做法是设置最大重试次数,每次间隔时间指数级增加。不过要特别注意用户体验,不能无脑重试,得给用户明确的提示和操作选择。
还有个细节是音频可视化。为了提升交互体验,我加了音频波形动画。这个要用到AnalyserNode获取实时频率数据,然后通过canvas绘制。注意要在用户授权麦克风权限后才能获取到音频流,否则会报权限错误。在Chrome里如果页面不是HTTPS,根本调不起麦克风,这个坑我踩了整整两天。
性能优化方面,发现长时间录音会导致内存持续增长。后来用Chrome Performance工具排查,发现是音频数据缓存没有及时释放。解决方法是在语音停顿间隙主动调用gc回收,并设置合理的缓存上限。在移动端尤其要注意这点,内存吃紧时很容易导致页面崩溃。
现在这套方案在主流浏览器上跑得还不错,识别准确率大概有85%左右。对于常见的客服场景够用了,毕竟后面还能结合自然语言处理做语义纠错。不过要达到商用级别,建议还是搭配专业的语音识别服务,比如阿里云或者讯飞的SDK,准确率能提升到95%以上。
最后给个实战建议:一定要做降级方案。我在代码里埋了多个fallback路径,当原生API不可用时自动切换成第三方服务,再不济就显示传统输入框。毕竟在线上环境,功能可用性永远比技术先进性重要。下次有机会再聊聊怎么把语音识别和Vue的响应式系统更深度地结合,这块还有些有意思的实践。