【AI智能体】智能音视频-搭建可视化智能体

可视化智能体是语音小伴侣智能体的升级版,支持语音与视频的双模态交互。本文详细介绍了音视频交互的实现原理、智能体搭建方法及效果测试,帮助开发者快速构建支持音视频交互的智能体。

应用场景

可视化智能体适用于多种场景,举例如下:

  • 智能穿戴:用户可以通过智能眼镜等设备与智能体交互,实时获取导航指引,识别周边地标并接收语音或文字提示,提升出行便捷性与安全性。
  • 智慧家居:用户通过音视频与智能家居设备交互,可远程查看空调、灯光等智能家电的状态,实时监控漏水、外人入侵等异常情况并触发报警,从而提升家居生活的便捷性和安全性。
  • 智慧医疗:医护人员通过音视频与患者远程会诊,患者可在线展示症状(舌苔 / 伤口等),智能体自动识别分析初步判断病因,同步病历数据、调取检验报告并提供辅助诊断建议,优化远程医疗流程。
  • 智能客服:企业客服场景中,用户通过音视频描述问题(如产品故障画面),智能体结合语音语义与视频画面精准定位需求,实时生成解决方案,支持复杂问题一键转接人工并附详细记录,提升服务效率与用户体验。

实现原理

扣子音视频交互的业务流程如下图所示。

业务流程说明如下:

  1. 设备端采集音视频数据。
    • 视频采集:设备通过摄像头进行视频采集,生成视频流。
    • 音频采集:设备利用麦克风进行音频采集,产生音频流。
  2. RTC 网关处理音视频流。
    • 视频流:从设备端传输至 RTC 网关后,RTC 网关对视频流进行抽帧操作,将视频流转换为图片流。
    • 音频流:保持原始音频流传输,推送至扣子服务。
  3. 扣子智能体对音视频数据进行智能处理并反馈结果。
    • 音频处理:音频流进入扣子服务中的自动语音识别(ASR)模块,将音频流转换为文本流。
    • 智能处理与反馈:文本流和图片流输入智能体后,智能体根据预设的逻辑和模型进行处理。处理结果一方面传输至文本转语音(TTS)模块,TTS 模块将文本转换为音频流,该音频流传输至设备的扬声器进行播放,从而实现语音交互功能;另一方面,智能体结合图片信息和用户输入的文本信息,生成更精准、更丰富的交互内容。

搭建智能体

本场景中,你需要搭建一个能够支持音视频通话的智能体。扣子支持多种方式搭建音视频通话的智能体,以下是各方案的优缺点及适用场景:

|-----------------|-------------------------------|-----------------------------------------------------|
| 方案 | 适用场景 | 优缺点 |
| 单 Agent(对话流模式) | 对实时性要求较高的场景。 | * 灵活且高效,时延较低。 * 通过对话流编排,能够清晰地定义不同节点的逻辑,便于搭建复杂的业务场景。 |
| 单 Agent(自主规划模式) | 简单的闲聊,对时延要求不高的场景,不适用于复杂的逻辑场景。 | * 配置简单,易于上手。 * 智能体中添加插件和工作流会导致延时增加。 |

方案一:单 Agent(自主规划模式)智能体

创建单 Agent(自主规划模式) 类型的智能体,选择支持视觉理解的模型,例如豆包·视觉理解·Pro模型。

人设与回复逻辑区域,设计智能体的角色和回复逻辑。例如:

你是一个带眼睛的智能体,看到的东西通过图片传给你,请结合图片和用户的输入进行口语化回答。

测试智能体效果,并将智能体发布到 API 或其他渠道。

方案二:单 Agent(对话流模式)智能体

本场景基于语音小伴侣模板进行改造,在支持语音闲聊的基础上,增加视频闲聊的功能,实现语音 + 视觉双模态交互。

步骤 1:复制模板

打开语音小伴侣智能体,然后单击复制

选择智能体的所属空间并输入一个智能体名称,然后单击确定

在智能体编排页面开启视频通话,开启后,扣子会自动添加 sys_images 系统变量。

在视频通话过程中,扣子会将摄像头或屏幕共享捕捉到的画面进行抽帧处理,并将抽帧后的图片流存放在sys_images变量中。你可以在对话流中引用该变量作为视觉模型的输入,帮助智能体理解用户的动作和行为。

(可选)在复制的智能体编排页面,单击智能体名称旁的修改图标,修改智能体名称。

根据实际需求,修改开场白文案和预置问题。

步骤 2:改造对话流

在本场景中,需要将语音小伴侣智能体中的对话流改造为支持视频闲聊的对话流。改造后的对话流编排详情如下图所示。

将闲聊节点修改为支持视频的闲聊节点具体实现说明如下表所示。

|--------|---------------------------------------------------------------------------|-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
| 区域 | 修改说明 | 示例 |
| 模型 | 将模型改为支持视觉理解的模型,例如豆包·视觉理解·Pro 模型。 | |
| 视觉理解输入 | 添加 sys_images参数,参数的值引用智能体中添加的sys_images 系统变量。 sys_images参数用于存放视频流抽帧后的图片流。 | |
| 系统提示词 | 根据实际场景,修改系统提示词中的技能。 | # 角色 你是一个高效且知识渊博的生活小助理,能陪伴用户。 ## 技能 ### 技能 1: 闲聊陪伴 1. 积极与用户互动,倾听用户的心声,给予温暖的回应,回复100字左右。 2. 结合历史消息和用户当前输入,根据用户的话题展开有趣的讨论,让用户感受到陪伴。 3. 你拥有视觉,有必要的话,可以结合一下你眼前看到的东西。 4. 说话的人就在你眼前。 ## 用户个人信息 - 用户画像是: {{user_profile}} - 用户历史记忆点是: {{user_memory_point}} - 结合用户画像和用户历史发生过的记忆点事件,灵活的回答用户的问题 ## 环境信息 - 当前的日期:{{current_date}} - 当前的时间:{{current_time}} ## 回答格式 - 直接输出文本,不要输出 json ## 限制: - 只回答与生活相关或百科知识范围内的问题,拒绝回答无关话题。 - 所输出的内容必须按照给定的格式进行组织,不能偏离框架要求。 - 请确保信息来源准确可靠,必要时注明引用来源。 用户提示词 引用输入参数中的 sys_images 和 input 参数。 |
| 用户提示词 | 引用输入参数中的 sys_images 和 input 参数。 | ## 你眼前的内容 {{sys_images}} ## 用户当前输入 {{input}} |

测试并发布智能体。

修改对话流并调试发布之后,你就可以测试智能体效果并发布智能体。

在智能体编排页面的右侧调试区域,输入问题进行测试。

完成测试后可单击发布,将智能体发布到 API 或其他渠道。

效果测试

访问 Realtime 智能音视频 Demo,单击 Settings,设置 Token 和对应的智能体。

单击 Connect ,选择 Video,即可与智能体进行视频通话。你可以通过语音指令让智能体根据视频画面描述它看到的场景,智能体会根据你的语音指令进行回复。

相关推荐
想成为风筝2 小时前
从零开始学习深度学习—水果分类之PyQt5App
人工智能·深度学习·计算机视觉·pyqt
F_D_Z2 小时前
MMaDA:多模态大型扩散语言模型
人工智能·语言模型·自然语言处理
设计师小聂!2 小时前
Linux系统中部署Redis详解
linux·运维·数据库·redis
kfepiza2 小时前
Debian-10编译安装Mysql-5.7.44 笔记250706
linux·数据库·笔记·mysql·debian·bash
Touper.2 小时前
Redis 基础详细介绍(Redis简单介绍,命令行客户端,Redis 命令,Java客户端)
java·数据库·redis
不剪发的Tony老师2 小时前
phpMyAdmin:一款经典的MySQL在线管理工具又回来了
数据库·mysql·phpmyadmin
极限实验室2 小时前
TDBC 2025 可信数据库发展大会,极限科技邀您来赴约!
数据库
大知闲闲哟2 小时前
深度学习G2周:人脸图像生成(DCGAN)
人工智能·深度学习
飞哥数智坊2 小时前
Coze实战第15讲:钱都去哪儿了?Coze+飞书搭建自动记账系统
人工智能·coze
wenzhangli72 小时前
低代码引擎核心技术:OneCode常用动作事件速查手册及注解驱动开发详解
人工智能·低代码·云原生