一、关于WebRTC(Web Real-Time Communication)
**WebRTC 是什么:**是浏览器内置的实时通信技术,能让网页直接实现音视频通话、数据传输,无需安装插件。
**ICE 是什么:**ICE(Interactive Connectivity Establishment)是 WebRTC 中用于解决 NAT 穿透(简单说就是让不同网络下的设备能找到彼此)的框架,而 iceServers 就是给 ICE 提供 "辅助服务器" 的配置。
**STUN 服务器:**STUN(Session Traversal Utilities for NAT),直译是 "NAT 会话穿透工具",它是一种轻量级的网络服务器,核心作用是:帮助处于 NAT(网络地址转换)后的设备(比如你的电脑 / 手机),获取自己的公网 IP + 端口,以及 NAT 设备的类型,从而让不同 NAT 后的设备能找到彼此,建立点对点(P2P)连接。
先补个前提:为什么需要 STUN?
我们日常用的网络(比如家里的宽带、公司的内网),设备拿到的都是内网 IP(如 192.168.1.100),不是公网 IP。当两个内网设备要直接通信(比如 WebRTC 音视频通话),它们不知道对方的公网地址,就像两个人在不同的小区里,只知道自己的门牌号,却不知道小区的地址和对外的出入口 ------STUN 服务器就是帮它们查 "小区地址 + 出入口" 的工具。
用一个 "打电话" 的例子解释:
- 设备 A(内网) 向 STUN 服务器发送一个请求:"请告诉我,你看到的我的地址和端口是什么?"
- STUN 服务器 收到请求后,会记录下请求来源的公网 IP + 端口(这是 NAT 设备给设备 A 分配的对外端口),然后把这个信息返回给设备 A。
- 设备 A 拿到自己的公网地址后,通过信令服务器(比如 WebSocket)把这个地址告诉设备 B;同理,设备 B 也通过 STUN 服务器拿到自己的公网地址并告诉设备 A。
- 最后,设备 A 和设备 B 就可以用彼此的公网地址,直接建立 P2P 连接。
二、设计思路

一、整体视频通话思路
这是一个基于 WebRTC + Spring Boot + STUN 的完整视频通话方案。它的核心是:
- 信令协商:通过 Spring Boot 服务端作为中介,交换双方的网络信息和通话指令。
- 网络穿透:借助 STUN 服务器获取设备的公网 IP 和端口,解决 NAT 穿越问题。
- P2P 直连:在协商完成后,WebRTC 建立端到端的直接连接,负责音视频的实时传输。
- 长连接保活:通过 WebSocket 维持客户端与服务端的通信通道,确保信令能实时送达。
二、各功能模块的作用
1. Spring Boot 项目
- 核心作用:作为信令服务器,是整个通话的 "协调中心"。
- 内部组件 :
- Netty:高性能网络框架,保证 WebSocket 连接的高并发和稳定 IO 传输。
- WebSocket:在客户端与服务端之间建立长连接,实时传递通话请求、应答、网络信息等信令。
- 关键功能:转发 A、B 双方的信令,让彼此知道对方的网络信息,为后续 P2P 连接铺路。
2. WebRTC(客户端 A/B)
- 核心作用:实现音视频的采集、编码、传输、解码和渲染,是通话的 "数据通道"。
- 关键功能 :
- 从摄像头、麦克风采集音视频数据。
- 对音视频进行编码压缩,减少传输带宽占用。
- 通过协商建立的 P2P 通道,直接向对方发送音视频流。
- 接收对方的音视频流,解码后在本地播放。
- 自动处理网络抖动、丢包等问题,保证通话流畅。
3. STUN 服务器
- 核心作用:帮助处于 NAT 后的设备(如手机、电脑)获取自己的公网 IP 和端口,是 "网络地址翻译的探测器"。
- 关键功能 :
- 客户端向 STUN 服务器发送请求,服务器会返回该客户端在公网中的可见 IP 和端口。
- 这个公网地址会通过信令服务器转发给对方,让双方知道如何找到彼此。
- 解决了大多数家庭 / 企业网络下,设备无法直接被外部访问的问题。
4. 信令(A 信令 / B 信令)
- 核心作用:携带通话所需的控制信息和网络信息,是双方沟通的 "语言"。
- 包含内容 :
- 通话发起、应答、挂断等控制指令。
- 从 STUN 服务器获取的公网 IP + 端口。
- WebRTC 协商所需的 SDP(会话描述协议)和 ICE(交互式连接建立)候选地址。
- 传递方式:通过 WebSocket 连接,由 Spring Boot 服务端转发给对方。
三、完整通话流程
- 初始化连接:客户端 A 和 B 分别通过 WebSocket 与 Spring Boot 服务端建立长连接。
- 获取公网地址:A 和 B 各自向 STUN 服务器请求,得到自己的公网 IP + 端口。
- 信令交换:A 发起通话请求,携带自己的公网信息和 SDP,通过 WebSocket 发送给服务端;服务端转发给 B;B 应答并返回自己的信息,再由服务端转发给 A。
- P2P 连接建立:A 和 B 根据收到的对方信息,通过 WebRTC 建立直接的 P2P 连接。
- 音视频传输:连接建立后,WebRTC 接管音视频传输,双方开始实时通话。
- 通话结束:任意一方发起挂断信令,服务端转发后,双方关闭 P2P 连接和 WebSocket 连接。
三、前后端设计
步骤 1:核心原理铺垫
核心原理:
- 技术作用SpringBoot快速搭建后端项目框架,管理 Netty 服务Netty高性能网络通信框架,实现 WebSocket 服务端,处理多客户端连接WebSocket保持客户端与服务端的长连接,传输信令消息(注册、呼叫、应答等)WebRTC浏览器原生支持的实时音视频通信技术,实现音视频采集、编码、传输Vue搭建前端页面,实现用户交互(输入用户ID、发起呼叫)和视频画面展示③ 核心流程图示(板书/PPT 展示):客户端 A → WebSocket 连接 → Netty 服务端(注册)客户端 B → WebSocket 连接 → Netty 服务端(注册)客户端 A 发起呼叫 → 信令(含 SDP 提议)→ 服务端转发 → 客户端 B客户端 B 应答 → 信令(含 SDP 应答)→ 服务端转发 → 客户端 A双方交换 ICE 候选(网络地址)→ 建立 WebRTC P2P 连接 → 实时音视频传输
- 信令交换:相当于"敲门+协商"------告诉对方"我要和你视频""我这边的音视频参数是什么""我的网络地址是什么",由 WebSocket+Netty 负责
- 端到端音视频传输:协商完成后,直接在两个客户端之间传输音视频数据,不经过服务端中转(P2P),由 WebRTC 负责
步骤 2:服务端开发(一)------ 项目搭建与依赖配置
XML
<!-- SpringBoot 核心 -->
<dependency>
<groupId>org.springframework.boot</groupId>
<artifactId>spring-boot-starter</artifactId>
</dependency>
<!-- Netty WebSocket 依赖 -->
<dependency>
<groupId>io.netty</groupId>
<artifactId>netty-all</artifactId>
<version>4.1.94.Final</version>
</dependency>
<!-- JSON 解析 -->
<dependency>
<groupId>com.alibaba</groupId>
<artifactId>fastjson</artifactId>
<version>2.0.25</version>
</dependency>
Netty 是核心,负责网络通信;FastJSON 用于处理前后端传输的 JSON 格式信令
步骤 3:服务端开发(二)------ 核心实体类与消息处理器
1.创建消息实体类 Message.java
信令消息需要包含"消息类型""发送方ID""接收方ID""消息内容",所以定义对应的属性
java
public class Message {
// 消息类型:register(注册)、call(呼叫)、answer(应答)、ice(ICE候选)
private String type;
// 发送方ID
private String from;
// 接收方ID
private String to;
// 消息内容(SDP/ICE 数据)
private String data;
}
2.创建 Netty WebSocket 处理器
处理 WebSocket 连接的建立、消息接收与转发、连接断开等事件,是服务端的核心逻辑
java
package com.qcby.schoolai.commun;
import com.alibaba.fastjson.JSON;
import com.qcby.schoolai.entity.Message;
import io.netty.channel.Channel;
import io.netty.channel.ChannelHandler;
import io.netty.channel.ChannelHandlerContext;
import io.netty.channel.SimpleChannelInboundHandler;
import io.netty.handler.codec.http.websocketx.TextWebSocketFrame;
import io.netty.handler.codec.http.websocketx.WebSocketServerProtocolHandler;
import org.springframework.context.annotation.Configuration;
import java.util.Map;
import java.util.concurrent.ConcurrentHashMap;
/**
* 描述:
*/
@Configuration
@ChannelHandler.Sharable
public class WebSocketHandler extends SimpleChannelInboundHandler<TextWebSocketFrame> {
// 存储用户ID与Channel的映射(线程安全)
public static final ConcurrentHashMap<String, Channel> USER_CHANNEL_MAP = new ConcurrentHashMap<>();
@Override
public void channelActive(ChannelHandlerContext ctx) throws Exception {
System.out.println("与客户端建立连接,通道开启!");
}
/**
* 处理接收到的文本消息
*/
@Override
protected void channelRead0(ChannelHandlerContext ctx, TextWebSocketFrame msg) throws Exception {
// 解析JSON消息
String text = msg.text();
Message message = JSON.parseObject(text, Message.class);
System.out.println("收到消息:" + text);
switch (message.getType()) {
case "register":
// 注册用户ID与Channel的映射
USER_CHANNEL_MAP.put(message.getFrom(), ctx.channel());
System.out.println("用户 " + message.getFrom() + " 注册成功");
break;
case "call":
case "answer":
case "ice":
// 转发消息到接收方
Channel targetChannel = USER_CHANNEL_MAP.get(message.getTo());
if (targetChannel != null && targetChannel.isActive()) {
targetChannel.writeAndFlush(new TextWebSocketFrame(text));
System.out.println("转发消息到用户 " + message.getTo());
} else {
System.out.println("用户 " + message.getTo() + " 不在线");
}
break;
default:
System.out.println("未知消息类型:" + message.getType());
}
}
/**
* 处理连接断开事件
*/
@Override
public void channelInactive(ChannelHandlerContext ctx) throws Exception {
System.out.println("与客户端断开连接,通道关闭!");
}
/**
* 处理异常
*/
@Override
public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) throws Exception {
System.out.println("连接异常:" + cause.getMessage());
USER_CHANNEL_MAP.entrySet().removeIf(entry -> entry.getValue() == ctx.channel());
ctx.close();
}
}
步骤 4: Netty 服务启动类与 SpringBoot 启动类
需要在 SpringBoot 项目启动时,自动启动 Netty 的 WebSocket 服务,监听指定端口(8004)
java
package com.qcby.schoolai.commun;
import io.netty.bootstrap.ServerBootstrap;
import io.netty.channel.ChannelFuture;
import io.netty.channel.ChannelInitializer;
import io.netty.channel.ChannelOption;
import io.netty.channel.EventLoopGroup;
import io.netty.channel.nio.NioEventLoopGroup;
import io.netty.channel.socket.SocketChannel;
import io.netty.channel.socket.nio.NioServerSocketChannel;
import io.netty.handler.codec.http.HttpObjectAggregator;
import io.netty.handler.codec.http.HttpServerCodec;
import io.netty.handler.codec.http.websocketx.WebSocketServerProtocolHandler;
import io.netty.handler.stream.ChunkedWriteHandler;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.context.annotation.Configuration;
/**
* Netty WebSocket 服务端
*/
@Configuration
public class NettyWebSocketServer {
@Autowired
private WebSocketHandler coordinationSocketHandler;
public void start() throws Exception {
EventLoopGroup bossGroup = new NioEventLoopGroup();
EventLoopGroup group = new NioEventLoopGroup();
try {
ServerBootstrap sb = new ServerBootstrap();
sb.option(ChannelOption.SO_BACKLOG, 1024);
sb.group(group, bossGroup) // 绑定线程池
.channel(NioServerSocketChannel.class) // 指定使用的channel
.localAddress(8004)// 绑定监听端口
.childHandler(new ChannelInitializer<SocketChannel>() { // 绑定客户端连接时候触发操作
@Override
protected void initChannel(SocketChannel ch) throws Exception {
//websocket协议本身是基于http协议的,所以这边也要使用http解编码器
ch.pipeline().addLast(new HttpServerCodec());
//以块的方式来写的处理器
ch.pipeline().addLast(new ChunkedWriteHandler());
ch.pipeline().addLast(new HttpObjectAggregator(8192));
ch.pipeline().addLast(new WebSocketServerProtocolHandler("/ws", "WebSocket", true, 65536 * 10));
ch.pipeline().addLast(coordinationSocketHandler);//自定义消息处理类
}
});
ChannelFuture cf = sb.bind().sync(); // 服务器异步创建绑定
cf.channel().closeFuture().sync(); // 关闭服务器通道
} finally {
group.shutdownGracefully().sync(); // 释放线程池资源
bossGroup.shutdownGracefully().sync();
}
}
}
java
import com.qcby.springboot.commun.NettyWebSocketServer;
import org.mybatis.spring.annotation.MapperScan;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.boot.CommandLineRunner;
import org.springframework.boot.SpringApplication;
import org.springframework.boot.autoconfigure.SpringBootApplication;
@SpringBootApplication
@MapperScan("com.qcby.springboot.dao")
public class Application implements CommandLineRunner {
public static void main(String[] args) {
SpringApplication.run(Application.class, args);
}
@Autowired
private NettyWebSocketServer nettyServer;
@Override
public void run(String... args) throws Exception {
nettyServer.start();
}
}
步骤 5: Vue前端开发
1.编辑模版template
javascript
<template>
<div class="container">
<h2>WebRTC 视频聊天</h2>
<!-- 1. 用户ID输入与连接服务器区域 -->
<div class="input-group">
<input
v-model="userId"
placeholder="输入你的用户ID(如user1)"
type="text"
/>
<button @click="connect">连接服务器</button>
</div>
<!-- 2. 呼叫功能区域(仅连接成功后显示) -->
<div class="input-group" v-if="socketConnected">
<input
v-model="targetUserId"
placeholder="输入对方用户ID(如user2)"
type="text"
/>
<button @click="call">发起视频呼叫</button>
</div>
<!-- 3. 视频展示区域 -->
<div class="video-container">
<div class="video-item">
<p>本地视频</p>
<!-- muted:本地视频静音,避免回声;autoplay:自动播放 -->
<video ref="localVideo" autoplay muted></video>
</div>
<div class="video-item">
<p>远程视频</p>
<video ref="remoteVideo" autoplay></video>
</div>
</div>
</div>
</template>
<style scoped>
/* 全局容器:居中+固定宽度,避免页面太宽/太窄 */
.container {
width: 900px;
margin: 20px auto;
text-align: center;
font-family: "Microsoft YaHei", sans-serif;
}
/* 输入框+按钮组样式:统一间距和样式 */
.input-group {
margin: 25px 0;
}
input {
padding: 10px 15px;
width: 220px;
margin-right: 10px;
border: 1px solid #ddd;
border-radius: 4px;
font-size: 14px;
}
button {
padding: 10px 20px;
background: #42b983;
color: white;
border: none;
border-radius: 4px;
cursor: pointer;
font-size: 14px;
}
button:hover {
background: #359469; /* 鼠标悬浮变色,提升交互体验 */
}
/* 视频容器:并排展示两个视频 */
.video-container {
display: flex;
justify-content: center;
gap: 30px;
margin-top: 30px;
}
.video-item {
text-align: center;
}
.video-item p {
margin-bottom: 8px;
font-size: 16px;
color: #333;
}
/* 视频标签样式:固定尺寸,加边框,提升美观度 */
video {
width: 400px;
height: 300px;
border: 1px solid #ccc;
border-radius: 8px;
background-color: #f5f5f5; /* 未加载流时显示浅灰色背景 */
}
</style>
2.编写核心脚本(script setup),实现交互逻辑
步骤 2.1:导入依赖 + 定义基础变量
javascript
<script setup>
// 1. 导入 Vue 内置的响应式变量和生命周期钩子
import { ref, onUnmounted } from 'vue';
// 2. 定义响应式变量(页面上用到的动态数据)
const userId = ref(''); // 本地用户ID
const targetUserId = ref(''); // 对方用户ID
const socketConnected = ref(false); // WebSocket连接状态(控制呼叫区域显示)
const inCall = ref(false); // 通话状态(控制挂断按钮显示)
// 3. 定义视频DOM引用(用于绑定音视频流)
const localVideo = ref(null); // 本地视频DOM
const remoteVideo = ref(null); // 远程视频DOM
// 4. 定义非响应式全局变量(仅脚本内使用,无需页面响应)
let socket = null; // WebSocket实例
let peerConnection = null; // WebRTC核心实例
let localStream = null; // 本地音视频流(用于后续停止流)
</script>
- ref:创建响应式变量,变量值变化时,页面会自动更新(比如 socketConnected 变为 true,呼叫区域会显示);
- onUnmounted:页面销毁时执行的钩子,用于清理资源(避免内存泄漏);
- localStream:额外定义本地流变量,方便后续 "挂断" 时停止摄像头 / 麦克风。
步骤 2.2:配置 STUN 服务器 + 编写 WebSocket 连接函数
javascript
<script setup>
// (接上一步代码)
// 5. 配置 STUN 服务器(WebRTC 必需,用于获取公网ICE候选)
const iceServers = {
iceServers: [
{ urls: 'stun:stun.l.google.com:19302' }, // 谷歌免费STUN(需外网)
{ urls: 'stun:stun.qq.com:3478' }, // 腾讯免费STUN(国内更稳定)
{ urls: 'stun:stun.aliyun.com:3478' } // 阿里云免费STUN(备用)
]
};
// 6. 连接 WebSocket 服务器函数(点击"连接服务器"按钮触发)
const connect = () => {
// 校验:用户ID不能为空
if (!userId.value.trim()) {
alert('请输入你的用户ID!(不能为空/仅空格)');
return;
}
// 创建 WebSocket 连接(Netty服务端地址:ws://localhost:8081/ws)
// 注意:如果服务端部署在其他机器,需替换为对应IP(如 ws://192.168.1.100:8081/ws)
socket = new WebSocket(`ws://localhost:8004/ws`);
// 6.1 连接成功回调
socket.onopen = () => {
console.log('✅ WebSocket连接成功');
socketConnected.value = true; // 更新连接状态,显示呼叫区域
// 发送注册消息:告诉服务端"我上线了"
sendMessage({
type: 'register',
from: userId.value,
to: '',
data: ''
});
};
// 6.2 接收服务端消息回调(核心:处理转发的信令)
socket.onmessage = (e) => {
try {
const message = JSON.parse(e.data); // 解析JSON消息
console.log('📥 收到服务端消息:', message);
handleMessage(message); // 专门处理消息的函数(后续定义)
} catch (err) {
console.error('❌ 消息解析失败:', err);
}
};
// 6.3 连接关闭回调
socket.onclose = () => {
console.log('❌ WebSocket连接关闭');
socketConnected.value = false; // 更新连接状态,隐藏呼叫区域
inCall.value = false; // 连接关闭时重置通话状态
};
// 6.4 连接错误回调
socket.onerror = (err) => {
console.error('❌ WebSocket连接错误:', err);
socketConnected.value = false;
inCall.value = false; // 连接错误时重置通话状态
alert('连接服务器失败!请检查服务端是否启动,端口是否正确。');
};
};
</script>
- STUN 服务器:必须配置,否则内网设备无法找到彼此的网络地址,导致视频无法连接;
- trim():去除用户 ID 前后空格,避免用户输入空字符 / 仅空格;
- try-catch:防止服务端返回非 JSON 格式消息,导致脚本崩溃;
- WebSocket 地址:ws:// 对应 HTTP,wss:// 对应 HTTPS,本地测试用 ws:// 即可。
2.3编写通用消息发送函数
javascript
<script setup>
// (接上一步代码)
// 7. 通用发送WebSocket消息函数(复用,避免重复代码)
const sendMessage = (message) => {
// 校验:WebSocket必须处于打开状态
if (socket && socket.readyState === WebSocket.OPEN) {
socket.send(JSON.stringify(message)); // 转为JSON字符串发送
console.log('📤 发送消息:', message);
} else {
console.error('❌ WebSocket未连接,无法发送消息');
alert('未连接服务器,请先点击"连接服务器"!');
}
};
</script>
- WebSocket.OPEN:状态码为 1,表示连接已打开;其他状态(0 = 连接中,2 = 关闭中,3 = 已关闭)都无法发送消息;
- 封装成通用函数:后续发送 call/answer/ice 消息时,直接调用即可,减少重复代码。
步骤 3.4:编写消息处理函数
javascript
<script setup>
// (接上一步代码)
// 8. 处理收到的信令消息
const handleMessage = async (message) => {
switch (message.type) {
case 'call':
// 收到呼叫请求:自动应答(实际项目可加"是否接听"弹窗)
await answerCall(message);
break;
case 'answer':
// 收到应答消息:设置远程SDP
await setRemoteSDP(message.data);
break;
case 'ice':
// 收到ICE候选:添加到PeerConnection
await addIceCandidate(message.data);
break;
default:
console.log('📌 未知消息类型:', message.type);
}
};
</script>
- 按消息类型分支处理:对应服务端的 register/call/answer/ice 四种类型;
- async/await:后续操作(如设置 SDP)是异步的,需等待完成,避免报错。
步骤 2.5:编写 WebRTC 核心函数
javascript
<script setup>
// (接上一步代码)
// 9. 初始化 PeerConnection(WebRTC核心,复用函数)
const initPeerConnection = async () => {
// 如果已有PeerConnection,先关闭(避免重复创建)
if (peerConnection) {
peerConnection.close();
}
// 创建PeerConnection实例(传入STUN服务器配置)
peerConnection = new RTCPeerConnection(iceServers);
// 9.1 监听ICE候选生成事件(本地网络地址)
peerConnection.onicecandidate = (e) => {
if (e.candidate) {
// 发送ICE候选给对方
sendMessage({
type: 'ice',
from: userId.value,
to: targetUserId.value,
data: JSON.stringify(e.candidate)
});
}
};
// 9.2 监听远程音视频流到达事件(关键:显示对方视频)
peerConnection.ontrack = (e) => {
// 将远程流绑定到远程视频DOM
remoteVideo.value.srcObject = e.streams[0];
console.log('🎥 收到远程音视频流');
};
};
// 10. 发起视频呼叫函数(点击"发起视频呼叫"按钮触发)
const call = async () => {
// 校验:对方ID不能为空
if (!targetUserId.value.trim()) {
alert('请输入对方用户ID!');
return;
}
try {
// 初始化PeerConnection
await initPeerConnection();
// 获取本地音视频流(请求摄像头/麦克风权限)
localStream = await navigator.mediaDevices.getUserMedia({
video: true, // 开启视频
audio: true // 开启音频
});
// 将本地流绑定到本地视频DOM
localVideo.value.srcObject = localStream;
// 将音视频轨道添加到PeerConnection(传给对方)
localStream.getTracks().forEach(track => {
peerConnection.addTrack(track, localStream);
});
// 创建SDP提议(offer):包含本地音视频配置
const offer = await peerConnection.createOffer();
// 设置本地SDP
await peerConnection.setLocalDescription(offer);
// 发送呼叫信令(含SDP offer)给对方
sendMessage({
type: 'call',
from: userId.value,
to: targetUserId.value,
data: JSON.stringify(offer)
});
inCall.value = true; // 标记为通话中
console.log('📞 发起视频呼叫:', targetUserId.value);
} catch (err) {
console.error('❌ 发起呼叫失败:', err);
alert('发起呼叫失败!请检查摄像头/麦克风权限,或是否已连接服务器。');
}
};
// 11. 应答呼叫请求函数
const answerCall = async (message) => {
// 记录呼叫方ID(后续发送应答/ICE消息需要)
targetUserId.value = message.from;
try {
// 初始化PeerConnection
await initPeerConnection();
// 获取本地音视频流
localStream = await navigator.mediaDevices.getUserMedia({
video: true,
audio: true
});
localVideo.value.srcObject = localStream;
localStream.getTracks().forEach(track => {
peerConnection.addTrack(track, localStream);
});
// 设置远程SDP(呼叫方的offer)
await peerConnection.setRemoteDescription(JSON.parse(message.data));
// 创建SDP应答(answer)
const answer = await peerConnection.createAnswer();
// 设置本地SDP
await peerConnection.setLocalDescription(answer);
// 发送应答信令给呼叫方
sendMessage({
type: 'answer',
from: userId.value,
to: targetUserId.value,
data: JSON.stringify(answer)
});
inCall.value = true; // 标记为通话中
console.log('📞 应答视频呼叫:', targetUserId.value);
} catch (err) {
console.error('❌ 应答呼叫失败:', err);
alert('应答呼叫失败!');
}
};
// 12. 设置远程SDP函数
const setRemoteSDP = async (sdpStr) => {
try {
const sdp = JSON.parse(sdpStr);
await peerConnection.setRemoteDescription(new RTCSessionDescription(sdp));
console.log('✅ 设置远程SDP成功');
} catch (err) {
console.error('❌ 设置远程SDP失败:', err);
}
};
// 13. 添加ICE候选函数
const addIceCandidate = async (iceStr) => {
try {
const ice = JSON.parse(iceStr);
await peerConnection.addIceCandidate(new RTCIceCandidate(ice));
console.log('✅ 添加ICE候选成功');
} catch (err) {
console.error('❌ 添加ICE候选失败:', err);
}
};
</script>
- getUserMedia:浏览器原生 API,请求音视频权限,返回本地流;如果用户拒绝权限,会抛出错误,所以用 try-catch 包裹;
- PeerConnection:WebRTC 的核心对象,负责协商连接、传输音视频流;
- ontrack 事件:对方的音视频流到达时触发,将流绑定到 remoteVideo 即可显示对方画面;
- onicecandidate 事件:本地生成网络地址(ICE 候选)时触发,发送给对方,双方才能建立 P2P 连接。
2.6:编写资源清理函数
javascript
<script setup>
// (接上一步代码)
// 14. 页面销毁时清理资源(避免内存泄漏/设备占用)
onUnmounted(() => {
// 关闭WebSocket连接
if (socket) {
socket.close();
console.log('🔌 关闭WebSocket连接');
}
// 关闭PeerConnection
if (peerConnection) {
peerConnection.close();
console.log('🔌 关闭PeerConnection');
}
// 停止本地音视频流(释放摄像头/麦克风)
if (localStream) {
localStream.getTracks().forEach(track => {
track.stop();
console.log('🔇 停止本地音视频流');
});
}
inCall.value = false; // 页面销毁时重置通话状态
});
</script>
- 必须停止本地流:否则页面关闭后,摄像头 / 麦克风仍会被占用(浏览器标签栏会显示摄像头图标);
- onUnmounted:Vue3 的生命周期钩子,页面销毁时自动执行,确保资源全部清理。
步骤6: 补充 "挂断" 功能
在 video-container 上方添加:
html
<!-- 挂断按钮(仅连接成功且有远程流时显示) -->
<div class="input-group" v-if="socketConnected && remoteVideo.value?.srcObject">
<button @click="hangUp" style="background: #e53935;">挂断通话</button>
</div>
javascript
<script setup>
// (添加在 initPeerConnection 之后)
// 15. 挂断通话函数
const hangUp = () => {
// 停止本地流
if (localStream) {
localStream.getTracks().forEach(track => track.stop());
localVideo.value.srcObject = null; // 清空本地视频
}
// 清空远程视频
if (remoteVideo.value) {
remoteVideo.value.srcObject = null;
}
// 关闭PeerConnection
if (peerConnection) {
peerConnection.close();
peerConnection = null;
}
// 重置目标用户ID和通话状态
targetUserId.value = '';
inCall.value = false;
console.log('📞 挂断通话');
alert('已挂断通话!');
};
</script>