使用合图插件 (Beta)
合图插件需要与 Web SDK(v4.17.0 或以上)搭配使用,可以将本地用户的多路视频流以及图片合为一路视频流,让多个视频画面同时显示在同一个画面中。对于在线教育、远程会议、直播等场景,合图插件可以让 App 用户更加方便地查看和管理多个视频画面,实现人像画中画等功能。
点击在线链接体验本地合图功能。
实现原理
本地合图的具体过程如下:
- 为参与本地合图的每一个视频轨道创建视频输入图层 (
IBaseProcessor
)、每一张图片创建图片输入图层 (HTMLImageElement
)。 - 连接每一个视频轨道与对应的视频输入图层之间的管线,将视频流注入对应的输入图层。
- 合成器 (Compositor) 对所有输入图层进行合并。
- 连接合成器与本地视频轨道之间的管线,将合图后的视频输出到 SDK。
前提条件
使用合图插件需要满足以下前提条件:
- 使用最新版本的桌面端 Chrome 或 Edge 浏览器。
- 已集成 v4.17.0 或以上版本的 Web SDK,实现基础的实时音视频互动功能,具体参考快速开始文档。
示例代码
以下是一段使用合图插件的完整代码,供开发者参考。
// 创建 Client 对象
const client = AgoraRTC.createClient({ mode: "rtc", codec: "vp8" });
const extension = new VideoCompositingExtension();
const vbExtension = new VirtualBackgroundExtension();
AgoraRTC.registerExtensions([extension, vbExtension]);
let compositor = extension.createProcessor();
let vbProcessor = null;
let localTracks = {
videoTrack: null,
audioTrack: null,
};
let screenShareTrack = null;
let sourceVideoTrack1 = null;
let sourceVideoTrack2 = null;
async function join() {
// 创建屏幕共享视频轨道
screenShareTrack = await AgoraRTC.createScreenVideoTrack({
encoderConfig: { frameRate: 15 },
});
// 创建源视频轨道 1
sourceVideoTrack1 = await AgoraRTC.createCameraVideoTrack({
cameraId: videoSelect.value,
encoderConfig: "720p_1",
});
// 创建源视频轨道 2
const width = 1280,
height = 720;
const videoElement = await createVideoElement(
width,
height,
"./assets/loop-video.mp4"
);
const mediaStream = videoElement.captureStream();
const msTrack = mediaStream.getVideoTracks()[0];
sourceVideoTrack2 = AgoraRTC.createCustomVideoTrack({
mediaStreamTrack: msTrack,
});
// 按 z 轴从下到上的顺序创建视频轨道和图片的输入图层
const screenShareEndpoint = processor.createInputEndpoint({
x: 0,
y: 0,
width: 1280,
height: 720,
fit: "cover",
});
compositor.addImage("./assets/city.jpg", {
x: 960,
y: 0,
width: 320,
height: 180,
fit: "cover",
});
compositor.addImage("./assets/space.jpg", {
x: 0,
y: 540,
width: 320,
height: 180,
fit: "cover",
});
const endpoint1 = compositor.createInputEndpoint({
x: 0,
y: 0,
width: 320,
height: 180,
fit: "cover",
});
const endpoint2 = compositor.createInputEndpoint({
x: 960,
y: 540,
width: 320,
height: 180,
fit: "cover",
});
// 移除源视频轨道 1 的背景
if (!vbProcessor) {
vbProcessor = vbExtension.createProcessor();
await vbProcessor.init("./assets/wasms");
vbProcessor.enable();
vbProcessor.setOptions({ type: "none" });
}
// 连接视频输入管线
screenShareTrack
.pipe(screenShareEndpoint)
.pipe(screenShareTrack.processorDestination);
sourceVideoTrack1
.pipe(vbProcessor)
.pipe(endpoint1)
.pipe(sourceVideoTrack1.processorDestination);
sourceVideoTrack2
.pipe(endpoint2)
.pipe(sourceVideoTrack2.processorDestination);
// 将合并后的视频注入到本地视频轨道
const canvas = document.createElement("canvas");
canvas.getContext("2d");
localTracks.videoTrack = AgoraRTC.createCustomVideoTrack({
mediaStreamTrack: canvas.captureStream().getVideoTracks()[0],
});
compositor.setOutputOptions(1280, 720, 15);
await compositor.start();
localTracks.videoTrack
.pipe(compositor)
.pipe(localTracks.videoTrack.processorDestination);
// 播放和发布本地音视频轨道
localTracks.videoTrack.play("local-player");
localTracks.audioTrack =
localTracks.audioTrack || (await AgoraRTC.createMicrophoneAudioTrack());
await client.publish(Object.values(localTracks));
}
// 离开频道并断开所有视频输入管线
async function leave() {
await client.leave();
localTracks.audioTrack?.close();
localTracks.videoTrack?.unpipe();
localTracks.videoTrack?.close();
compositor?.unpipe();
vbProcessor?.unpipe();
sourceVideoTrack1?.unpipe();
sourceVideoTrack1?.close();
sourceVideoTrack2?.unpipe();
sourceVideoTrack2?.close();
screenShareTrack?.unpipe();
screenShareTrack.close();
}
实现步骤
在远程会议中,会议主讲人除了展示 PPT 和人像画面以外,可能还需要使用图片、视频文件等资料来辅助展示,观众可能希望看到如下效果:
在这个场景中,我们需要将以下内容合成到一个视频轨道上:
- 屏幕共享视频轨道。
- 两张本地图片。
- 源视频轨道 1:通过摄像头采集的视频流创建,并且使用虚拟背景插件移除该轨道的背景。
- 源视频轨道 2:通过本地视频文件创建。
本节以这个场景为例,介绍本地合图功能的实现步骤。
1. 集成插件
你需要同时集成虚拟背景插件和合图插件。
-
集成虚拟背景插件并了解注意事项。具体请参考使用虚拟背景插件。
-
运行以下命令,通过 npm 将合图插件集成到你的项目中:
Bashnpm install agora-extension-video-compositor
-
通过以下任意一种方式引入合图插件。
-
方法一:在 JavaScript 文件中加入以下代码引入。
TypeScriptimport VideoCompositingExtension from "agora-extension-video-compositor";
-
方法二:在 HTML 文件中通过 Script 标签引入。引入后即可在 JavaScript 文件中直接使用
VideoCompositingExtension
对象。html<script src="./agora-extension-video-compositor.js"></script>
-
2. 注册合图插件
创建 AgoraRTCClient
对象之后,创建 VideoCompositingExtension
对象并调用 AgoraRTC.registerExtensions
注册插件,然后创建一个 VideoTrackCompositor
对象。
// 创建 Client 对象
const client = AgoraRTC.createClient({ mode: "rtc", codec: "vp8" });
// 创建 VideoCompositingExtension 和 VirtualBackgroundExtension 对象
const extension = new VideoCompositingExtension();
const vbExtension = new VirtualBackgroundExtension();
// 注册插件
AgoraRTC.registerExtensions([extension, vbExtension]);
// 创建 VideoTrackCompositor 对象
let compositor = extension.createProcessor();
let vbProcessor = null;
3. 开始合图
按照以下步骤开始合图:
-
分别调用
createScreenVideoTrack
、createCameraVideoTrack
和createCustomVideoTrack
方法,创建三个视频轨道:TypeScript// 使用屏幕画面创建屏幕共享视频轨道
screenShareTrack = await AgoraRTC.createScreenVideoTrack({
encoderConfig: { frameRate: 15 },
});
// 使用摄像头采集的视频创建源视频轨道 1
sourceVideoTrack1 = await AgoraRTC.createCameraVideoTrack({
cameraId: videoSelect.value,
encoderConfig: "720p_1",
});
// 使用本地视频文件创建源视频轨道 2
const width = 1280,
height = 720;
const videoElement = await createVideoElement(
width,
height,
"./assets/loop-video.mp4"
);
const mediaStream = videoElement.captureStream();
const msTrack = mediaStream.getVideoTracks()[0];
sourceVideoTrack2 = AgoraRTC.createCustomVideoTrack({
mediaStreamTrack: msTrack,
}); -
按从下到上的顺序创建图片和视频轨道的输入图层,后创建的图层会覆盖在上方。在下面这段代码中,屏幕共享画面位于最底层,源视频轨道 2 的画面位于最顶层:
TypeScript// 创建屏幕共享视频轨道的输入图层
const screenShareEndpoint = processor.createInputEndpoint({
x: 0,
y: 0,
width: 1280,
height: 720,
fit: "cover",
});
// 创建图片的输入图层
compositor.addImage("./assets/city.jpg", {
x: 960,
y: 0,
width: 320,
height: 180,
fit: "cover",
});
compositor.addImage("./assets/space.jpg", {
x: 0,
y: 540,
width: 320,
height: 180,
fit: "cover",
});
// 创建源视频轨道 1 和 2 的输入图层
const endpoint1 = compositor.createInputEndpoint({
x: 0,
y: 0,
width: 320,
height: 180,
fit: "cover",
});
const endpoint2 = compositor.createInputEndpoint({
x: 960,
y: 540,
width: 320,
height: 180,
fit: "cover",
});
// 设置源视频轨道 1 的虚拟背景
if (!vbProcessor) {
vbProcessor = vbExtension.createProcessor();
await vbProcessor.init("./assets/wasms");
vbProcessor.enable();
vbProcessor.setOptions({ type: "none" });
}
// 连接视频输入图层与视频轨道之间的管线
screenShareTrack
.pipe(screenShareEndpoint)
.pipe(screenShareTrack.processorDestination);
sourceVideoTrack1
.pipe(vbProcessor)
.pipe(endpoint1)
.pipe(sourceVideoTrack1.processorDestination);
sourceVideoTrack2
.pipe(endpoint2)
.pipe(sourceVideoTrack2.processorDestination); -
合并所有输入图层,将合并后的视频注入到本地视频轨道:
TypeScriptconst canvas = document.createElement("canvas");
canvas.getContext("2d");
// 创建本地视频轨道
localTracks.videoTrack = AgoraRTC.createCustomVideoTrack({
mediaStreamTrack: canvas.captureStream().getVideoTracks()[0],
});
// 设置合图选项
compositor.setOutputOptions(1280, 720, 15);
// 开始合图
await compositor.start();
// 将合图后的视频注入本地视频轨道
localTracks.videoTrack
.pipe(compositor)
.pipe(localTracks.videoTrack.processorDestination); -
播放和发布本地视频轨道:
TypeScript// 播放本地视频轨道
localTracks.videoTrack.play("local-player");
// 发布本地音视频轨道
localTracks.audioTrack =
localTracks.audioTrack || (await AgoraRTC.createMicrophoneAudioTrack());
await client.publish(Object.values(localTracks));
4. 停止合图
需要离开频道时, 调用 unpipe
断开合成器以及所有视频轨道的管线,并且停止所有音视频轨道,否则再次加入频道时可能会出错:
async function leave() {
await client.leave();
localTracks.audioTrack?.close();
localTracks.videoTrack?.unpipe();
localTracks.videoTrack?.close();
compositor?.unpipe();
vbProcessor?.unpipe();
sourceVideoTrack1?.unpipe();
sourceVideoTrack1?.close();
sourceVideoTrack2?.unpipe();
sourceVideoTrack2?.close();
screenShareTrack?.unpipe();
screenShareTrack.close();
}
开发注意事项
- 合图插件的浏览器支持如下:
- 支持 Chrome 91 以上版本、Edge 91 以上版本和 Firefox 最新版。为了获得最佳体验,推荐使用 Chrome 或 Edge 94 以上版本。
- 由于 Safari 特定版本内核存在 bug,只支持 iOS Safari 15.4 以上版本、macOS Safari 13 以上版本。
- 在保证效果的前提下,合图插件最多可以合成 2 路视频流(来自摄像头或者本地视频文件)、1 路屏幕共享流、2 张图片。对更多视频流和图片进行合成会影响性能和体验。
- 如需同时使用多个媒体处理插件,声网建议你使用 Intel Core i5 4 核或以上的处理器。同时开启多个插件后,如果其它正在运行的程序占用了较高的系统资源,你的 App 可能会出现音视频卡顿。
API 参考
本节提供本地合图插件的 API 参考。
IVideoCompositingExtension
createProcessor
createProcessor(): VideoTrackCompositor;
创建合成器。
返回值:
VideoTrackCompositor
: 合成器对应的VideoTrackCompositor
对象。
IVideoTrackCompositor
createInputEndpoint
createInputEndpoint(option: LayerOption): IBaseProcessor;
创建视频轨道的输入图层。
参数:
option
: 视频输入的布局选项。详见 LayerOption。
返回值:
IBaseProcessor
: 视频输入图层对应的IBaseProcessor
对象。
addImage
addImage(url: string, option: LayerOption): HTMLImageElement;
创建图片的输入图层。
调用该方法后如果需要更换图片,修改该方法返回的 HTMLImageElement
对象的 src
属性即可。
参数:
url
: 可以传入以下值:- 本地图片的相对路径。
- 在线图片的 URL。你需要确保 URL 能被
HTMLImageElement
对象加载,并且能够跨域访问。
option
: 图片输入的布局选项。详见 LayerOption。
返回值:
HTMLImageElement
: 图片输入图层对应的HTMLImageElement
对象。
removeImage
removeImage(imgElement: HTMLImageElement): void;
删除图片的输入图层。
参数:
imgElement
: 图片输入图层对应的HTMLImageElement
对象。
setOutputOptions
setOutputOptions(width: number, height: number, fps?: number): void;
设置合成器输出视频的属性。
参数:
width
: 输出视频的宽 (px)。height
: 输出视频的高 (px)。fps
: (可选)输出视频的帧率,默认值为 15 帧/秒。
start
start(): Promise<void>;
开始合图。合成器会对所有输入图层的内容进行合并,输出视频。
stop
stop(): Promise<void>;
停止合图。
类型定义
LayerOption
export type LayerOption = {
x: number;
y: number;
width: number;
height: number;
fit?: "contain" | "cover" | "fill";
};
图层的显示选项。用于 createInputEndpoint 和 [addImage](#addimage 方法。
属性:
x
: Number 型。图层左上角相对于画布左上角的横向位移。y
: Number 型。图层左上角相对于画布左上角的纵向位移。width
: Number 型。图层的宽度 (px)。height
: Number 型。图层的高度 (px)。fit
: (可选)String 型。视频或图片内容适应所在图层的方式,可设为:"contain"
: 按比例填充并保证内容能完整显示,不足部分用黑色填充。"cover"
: 按比例填充并保证内容能充满所在图层,超出部分会被裁剪。"fill"
: 拉伸以填满所在图层。