使用说明
本文介绍如何在你的项目中集成和使用相芯美颜道具高级版插件。
技术原理
相芯美颜道具高级版插件是对相芯 Nama SDK 核心 API 的封装。通过声网 SDK v4.x 提供的 setExtensionProperty
方法,传入指定的 key
和 value
参数,你可以快速集成相芯的美颜能力。
setExtensionProperty
方法的 key
参数与相芯的 API 名称完全对应,value
参数以 JSON 格式包装该 API 的部分或全部参数。因此,调用该方法时只要传入指定的 key
和 value
,就可以调用对应的相芯 API,实现美颜的有关功能。
前提条件
开发环境要求
如果你的目标平台为 iOS,你的开发环境需要满足以下需求:
- Flutter 2.0 或更高版本
- Dart 2.14.0 或更高版本
- macOS 操作系统
- 最新版本的 Xcode
如果你的目标平台为 Android,你的开发环境需要满足以下需求:
- Flutter 2.0 或更高版本
- Dart 2.14.0 或更高版本
- macOS 或 Windows 操作系统
- 最新版本的 Android Studio
运行环境要求
- 如果你的目标平台为 iOS,你需要有一台 iOS 的设备。
- 如果你的目标平台为 Android,你需要有一台 Android 设备或模拟器。
你需要运行 flutter doctor
命令检查开发环境和运行环境是否满足要求。
示例项目
相芯美颜道具高级版插件提供了 GitHub 示例项目,你可以前往克隆或下载并进行体验。
平台 | 语言 | 示例代码 |
---|---|---|
Android | Java | FaceUnity/android |
iOS | Objective-C | FaceUnity/ios |
Flutter | Dart | FaceUnity/flutter |
参考以下步骤快速跑通示例项目:
-
克隆仓库:
Shellgit clone https://github.com/AgoraIO-Community/AgoraMarketplace.git
- 参考仓库文件夹中的
FaceUnity/flutter/README.zh.md
文件完成后续步骤。
集成和调用流程
1. 集成 SDK 和插件
开始前,你需要在项目中分别集成声网视频 SDK 和相芯美颜道具高级版插件。
1.1 使用声网 SDK 实现音视频互动
插件需要与 RTC SDK 搭配使用。参考以下文档集成 RTC SDK 并实现基础的音视频互动:
该插件目前仅支持 RTC SDK v4.1.0 和 v4.1.1,更多版本将在近期支持。
1.2 购买和激活插件
你需要进入声网控制台 > 云市场页面,按照提示购买相芯美颜道具高级版插件,并且联系声网提供你的包名(例如 yourCompany.yourProject.faceunity
)。随后你会收到与包名唯一对应的证书文件,用于后续集成插件。
1.3 集成插件
参考以下步骤集成插件:
-
在 Flutter 项目中,根据实际需要集成原生的 Android 和/或 iOS 插件:
通过 Gradle 集成 Android 插件-
进入声网控制台 > 云市场页面,下载相芯美颜道具高级版的 Android 插件动态库压缩包。
-
解压文件夹,将所有
.aar
文件保存到项目文件夹,比如android/libs
路径。 -
打开
android/app/build.gradle
文件,在dependencies
中添加如下行:Javaimplementation fileTree(dir: "${rootProject.projectDir}/libs", include: ["*.aar"])
通过 CocoaPods 集成 iOS 插件-
进入声网控制台 > 云市场页面,下载相芯美颜道具高级版的 iOS 插件动态库压缩包。
-
解压文件夹,将所有
.framework
文件导入项目。 -
在
.podspec
文件中添加依赖,示例如下:RubyPod::Spec.new do |s|
s.name = 'Extensions'
s.version = '0.1.0'
s.summary = 'ByteDance effect plugin for声网 RTE extensions.'
s.description = 'project.description'
s.homepage = 'https://github.com/AgoraIO-Community/AgoraMarketPlace'
s.author = { 'Agora' => 'developer@agora.io' }
s.source = { :path => '.' }
s.vendored_frameworks = 'FURenderKit.framework', 'AgoraFaceUnityExtension.framework'
s.platform = :ios, '9.0'
end -
在
Podfile
文件中添加如下行:Rubypod 'Extensions', :path => "./"
-
-
添加证书文件:将插件包里的证书文件(
authpack.java
或authpack.h
)转换成 dart 语法,并保存到项目文件夹,比如lib
路径。authpack.java
和authpack.h
所包含的证书数据一样。以转换authpack.h
文件为例,将文件内的数据复制到List<int> gAuthPackage = [];
这一行的[]
中即可:Dart/// 填写示例:List<int> gAuthPackage = [10, 13, -98, -100, 126, ...];
List<int> gAuthPackage = [Paste your authpack data]; -
点击下载相芯美颜插件的资源包,将所需的模型和道具
.bundle
文件通过 Flutter assets 的方式保存到项目文件夹,比如Resource
路径。资源包中提供的文件详见参考信息。 -
在
pubspec.yaml
文件中添加依赖项,示例如下:YAMLenvironment:
sdk: '>=2.18.6 <3.0.0'
dependencies:
flutter:
sdk: flutter
cupertino_icons: ^1.0.2
#声网 Flutter SDK 依赖项,请使用最新版本的 agora_rtc_engine
agora_rtc_engine: ^6.0.0
path_provider: ^2.0.11
permission_handler: ^8.3.0
path: ^1.8.0
# The following section is specific to Flutter packages.
flutter:
# 添加相芯资源文件依赖项
assets:
- Resource/graphics/aitype.bundle
- Resource/items/ItemSticker/CatSparks.bundle
- Resource/model/ai_face_processor.bundle -
导入需要用到的 dart 文件:
Dartimport 'package:agora_rtc_engine/agora_rtc_engine.dart';
import 'authpack.dart' as authpack;
2. 启用插件
创建并初始化 RtcEngine
后,首先调用 enableExtension
启用插件,再调用其它 API(enableVideo
、joinChannel
等)。
// On Android, you should load libAgoraFaceUnityExtension.so explicitly
if (Platform.isAndroid) {
await _rtcEngine.loadExtensionProvider(path: 'AgoraFaceUnityExtension');
}
await _rtcEngine.enableExtension(
provider: "FaceUnity", extension: "Effect", enable: true);
3. 初始化插件
收到声网 SDK 的 onExtensionStarted
回调后,调用 setExtensionProperty
并传入对应的 key
和 value
,具体顺序如下:
- 初始化。对应的
key
为fuSetup
,value
为证书文件 authpack 的指针。 - 加载 AI 模型。对应的
key
为fuLoadAIModelFromPackage
,value
包含 AI 能力模型文件ai_xxx.bundle
的路径以及 AI 能力类型。
Future<void> _initFUExtension() async {
// 初始化
await _rtcEngine.setExtensionProperty(
provider: 'FaceUnity',
extension: 'Effect',
key: 'fuSetup',
value: jsonEncode({'authdata': authpack.gAuthPackage}));
// 加载 AI 模型
final aiFaceProcessorPath =
await _copyAsset('Resource/model/ai_face_processor.bundle');
await _rtcEngine.setExtensionProperty(
provider: 'FaceUnity',
extension: 'Effect',
key: 'fuLoadAIModelFromPackage',
// 通过 type 参数设置 AI 能力类型为 FUAITYPE_FACEPROCESSOR,对应取值为 1 << 8
value: jsonEncode({'data': aiFaceProcessorPath, 'type': 1 << 8}));
}
4. 设置美颜效果和人体识别
设置美颜效果需要调用 setExtensionProperty
并传入对应的 key
和 value
,实现以下功能:
- 加载道具、调节美颜强度
- 人脸、手势和人体识别
你可以根据场景需要进行组合调用。相关的 key
和 value
详见 key-value 说明。
设置猫耳效果的示例如下:
Future<void> _setupCatSparksEffect() async {
final aiFaceProcessorPath =
await _copyAsset('Resource/model/ai_face_processor.bundle');
await _rtcEngine.setExtensionProperty(
provider: 'FaceUnity',
extension: 'Effect',
key: 'fuLoadAIModelFromPackage',
// 通过 type 参数设置 AI 能力类型为 FUAITYPE_FACEPROCESSOR,对应取值为 1 << 8
value: jsonEncode({'data': aiFaceProcessorPath, 'type': 1 << 8}));
final catSparksPath =
await _copyAsset('Resource/items/ItemSticker/CatSparks.bundle');
await _rtcEngine.setExtensionProperty(
provider: 'FaceUnity',
extension: 'Effect',
key: 'fuCreateItemFromPackage',
value: jsonEncode({'data': catSparksPath}));
}
5. 释放资源
需要停止使用插件时,按照以下步骤释放资源:
- 调用
setExtensionProperty
并传入key
为fuDestroyLibData
,释放插件占用的资源。 - 收到
fuDestroyLibData
回调后,调用destroy
方法销毁RtcEngine
对象。
参考信息
API 参考
常见问题
问题 1:运行示例项目,美颜为什么没有生效?
通常有以下几个原因:
- 插件动态库没有保存在正确位置,或者没有导入;
- 相芯资源包中的文件没有保存在正确位置,或者缺少部分文件;
- 证书文件与 App 包名不一致,导致鉴权失败。
问题 2:为什么开启采集后需要 1s 左右才能渲染出视频?
加载相芯美颜资源的操作会造成 GL 渲染线程卡顿,加载资源的过程大概耗时 800ms。建议通过业务处理(比如添加 loading 界面)规避。
素材包结构
相芯美颜道具高级版插件的资源包文件结构详见:
更多的接口调用方式可以参考相芯 Nama SDK 的文档: