自定义音频采集和渲染
声网默认的音频模块可以满足在 App 中使用基本音频功能的需求。声网 SDK 支持使用自定义的音频源和自定义的音频渲染模块为你的 App 添加特殊的音频功能。
技术原理
实时音频传输过程中,声网 SDK 通常会开启默认的音频模块。在以下场景中,你可能会发现默认的音频模块无法满足开发需求,需要自定义音频采集或自定义音频渲染。例如:
- App 中已有自己的音频模块。
- 需要使用前处理库处理采集到的音频。
- 某些音频采集设备被系统独占。为避免与其他业务产生冲突,需要灵活的设备管理策略。
使用自定义音频源管理音频帧的采集、处理和播放时,需要使用声网 SDK 外部方法。
音频数据传输
下图展示在自定义音频采集、音频渲染时,音频数据的传输过程。
自定义音频采集
- 你需要使用 SDK 外部方法自行实现采集模块。
- 调用
pushExternalAudioFrameSampleBuffer
或pushExternalAudioFrameRawData
,将采集到的音频帧发送给 SDK。
自定义音频渲染
- 你需要使用 SDK 外部方法自行实现渲染模块。
- 调用
pullPlaybackAudioFrame
获取远端用户发送的音频数据。
前提条件
在进行操作之前,请确保你已经在项目中实现了基本的实时音视频功能。详见实现音视频互动。
实现方法
自定义音频采集
本节介绍如何实现自定义音频采集。
API 调用时序
参考以下调用时序图,在你的 App 中实现自定义音频采集:
API 调用步骤
参考如下步骤,在你的项目中实现自定义音频采集功能:
-
加入频道前,调用
setExternalAudioSource
指定音频源。SwiftagoraKit.setExternalAudioSource(true, sampleRate: Int(sampleRate), channels: Int(channel), sourceNumber: 1, localPlayback: true, publish: true)
-
使用 SDK 外部方法自行实现音频的采集和处理。
-
调用
pushExternalAudioFrameSampleBuffer
或pushExternalAudioFrameRawData
,将音频帧发送给 SDK,留作备用。Swiftextension CustomPcmAudioSourceMain: AgoraPcmSourcePushDelegate {
func onAudioFrame(data: Data) {
agoraKit.pushExternalAudioFrameRawData(data, sourceId: 0, timestamp: 0)
}
}
自定义音频渲染
本节介绍如何实现自定义音频渲染。
开始前,请确保你的项目中已实现原始音频数据。详见原始音频数据。
参考如下步骤,在你的项目中调用原始音频数据 API 实现自定义音频渲染:
- 从
onRecordAudioFrame
,onPlaybackAudioFrame
,onMixedAudioFrame
或onPlaybackAudioFrameBeforeMixing
获取待播放的音频数据。 - 自行渲染并播放音频数据。
参考信息
本节介绍文中使用方法的更多信息以及相关页面的链接。
示例项目
声网在 GitHub 上提供如下开源的示例项目。 你可以在 GitHub 上参考源代码或进行下载体验:
- 自定义音频采集:CustomAudioSource
- 自定义音频渲染:CustomAudioRender