原始音频数据
registerAudioFrameObserver
注册音频观测器对象。
public abstract registerAudioFrameObserver(observer:IAudioFrameObserver):number;
详情
该方法用于注册音频观测器对象,即注册回调。当需要 SDK 给出 onMixedAudioFrame、onRecordAudioFrame、onPlaybackAudioFrame 或 onEarMonitoringAudioFrame 等回调时,需要使用该方法注册回调。
setMixedAudioFrameParameters
设置 onMixedAudioFrame
报告的音频数据格式。
public abstract setMixedAudioFrameParameters(sampleRate: number, channel: number, samplesPerCall: number): number;
参数
- sampleRate
音频数据采样率 (Hz),可设置为
8000
、16000
、32000
、44100
或48000
。- channel
音频数据声道数,可设置为
1
(单声道) 或2
(双声道)。- samplesPerCall
音频数据采样点数。旁路推流场景下通常设为
1024
。
返回值
- 0: 方法调用成功。
- < 0: 方法调用失败。详见错误码了解详情和解决建议。
setPlaybackAudioFrameBeforeMixingParameters
设置 onPlaybackAudioFrameBeforeMixing
报告的音频数据格式。
public abstract setPlaybackAudioFrameBeforeMixingParameters(sampleRate:number,channel:number):number;
参数
- sampleRate
音频数据采样率 (Hz),可设置为
8000
、16000
、32000
、44100
或48000
。- channel
音频数据声道数,可设置为
1
(单声道)或2
(双声道)。
返回值
- 0: 方法调用成功。
- < 0: 方法调用失败。详见错误码了解详情和解决建议。
setPlaybackAudioFrameParameters
设置播放的音频格式。
public abstract setPlaybackAudioFrameParameters(sampleRate: number, channel: number, mode: number, samplesPerCall: number): number;
详情
该方法设置 onPlaybackAudioFrame 回调数据的格式。
- 该方法需要在加入频道前调用。
- SDK 会通过该方法中的 samplesPerCall、sampleRate 和 channel 参数计算出采样间隔,计算公式为采样间隔 = samplesPerCall/(sampleRate × channel)。请确保采样间隔不小于 0.01 秒。SDK 会根据该采样间隔触发 onPlaybackAudioFrame 回调。
参数
- sampleRate
- onPlaybackAudioFrame 中返回数据的采样率,可设置为 8000、 16000、 32000、44100 或 48000。
- channel
- onPlaybackAudioFrame 中返回数据的通道数,可设置为 1 或 2:
- 1: 单声道
- 2: 双声道
- mode
音频帧的使用模式,详见 RawAudioFrameOpMode。
- samplesPerCall
- onPlaybackAudioFrame 中返回数据的采样点数,如旁路推流应用中通常为 1024。
返回值
- 0:方法调用成功。
- < 0:方法调用失败。详见错误码了解详情和解决建议。
setRecordingAudioFrameParameters
设置采集的原始音频数据格式。
public abstract setRecordingAudioFrameParameters(sampleRate: number, channel: number, mode: number, samplesPerCall: number): number;
详情
该方法设置 onRecordAudioFrame 回调的采集音频格式。
- 该方法需要在加入频道前调用。
- SDK 会通过该方法中的 samplesPerCall、sampleRate 和 channel 参数计算出采样间隔,计算公式为采样间隔 = samplesPerCall/(sampleRate × channel)。请确保采样间隔不小于 0.01 秒。
参数
- sampleRate
- onRecordAudioFrame 中返回数据的采样率,可设置为 8000、 16000、 32000、44100 或 48000。
- channel
- onRecordAudioFrame 中返回数据的通道数,可设置为 1 或 2:
- 1: 单声道。
- 2: 双声道。
- mode
音频帧的使用模式,详见 RawAudioFrameOpMode。
- samplesPerCall
- onRecordAudioFrame 中返回数据的采样点数,如旁路推流应用中通常为 1024。
返回值
- 0:方法调用成功。
- < 0:方法调用失败。详见错误码了解详情和解决建议。
getEarMonitoringAudioParams
设置 onEarMonitoringAudioFrame
回调数据的格式。
getEarMonitoringAudioParams?: () => AudioParams;
详情
你需要在调用 registerAudioFrameObserver 方法时注册该回调。成功注册音频数据观测器后,SDK 会触发该回调,你可以在该回调的返回值中设置耳返的音频数据格式。
SDK 会通过你在返回值中设置的 AudioParams 计算采样间隔触发 onEarMonitoringAudioFrame 回调。计算公式为采样间隔 = samplesPerCall/(sampleRate × channel)。
请确保采样间隔不小于 0.01 秒。
返回值
耳返的音频数据,详见 AudioParams。
所属接口类getMixedAudioParams
设置 onMixedAudioFrame
回调数据的格式。
getMixedAudioParams?: () => AudioParams;
详情
你需要在调用 registerAudioFrameObserver 方法时注册该回调。成功注册音频数据观测器后,SDK 会触发该回调,你可以在该回调的返回值中设置 SDK 采集和播放音频混音后的数据格式。
SDK 会通过你在返回值中设置的 AudioParams 计算采样间隔触发 onMixedAudioFrame 回调。计算公式为采样间隔 = samplesPerCall/(sampleRate × channel)。
请确保采样间隔不小于 0.01 秒。
返回值
SDK 采集和播放音频混音后的音频数据,详见 AudioParams。
所属接口类getObservedAudioFramePosition
设置音频观测位置。
getObservedAudioFramePosition: () => number;
详情
你可以根据场景需求,通过修改 getObservedAudioFramePosition 的返回值,设置你需要观测的某个或多个位置。
注解观测多个位置时,需要使用 |(或运算符)。为降低设备耗能,你可以根据实际需求适当减少观测位置。
返回值
- POSITION_PLAYBACK (0x0001):该位置可观测所有远端用户混音后的播放音频,对应 onPlaybackAudioFrame 回调。
- POSITION_RECORD (0x0002):该位置可观测采集的本地用户的音频,对应 onRecordAudioFrame 回调。
- POSITION_MIXED (0x0004):该位置可观测本地和所有远端用户混音后的音频,对应 onMixedAudioFrame 回调。
- POSITION_BEFORE_MIXING (0x0008):该位置可观测单个远端用户混音前的音频,对应 onPlaybackAudioFrameBeforeMixing 回调。
- POSITION_EAR_MONITORING (0x0010):该位置可观测单个本地用户耳返的音频,对应 onEarMonitoringAudioFrame 回调。
getPlaybackAudioParams
设置 onPlaybackAudioFrame
回调数据的格式。
getPlaybackAudioParams?: () => AudioParams;
详情
你需要在调用 registerAudioFrameObserver 方法时注册该回调。成功注册音频数据观测器后,SDK 会触发该回调,你可以在该回调的返回值中设置 SDK 播放的音频数据格式。
SDK 会通过你在返回值中设置的 AudioParams 计算采样间隔触发 onPlaybackAudioFrame 回调。计算公式为采样间隔 = samplesPerCall/(sampleRate × channel)。
请确保采样间隔不小于 0.01 秒。
返回值
SDK 播放的音频数据,详见 AudioParams。
所属接口类getRecordAudioParams
设置 onRecordAudioFrame
回调数据的格式。
getRecordAudioParams?: () => AudioParams;
详情
你需要在调用 registerAudioFrameObserver 方法时注册该回调。成功注册音频数据观测器后,SDK 会触发该回调,你可以在该回调的返回值中设置 SDK 采集的音频数据格式。
SDK 会通过你在返回值中设置的 AudioParams 计算采样间隔触发 onRecordAudioFrame 回调。计算公式为采样间隔 = samplesPerCall/(sampleRate × channel)。
请确保采样间隔不小于 0.01 秒。
返回值
SDK 采集的音频数据,详见 AudioParams。
所属接口类onEarMonitoringAudioFrame
获得耳返的原始音频数据。
onEarMonitoringAudioFrame?: (type: number, samplesPerChannel: number, bytesPerSample: number, channels: number, samplesPerSec: number, buffer: ArrayBuffer, renderTimeMs: number, avsync_type: number) => boolean;
详情
- 方法一:调用 设置音频数据格式后,调用 registerAudioFrameObserver 注册音频观测器对象,SDK 会根据该方法中的参数计算采样间隔,并根据该采样间隔触发 onEarMonitoringAudioFrame 回调。
- 方法二:调用 registerAudioFrameObserver 注册音频观测器对象后,在 getObservedAudioFramePosition 回调的返回值中设置具体的音频观测位置,然后在 getEarMonitoringAudioParams 回调的返回值中设置音频数据格式,SDK 会根据该回调的返回值计算采样间隔,并根据该采样间隔触发 onEarMonitoringAudioFrame 回调。
- 方法一的优先级高于方法二,如果已使用方法一设置了音频数据格式,则使用方法二的设置不生效。
参数
- type
- 音频数据的类型。
- samplesPerChannel
- 每声道的采样点数。
- bytesPerSample
- 每个采样点的字节数(byte)。对于 PCM 音频数据,一般是两个字节。
- channels
- 声道数:
- 1:单声道。
- 2:双声道。双声道的音频数据是交叉存储的。
- samplesPerSec
- 音频采样率(Hz)。
- buffer
- 音频 buffer。buffer 大小为 samplesPerChannel x channels x bytesPerSample。
- renderTimeMs
- 外部音频帧的渲染时间戳(毫秒)。你可以使用该时间戳还原音频帧的顺序。在音视频场景下(包含使用外部视频源的场景),该时间戳可以用于实现音频和视频的同步。
- avsync_type
- 预留参数。
返回值
无实际含义。
所属接口类onPlaybackAudioFrame
获得播放的原始音频数据。
onPlaybackAudioFrame?: (channelId: string, type: number, samplesPerChannel: number, bytesPerSample: number, channels: number, samplesPerSec: number, buffer: ArrayBuffer, renderTimeMs: number, avsync_type: number) => boolean;
详情
- 方法一:调用 setPlaybackAudioFrameParameters 设置音频数据格式后,调用 registerAudioFrameObserver 注册音频观测器对象,SDK 会根据该方法中的参数计算采样间隔,并根据该采样间隔触发 onPlaybackAudioFrame 回调。
- 方法二:调用 registerAudioFrameObserver 注册音频观测器对象后,在 getObservedAudioFramePosition 回调的返回值中设置具体的音频观测位置,然后在 getPlaybackAudioParams 回调的返回值中设置音频数据格式,SDK 会根据该回调的返回值计算采样间隔,并根据该采样间隔触发 onPlaybackAudioFrame 回调。
- 方法一的优先级高于方法二,如果使用方法一设置音频数据格式,方法二设置无效。
参数
- type
- 音频数据的类型。
- samplesPerChannel
- 每声道的采样点数。
- bytesPerSample
- 每个采样点的字节数(byte)。对于 PCM 音频数据,一般是两个字节。
- channels
- 声道数:
- 1:单声道。
- 2:双声道。双声道的音频数据是交叉存储的。
- samplesPerSec
- 音频采样率(Hz)。
- buffer
- 音频 buffer。buffer 大小为 samplesPerChannel x channels x bytesPerSample。
- renderTimeMs
- 外部音频帧的渲染时间戳(毫秒)。你可以使用该时间戳还原音频帧的顺序。在音视频场景下(包含使用外部视频源的场景),该时间戳可以用于实现音频和视频的同步。
- avsync_type
- 预留参数。
返回值
无实际含义。
所属接口类onPlaybackAudioFrameBeforeMixing
获取所订阅的远端用户混音前的声音。
onPlaybackAudioFrameBeforeMixing?: (channelId: string, userId: number, type: number, samplesPerChannel: number, bytesPerSample: number, channels: number, samplesPerSec: number, buffer: ArrayBuffer, renderTimeMs: number, avsync_type: number) => boolean;
参数
- userId
- 订阅的远端用户的 ID。
- type
- 音频数据的类型。
- samplesPerChannel
- 每声道的采样点数。
- bytesPerSample
- 每个采样点的字节数(byte)。对于 PCM 音频数据,一般是两个字节。
- channels
- 声道数:
- 1:单声道。
- 2:双声道。双声道的音频数据是交叉存储的。
- samplesPerSec
- 音频采样率(Hz)。
- buffer
- 音频 buffer。buffer 大小为 samplesPerChannel x channels x bytesPerSample。
- renderTimeMs
- 外部音频帧的渲染时间戳(毫秒)。你可以使用该时间戳还原音频帧的顺序。在音视频场景下(包含使用外部视频源的场景),该时间戳可以用于实现音频和视频的同步。
- avsync_type
- 预留参数。
返回值
无实际含义。
所属接口类onRecordAudioFrame
获得采集的原始音频数据。
onRecordAudioFrame?: (channelId: string, type: number, samplesPerChannel: number, bytesPerSample: number, channels: number, samplesPerSec: number, buffer: ArrayBuffer, renderTimeMs: number, avsync_type: number) => boolean;
详情
- 方法一:调用 setRecordingAudioFrameParameters 设置音频数据格式后,调用 registerAudioFrameObserver 注册音频观测器对象,SDK 会根据该方法中的参数计算采样间隔,并根据该采样间隔触发 onRecordAudioFrame 回调。
- 方法二:调用 registerAudioFrameObserver 注册音频观测器对象后,在 getObservedAudioFramePosition 回调的返回值中设置具体的音频观测位置,然后在 getRecordAudioParams 回调的返回值中设置音频数据格式,SDK 会根据该回调的返回值计算采样间隔,并根据该采样间隔触发 onRecordAudioFrame 回调。
- 方法一的优先级高于方法二,如果使用方法一设置音频数据格式,方法二设置无效。
参数
- channelId
- 频道 ID。
- type
- 音频数据的类型。
- samplesPerChannel
- 每声道的采样点数。
- bytesPerSample
- 每个采样点的字节数(byte)。对于 PCM 音频数据,一般是两个字节。
- channels
- 声道数:
- 1:单声道。
- 2:双声道。双声道的音频数据是交叉存储的。
- samplesPerSec
- 音频采样率(Hz)。
- buffer
- 音频 buffer。buffer 大小为 samplesPerChannel x channels x bytesPerSample。
- renderTimeMs
- 外部音频帧的渲染时间戳(毫秒)。你可以使用该时间戳还原音频帧的顺序。在音视频场景下(包含使用外部视频源的场景),该时间戳可以用于实现音频和视频的同步。
- avsync_type
- 预留参数。
返回值
无实际含义。
所属接口类onMixedAudioFrame
获取采集和播放音频混音后的数据。
onMixedAudioFrame?: (channelId: string, type: number, samplesPerChannel: number, bytesPerSample: number, channels: number, samplesPerSec: number, buffer: ArrayBuffer, renderTimeMs: number, avsync_type: number) => boolean;
详情
- 方法一:调用 setMixedAudioFrameParameters 设置音频数据格式后,调用 registerAudioFrameObserver 注册音频观测器对象,SDK 会根据该方法中的参数计算采样间隔,并根据该采样间隔触发 onMixedAudioFrame 回调。
- 方法二:调用 registerAudioFrameObserver 注册音频观测器对象后,在 getObservedAudioFramePosition 回调的返回值中设置具体的音频观测位置,然后在 getMixedAudioParams 回调的返回值中设置音频数据格式,SDK 会根据该回调的返回值计算采样间隔,并根据该采样间隔触发 onMixedAudioFrame 回调。
- 方法一的优先级高于方法二,如果使用方法一设置音频数据格式,方法二设置无效。
参数
- type
- 音频数据的类型。
- samplesPerChannel
- 每声道的采样点数。
- bytesPerSample
- 每个采样点的字节数(byte)。对于 PCM 音频数据,一般是两个字节。
- channels
- 声道数:
- 1:单声道。
- 2:双声道。双声道的音频数据是交叉存储的。
- samplesPerSec
- 音频采样率(Hz)。
- buffer
- 音频 buffer。buffer 大小为 samplesPerChannel x channels x bytesPerSample。
- renderTimeMs
- 外部音频帧的渲染时间戳(毫秒)。你可以使用该时间戳还原音频帧的顺序。在音视频场景下(包含使用外部视频源的场景),该时间戳可以用于实现音频和视频的同步。
- avsync_type
- 预留参数。
返回值
无实际含义。
所属接口类