原始音频数据
registerAudioFrameObserver
注册音频观测器对象。
public abstract int registerAudioFrameObserver(IAudioFrameObserver observer);
该方法用于注册音频观测器对象,即注册回调。当需要 SDK 触发 onMixedAudioFrame、onRecordAudioFrame、onPlaybackAudioFrame、onPlaybackAudioFrameBeforeMixing 和 onEarMonitoringAudioFrame 回调时,需要调用该方法注册回调。
调用时机
该方法需要在加入频道前调用。
调用限制
无。
参数
- observer
接口对象实例。详见 IAudioFrameObserver。如果传入 NULL,则表示取消注册。建议在收到 onLeaveChannel 后调用,来释放音频观测器对象。
返回值
- 0:方法调用成功。
- < 0:方法调用失败。详见错误码了解详情和解决建议。
setEarMonitoringAudioFrameParameters
设置耳返的音频数据格式。
public abstract int setEarMonitoringAudioFrameParameters(
int sampleRate, int channel, int mode, int samplesPerCall);
详情
该方法用于设置 onEarMonitoringAudioFrame 回调的耳返音频数据格式。
- 调用该方法前,你需要先调用 enableInEarMonitoring [2/2],将 includeAudioFilters 设置为 EAR_MONITORING_FILTER_BUILT_IN_AUDIO_FILTERS 或 EAR_MONITORING_FILTER_NOISE_SUPPRESSION。
- SDK 会通过该方法中的 samplesPerCall、sampleRate 和 channel 参数计算出采样间隔,计算公式为采样间隔 = samplesPerCall/(sampleRate × channel)。请确保采样间隔不小于 0.01 秒。SDK 会根据该采样间隔触发 onEarMonitoringAudioFrame 回调。
参数
- sampleRate
- onEarMonitoringAudioFrame 中报告音频的采样率 (Hz),可设置为 8000、 16000、 32000、44100 或 48000。
- channel
- onEarMonitoringAudioFrame 中报告音频的声道数,可设置为 1 或 2:
- 1: 单声道。
- 2: 双声道。
- mode
- 音频帧的使用模式:
- RAW_AUDIO_FRAME_OP_MODE_READ_ONLY (0): (默认) 只读模式。例如: 若用户通过 SDK 采集数据,自己进行 RTMP 推流,则可以选择该模式。
- RAW_AUDIO_FRAME_OP_MODE_READ_WRITE (2): 读写模式。例如:若用户自己有音效处理模块,且想要根据实际需要对数据进行前处理 (例如变声),则可以选择该模式。
- samplesPerCall
- onEarMonitoringAudioFrame 中报告的音频的采样点数,如旁路推流应用中通常为 1024。
返回值
- 0:方法调用成功。
- < 0:方法调用失败。详见错误码了解详情和解决建议。
setMixedAudioFrameParameters
设置采集和播放音频混音后的原始音频数据格式。
public abstract int setMixedAudioFrameParameters(int sampleRate, int channel, int samplesPerCall);
SDK 会通过该方法中的 samplesPerCall、sampleRate 和 channel 参数计算出采样间隔,计算公式为采样间隔 = samplesPerCall/(sampleRate × channel)。请确保采样间隔不小于 0.01 秒。SDK 会根据该采样间隔触发 onMixedAudioFrame 回调。
调用时机
该方法需要在加入频道前调用。
调用限制
无。
参数
- sampleRate
- 音频数据的采样率 (Hz),可设置为 8000、 16000、 32000、44100 或 48000。
- channel
- 音频数据的声道数,可设置为 1 或 2:
- 1: 单声道。
- 2: 双声道。
- samplesPerCall
- 音频数据的采样点数,如旁路推流应用中通常为 1024。
返回值
- 0: 方法调用成功。
- < 0: 方法调用失败。详见错误码了解详情和解决建议。
setPlaybackAudioFrameBeforeMixingParameters
设置混音前的原始音频播放数据格式。
public abstract int setPlaybackAudioFrameBeforeMixingParameters(int sampleRate, int channel);
SDK 会根据该采样间隔触发 onPlaybackAudioFrameBeforeMixing 回调。
调用时机
该方法需要在加入频道前调用。
调用限制
无。
参数
- sampleRate
- 音频数据的采样率 (Hz),可设置为 8000、 16000、 32000、44100 或 48000。
- channel
- 音频数据的声道数,可设置为 1 或 2:
- 1: 单声道。
- 2: 双声道。
返回值
- 0: 方法调用成功。
- < 0: 方法调用失败。详见错误码了解详情和解决建议。
setPlaybackAudioFrameParameters
设置播放的原始音频数据格式。
public abstract int setPlaybackAudioFrameParameters(
int sampleRate, int channel, int mode, int samplesPerCall);
SDK 会通过该方法中的 samplesPerCall、sampleRate 和 channel 参数计算出采样间隔,计算公式为采样间隔 = samplesPerCall/(sampleRate × channel)。请确保采样间隔不小于 0.01 秒。SDK 会根据该采样间隔触发 onPlaybackAudioFrame 回调。
调用时机
该方法需要在加入频道前调用。
调用限制
无。
参数
- sampleRate
- 音频数据的采样率 (Hz),可设置为 8000、 16000、 32000、44100 或 48000。
- channel
- 音频数据的声道数,可设置为 1 或 2:
- 1: 单声道。
- 2: 双声道。
- mode
- 音频帧的使用模式:
- RAW_AUDIO_FRAME_OP_MODE_READ_ONLY (0): (默认) 只读模式。例如: 若用户通过 SDK 采集数据,自己进行 RTMP 推流,则可以选择该模式。
- RAW_AUDIO_FRAME_OP_MODE_READ_WRITE (2): 读写模式。例如:若用户自己有音效处理模块,且想要根据实际需要对数据进行前处理 (例如变声),则可以选择该模式。
- samplesPerCall
- 音频数据的采样点数,如旁路推流应用中通常为 1024。
返回值
- 0:方法调用成功。
- < 0:方法调用失败。详见错误码了解详情和解决建议。
setRecordingAudioFrameParameters
设置采集的原始音频数据格式。
public abstract int setRecordingAudioFrameParameters(
int sampleRate, int channel, int mode, int samplesPerCall);
SDK 会通过该方法中的 samplesPerCall、sampleRate 和 channel 参数计算出采样间隔,计算公式为采样间隔 = samplesPerCall/(sampleRate × channel)。请确保采样间隔不小于 0.01 秒。SDK 会根据该采样间隔触发 onRecordAudioFrame 回调。
调用时机
该方法需要在加入频道前调用。
调用限制
无。
参数
- sampleRate
- 音频数据的采样率 (Hz),可设置为 8000、 16000、 32000、44100 或 48000。
- channel
- 音频数据的声道数,可设置为 1 或 2:
- 1: 单声道。
- 2: 双声道。
- mode
- 音频帧的使用模式:
- RAW_AUDIO_FRAME_OP_MODE_READ_ONLY (0): (默认) 只读模式。例如: 若用户通过 SDK 采集数据,自己进行 RTMP 推流,则可以选择该模式。
- RAW_AUDIO_FRAME_OP_MODE_READ_WRITE (2): 读写模式。例如:若用户自己有音效处理模块,且想要根据实际需要对数据进行前处理 (例如变声),则可以选择该模式。
- samplesPerCall
- 音频数据的采样点数,如旁路推流应用中通常为 1024。
返回值
- 0:方法调用成功。
- < 0:方法调用失败。详见错误码了解详情和解决建议。
getEarMonitoringAudioParams
设置 onEarMonitoringAudioFrame
回调数据的格式。
public abstract AudioParams getEarMonitoringAudioParams();
详情
你需要在调用 registerAudioFrameObserver 方法时注册该回调。成功注册音频数据观测器后,SDK 会触发该回调,你可以在该回调的返回值中设置耳返的音频数据格式。
SDK 会通过你在返回值中设置的 AudioParams 计算采样间隔触发 onEarMonitoringAudioFrame 回调。计算公式为采样间隔 = samplesPerCall/(sampleRate × channel)。
请确保采样间隔不小于 0.01 秒。
返回值
耳返的音频数据,详见 AudioParams。
所属接口类getMixedAudioParams
设置 onMixedAudioFrame
回调数据的格式。
public abstract AudioParams getMixedAudioParams();
详情
你需要在调用 registerAudioFrameObserver 方法时注册该回调。成功注册音频数据观测器后,SDK 会触发该回调,你可以在该回调的返回值中设置 SDK 采集和播放音频混音后的数据格式。
SDK 会通过你在返回值中设置的 AudioParams 计算采样间隔触发 onMixedAudioFrame 回调。计算公式为采样间隔 = samplesPerCall/(sampleRate × channel)。
请确保采样间隔不小于 0.01 秒。
返回值
SDK 采集和播放音频混音后的音频数据,详见 AudioParams。
所属接口类getObservedAudioFramePosition
设置音频观测位置。
- (AgoraAudioFramePosition)getObservedAudioFramePosition NS_SWIFT_NAME(getObservedAudioFramePosition());
详情
你可以根据场景需求,通过修改 getObservedAudioFramePosition 的返回值,设置你需要观测的某个或多个位置。
注解观测多个位置时,需要使用 |(或运算符)。为降低设备耗能,你可以根据实际需求适当减少观测位置。
返回值
- POSITION_PLAYBACK (0x0001):该位置可观测所有远端用户混音后的播放音频,对应 onPlaybackAudioFrame 回调。
- POSITION_RECORD (0x0002):该位置可观测采集的本地用户的音频,对应 onRecordAudioFrame 回调。
- POSITION_MIXED (0x0004):该位置可观测本地和所有远端用户混音后的音频,对应 onMixedAudioFrame 回调。
- POSITION_BEFORE_MIXING (0x0008):该位置可观测单个远端用户混音前的音频,对应 onPlaybackAudioFrameBeforeMixing 回调。
- POSITION_EAR_MONITORING (0x0010):该位置可观测单个本地用户耳返的音频,对应 onEarMonitoringAudioFrame 回调。
getPlaybackAudioParams
设置 onPlaybackAudioFrame
回调数据的格式。
public abstract AudioParams getMixedAudioParams();
详情
你需要在调用 registerAudioFrameObserver 方法时注册该回调。成功注册音频数据观测器后,SDK 会触发该回调,你可以在该回调的返回值中设置 SDK 播放的音频数据格式。
SDK 会通过你在返回值中设置的 AudioParams 计算采样间隔触发 onPlaybackAudioFrame 回调。计算公式为采样间隔 = samplesPerCall/(sampleRate × channel)。
请确保采样间隔不小于 0.01 秒。
返回值
SDK 播放的音频数据,详见 AudioParams。
所属接口类getRecordAudioParams
设置 onRecordAudioFrame
回调数据的格式。
public abstract AudioParams getRecordAudioParams();
详情
你需要在调用 registerAudioFrameObserver 方法时注册该回调。成功注册音频数据观测器后,SDK 会触发该回调,你可以在该回调的返回值中设置 SDK 采集的音频数据格式。
SDK 会通过你在返回值中设置的 AudioParams 计算采样间隔触发 onRecordAudioFrame 回调。计算公式为采样间隔 = samplesPerCall/(sampleRate × channel)。
请确保采样间隔不小于 0.01 秒。
返回值
SDK 采集的音频数据,详见 AudioParams。
所属接口类onEarMonitoringAudioFrame
获得耳返的原始音频数据。
public abstract boolean onEarMonitoringAudioFrame(int type, int samplesPerChannel,
int bytesPerSample, int channels, int samplesPerSec, ByteBuffer buffer, long renderTimeMs,
int avsync_type);
详情
- 方法一:调用 setEarMonitoringAudioFrameParameters 设置音频数据格式后,调用 registerAudioFrameObserver 注册音频观测器对象,SDK 会根据该方法中的参数计算采样间隔,并根据该采样间隔触发 onEarMonitoringAudioFrame 回调。
- 方法二:调用 registerAudioFrameObserver 注册音频观测器对象后,在 getObservedAudioFramePosition 回调的返回值中设置具体的音频观测位置,然后在 getEarMonitoringAudioParams 回调的返回值中设置音频数据格式,SDK 会根据该回调的返回值计算采样间隔,并根据该采样间隔触发 onEarMonitoringAudioFrame 回调。
- 方法一的优先级高于方法二,如果已使用方法一设置了音频数据格式,则使用方法二的设置不生效。
参数
- type
- 音频数据的类型。
- samplesPerChannel
- 每声道的采样点数。
- bytesPerSample
- 每个采样点的字节数(byte)。对于 PCM 音频数据,一般是两个字节。
- channels
- 声道数:
- 1:单声道。
- 2:双声道。双声道的音频数据是交叉存储的。
- samplesPerSec
- 音频采样率(Hz)。
- buffer
- 音频 buffer。buffer 大小为 samplesPerChannel x channels x bytesPerSample。
- renderTimeMs
- 外部音频帧的渲染时间戳(毫秒)。你可以使用该时间戳还原音频帧的顺序。在音视频场景下(包含使用外部视频源的场景),该时间戳可以用于实现音频和视频的同步。
- avsync_type
- 预留参数。
返回值
无实际含义。
所属接口类onPlaybackAudioFrame
获得播放的原始音频数据。
public abstract boolean onPlaybackAudioFrame(int type, int samplesPerChannel, int bytesPerSample,
int channels, int samplesPerSec, ByteBuffer buffer, long renderTimeMs, int avsync_type);
详情
- 方法一:调用 setPlaybackAudioFrameParameters 设置音频数据格式后,调用 registerAudioFrameObserver 注册音频观测器对象,SDK 会根据该方法中的参数计算采样间隔,并根据该采样间隔触发 onPlaybackAudioFrame 回调。
- 方法二:调用 registerAudioFrameObserver 注册音频观测器对象后,在 getObservedAudioFramePosition 回调的返回值中设置具体的音频观测位置,然后在 getPlaybackAudioParams 回调的返回值中设置音频数据格式,SDK 会根据该回调的返回值计算采样间隔,并根据该采样间隔触发 onPlaybackAudioFrame 回调。
- 方法一的优先级高于方法二,如果使用方法一设置音频数据格式,方法二设置无效。
参数
- type
- 音频数据的类型。
- samplesPerChannel
- 每声道的采样点数。
- bytesPerSample
- 每个采样点的字节数(byte)。对于 PCM 音频数据,一般是两个字节。
- channels
- 声道数:
- 1:单声道。
- 2:双声道。双声道的音频数据是交叉存储的。
- samplesPerSec
- 音频采样率(Hz)。
- buffer
- 音频 buffer。buffer 大小为 samplesPerChannel x channels x bytesPerSample。
- renderTimeMs
- 外部音频帧的渲染时间戳(毫秒)。你可以使用该时间戳还原音频帧的顺序。在音视频场景下(包含使用外部视频源的场景),该时间戳可以用于实现音频和视频的同步。
- avsync_type
- 预留参数。
返回值
无实际含义。
所属接口类onPlaybackAudioFrameBeforeMixing
获取所订阅的远端用户混音前的声音。
public abstract boolean onPlaybackAudioFrameBeforeMixing(int userId, int type,
int samplesPerChannel, int bytesPerSample, int channels, int samplesPerSec, ByteBuffer buffer,
long renderTimeMs, int avsync_type);
参数
- userId
- 订阅的远端用户的 ID。
- type
- 音频数据的类型。
- samplesPerChannel
- 每声道的采样点数。
- bytesPerSample
- 每个采样点的字节数(byte)。对于 PCM 音频数据,一般是两个字节。
- channels
- 声道数:
- 1:单声道。
- 2:双声道。双声道的音频数据是交叉存储的。
- samplesPerSec
- 音频采样率(Hz)。
- buffer
- 音频 buffer。buffer 大小为 samplesPerChannel x channels x bytesPerSample。
- renderTimeMs
- 外部音频帧的渲染时间戳(毫秒)。你可以使用该时间戳还原音频帧的顺序。在音视频场景下(包含使用外部视频源的场景),该时间戳可以用于实现音频和视频的同步。
- avsync_type
- 预留参数。
返回值
无实际含义。
所属接口类onRecordAudioFrame
获得采集的原始音频数据。
public abstract boolean onRecordAudioFrame(String channelId, int type, int samplesPerChannel,
int bytesPerSample, int channels, int samplesPerSec, ByteBuffer buffer, long renderTimeMs,
int avsync_type);
详情
- 方法一:调用 setRecordingAudioFrameParameters 设置音频数据格式后,调用 registerAudioFrameObserver 注册音频观测器对象,SDK 会根据该方法中的参数计算采样间隔,并根据该采样间隔触发 onRecordAudioFrame 回调。
- 方法二:调用 registerAudioFrameObserver 注册音频观测器对象后,在 getObservedAudioFramePosition 回调的返回值中设置具体的音频观测位置,然后在 getRecordAudioParams 回调的返回值中设置音频数据格式,SDK 会根据该回调的返回值计算采样间隔,并根据该采样间隔触发 onRecordAudioFrame 回调。
- 方法一的优先级高于方法二,如果使用方法一设置音频数据格式,方法二设置无效。
参数
- channelId
- 频道 ID。
- type
- 音频数据的类型。
- samplesPerChannel
- 每声道的采样点数。
- bytesPerSample
- 每个采样点的字节数(byte)。对于 PCM 音频数据,一般是两个字节。
- channels
- 声道数:
- 1:单声道。
- 2:双声道。双声道的音频数据是交叉存储的。
- samplesPerSec
- 音频采样率(Hz)。
- buffer
- 音频 buffer。buffer 大小为 samplesPerChannel x channels x bytesPerSample。
- renderTimeMs
- 外部音频帧的渲染时间戳(毫秒)。你可以使用该时间戳还原音频帧的顺序。在音视频场景下(包含使用外部视频源的场景),该时间戳可以用于实现音频和视频的同步。
- avsync_type
- 预留参数。
返回值
无实际含义。
所属接口类onMixedAudioFrame
获取采集和播放音频混音后的数据。
public abstract boolean onMixedAudioFrame(int type, int samplesPerChannel, int bytesPerSample,
int channels, int samplesPerSec, ByteBuffer buffer, long renderTimeMs, int avsync_type);
详情
- 方法一:调用 setMixedAudioFrameParameters 设置音频数据格式后,调用 registerAudioFrameObserver 注册音频观测器对象,SDK 会根据该方法中的参数计算采样间隔,并根据该采样间隔触发 onMixedAudioFrame 回调。
- 方法二:调用 registerAudioFrameObserver 注册音频观测器对象后,在 getObservedAudioFramePosition 回调的返回值中设置具体的音频观测位置,然后在 getMixedAudioParams 回调的返回值中设置音频数据格式,SDK 会根据该回调的返回值计算采样间隔,并根据该采样间隔触发 onMixedAudioFrame 回调。
- 方法一的优先级高于方法二,如果使用方法一设置音频数据格式,方法二设置无效。
参数
- type
- 音频数据的类型。
- samplesPerChannel
- 每声道的采样点数。
- bytesPerSample
- 每个采样点的字节数(byte)。对于 PCM 音频数据,一般是两个字节。
- channels
- 声道数:
- 1:单声道。
- 2:双声道。双声道的音频数据是交叉存储的。
- samplesPerSec
- 音频采样率(Hz)。
- buffer
- 音频 buffer。buffer 大小为 samplesPerChannel x channels x bytesPerSample。
- renderTimeMs
- 外部音频帧的渲染时间戳(毫秒)。你可以使用该时间戳还原音频帧的顺序。在音视频场景下(包含使用外部视频源的场景),该时间戳可以用于实现音频和视频的同步。
- avsync_type
- 预留参数。
返回值
无实际含义。
所属接口类