Interface IBufferSourceAudioTrack
直接通过音频数据源创建的音频轨道,继承于 LocalAudioTrack, 在此之上提供了控制音频数据处理流程的功能(开始/暂停/跳转等等)。
可以通过 AgoraRTC.createBufferSourceAudioTrack 来获取。
Events
source-state-change
source-state-change(currentState: AudioSourceState): void
当 BufferSourceAudioTrack 的音频数据源处理状态变化时,会触发此事件。
参数
参数名 | 描述 |
---|---|
currentState: AudioSourceState |
返回值
Properties
currentState
currentState: AudioSourceState
当前音频数据源的处理状态(开始/暂停/停止)。
duration
duration: number
音频总时长,单位为秒。
enabled
enabled: boolean
本地轨道当前的启用状态。
isPlaying
isPlaying: boolean
媒体轨道是否正在页面上播放。
-
true
: 媒体轨道正在页面上播放。 -
false
: 媒体轨道没有在页面上播放。
muted
muted: boolean
本地媒体轨道当前的静音状态。
playbackSpeed
playbackSpeed: number
4.18.0
当前音频文件的播放速度。取值范围为 [50,400],其中:
-
50: 0.5 倍速。
-
100: (默认)原始速度。
-
400: 4 倍速。
processorDestination
processorDestination: IAudioProcessor
4.10.0
本地音频轨道上当前媒体处理链路的最终节点。
source
source: string | File | AudioBuffer | null
创建时指定的 source 值。
trackMediaType
trackMediaType: "audio" | "video"
媒体轨道的类型:
-
"audio"
: 音频轨道。 -
"video"
: 视频轨道。
Methods
close
getCurrentTime
getListeners
getMediaStreamTrack
getMediaStreamTrack(): MediaStreamTrack
获取浏览器原生的 MediaStreamTrack 对象。
返回值
一个 MediaStreamTrack 对象。
getRTCRtpTransceiver
getRTCRtpTransceiver(type?: StreamType): RTCRtpTransceiver | undefined
获取当前轨道的 RTCRtpTransceiver 实例。
该方法目前主要用于视频流的端到端加密(Beta)。
如果 SDK 发生断线重连,当前轨道对应的 RTCRtpTransceiver
实例可能会发生变化。你可以通过以下回调来获取新的 RTCRtpTransceiver
实例:
参数
参数名 | 描述 |
---|---|
type: StreamType | 视频流的类型。详见 StreamType。 |
返回值
当前轨道的 RTCRtpTransceiver
实例。
getStats
getTrackId
getTrackLabel
getTrackLabel(): string
获取本地轨道的来源描述。
返回值
可能返回以下值:
- 如果是通过
createMicrophoneAudioTrack
或createCameraVideoTrack
创建的轨道,返回 MediaDeviceInfo.label 字段。 - 如果是通过
createScreenVideoTrack
创建的轨道,返回屏幕共享的sourceId
。 - 如果是
createCustomAudioTrack
或createCustomVideoTrack
创建的轨道,返回 MediaStreamTrack.label 字段。
getVolumeLevel
off
on
once
pauseProcessAudioBuffer
pipe
play
removeAllListeners
resumeProcessAudioBuffer
seekAudioBuffer
setAudioBufferPlaybackSpeed
setAudioFrameCallback
setAudioFrameCallback(audioFrameCallback: null | function, frameSize?: number): void
设置原始音频数据(PCM)回调。
设置成功后,SDK 会不断地将本地音频轨道的音频帧以 AudioBuffer 的形式通过回调返回。
你可以通过 frameSize
来设置每次回调中音频帧的大小。该设置也会影响回调的间隔,frameSize
越大,每次回调的音频数据越多,回调间隔越长。
track.setAudioFrameCallback((buffer) => {
for (let channel = 0; channel < buffer.numberOfChannels; channel += 1) {
// Float32Array with PCM data
const currentChannelData = buffer.getChannelData(channel);
console.log("PCM data in channel", channel, currentChannelData);
}
}, 2048);
// ....
// Stop getting the raw audio data
track.setAudioFrameCallback(null);
参数
参数名 | 描述 |
---|---|
audioFrameCallback: null | function | 用于接收 AudioBuffer 的回调函数。设为 |
frameSize: number | 每次回调的 |
返回值
setEnabled
setMuted
setPlaybackDevice
setPlaybackDevice(deviceId: string): Promise<void>
参数
参数名 | 描述 |
---|---|
deviceId: string | 设备 ID,可以通过 getPlaybackDevices 方法获取。 |
返回值
setVolume
startProcessAudioBuffer
startProcessAudioBuffer(options?: AudioSourceOptions): void
开始处理音频数据源。
开始处理音频数据源说明我们已经将音频数据送入 SDK 的处理节点。如果此时该音频轨道已发布,远端可以听到该音源的声音。 只有在调用 play 之后,音频数据才会送入声卡,此时本地才能听到该音源的声音。
参数
参数名 | 描述 |
---|---|
options: AudioSourceOptions | 音频数据源处理的相关设置,包括是否需要循环播放/开始播放的位置。详见 AudioSourceOptions。 |
当前音频数据处理状态:
"stopped"
: 音频源数据处理停止。可能是因为数据处理完毕,也可能是手动触发了停止。"paused"
: 音频源数据暂停处理。"playing"
: 音频源数据正在处理。