HTML5音频API Web Audio

此文介绍HTML5音频API的主要框架和工做流程,由于音频处理模块不少,所以只简单介绍几种音频处理模块,并经过例子来展现效果。后续会介绍利用HTML5音频API实现的项目,欢迎你们关注,敬请期待。web

HTML5音频API的主要框架和工做流程以下图,在 AudioContext 音频上下文中,把音频文件转成 buffer 格式,从音频源 source 开始,通过 AuidoNode 处理音频,最后到达 destination 输出音乐。这里造成了一个音频通道,每一个模块经过 connect 方法连接并传送音频。segmentfault

audiocontext1

AudioContext

AudioContext 是一个音频上下文,像一个大工厂,全部的音频在这个音频上下文中处理。框架

let audioContext = new(window.AudioContext || window.webkitAudioContext)();

AudioContext 音频上下文提供了不少属性和方法,用于建立各类音频源和音频处理模块等,这里只介绍一部分,更多属性和方法可到MDN查阅文档。ui

属性

AudioContext.destinationurl

返回 AudioDestinationNode 对象,表示当前 AudioContext 中全部节点的最终节点,通常表示音频渲染设备。spa

方法

AudioContext.createBufferSource()code

建立一个 AudioBufferSourceNode 对象, 他能够经过 AudioBuffer 对象来播放和处理包含在内的音频数据。对象

AudioContext.createGain()blog

建立一个 GainNode,它能够控制音频的总音量。继承

AudioContext.createBiquadFilter()

建立一个 BiquadFilterNode,它表明表明一个双二阶滤波器,能够设置几种不一样且常见滤波器类型:高通、低通、带通等。

createOscillator()

建立一个 OscillatorNode, 它表示一个周期性波形,基本上来讲创造了一个音调。

音频转换成Buffer格式

使用decodeAudioData()方法把音频文件编译成buffer格式。

function decodeAudioData(audioContext, url) {
    return new Promise((resolve) => {
        let request = new XMLHttpRequest();
        request.open('GET', url, true);
        request.responseType = 'arraybuffer';
        request.onload = () => {
            audioContext.decodeAudioData(request.response, (buffer) => {
                if (!buffer) {
                    alert('error decoding file data: ' + url);
                    return;
                } else {
                    resolve(buffer);
                }
            })
        }
        request.onerror = function() {
            alert('BufferLoader: XHR error');
        }
        request.send();
    })
}

let buffer = decodeAudioData(audioContext, './sounds/music.mp3');

AudioNode

音频节点接口是一个音频处理模块。包括音频源,音频输出,中间处理模块。

方法

AudioNode.connect()

连接两个 AudioNode 节点,把音频从一个 AudioNode 节点输出到另外一个 AudioNode 节点,造成一个音频通道。

AudioNode.disconnect()

AudioNode 节点与其余节点断开连接。

AudioBufferSourceNode

音频源有多种,这里只介绍 buffer 的音频源,buffer 的音频源经过 AudioContext 接口的 createBufferSource 方法来建立。音频源节点继承 AudioNode 音频节点。

let bufferSource = audioContext.createBufferSource();

建立了 AudioBufferSourceNode 对象后,把 buffer 格式的音频数据赋值给 AudioBufferSourceNode 对象的 buffer 属性,此时音频已经传递到音频源,能够对音频进行处理或输出。

bufferSource.buffer = buffer;

方法

AudioBufferSourceNode.start(when[, duration])

开始播放。

  • when:延迟播放时间,单位为秒。

  • offset:定位音频到第几秒开始播放。

  • duration:从开始播放结束时长,当通过设置秒数后自动结束音频播放。

AudioBufferSourceNode.stop([when])

  • when:延迟中止时间,单位为秒。

中止播放,注意调用该方法后,没法再次调用 AudioBufferSourceNode.start 播放。

AudioDestinationNode

音频终点是经过 AudioContext 接口的 destination 属性访问的。音频终点继承 AudioNode 音频节点,

AudioDestinationNode 节点没法再把音频信息传递给下一个音频节点,即没法再连接其余音频节点,由于他已是终点,没有输出,也能够理解为他本身就是输出。

let audioDestinationNode = audioContext.destination;

此时咱们有音频起点 AudioBufferSourceNode 和音频终点 AudioDestinationNode ,使用 AudioNode.connect() 方法把起点和终点连接起来,就造成了一条有输入输出的音频通道,能够把音频直接播放出来。

bufferSource.connect(audioDestinationNode);

戳我看栗子

GainNode

用于音量变化。它是一个 AudioNode 类型的音频处理模块。

let gainNode = audioContext.createGain();

把音频源、音频输出和音频处理模块连接一块儿,造成可控制音量大小的音频。

bufferSource.connect(gainNode);
gainNode.connect(audioDestinationNode);

let controlVolume = value => {
    gainNode.gain.value = value);
}

// 两倍音量播放
controlVolume(2);

audiocontext2

戳我看栗子

BiquadFilterNode

表示一个简单的低频滤波器,可控制声调。它是一个 AudioNode 类型的音频处理模块。

let filterNode = audioContext.createBiquadFilter();

输出一个变调的音频:

bufferSource.connect(filterNode);
filterNode.connect(audioDestinationNode);

let controlFrequency = function(value) {
    filterNode.frequency.value = value;
}

// 音频为1000变调
controlFrequency(1000);

多个音频源

在一个音频上下文中,能够有多个音频处理通道,即多个音频源同时输出。各个音频处理通道内的操做是独立的,不影响其余音频通道。

audiocontext3

戳我看栗子

多个音频处理模块

一个音频源能够通过多个音频处理模块处理,音频处理模块叠加效果后输出。

audiocontext4

戳我看栗子

欢迎关注:Leechikit
原文连接:segmentfault.com

到此本文结束,欢迎提问和指正。写原创文章不易,若本文对你有帮助,请点赞、推荐和关注做者支持。

相关文章
相关标签/搜索