最近在作一个项目,须要对webRTC录制的音频进行处理,包括音频的裁剪、多音频合并,甚至要将某个音频的某一部分替换成另外一个音频。前端
本来笔者打算将这件工做交给服务端去完成,但考虑,其实不管是前端仍是后台,所作的工做是差很少的,并且交给服务端还须要再额外走一个上传、下载音频的流程,这不只增添了服务端的压力,并且还有网络流量的开销,因而萌生出一个想法:为何音频处理这件事不能让前端来作呢?ios
因而在笔者的半摸索半实践下,产生出了这篇文章。废话少说,先上仓库地址,这是一个开箱即用的前端音频剪辑sdk(点进去了不如就star一下吧)git
ffmpeg是实现前端音频处理的很是核心的模块,固然,不只是前端,ffmpge做为一个提供了录制、转换以及流化音视频的业界成熟完整解决方案,它也应用在服务端、APP应用等多种场景下。关于ffmpeg的介绍,你们自行google便可,这里不说太多。github
因为ffmpeg在处理过程当中须要大量的计算,直接放在前端页面上去运行是不可能的,由于咱们须要单独开个web worker,让它本身在worker里面运行,而不至于阻塞页面交互。web
可喜的是,万能的github上已经有开发者提供了ffmpge.js,而且提供worker版本,能够拿来直接使用。ajax
因而咱们便有了大致的思路:当获取到音频文件后,将其解码后传送给worker,让其进行计算处理,并将处理结果以事件的方式返回,这样咱们就能够对音频随心所欲了:)axios
须要提早声明的是,因为笔者的项目需求,是仅需对.mp3
格式进行处理的,所以下面的代码示例以及仓库地址里面所涉及的代码,也主要是针对mp3
,固然,其实不论是哪一种格式,思路是相似的。数组
建立worker的方式很是简单,直接new之,注意的是,因为同源策略的限制,要使worker正常工做,则要与父页面同源,因为这不是重点,因此略过promise
function createWorker(workerPath: string) { const worker = new Worker(workerPath); return worker; }
仔细看ffmpeg.js
文档的童鞋都会发现,它在处理音频的不一样阶段都会发射事件给父页面,好比stdout
,start
和done
等等,若是直接为这些事件添加回调函数,在回调函数里去区分、处理一个又一个音频的结果,是不大好维护的。我的更倾向于将其转成promise:网络
function pmToPromise(worker, postInfo) { return new Promise((resolve, reject) => { // 成功回调 const successHandler = function(event) { switch (event.data.type) { case "stdout": console.log("worker stdout: ", event.data.data); break; case "start": console.log("worker receive your command and start to work:)"); break; case "done": worker.removeEventListener("message", successHandler); resolve(event); break; default: break; } }; // 异常捕获 const failHandler = function(error) { worker.removeEventListener("error", failHandler); reject(error); }; worker.addEventListener("message", successHandler); worker.addEventListener("error", failHandler); postInfo && worker.postMessage(postInfo); }); }
经过这层转换,咱们就能够将一次postMessage请求,转换成了promise的方式来处理,更易于空间上的拓展
ffmpeg-worker
所须要的数据格式是arrayBuffer
,而通常咱们能直接使用的,要么是音频文件对象blob
,或者音频元素对象audio
,甚至有可能仅是一条连接url,所以这几种格式的转换是很是有必要的:
function audioToBlob(audio) { const url = audio.src; if (url) { return axios({ url, method: 'get', responseType: 'arraybuffer', }).then(res => res.data); } else { return Promise.resolve(null); } }
笔者暂时想到的audio转blob的方式,就是发起一段ajax请求,将请求类型设置为arraybuffer
,便可拿到arrayBuffer
.
这个也很简单,只须要借助FileReader
将blob内容提取出来便可
function blobToArrayBuffer(blob) { return new Promise(resolve => { const fileReader = new FileReader(); fileReader.onload = function() { resolve(fileReader.result); }; fileReader.readAsArrayBuffer(blob); }); }
利用File
建立出一个blob
function audioBufferToBlob(arrayBuffer) { const file = new File([arrayBuffer], 'test.mp3', { type: 'audio/mp3', }); return file; }
blob
转audio是很是简单的,js提供了一个原生API——URL.createObjectURL
,借助它咱们能够把blob转成本地可访问连接进行播放
function blobToAudio(blob) { const url = URL.createObjectURL(blob); return new Audio(url); }
接下来咱们进入正题。
所谓裁剪,便是指将给定的音频,按给定的起始、结束时间点,提取这部分的内容,造成新的音频,先上代码:
class Sdk { end = "end"; // other code... /** * 将传入的一段音频blob,按照指定的时间位置进行裁剪 * @param originBlob 待处理的音频 * @param startSecond 开始裁剪时间点(秒) * @param endSecond 结束裁剪时间点(秒) */ clip = async (originBlob, startSecond, endSecond) => { const ss = startSecond; // 获取须要裁剪的时长,若不传endSecond,则默认裁剪到末尾 const d = isNumber(endSecond) ? endSecond - startSecond : this.end; // 将blob转换成可处理的arrayBuffer const originAb = await blobToArrayBuffer(originBlob); let resultArrBuf; // 获取发送给ffmpge-worker的指令,并发送给worker,等待其裁剪完成 if (d === this.end) { resultArrBuf = (await pmToPromise( this.worker, getClipCommand(originAb, ss) )).data.data.MEMFS[0].data; } else { resultArrBuf = (await pmToPromise( this.worker, getClipCommand(originAb, ss, d) )).data.data.MEMFS[0].data; } // 将worker处理事后的arrayBuffer包装成blob,并返回 return audioBufferToBlob(resultArrBuf); }; }
咱们定义了该接口的三个参数:须要被剪裁的音频blob,以及裁剪的开始、结束时间点,值得注意的是这里的getClipCommand
函数,它负责将传入的arrayBuffer
、时间包装成ffmpeg-worker
约定的数据格式
/** * 按ffmpeg文档要求,将带裁剪数据转换成指定格式 * @param arrayBuffer 待处理的音频buffer * @param st 开始裁剪时间点(秒) * @param duration 裁剪时长 */ function getClipCommand(arrayBuffer, st, duration) { return { type: "run", arguments: `-ss ${st} -i input.mp3 ${ duration ? `-t ${duration} ` : "" }-acodec copy output.mp3`.split(" "), MEMFS: [ { data: new Uint8Array(arrayBuffer), name: "input.mp3" } ] }; }
多音频合成很好理解,即将多个音频按数组前后顺序合并成一个音频
class Sdk { // other code... /** * 将传入的一段音频blob,按照指定的时间位置进行裁剪 * @param blobs 待处理的音频blob数组 */ concat = async blobs => { const arrBufs = []; for (let i = 0; i < blobs.length; i++) { arrBufs.push(await blobToArrayBuffer(blobs[i])); } const result = await pmToPromise( this.worker, await getCombineCommand(arrBufs), ); return audioBufferToBlob(result.data.data.MEMFS[0].data); }; }
上述代码中,咱们是经过for
循环来将数组里的blob一个个解码成arrayBuffer
,可能有童鞋会好奇:为何不直接使用数组自带的forEach
方法去遍历呢?写for
循环未免麻烦了点。实际上是有缘由的:咱们在循环体里使用了await
,是指望这些blob一个个解码完成后,才执行后面的代码,for
循环是同步执行的,但forEach
的每一个循环体是分别异步执行的,咱们没法经过await
的方式等待它们所有执行完成,所以使用forEach
并不符合咱们的预期。
一样,getCombineCommand
函数的职责与上述getClipCommand
相似:
async function getCombineCommand(arrayBuffers) { // 将arrayBuffers分别转成ffmpeg-worker指定的数据格式 const files = arrayBuffers.map((arrayBuffer, index) => ({ data: new Uint8Array(arrayBuffer), name: `input${index}.mp3`, })); // 建立一个txt文本,用于告诉ffmpeg咱们所需进行合并的音频文件有哪些(相似这些文件的一个映射表) const txtContent = [files.map(f => `file '${f.name}'`).join('\n')]; const txtBlob = new Blob(txtContent, { type: 'text/txt' }); const fileArrayBuffer = await blobToArrayBuffer(txtBlob); // 将txt文件也一并推入到即将发送给ffmpeg-worker的文件列表中 files.push({ data: new Uint8Array(fileArrayBuffer), name: 'filelist.txt', }); return { type: 'run', arguments: `-f concat -i filelist.txt -c copy output.mp3`.split(' '), MEMFS: files, }; }
在上面代码中,与裁剪操做不一样的是,被操做的音频对象不止一个,而是多个,所以须要建立一个“映射表”去告诉ffmpeg-worker
一共须要合并哪些音频以及它们的合并顺序。
它有点相似clip
的升级版,咱们从指定的位置删除音频A,并在此处插入音频B:
class Sdk { end = "end"; // other code... /** * 将一段音频blob,按指定的位置替换成另外一端音频 * @param originBlob 待处理的音频blob * @param startSecond 起始时间点(秒) * @param endSecond 结束时间点(秒) * @param insertBlob 被替换的音频blob */ splice = async (originBlob, startSecond, endSecond, insertBlob) => { const ss = startSecond; const es = isNumber(endSecond) ? endSecond : this.end; // 若insertBlob不存在,则仅删除音频的指定内容 insertBlob = insertBlob ? insertBlob : endSecond && !isNumber(endSecond) ? endSecond : null; const originAb = await blobToArrayBuffer(originBlob); let leftSideArrBuf, rightSideArrBuf; // 将音频先按指定位置裁剪分割 if (ss === 0 && es === this.end) { // 裁剪所有 return null; } else if (ss === 0) { // 从头开始裁剪 rightSideArrBuf = (await pmToPromise( this.worker, getClipCommand(originAb, es) )).data.data.MEMFS[0].data; } else if (ss !== 0 && es === this.end) { // 裁剪至尾部 leftSideArrBuf = (await pmToPromise( this.worker, getClipCommand(originAb, 0, ss) )).data.data.MEMFS[0].data; } else { // 局部裁剪 leftSideArrBuf = (await pmToPromise( this.worker, getClipCommand(originAb, 0, ss) )).data.data.MEMFS[0].data; rightSideArrBuf = (await pmToPromise( this.worker, getClipCommand(originAb, es) )).data.data.MEMFS[0].data; } // 将多个音频从新合并 const arrBufs = []; leftSideArrBuf && arrBufs.push(leftSideArrBuf); insertBlob && arrBufs.push(await blobToArrayBuffer(insertBlob)); rightSideArrBuf && arrBufs.push(rightSideArrBuf); const combindResult = await pmToPromise( this.worker, await getCombineCommand(arrBufs) ); return audioBufferToBlob(combindResult.data.data.MEMFS[0].data); }; }
上述代码有点相似clip
和concat
的复合使用。
到这里,就基本实现了咱们的需求,仅需借助worker,前端本身也能处理音频,岂不美哉?
上述这些代码只是为了更好的说明讲解,因此作了些简化,有兴趣的童鞋可直接源码,欢迎交流、拍砖:)