我司和我同项目的Android小伙伴分享了技术文章, 咱大iOS也不能够落后, 整理了一下关于音频处理的一些内容, 但愿对你们有所帮助.php
Talk is cheap, show you the code WaveDemohtml
##转码前奏 我所在项目, 须要将音频上传至服务器, iOS原生的录音产生的PCM文件过大, 为了统一三端, 咱们决定使用mp3
格式. iOS录音的输出参数默认不支持mp3(那个字段没用...), 因此咱们须要使用lame进行转码. 网上能够找到的lame.a
可能是iOS6, 7, 而且有的不支持bitcode, 容我作个悲伤的表情🤣 我在github上找到了一个编译lame源码的库build-lame-for-iOS, 支持bitcode, 而且可修改最低支持版本, 自行修改sh文件node
tip: lipo
操做可操做libXXX.a文件, 增删平台依赖.ios
##转码进行时 搞完lame的问题, 咱们开始进行编码, 最开始我使用Google大法, 找到了使用lame的方式, 核心代码以下:git
@try {
int read, write;
FILE *pcm = fopen([cafFilePath cStringUsingEncoding:1], "rb"); //source 被转换的音频文件位置
fseek(pcm, 4*1024, SEEK_CUR); //skip file header
FILE *mp3 = fopen([mp3FilePath cStringUsingEncoding:1], "wb"); //output 输出生成的Mp3文件位置
const int PCM_SIZE = 8192;
const int MP3_SIZE = 8192;
short int pcm_buffer[PCM_SIZE*2];
unsigned char mp3_buffer[MP3_SIZE];
lame_t lame = lame_init();
lame_set_in_samplerate(lame, 22050.0);
lame_set_VBR(lame, vbr_default);
lame_init_params(lame);
do {
read = fread(pcm_buffer, 2*sizeof(short int), PCM_SIZE, pcm);
if (read == 0)
write = lame_encode_flush(lame, mp3_buffer, MP3_SIZE);
else
write = lame_encode_buffer_interleaved(lame, pcm_buffer, read, mp3_buffer, MP3_SIZE);
fwrite(mp3_buffer, write, 1, mp3);
} while (read != 0);
lame_close(lame);
fclose(mp3);
fclose(pcm);
}
@catch (NSException *exception) {
NSLog(@"%@",[exception description]);
}
@finally {
return mp3FilePath;
}
复制代码
咱们完成了第一步, 录制完成后将PCM转为mp3
让我先检验一下音频能否播放等问题, 而后问题就来了 用mac自带的iTunes播放, 获取的总时长不正确.不用问, 确定是转码出了问题, 查找了一些资料得知, lame_set_VBR
的参数vbr_default
是变码率vbr
形式的, 默认的播放器AVPlayer是使用cbr
均码率的形式识别播放, 致使时长不正确, 因此这里调整上面的一行代码:github
lame_set_VBR(lame, vbr_off);
复制代码
注意模拟器和真机的采样率有些许不一样, 如遇到播放杂音的情况可调整为objective-c
lame_set_in_samplerate(lame, 44100);
复制代码
##优化转码 其实就是边录边转了, 这里我查看了一些文章, 大多基于AVAudioRecorder实现的方式比较粗暴, 不想使用. 我还查到了基于AVAudioQueue的, 不过api多C语言. 想起来前一阵看的Apple的session中有关于AVAudioEngine的介绍, 使用起来更加oc, 本着折腾就是学习的心, 使用AVAudioEngine进行转码. 这里我就很少作介绍了,能够查看文章iOS AVAudioEngine 使用AVAudioEngine能够拿到时时的音频buffer, 对其进行转码便可, 将转码后的data
进行append
(可本身改造, 使用AFNetworking进行流上传). 核心代码以下:api
- 转码准备工做,建立engine,并初始化lame
private func initLame() {
engine = AVAudioEngine()
guard let engine = engine,
let input = engine.inputNode else {
return
}
let format = input.inputFormat(forBus: 0)
let sampleRate = Int32(format.sampleRate) / 2
lame = lame_init()
lame_set_in_samplerate(lame, sampleRate);
lame_set_VBR_mean_bitrate_kbps(lame, 96);
lame_set_VBR(lame, vbr_off);
lame_init_params(lame);
}
复制代码
设置AVAudioSession,设置偏好的
采样率
和获取buffer的io频率
bash
let session = AVAudioSession.sharedInstance()
do {
try session.setCategory(AVAudioSessionCategoryPlayAndRecord)
try session.setPreferredSampleRate(44100)
try session.setPreferredIOBufferDuration(0.1)
try session.setActive(true)
initLame()
} catch {
print("seesion设置")
return
}
复制代码
计算音量 使用
Accelerate
库进行高效计算, 详情查看 Level Metering with AVAudioEngine服务器
let levelLowpassTrig: Float = 0.5
var avgValue: Float32 = 0
vDSP_meamgv(buf, 1, &avgValue, vDSP_Length(frameLength))
this.averagePowerForChannel0 = (levelLowpassTrig * ((avgValue==0) ? -100 : 20.0 * log10f(avgValue))) + ((1-levelLowpassTrig) * this.averagePowerForChannel0)
let volume = min((this.averagePowerForChannel0 + Float(55))/55.0, 1.0)
this.minLevel = min(this.minLevel, volume)
this.maxLevel = max(this.maxLevel, volume)
// 切回去, 更新UI
DispatchQueue.main.async {
this.delegate?.record(this, voluem: volume)
}
复制代码
结束操做
public func stop() {
engine?.inputNode?.removeTap(onBus: 0)
engine = nil
do {
var url = try FileManager.default.url(for: .cachesDirectory, in: .userDomainMask, appropriateFor: nil, create: false)
let name = String(CACurrentMediaTime()).appending(".mp3")
url.appendPathComponent(name)
if !data.isEmpty {
try data.write(to: url)
}
else {
print("空文件")
}
} catch {
print("文件操做")
}
data.removeAll()
}
复制代码
几个须要注意的点
lame_set_bWriteVbrTag(_lame, 0);
复制代码
在input的回调中, 咱们修改了 使用这样的方法不够优雅,因此经过设置session的ioduration来达到相似的目的。buffer
的frameLength
, 由于默认的input的回调频率是0.375s, 咱们能够经过修改frameLength
来达到修改频率的目的.
录制过程当中没有办法取得当前录制时长, 请自行使用NSDate, NSTimer等方式进行计算.
在模拟器上一切ok, 在个人小6上, 录制的音频播放出来是快进的🤣,debug了很久发现, 在真机上, 若是连续播放录制, 有时AVAudioEngine的input上的format拿到的采样率sampleRate
不是预期的44100而是16000. 解决办法有两种
AVAudioSession *sessionInstance = [AVAudioSession sharedInstance];
[sessionInstance setPreferredSampleRate:kPreferredSampleRate error:&error]
复制代码
##同步Android波形图 由于重构以上部分的内容, 致使业务上拉后Android小伙伴, 他已经完成了波形图的绘制, 能够查看效果图.
Android自绘动画实现与一些优化思考——以智课批改App录音波形动画为例 Android小伙伴详细介绍了如何绘制该图形, 在他的帮助下, 我在iOS端也实现了该效果.
基本流程
优化手段大致相同
核心代码以下:
CGFloat reduction[kPointNumber];
CGFloat perVolume;
NSInteger count;
@property (nonatomic, assign) CGFloat targetVolue;
@property (nonatomic, copy) NSArray<NSNumber *> *amplitudes;
@property (nonatomic, copy) NSArray<CAShapeLayer *> *shapeLayers;
@property (nonatomic, copy) NSArray<UIBezierPath *> *paths;
- (void)doSomeInit {
perVolume = 0.15;
count = 0;
self.amplitudes = @[@0.6, @0.35, @0.1, @-0.1];
self.shapeLayers = [self.amplitudes bk_map:^id(id obj) {
CAShapeLayer *layer = [self creatLayer];
[self.layer addSublayer:layer];
return layer;
}];
self.shapeLayers.firstObject.lineWidth = 2;
self.paths = [self.amplitudes bk_map:^id(id obj) {
return [UIBezierPath bezierPath];
}];
for (int i = 0; i < kPointNumber; i++) {
reduction[i] = self.height / 2.0 * 4 / (4 + pow((i/(CGFloat)kPointNumber - 0.5) * 3, 4));
}
}
- (CAShapeLayer *)creatLayer {
CAShapeLayer *layer = [CAShapeLayer layer];
layer.fillColor = [UIColor clearColor].CGColor;
layer.strokeColor = [UIColor defaultColor].CGColor;
layer.lineWidth = 0.2;
return layer;
}
// 用来忽略变化较小的波动
- (void)setTargetVolue:(CGFloat)targetVolue {
if (ABS(_targetVolue - targetVolue) > perVolume) {
_targetVolue = targetVolue;
}
}
// 在每一个CADisplayLink周期中, 平滑调整音量.
- (void)softerChangeVolume {
CGFloat target = self.targetVolue;
if (volume < target - perVolume) {
volume += perVolume;
} else if (volume > target + perVolume) {
if (volume < perVolume * 2) {
volume = perVolume * 2;
} else {
volume -= perVolume;
}
} else {
volume = target;
}
}
- (void)updatePaths:(CADisplayLink *)sender {
// 坐标轴取[-3,3], 屏幕取像素点64份
NSInteger xLen = 64;
count++;
[self softerChangeVolume];
for (int i = 0; i < xLen; i++) {
CGFloat left = i/(CGFloat)xLen * self.width;
CGFloat x = (i/(CGFloat)xLen - 0.5) * 3;
tmpY = volume * reduction[i] * sin(M_PI*x - count*0.2);
for (int j = 0; j < self.amplitudes.count ; j++) {
CGPoint point = CGPointMake(left, tmpY * [self.amplitudes[j] doubleValue] + self.height/2);
UIBezierPath *path = self.paths[j];
if (i == 0) {
[path moveToPoint:point];
} else {
[path addLineToPoint:point];
}
}
}
for (int i = 0; i < self.paths.count; i++) {
self.shapeLayers[i].path = self.paths[i].CGPath;
}
[self.paths bk_each:^(UIBezierPath *obj) {
[obj removeAllPoints];
}];
}
复制代码
固然也有一些小小的不足, 在改变path的时候, 我发现cpu占用率打到了15%, 不知道有没有办法继续优化, 你们集思广益😜
update: 波形图采用了另外一种实现方式,上面满是对Android同窗的致敬🙆🏻♂️
Demo完成, 用Swift写完发现和oc的效果不同, 作了一些调整... 连接以下: WaveDemo
若是帮助到了你, 能够点一波关注, 走一波鱼丸 不对不对, 给文章点个喜欢
, 做者点个关注
就好了😘
iOS - 录音文件lame转换MP3相关配置 build-lame-for-iOS iOS中使用lame将PCM文件转换成MP3(边录边转) IOS 实现录音PCM转MP3格式(边录音边转码) iOS AVAudioEngine Android自绘动画实现与一些优化思考——以智课批改App录音波形动画为例