随着网络基础建设的发展和资费的降低,在这个内容消费升级的时代,文字、图片没法知足人们对视觉的需求,所以视频直播应运而生。承载了实时性Real-Time和交互性的直播云服务是直播覆盖各行各业的新动力。git
想必了解过直播的人都清楚直播主要分为3部分:推流->流媒体服务器->拉流。github
而咱们今天须要讲的就是推流这部分,它主要包括音视频采集,音视频前处理,音视频编码,推流和传输4个方面。可是因为网络的复杂性和大数据的统计,推流还须要有全局负载均衡调度 GSLB(Global Server Load Balance),以及实时的统计数据上报服务器,包括提供频道管理给用户运营,所以推流 SDK 须要接入 GSLB 中心调度,统计服务器,心跳服务器,用于推流分配到网络最好的节点,有大数据的统计和分析。web
下图涵盖了直播相关的全部服务,红色小标的线条表明指令流向,绿色小标的线条表明数据流向。算法
采集是全部环节中的第一环,咱们使用的系统原生框架 AVFoundation 采集数据。经过 iPhone 摄像头(AVCaptureSession)采集视频数据,经过麦克风(AudioUnit)采集音频数据。目前视频的采集源主要来自摄像头采集、屏幕录制(ReplayKit)、从视频文件读取推流。
音视频都支持参数配置。音频能够设置采样率、声道数、帧大小、音频码率、是否使用外部采集、是否使用外部音频前处理;视频能够设置帧率、码率、分辨率、先后摄像头、摄像头采集方向、视频端显示比例、是否开启摄像头闪光灯、是否打开摄像头响应变焦、是否镜像前置摄像头预览、是否镜像前置摄像头编码、是否打开滤镜功能、滤镜类型、是否打开水印支持、是否打开 QoS 功能、是否输出 RGB 数据、是否使用外部视频采集。服务器
前处理模块也是主观影响主播观看效果最主要的环节。目前 iOS 端比较知名的是 GPUImage,提供了丰富的预处理效果,咱们也在此基础上进行了封装开发。视频前处理包含滤镜、美颜、水印、涂鸦等功能,同时在人脸识别和特效方面接入了第三方厂商 FaceU。SDK 内置 4 款滤镜黑白、天然、粉嫩、怀旧;支持 16:9 裁剪;支持磨皮和美白(高斯模糊加边缘检测);支持静态水印,动态水印,涂鸦等功能。音频前处理则包括回声抑制、啸叫、增益控制等。音视频都支持外部前处理。微信
编码最主要的两个难点是:网络
因为iOS端硬件兼容性比较好,所以能够采用硬编。SDK 目前支持软件编码 openH264,硬件编码 VideoToolbox。而音频支持软件编码 FDK-AAC 和硬件编码 AudioToolbox。负载均衡
视频编码的核心思想就是去除冗余信息:框架
推流 SDK 使用的流媒体协议是 RTMP(RealTime Messaging Protocol)。而音视频发送最困难的就是针对网络的带宽评估。因为从直播端到 RTMP 服务器的网络状况复杂,尤为是在 3G 和带宽较差的 Wifi 环境下,网络丢包、抖动和延迟常常发生,致使直播推流不顺畅。RTMP 基于 TCP 进行传输,TCP 自身实现了网络拥塞下的处理,内部的机制较为复杂,并且对开发者不可见,开发者没法根据 TCP 协议的信息判断当时的网络状况,致使发送码率大于实际网络带宽,形成比较严重的网络拥塞。所以咱们自研开发了一款实时根据网络变化的 QoS 算法,用于实时调节码率、帧率、分辨率,同时将数据实时上报统计平台。ide
鉴于推流的主流程分为上述描述的 4 个部分:音视频采集、音视频前处理、音视频编码、音视频发送。所以将推流 SDK 进行模块划分为 LSMediacapture 层(对外 API+ 服务器交互)、视频融合模块(视频采集+视频前处理)、音频融合模块(音频采集+音频前处理)、基础服务模块、音视频编码模块、网络发送模块。
下图是直播的主要流程,用户初始化 SDK,建立线程,开始直播,音视频数据采集,编码,发送。在发送线程下,音视频数据发送,QoS 开启,根据网络实时评估带宽,调整帧率,码率控制编码器参数,同时触发跳帧,调整分辨率控制采集分辨率参数。用户中止直播,反初始化 SDK,销毁线程。QoS &跳帧能够有效的解决用户在网络很差的状况下,直播卡顿的问题。在不一样的码率和分辨率状况下,都可以作到让用户流畅地观看视频直播。
随着音频处理和压缩技术的不断发展,效果更好、适用范围更广、性能更高的算法和新的技术必将不断涌现,若是你有好的技术或者分享,欢迎关注网易 MC 官方博客以及微信公众号:**
关注更多技术干货内容: 网易云信博客
欢迎关注 网易云信 GitHub
欢迎关注 网易云信官网官网微信公众号: