移动端直播应用的开发流程

移动端直播应用的开发流程

Part 1. 推流端

推流,就是将采集到的音频,视频数据经过流媒体协议发送到流媒体服务器。git

1、选择流媒体协议

如今直播应用,采用RTMP协议居多,也有部分使用HLS协议。github

采用RTMP协议,就要看下它与流媒体服务器交互的过程,RTMP协议的默认端口是1935,采用TCP协议。而且须要了解FLV的封装格式。服务器

采用HLS协议,由于涉及到切片,延时会比较大,须要了解TS流。框架

2、采集音视频数据

作直播,数据的来源不可缺乏,就是采集摄像头,麦克风的数据。ide

iOS平台上采集音视频数据,须要使用AVFoundation.Framework框架,从captureSession会话的回调中获取音频,视频数据。编码

3、硬编码,软编码音视频数据

软编码就是利用CPU资源来压缩音视频数据,硬编码与之相反。spa

软编码的话,如今普遍采用FFmpeg库结合编码库来实现,FFmpeg+X624来编码视频数据YUV/RGB输出H264数据,
FFmpeg+fdk_aac来编码音频数据PCM输出AAC数据。视频

4、根据所选流媒体协议封包音视频数据

将音频,视频打包成packet。资源

5、与服务器交互发送封包数据

根据所选流媒体协议,发送相应指令链接服务器,链接服务器成功后,就能够发送packet数据了。开发

Part 2. 拉流端

拉流,就是从流媒体服务器获取音频,视频数据。

1、解析协议

播放器端根据URL解析所用的流媒体协议(RTMP,HLS)。

2、解封装

解封装,就是demux的过程,从容器格式(FLV,TS)中,分离出音视频数据。

3、解码

解码,就是把获取到的数据解压缩,恢复成原始数据。解码就是将H264变成YUV,AAC变成PCM。

解码能够使用软解码,硬解码。

软解码就是利用CPU资源去解压缩数据,采用的方式是FFmpeg解码。

硬解码,对于iOS平台来讲,能够使用VideoToolbox.Framework(该框架只能在iOS 8.0及以上系统使用)
硬解码视频数据。Android平台上,能够使用MediaCodec来硬解码视频数据。

4、渲染数据

采用OpenGL渲染YUV数据,呈现视频画面。将PCM送入设备的硬件资源播放,产生声音。

iOS播放流式音频,使用Audio Queue 的方式,即,利用AudioToolbox.Framework 框架。

相关文章
相关标签/搜索