本文为做者原创:http://www.javashuo.com/article/p-hydpotvi-gy.html,转载请注明出处html
基于FFmpeg和SDL实现的简易视频播放器,主要分为读取视频文件解码和调用SDL播放两大部分。
本实验仅研究视频播放的实现方式。git
FFmpeg简易播放器系列文章以下:
[1]. FFmpeg简易播放器的实现-最简版
[2]. FFmpeg简易播放器的实现-视频播放
[3]. FFmpeg简易播放器的实现-音频播放
[4]. FFmpeg简易播放器的实现-音视频播放
[5]. FFmpeg简易播放器的实现-音视频同步github
下图引用自“雷霄骅,视音频编解码技术零基础学习方法”,因原图过小,看不太清楚,故从新制做了一张图片。
以下内容引用自“雷霄骅,视音频编解码技术零基础学习方法”:shell
解协议
将流媒体协议的数据,解析为标准的相应的封装格式数据。视音频在网络上传播的时候,经常采用各类流媒体协议,例如HTTP,RTMP,或是MMS等等。这些协议在传输视音频数据的同时,也会传输一些信令数据。这些信令数据包括对播放的控制(播放,暂停,中止),或者对网络状态的描述等。解协议的过程当中会去除掉信令数据而只保留视音频数据。例如,采用RTMP协议传输的数据,通过解协议操做后,输出FLV格式的数据。数组解封装
将输入的封装格式的数据,分离成为音频流压缩编码数据和视频流压缩编码数据。封装格式种类不少,例如MP4,MKV,RMVB,TS,FLV,AVI等等,它的做用就是将已经压缩编码的视频数据和音频数据按照必定的格式放到一块儿。例如,FLV格式的数据,通过解封装操做后,输出H.264编码的视频码流和AAC编码的音频码流。网络解码
将视频/音频压缩编码数据,解码成为非压缩的视频/音频原始数据。音频的压缩编码标准包含AAC,MP3,AC-3等等,视频的压缩编码标准则包含H.264,MPEG2,VC-1等等。解码是整个系统中最重要也是最复杂的一个环节。经过解码,压缩编码的视频数据输出成为非压缩的颜色数据,例如YUV420P,RGB等等;压缩编码的音频数据输出成为非压缩的音频抽样数据,例如PCM数据。数据结构音视频同步
根据解封装模块处理过程当中获取到的参数信息,同步解码出来的视频和音频数据,并将视频音频数据送至系统的显卡和声卡播放出来。ide
实验平台:openSUSE Leap 42.3
FFmpeg版本:4.1
SDL版本:2.0.9
FFmpeg开发环境搭建可参考“FFmpeg开发环境构建”函数
代码已经变得挺长了,不贴完整源码了,源码参考:
https://github.com/leichn/exercises/blob/master/source/ffmpeg/player_video/ffplayer.c学习
源码清单中涉及的一些概念简述以下:
container:
对应数据结构AVFormatContext
封装器,将流数据封装为指定格式的文件,文件格式如AVI、MP4等。
FFmpeg可识别五种流类型:视频video(v)、音频audio(a)、attachment(t)、数据data(d)、字幕subtitle。
codec:
对应数据结构AVCodec
编解码器。编码器将未压缩的原始图像或音频数据编码为压缩数据。解码器与之相反。
codec context:
对应数据结构AVCodecContext
编解码器上下文。此为很是重要的一个数据结构,后文分析。各API大量使用AVCodecContext来引用编解码器。
codec par:
对应数据结构AVCodecParameters
编解码器参数。新版本增长的字段。新版本建议使用AVStream->codepar替代AVStream->codec。
packet:
对应数据结构AVPacket
通过编码的数据。经过av_read_frame()从媒体文件中获取获得的一个packet可能包含多个(整数个)音频帧或单个
视频帧,或者其余类型的流数据。
frame:
对应数据结构AVFrame
解码后的原始数据。解码器将packet解码后生成frame。
plane:
如YUV有Y、U、V三个plane,RGB有R、G、B三个plane
slice:
图像中一片连续的行,必须是连续的,顺序由顶部到底部或由底部到顶部
stride/pitch:
一行图像所占的字节数,Stride = BytesPerPixel × Width,x字节对齐[待确认]
sdl window:
对应数据结构SDL_Window
播放视频时弹出的窗口。在SDL1.x版本中,只能够建立一个窗口。在SDL2.0版本中,能够建立多个窗口。
sdl texture:
对应数据结构SDL_Texture
一个SDL_Texture对应一帧解码后的图像数据。
sdl renderer:
对应数据结构SDL_Renderer
渲染器。将SDL_Texture渲染至SDL_Window。
sdl rect:
对应数据结构SDL_Rect
SDL_Rect用于肯定SDL_Texture显示的位置。一个SDL_Window上能够显示多个SDL_Rect。这样能够实现同一窗口的分屏显示。
流程比较简单,不画流程图了,简述以下:
media file --[decode]--> raw frame --[scale]--> yuv frame --[SDL]--> display media file ------------> p_frm_raw -----------> p_frm_yuv ---------> sdl_renderer
加上相关关键函数后,流程以下:
media_file ---[av_read_frame()]-----------> p_packet ---[avcodec_send_packet()]-----> decoder ---[avcodec_receive_frame()]---> p_frm_raw ---[sws_scale()]---------------> p_frm_yuv ---[SDL_UpdateYUVTexture()]----> display
调用av_read_frame()从输入文件中读取视频数据包
// A8. 从视频文件中读取一个packet // packet多是视频帧、音频帧或其余数据,解码器只会解码视频帧或音频帧,非音视频数据并不会被 // 扔掉、从而能向解码器提供尽量多的信息 // 对于视频来讲,一个packet只包含一个frame // 对于音频来讲,如果帧长固定的格式则一个packet可包含整数个frame, // 如果帧长可变的格式则一个packet只包含一个frame while (av_read_frame(p_fmt_ctx, p_packet) == 0) { if (p_packet->stream_index == v_idx) // 取到一帧视频帧,则退出 { break; } }
调用avcodec_send_packet()和avcodec_receive_frame()对视频数据解码
// A9. 视频解码:packet ==> frame // A9.1 向解码器喂数据,一个packet多是一个视频帧或多个音频帧,此处音频帧已被上一句滤掉 ret = avcodec_send_packet(p_codec_ctx, p_packet); if (ret != 0) { printf("avcodec_send_packet() failed %d\n", ret); res = -1; goto exit8; } // A9.2 接收解码器输出的数据,此处只处理视频帧,每次接收一个packet,将之解码获得一个frame ret = avcodec_receive_frame(p_codec_ctx, p_frm_raw); if (ret != 0) { if (ret == AVERROR_EOF) { printf("avcodec_receive_frame(): the decoder has been fully flushed\n"); } else if (ret == AVERROR(EAGAIN)) { printf("avcodec_receive_frame(): output is not available in this state - " "user must try to send new input\n"); continue; } else if (ret == AVERROR(EINVAL)) { printf("avcodec_receive_frame(): codec not opened, or it is an encoder\n"); } else { printf("avcodec_receive_frame(): legitimate decoding errors\n"); } res = -1; goto exit8; }
图像格式转换的目的,是为了解码后的视频帧能被SDL正常显示。由于FFmpeg解码后获得的图像格式不必定就能被SDL支持,这种状况下不做图像转换是没法正常显示的。
图像转换初始化相关:
// A7. 初始化SWS context,用于后续图像转换 // 此处第6个参数使用的是FFmpeg中的像素格式,对比参考注释B4 // FFmpeg中的像素格式AV_PIX_FMT_YUV420P对应SDL中的像素格式SDL_PIXELFORMAT_IYUV // 若是解码后获得图像的不被SDL支持,不进行图像转换的话,SDL是没法正常显示图像的 // 若是解码后获得图像的能被SDL支持,则没必要进行图像转换 // 这里为了编码简便,统一转换为SDL支持的格式AV_PIX_FMT_YUV420P==>SDL_PIXELFORMAT_IYUV sws_ctx = sws_getContext(p_codec_ctx->width, // src width p_codec_ctx->height, // src height p_codec_ctx->pix_fmt, // src format p_codec_ctx->width, // dst width p_codec_ctx->height, // dst height AV_PIX_FMT_YUV420P, // dst format SWS_BICUBIC, // flags NULL, // src filter NULL, // dst filter NULL // param ); // B4. 建立SDL_Texture // 一个SDL_Texture对应一帧YUV数据,同SDL 1.x中的SDL_Overlay // 此处第2个参数使用的是SDL中的像素格式,对比参考注释A7 // FFmpeg中的像素格式AV_PIX_FMT_YUV420P对应SDL中的像素格式SDL_PIXELFORMAT_IYUV sdl_texture = SDL_CreateTexture(sdl_renderer, SDL_PIXELFORMAT_IYUV, SDL_TEXTUREACCESS_STREAMING, p_codec_ctx->width, p_codec_ctx->height );
图像格式转换过程调用sws_scale()实现:
// A10. 图像转换:p_frm_raw->data ==> p_frm_yuv->data // 将源图像中一片连续的区域通过处理后更新到目标图像对应区域,处理的图像区域必须逐行连续 // plane: 如YUV有Y、U、V三个plane,RGB有R、G、B三个plane // slice: 图像中一片连续的行,必须是连续的,顺序由顶部到底部或由底部到顶部 // stride/pitch: 一行图像所占的字节数,Stride=BytesPerPixel*Width+Padding,注意对齐 // AVFrame.*data[]: 每一个数组元素指向对应plane // AVFrame.linesize[]: 每一个数组元素表示对应plane中一行图像所占的字节数 sws_scale(sws_ctx, // sws context (const uint8_t *const *)p_frm_raw->data, // src slice p_frm_raw->linesize, // src stride 0, // src slice y p_codec_ctx->height, // src slice height p_frm_yuv->data, // dst planes p_frm_yuv->linesize // dst strides );
调用SDL相关函数将图像在屏幕上显示:
// B7. 使用新的YUV像素数据更新SDL_Rect SDL_UpdateYUVTexture(sdl_texture, // sdl texture &sdl_rect, // sdl rect p_frm_yuv->data[0], // y plane p_frm_yuv->linesize[0], // y pitch p_frm_yuv->data[1], // u plane p_frm_yuv->linesize[1], // u pitch p_frm_yuv->data[2], // v plane p_frm_yuv->linesize[2] // v pitch ); // B8. 使用特定颜色清空当前渲染目标 SDL_RenderClear(sdl_renderer); // B9. 使用部分图像数据(texture)更新当前渲染目标 SDL_RenderCopy(sdl_renderer, // sdl renderer sdl_texture, // sdl texture NULL, // src rect, if NULL copy texture &sdl_rect // dst rect ); // B10. 执行渲染,更新屏幕显示 SDL_RenderPresent(sdl_renderer);
上一版源码存在的两个问题:
[1]. 以固定25FPS的帧率播放视频文件,对于帧率不是25FPS的视频文件,播放是不正常的
[2]. 即便对于帧率是25FPS的文件来讲,帧率控制仍然较不许确,由于未考虑解码视频帧消耗的时间
本版源码针对此问题做了改善,将上一版代码拆分为两个线程:定时刷新线程 + 解码主线程。
定时刷新线程按计算出的帧率发送自定义SDL事件,通知解码主线程
解码主线程收到SDL事件后,获取一个视频帧解码并显示
gcc -o ffplayer ffplayer.c -lavutil -lavformat -lavcodec -lavutil -lswscale -lSDL2
选用clock.avi测试文件,测试文件下载:clock.avi
查看视频文件格式信息:
ffprobe clock.avi
打印视频文件信息以下:
[avi @ 0x9286c0] non-interleaved AVI Input #0, avi, from 'clock.avi': Duration: 00:00:12.00, start: 0.000000, bitrate: 42 kb/s Stream #0:0: Video: msrle ([1][0][0][0] / 0x0001), pal8, 320x320, 1 fps, 1 tbr, 1 tbn, 1 tbc Stream #0:1: Audio: truespeech ([34][0][0][0] / 0x0022), 8000 Hz, mono, s16, 8 kb/s
运行测试命令:
./ffplayer clock.avi
能够听到每隔1秒时钟指针跳动一格,跳动12次后播放结束。播放过程只有图像,没有声音。播放正常。
[1] 雷霄骅,视音频编解码技术零基础学习方法
[2] 雷霄骅,FFmpeg源代码简单分析:常见结构体的初始化和销毁(AVFormatContext,AVFrame等)
[3] 雷霄骅,最简单的基于FFMPEG+SDL的视频播放器ver2(采用SDL2.0)
[4] 雷霄骅,最简单的视音频播放示例7:SDL2播放RGB/YUV
[5] 使用SDL2.0进行YUV显示
[6] Martin Bohme, An ffmpeg and SDL Tutorial, Tutorial 01: Making Screencaps
[7] Martin Bohme, An ffmpeg and SDL Tutorial, Tutorial 02: Outputting to the Screen
[8] YUV图像里的stride和plane的解释
[9] 图文详解YUV420数据格式
[10] YUV,https://zh.wikipedia.org/wiki/YUV
2018-11-23 V1.0 初稿 2018-11-29 V1.1 增长定时刷新线程,使解码帧率更加准确 2019-01-12 V1.2 增长解码及显示过程说明