软件缩放库libswscalehtml
近来ffmpeg添加了新的接口:libswscale来处理图像缩放。网络
可是在前面咱们使用img_convert来把RGB转换成YUV12,咱们如今使用新的接口。新接口更加标准和快速,并且我相信里面有了MMX优化代码。换句话说,它是作缩放更好的方式。ide
咱们将用来缩放的基本函数是sws_scale。但一开始,咱们必需创建一个SwsContext的概念。这将让咱们进行想要的转换,而后把它传递给 sws_scale函数。相似于在SQL中的预备阶段或者是在Python中编译的规则表达式regexp。要准备这个上下文,咱们使用 sws_getContext函数,它须要咱们源的宽度和高度,咱们想要的宽度和高度,源的格式和想要转换成的格式,同时还有一些其它的参数和标志。而后 咱们像使用img_convert同样来使用sws_scale函数,惟一不一样的是咱们传递给的是SwsContext:函数
#include <ffmpeg/swscale.h> // include the header!性能
int queue_picture(VideoState *is, AVFrame *pFrame, double pts) {学习
static struct SwsContext *img_convert_ctx;优化 ...编码
if(vp->bmp) {spa
SDL_LockYUVOverlay(vp->bmp);code
dst_pix_fmt = PIX_FMT_YUV420P;
pict.data[0] = vp->bmp->pixels[0]; pict.data[1] = vp->bmp->pixels[2]; pict.data[2] = vp->bmp->pixels[1];
pict.linesize[0] = vp->bmp->pitches[0]; pict.linesize[1] = vp->bmp->pitches[2]; pict.linesize[2] = vp->bmp->pitches[1];
// Convert the image into YUV format that SDL uses if(img_convert_ctx == NULL) { int w = is->video_st->codec->width; int h = is->video_st->codec->height; img_convert_ctx = sws_getContext(w, h, is->video_st->codec->pix_fmt, w, h, dst_pix_fmt, SWS_BICUBIC, NULL, NULL, NULL); if(img_convert_ctx == NULL) { fprintf(stderr, "Cannot initialize the conversion context!/n"); exit(1); } } sws_scale(img_convert_ctx, pFrame->data, pFrame->linesize, 0, is->video_st->codec->height, pict.data, pict.linesize); |
咱们把新的缩放器放到了合适的位置。但愿这会让你知道libswscale能作什么。
就这样,咱们作完了!编译咱们的播放器:
gcc -o tutorial08 tutorial08.c -lavutil -lavformat -lavcodec -lz -lm `sdl-config --cflags --libs` |
享受咱们用C写的少于1000行的电影播放器吧。
固然,还有不少事情要作。
如今还要作什么?
咱们已经有了一个能够工做的播放器,可是它确定还不够好。咱们作了不少,可是还有不少要添加的性能:
·错误处理。咱们代码中的错误处理是无穷的,多处理一些会更好。
·暂停。咱们不能暂停电影,这是一个颇有用的功能。咱们能够在大结构体中使用一个内部暂停变量,当用户暂停的时候就设置它。而后咱们的音频,视频和解码线 程检测到它后就再也不输出任何东西。咱们也使用av_read_play来支持网络。这很容易解释,可是你却不能明显的计算出,因此把这个做为一个家庭做 业,若是你想尝试的话。提示,能够参考ffplay.c。
·支持视频硬件特性。一个参考的例子,请参考Frame Grabbing在Martin的旧的指导中的相关部分。http://www.inb.uni-luebeck.de/~boehme/libavcodec_update.html
·按字节跳转。若是你能够按照字节而不是秒的方式来计算出跳转位置,那么对于像VOB文件同样的有不连续时间戳的视频文件来讲,定位会更加精确。
·丢弃帧。若是视频落后的太多,咱们应当把下一帧丢弃掉而不是设置一个短的刷新时间。
·支持网络。如今的电影播放器还不能播放网络流媒体。
·支持像YUV文件同样的原始视频流。若是咱们的播放器支持的话,由于咱们不能猜想出时基和大小,咱们应该加入一些参数来进行相应的设置。
·全屏。
·多种参数,例如:不一样图像格式;参考ffplay.c中的命令开关。
·其它事情,例如:在结构体中的音频缓冲区应该对齐。
若是你想了解关于ffmpeg更多的事情,咱们已经包含了其中的一部分。下一步应该学习的就是如何来编码多媒体。一个好的入手点是在ffmpeg中的output_example.c文件。我能够为它写另一个指导,可是我没有足够的时间来作。
好,我但愿这个指导是有益和有趣的。若是你有任何建议,问题,抱怨和赞美等。