1. 音频和视频的时长web
1-1. 使用 -t 参数设置时长,单位是秒async
好比:ffmpeg -i music.mp3 -t 180 music_3_minutes.mp3ide
1-2. 设置帧的数量编码
音频选项audio:-aframes number 或者 -frames:a number code
数据选项data:-dframes numebr 或者 -frames:d number视频
视频选项video:-vframes number 或者 -frames:v numberblog
好比:ffmpeg -i video.avi -vframes 15000 video_10_minutes.aviip
2. 延迟设置input
使用 -ss参数实现(ss即seek from start)。它的值能够是秒数或者HH:MM:SS格式的时间同步
好比视频延迟10秒的处理:ffmpeg -i input.avi -ss 10 output.mp4
3. 从媒体文件提取指定的部分
结合-ss参数和-t参数,能够实现提取文件的指定部分。
好比提取文件的第五秒:ffmpeg -i video.mpg -ss 240 -t 60 clip_5th_minute.mpg //-ss 240表示延迟4分钟开始, -t 60表示提取60秒
3-1. 多个输入流之间的延迟处理
若是但愿某个输入流延迟输出,能够使用 itsoffset(input timestamp offset) 参数和 -map参数 实现。
注意:一些格式好比AVI, FLV, MOV, MP4等等因为头部的不一样致使有些时候 itsoffset 参数不起做用。
下面例子是让 音频延迟1秒,而后和视频合并,以下:
ffmpeg -i input.avi -ss 1 audio.mp3
ffmpeg -i input.avi -i audio.mp3 -map 0:v -map 1:a video.mp4
3-2. 一个文件的多条媒体流的延迟处理
好比一个文件有音频流和视频流可是它们不一样步,假设音频快5秒,则同步处理以下:
ffmpeg -i input.mov -map 0:v -map 0:a -itsoffset 5 -c:a copy -c:v copy output.mov //-map 0:v表示第一个输入的视频流,不作处理。-map 0:a -itsoffset 5表示第一个输入的音频流,延迟5秒开始
好比是视频流快5秒,则同步处理以下:
ffmpeg -i input.mov -map 0:v -itsoffset 5 -map 0:a -c:a copy -c:v copy output.mov
3-3. 多个文件的延迟处理
好比有两个文件做为输入,一个音频文件,一个视频文件,要让音频延迟3秒开始,则处理以下:
ffmpeg -i v.mpg -itsoffset 3 -i a.mp3 -map 0:v:0 -map 1:a:0 output.mp4 //-map 0:v:0表示第一个输入的全部视频流的第一条视频流,-map 1:a:0表示第二个输入的全部音频流的第一条音频流
3-4. 限制处理时长
使用 -timelimit参数限制处理的时长,值为秒数。
好比说编码10分钟后就退出,以下:
ffmpeg -i input.mpg -timelimit 600 output.mkv //600表示秒数,即10分钟
3-5. 最短的那条流决定了编码时长
默认状况下,编解码处理是处理完全部媒体流才会结束的,也就是最长的那条流决定处理的时长。能够使用 -shortest参数指定最短的那条流决定处理时长。
好比要合并video.avi 和 audio.mp3,音频audio.mp3时长比视频video的短,如今要处理完音频即退出,以下:
ffmpeg -i video.avi -i audio.mp3 -shortest output.mp4 //添加-shortest参数
4. 时间戳和时间基线
设置时间戳,使用 -timestamp参数。它的值形式以下:
1)now //当前时间
2)YYYY-MM-DD 或者 YYYYMMDD 格式的日期,不指定则当前日期
3)HH:MM:SS[.m...] 或者 HHMMSS[.m...] 格式的时间,不指定则当前时间
4)在日期和时间之间能够添加T和t字母,也能够不添加
5)若是最后以Z或者z结束的表示UTC时间,不然是本地时间
好比下面是时间戳是有效的:2010-12-24T12:00:00, 20101224t120000z, 20101224120000
又好比,ffmpeg获取视频流的信息以下:
Stream #0:0, 1, 1/25: Video: mpeg4 (Simple Profile) (FMP4 / 0x34504D46),yuv420p, 320x240 [SAR 1:1 DAR 4:3], 25 tbr, 25 tbn, 25 tbc
tbr、tbn、tbc的介绍以下:
tbc是用于给定流的AVCodecContext里的编解码基线。thn用于全部的AVStream里的基线。tbr是猜想的基线,和帧率的值同样。
5. 编码时间基线的设置
进行流copy时,给编码器指定时间基线,使用 -copytb参数实现,它有3个可选值:1(解封装器demuxer 的时间基线),0(解码器decoder的时间基线),-1(自动选择,这是默认值)
好比给输出指定编码时间基线为 解封装器的时间基线,以下:
ffmpeg -i input.mp4 -copytb 1 output.webm
6. 修改音频和视频的播放速度
6-1. 改变视频速度
使用 setpts 滤镜实现。setpts即(set presentation timestamp),setpts的介绍以下:
每个视频帧都有一个带有时间戳的头部,两个连续的帧之间的时差是1/fps。好比帧率fps为25,则时差为1/25=0.04秒,这个值就是PTS。若是想改变播放速度,就是改变PTS的值了。
好比播放速度加快3倍,修改以下:
ffplay -i input.mpg -vf setpts=PTS/3
好比播放速度是本来的3/4,修改以下:
ffplay -i input.mpg -vf setpts=PTS/(3/4)
6-2. 改变音频速度
使用 atempo 滤镜实现。 atempo 滤镜的介绍以下:
tempo的取值范围为 0.5 ~ 2.0 ,小于1.0表示减速,大于1.0表示加速,默认是1.0
好比要让音频加速2倍,以下:
ffplay -i speech.mp3 -af atempo=2
好比要让音频减速一半:
ffplay -i speech.mp3 -af atempo=0.5
6-3. 经过时间戳去同步音频数据
使用asyncts滤镜实现。asyncts的介绍以下:
好比要同步music.mpg的数据,以下:
ffmpeg -i music.mpg -af asyncts=compensate=1 -f mpegts music.ts //compensate=1表示开启数据伸缩用以匹配时间戳。若是不开启的话,须要拉伸的地方使用静音填充