ffmpeg和ffserver配合使用能够实现实时的流媒体服务。
1、理解
里边主要有以下四个东西,搞清楚他们之间的关系就差很少明白了。
1. ffmpeg
2. ffserver
3. ffserver.conf
4. feed1.ffm
1. ffmpeg,负责媒体文件的transcode工做,把你服务器上的源媒体文件转换成要发送出去的流媒体文件。
2. ffserver,负责响应客户端的流媒体请求,把流媒体数据发送给客户端。
3. ffserver.conf,ffserver启动时的配置文件,在这个文件中主要是对网络协议,缓存文件feed1.ffm(见下述)和要发送的流媒体文件的格式参数作具体的设定。
4. feed1.ffm,能够当作是一个流媒体数据的缓存文件,ffmpeg把转码好的数据发送给ffserver,若是没有客户端链接请求,ffserver把数据缓存到该文件中。
2、http的创建流程
1. 配置ffserver.conf文件(初次接触能够参考ffmpeg源码中的doc/ffserver.conf,里边有详细的注释)
以下写一个示例
Port 10535
RTSPPort 5454
BindAddress 0.0.0.0、
MaxHTTPConnections 2000
MaxClients 1000
MaxBandwidth 1000
CustomLog -
NoDaemon
#实时流数据配置(参考源码ffmpeg/test/下的ffserver.conf)
<Feed feed1.ffm>
File /tmp/feed1.ffm
FileMaxSize 1M
ACL allow 127.0.0.1
</Feed>
<Stream test.avi>
Feed feed1.ffm
Format avi
#
BitExact
DctFastint
IdctSimple
VideoFrameRate 10
VideoSize 352x288
VideoBitRate 100
VideoGopSize 30
NoAudio
PreRoll 10
StartSendOnKey
MaxTime 100
</Stream>
#已经存在的文件而非实时流
<Stream test.flv>
File "/project/apps/ffserver/test.flv"
Format flv
</Stream>
二、如何实现播放
(1)实时流用http传输
若是传输硬盘上的文件,则:
ffserver -f myfile/ffmpeg0.8.9/ffserver.conf & ffmpeg -i inputfile(输入文件) http://localhost:10535/feed1.ffm
如何传输摄像头捕获的实时流,则:
ffserver -f myfile/ffmpeg0.8.9/ffserver.conf & ffmpeg -f video4linux2 -framerate 30 -i /dev/video0 http://127.0.0.1:8090/feed1.ffm
启动ffserver和ffmpeg。ffserver先于ffmpeg启动,它在启动的时候须要加参数-f指定其配置文件。ffserver启动后,feed1.ffm就会被建立,这时若是你打开feed1.ffm看看,会发现feed1.ffm开始的部分已经写入了内 容,你能够找到关键字ffm以及向客户端传送流的配置信息,在feed1.ffm作缓冲用的时候,这些信息是不会被覆盖掉的,就把它们理解为 feed1.ffm文件的头吧。
ffserver启动后,ffmpeg启动,它启动时加的一个关键参数就是“http://ip:10535/feed1.ffm”,其中ip是运行 ffserver主机的ip,若是ffmpeg和ffserver都在同一系统中运行的话,用localhost也行。ffmpeg启动后会与 ffserver创建一个链接(短暂的链接),经过这第一次的链接,ffmpeg从ffserver那里获取了向客户端输出流的配置,并把这些配置做为自 己编码输出的配置,而后ffmpeg断开了此次链接,再次与ffserver创建链接(长久的链接),利用这个链接ffmpeg会把编码后的数据发送给 ffserver。
若是你观察ffserver端的输出就会发现这段时间会出现两次HTTP的200,这就是两次链接的过程。
ffmpeg从摄像头获取数据后,按照输出流的编码方式编码,而后发送给ffserver,ffserver收到ffmpeg的数据后,若是网络上 没有播放的请求,就把数据写入feed1.ffm中缓存,写入时把数据加上些头信息而后分块,每块4096B(每块也有结构),当feed1.ffm的大 小到了ffserver.conf中规定的大小后,就会从文件开始(跳过头)写入,覆盖旧的数据。直到网络上有播放的请求,ffserver从 feed1.ffm中读取数据,发送给客户端。
(2)本地文件用http传输
ffserver -f /etc/ffserver.conf
用命令启动ffserver,而后用ffplay http://ip:port/test.flv,或者在vlc中输入以上网址也可实现播放。
(3)本地文件用rtsp传输
ffserver -f /etc/ffserver.conf
用命令启动ffserver,而后用ffplay rtsp://ip:port/rtsp.mpg,或者在vlc中输入以上网址也可实现播放。
备注:在作测试的时候,用rtsp不能传输flv文件。
相关错误:
http://ffmpeg.gusari.org/viewtopic.php?f=11&t=590html
You can't stream avi file format, it's not designed to be streamed, rather to be used as a file/storage format. Streaming formats are: flv, mpegts, asf, rtmp/rtp/rtsp... So, try changing Format avi to Format mpegts and see if that works. But, the most convenient way of using ffmpeg/ffserver is to create a config file for ffserver and then run ffmpeg, telling it to feed the ffserver, which will do the actual encoding and streaming.linux
http://blog.csdn.net/shendan00/article/details/18839837缓存
工做流程以下:服务器
一、 启动ffserver,配置参数网络
ffserver先于ffmpeg启动,它在启动的时候须要加参数-f指定其配置文件,配置文件里包含端口信息、缓冲文件配置、传送流配置(如编码方式,帧率,采样率……)。app
二、 启动ffmpeg,输入流ide
启动ffmpeg,向缓冲文件输入数据流,数据流能够来自摄像头,也能够来自原本就存在的文件。测试
feed1.ffm是一个缓冲文件,fserver启动后,feed1.ffm就会自动被建立,feed1.ffm开始的部分已经写入向客户端传送流的配置信息,在feed1.ffm作缓冲用的时候,这些信息是不会被覆盖掉。ui
ffmpeg启动的一个关键参数就是“http://ip:port/feed1.ffm”,其中ip是运行ffserver主机的ip,若是 ffmpeg和ffserver都在同一系统中运行的话,用localhost或者127.0.0.1也行。ffmpeg启动后会与ffserver创建 一个链接(短暂的链接),经过这第一次的链接,ffmpeg从ffserver那里获取了向客户端输出流的配置,并把这些配置做为本身编码输出的配置,而后ffmpeg断开了此次链接,再次与ffserver创建链接(长久的链接),利用这个链接ffmpeg会把编码后的数据发送给ffserver。若是你观察ffserver端的输出就会发现这段时间会出现两次HTTP的200,这就是两次链接的过程。
三、链接过程
ffmpeg从摄像头获取数据后,按照输出流的编码方式编码,而后发送给ffserver,ffserver收到ffmpeg的数据后,若是网络上 没有播放的请求,就把数据写入feed1.ffm中缓存,写入时把数据加上些头信息而后分块,每块4096B(每块也有结构),当feed1.ffm的大 小到了ffserver.conf中规定的大小后,就会从文件开始(跳过头)写入,覆盖旧的数据。直到网络上有播放的请求,ffserver从feed1.ffm中读取数据,发送给客户端。
带有缓冲的数据流图以下
个人配置(注意:asf文件播放不了)
Port 8090
RTSPPort 8091
BindAddress 0.0.0.0
MaxHTTPConnections 2000
MaxClients 1000
MaxBandwidth 1000
CustomLog -
<Feed feed1.ffm>
#File /tmp/feed1.ffm
File "/home/yingc/gcyin/test/thirdparty/output/ffmpeg/bin/feed1.ffm"
FileMaxSize 20000000K
ACL allow 127.0.0.1
</Feed>
#<Stream test.ts>
#Feed feed1.ffm
#Format mpegts
#
#AudioCodec libmp3lame
#AudioBitRate 128
#AudioChannels 2
#AudioSampleRate 44100
#AVOptionAudio flags +global_header
#
#VideoBitRate 800
#VideoFrameRate 25
#VideoSize 640x480
#VideoCodec libx264
#AVOptionVideo flags +global_header
#</Stream>
#
#<Stream test.asf>
#Feed feed1.ffm
#Format asf
#
#AudioCodec aac
#AudioBitRate 128
#AudioChannels 2
#AudioSampleRate 44100
#AVOptionAudio flags +global_header
#
#VideoBitRate 800
#VideoFrameRate 25
#VideoSize 640x480
#VideoCodec libx264
#AVOptionVideo flags +global_header
#</Stream>
<Stream test.ts>
Feed feed1.ffm
Format mpegts
</Stream>
<Stream test.avi>
Feed feed1.ffm
Format avi
</Stream>
<Stream test.flv>
Feed feed1.ffm
Format flv
</Stream>
<Stream test.mp4>
Format rtp
File "/home/yingc/gcyin/test/thirdparty/output/ffmpeg/bin/h.mp4"
</Stream>
<Stream test.asf>
Feed feed1.ffm
Format asf
</Stream>
<Stream stat.html>
Format status
# Only allow local people to get the status
ACL allow localhost
ACL allow 192.168.110.0 192.168.110.255
</Stream>
# Redirect index.html to the appropriate site
<Redirect index.html>
URL http://www.ffmpeg.org/
</Redirect>
./ffmpeg -i "http://122.228.84.235/d44bff3d000002EE-1400405760-3078718192/data4/vhotlx.video.qq.com/flv/173/5/p0014s3d4pb.p201.1.mp4?vkey=06C6236D18A183017BF4076DC2CCD118E4A6DCC28BAB7ECA53A48918D7D3732A6379C03F1EC5CB6FE7C901CA66638EFDB3E01647C335E225hostname=122.228.84.235" http://localhost:8090/feed1.ffm
./ffmpeg -i h.mp4 http://localhost:8090/feed1.ffm
./ffplay http://localhost:8090/test.flv
./ffplay rtsp://localhost:8091/test.flv