本教程介绍剩下的的使用GStreamer的所需的基本概念,它容许随时地创建管道,做为信息变得可用,而没必要在你的应用程序的开头定义一个全局的管道。html
本教程后,您将具有必要的知识,开始 Playback tutorials。这个教程将讨论的是:ios
如何在连接元素时进行更好的控制。程序员
有兴趣的事件如何获得通知,以便您能及时做出反应。web
一个元素能够有的不一样的状态ide
正如你将要看到的,本教程中的管道没有彻底建成以前,它被设置为播放状态。这是肯定。若是咱们不采起进一步行动,数据将达到管道的末端,只是被丢弃。可是,咱们要采起进一步行动...函数
在这个例子中,咱们打开一个复合(或复用)的文件,这就是,音频和视频是一块儿存放在一个容器文件里面。负责开这样的容器被称为分路器(demuxers)的元素,一些这样容器格式的例子是的Matroska(MKV),Quick Time(QT,MOV),OGG,或Advanced Systems Format(ASF,WMV,WMA)。学习
若是容器嵌入多个数据流(一个视频和两个音频轨道,例如),分路器将它们分开,并经过不一样的输出端口揭露他们。以这种方式,不一样的分支能够在管道中被建立,处理不一样类型的数据。ui
经过它的GStreamer元件彼此连通的端口称为衬垫(GstPad)。存在接收端衬垫(sink pads),经过它数据进入一个元素,和源衬垫(source pads),经过它数据可退出一个元素。这是很天然的,源元件只包含源衬垫,接收端元件只包含接收端衬垫和过滤元件包含二者。this
图1。 GStreamer的元素及其衬垫。spa
一个分路器包含一个接收端衬垫,经过分路器,当复合数据到达,配合多个源衬垫,每一个流都找到对应的容器:
图2。一个分路器有两个来源衬垫。
为了完整起见,在这里你有一个包含分路器和两个分支,一个用于音频,一个用于视频的简化管道。这不是将建在这个例子中的管道:
图3。例如管道有两个分支。
当使用分路器处理的主要复杂性在于,分路器不能产生任何信息,直到他们已经收到了一些数据,并有机会看看容器,看看里面是什么。这是,分路器开始的时候没有可让其余元件连接的源衬垫,所以管道必然终止于它们。
解决的办法是创建一个从源元件向下到分路器的管道,并将其设置为运行(播放)。当分路器已经得到了足够的信息,以了解在容器内的流的数量和种类,它会开始建立源衬垫。这是一个合适的时间,咱们完成建设管道,并将其附加到新添加的分路器衬垫。
为简单起见,在此示例中,咱们将只连接到音频垫,并忽略该视频。
将此代码复制到名为basic-tutorial-3.c的一个文本文件
#include <gst/gst.h> /* Structure to contain all our information, so we can pass it to callbacks */ typedef struct _CustomData { GstElement *pipeline; GstElement *source; GstElement *convert; GstElement *sink; } CustomData; /* Handler for the pad-added signal */ static void pad_added_handler (GstElement *src, GstPad *pad, CustomData *data); int main(int argc, char *argv[]) { CustomData data; GstBus *bus; GstMessage *msg; GstStateChangeReturn ret; gboolean terminate = FALSE; /* Initialize GStreamer */ gst_init (&argc, &argv); /* Create the elements */ data.source = gst_element_factory_make ("uridecodebin", "source"); data.convert = gst_element_factory_make ("audioconvert", "convert"); data.sink = gst_element_factory_make ("autoaudiosink", "sink"); /* Create the empty pipeline */ data.pipeline = gst_pipeline_new ("test-pipeline"); if (!data.pipeline || !data.source || !data.convert || !data.sink) { g_printerr ("Not all elements could be created.\n"); return -1; } /* Build the pipeline. Note that we are NOT linking the source at this * point. We will do it later. */ gst_bin_add_many (GST_BIN (data.pipeline), data.source, data.convert , data.sink, NULL); if (!gst_element_link (data.convert, data.sink)) { g_printerr ("Elements could not be linked.\n"); gst_object_unref (data.pipeline); return -1; } /* Set the URI to play */ g_object_set (data.source, "uri", "http://docs.gstreamer.com/media/sintel_trailer-480p.webm", NULL); /* Connect to the pad-added signal */ g_signal_connect (data.source, "pad-added", G_CALLBACK (pad_added_handler), &data); /* Start playing */ ret = gst_element_set_state (data.pipeline, GST_STATE_PLAYING); if (ret == GST_STATE_CHANGE_FAILURE) { g_printerr ("Unable to set the pipeline to the playing state.\n"); gst_object_unref (data.pipeline); return -1; } /* Listen to the bus */ bus = gst_element_get_bus (data.pipeline); do { msg = gst_bus_timed_pop_filtered (bus, GST_CLOCK_TIME_NONE, GST_MESSAGE_STATE_CHANGED | GST_MESSAGE_ERROR | GST_MESSAGE_EOS); /* Parse message */ if (msg != NULL) { GError *err; gchar *debug_info; switch (GST_MESSAGE_TYPE (msg)) { case GST_MESSAGE_ERROR: gst_message_parse_error (msg, &err, &debug_info); g_printerr ("Error received from element %s: %s\n", GST_OBJECT_NAME (msg->src), err->message); g_printerr ("Debugging information: %s\n", debug_info ? debug_info : "none"); g_clear_error (&err); g_free (debug_info); terminate = TRUE; break; case GST_MESSAGE_EOS: g_print ("End-Of-Stream reached.\n"); terminate = TRUE; break; case GST_MESSAGE_STATE_CHANGED: /* We are only interested in state-changed messages from the pipeline */ if (GST_MESSAGE_SRC (msg) == GST_OBJECT (data.pipeline)) { GstState old_state, new_state, pending_state; gst_message_parse_state_changed (msg, &old_state, &new_state, &pending_state); g_print ("Pipeline state changed from %s to %s:\n", gst_element_state_get_name (old_state), gst_element_state_get_name (new_state)); } break; default: /* We should not reach here */ g_printerr ("Unexpected message received.\n"); break; } gst_message_unref (msg); } } while (!terminate); /* Free resources */ gst_object_unref (bus); gst_element_set_state (data.pipeline, GST_STATE_NULL); gst_object_unref (data.pipeline); return 0; } /* This function will be called by the pad-added signal */ static void pad_added_handler (GstElement *src, GstPad *new_pad, CustomData *data) { GstPad *sink_pad = gst_element_get_static_pad (data->convert, "sink"); GstPadLinkReturn ret; GstCaps *new_pad_caps = NULL; GstStructure *new_pad_struct = NULL; const gchar *new_pad_type = NULL; g_print ("Received new pad '%s' from '%s':\n", GST_PAD_NAME (new_pad), GST_ELEMENT_NAME (src)); /* If our converter is already linked, we have nothing to do here */ if (gst_pad_is_linked (sink_pad)) { g_print (" We are already linked. Ignoring.\n"); goto exit; } /* Check the new pad's type */ new_pad_caps = gst_pad_get_caps (new_pad); new_pad_struct = gst_caps_get_structure (new_pad_caps, 0); new_pad_type = gst_structure_get_name (new_pad_struct); if (!g_str_has_prefix (new_pad_type, "audio/x-raw")) { g_print (" It has type '%s' which is not raw audio. Ignoring.\n", new_pad_type); goto exit; } /* Attempt the link */ ret = gst_pad_link (new_pad, sink_pad); if (GST_PAD_LINK_FAILED (ret)) { g_print (" Type is '%s' but link failed.\n", new_pad_type); } else { g_print (" Link succeeded (type '%s').\n", new_pad_type); } exit: /* Unreference the new pad's caps, if we got them */ if (new_pad_caps != NULL) gst_caps_unref (new_pad_caps); /* Unreference the sink pad */ gst_object_unref (sink_pad); }
/* Structure to contain all our information, so we can pass it to callbacks */ typedef struct _CustomData { GstElement *pipeline; GstElement *source; GstElement *convert; GstElement *sink; } CustomData;
到目前为止,咱们已经保留了全部咱们须要的信息(指针 GstElement
)为局部变量。因为本教程(以及大多数实际应用)涉及的回调,咱们将汇集咱们全部的数据到一个结构体,这样咱们更容易处理。
/* Handler for the pad-added signal */ static void pad_added_handler (GstElement *src, GstPad *pad, CustomData *data);
这是一个超前的引用,呆会用。
/* Create the elements */ data.source = gst_element_factory_make ("uridecodebin", "source"); data.convert = gst_element_factory_make ("audioconvert", "convert"); data.sink = gst_element_factory_make ("autoaudiosink", "sink");
咱们建立的元素像往常同样。 uridecodebin
将在内部实例化全部必要的元素(源,分路器和解码器),把一个URI转换到原始音频和/或视频流。它作了一半 playbin2 作的工做。由于它包含分路器,它的源衬垫最初不可用,咱们须要在运行时连接他们。
audioconvert
是为不一样的音频格式之间进行转换,并确认此示例将工做在任何平台上,因为由音频解码器生成的格式可能和接收端所指望是不同的。
autoaudiosink
至关于在前面的教程中看到的 autovideosink
,用于音频。它将呈现音频流的音频卡。
if (!gst_element_link (data.convert, data.sink)) { g_printerr ("Elements could not be linked.\n"); gst_object_unref (data.pipeline); return -1; }
在这里,咱们的转换器元件链接到接收元件,但咱们不将它们与源元件连接,由于在这一点上它不包含源衬垫。咱们刚刚离开这个无关联的分支(转换器+接收器),直到后来。
/* Set the URI to play */ g_object_set (data.source, "uri", "http://docs.gstreamer.com/media/sintel_trailer-480p.webm", NULL);
咱们经由结构体的属性来设置将要播放的文件的URI,就像咱们在之前的教程中所做的同样。
/* Connect to the pad-added signal */ g_signal_connect (data.source, "pad-added", G_CALLBACK (pad_added_handler), &data);
GSignals 是GStreamer中的一个关键点。它们容许你被告知(用回调方式), 当你感兴趣的事情发生时。信号由名称标识,而且每一个图形对象(GObject)都有它本身的信号。
在这条线,咱们将 “pad-added”绑定到咱们的源元件( uridecodebin
元素)。要作到这一点,咱们使用 g_signal_connect()
,并提供了回调函数中使用(pad_added_handler)和一个数据指针。 GStreamer对此数据的指针什么也不作,它只是将其转发给回调,因此咱们能够用它共享信息。在这种状况下,咱们经过一个指针的CustomData结构,专门用于这一目的。
一个GstElement产生的信号能够在它的文档里看到,或者用gst-inspect
tool找到 ,详见 Basic tutorial 10: GStreamer tools。
如今,咱们准备好了!刚刚成立的管道为播放状态,并开始监听总线有趣的信息(如错误或EOS),就像在前面的教程。
当咱们的源元件终于有了足够的信息来开始生产数据时,它会建立源衬垫,并引起了“pad-added”的信号。在这一点上咱们的回调会被调用:
static void pad_added_handler (GstElement *src, GstPad *new_pad, CustomData *data) {
src是触发信号的GstElement。在这个例子中,它只能是 uridecodebin,由于它是咱们所链接的惟一信号。
new_pad是刚刚被加入到源元件的 GstPad 。这一般是咱们想要连结垫。
数据是咱们链接到信号时提供的指针。在这个例子中,咱们用它来传递的CustomData指针。
GstPad *sink_pad = gst_element_get_static_pad (data->convert, "sink");
从CustomData咱们提取转换器元件,而后用 gst_element_get_static_pad ()
检索其接收槽垫。这是咱们想要与new_pad连结的衬垫。在前面的教程中,咱们联元素对元素,让GStreamer中选择适当的衬垫。如今,咱们要直接链接衬垫。
/* If our converter is already linked, we have nothing to do here */ if (gst_pad_is_linked (sink_pad)) { g_print (" We are already linked. Ignoring.\n"); goto exit; }
uridecodebin 能够建立任意多个它认为合适衬垫,对于每个,这个回调函数会被调用。这行代码会阻止咱们试图连接到一个新的衬垫,一旦咱们已经连接。
/* Check the new pad's type */ new_pad_caps = gst_pad_get_caps (new_pad); new_pad_struct = gst_caps_get_structure (new_pad_caps, 0); new_pad_type = gst_structure_get_name (new_pad_struct); if (!g_str_has_prefix (new_pad_type, "audio/x-raw")) { g_print (" It has type '%s' which is not raw audio. Ignoring.\n", new_pad_type); goto exit; }
如今,咱们将检查数据这个新垫是要输出,类型,由于咱们只关心垫制做音频。以前咱们已经建立了一个管道处理音频(与 autoaudiosink 连接的 audioconvert ),而咱们将没法将其连接到制做视频的衬垫,在这个例子中。
gst_pad_get_caps()
获取衬垫的功能(这是,它支持的数据类型),裹在 GstCaps
结构中。衬垫能够提供许多功能,所以 GstCaps
能够包含许多 GstStructure
,各自表明不一样的功能。
由于,在这种状况下,咱们知道咱们想要的衬垫只有一个功能(音频),咱们取第一个 GstStructure 与 gst_caps_get_structure()。
最后,用 gst_structure_get_name() ,咱们从新得到结构的名称,其中包含格式的主要描述(其MIME类型,实际上)。
若是名称不是以/ X-RAW开头,这不是一个解码音频的衬垫,咱们不感兴趣。
不然,尝试连接:
/* Attempt the link */ ret = gst_pad_link (new_pad, sink_pad); if (GST_PAD_LINK_FAILED (ret)) { g_print (" Type is '%s' but link failed.\n", new_pad_type); } else { g_print (" Link succeeded (type '%s').\n", new_pad_type); }
gst_pad_link()
尝试链接两个衬垫。他们本质和 gst_element_link() 同样,连接必须从源头指向接收端,两个衬垫必须由属于同一箱柜(bin)(或管道pipeline)的元素所拥有。
咱们正在作的!当合适的垫出现时,它会链接到音频处理管道和执行其他部分,直到错误或EOS。然而,咱们将从本教程榨取更多的内容,还推出了状态的概念。
咱们已经讨论了一些状态,当咱们说,playback不能开始播放,直到你把管道输送到PLAYING状态。咱们将在这里介绍余下的状态和它们的含义。有4个状态的GStreamer:
NULL | 元素的空状态或初始状态。 |
READY | 该元素是准备去暂停。 |
PAUSED | 元素暂停时,它已准备好接受和处理数据。接收端元素但只接受一个缓冲区,而后阻塞。 |
PLAYING | 元素正在播放时,时钟运行和数据流动。 |
您只能在相邻的两个状态间切换,这是,你不能从 NULL 换到 PLAYING,你必需要通过 READY 和 PAUSED 状态。若是您将管道设置为 PLAYING 状态,不过,GStreamer将会使中间件为您服务。
case GST_MESSAGE_STATE_CHANGED: /* We are only interested in state-changed messages from the pipeline */ if (GST_MESSAGE_SRC (msg) == GST_OBJECT (data.pipeline)) { GstState old_state, new_state, pending_state; gst_message_parse_state_changed (msg, &old_state, &new_state, &pending_state); g_print ("Pipeline state changed from %s to %s:\n", gst_element_state_get_name (old_state), gst_element_state_get_name (new_state)); } break;
咱们增长了这片侦听关于状态变化的总线消息的代码,并将它们打印在屏幕上,以帮助您了解的转换代码。每个元素将关于它的当前状态的消息放在总线上,因此咱们筛选出来,只收听从管道过来的消息。
大多数应用程序只须要关注从 PLAYING 到开始播放,而后 PAUSE 执行暂停,而后再返回到空,在程序退出时释放全部的资源。
动态衬垫连接从来是一个困难的话题,对于不少程序员来讲。证实你已经经过实例化 autovideosink
(可能与前面的 ffmpegcolorspace
),在右边衬垫出现时,掌握如何将其连接到分路器。提示:你已经在视频衬垫类型的屏幕上打印了。
您如今应该看到(和听到)同一教程中的 Basic tutorial 1: Hello world! 。在此教程中,您使用 playbin2,这是一个方便的元素,它会为您自动处理全部的分路和衬垫连接。大多数的 Playback tutorials 致力于 playbin2。
在本教程中,您学习了:
您还结合这些条目,以创建一个动态的管道,这不是在程序开始处的定义,而是做为媒体方面的可用信息被创造。如今,您能够继续使用的基本教程,了解执行的目的和时间相关的查询的 Basic tutorial 4: Time management ,并得到有关 playbin2
元素更深刻的了解。
请记住,此页你应该找到本教程的完整源代码,并创建它须要的任何附件文件。
很高兴在此与你一块儿度过,并但愿在之后的教程继续见到你!