我正在学习Gstreamer,无论我通过Gstreamer工具实现了什么,我都试图用C语言实现Gstreamer应用程序。
下面的命令成功地传输了mp4视频文件:
gst-launch-1.0.exe-v filesrc location=file.mp4qtdemexH264解析avdec_h264视频转换自动电视接收器
我在C代码中也尝试了同样的方法,还使用了“pad added”元素信号来创建pad并链接到下一个元素,即parser(h264 parser)。
所以,它失败了,流停止,原因没有协商。
完整输出:
正在播放:file.mp4
正在运行。。。
为demux创建了一个新的pad视频
元素demux将链接到解析器
错误:内部数据流错误。
调试信息:../gst/isomp4/qtdemux.c(6607):gst_qtdemux_loop():/GstPipeline:video play/GstQTDemux:demux:
流已停止,原因未协商(-4)
返回,停止播放。。。
正在释放管道。。。
完整的。再见!

#include <gst/gst.h>
#include <stdlib.h>
#include <string.h>

#define INPUT_FILE "file.mp4"

static gboolean bus_call(GstBus *bus, GstMessage *msg, gpointer data)
{
    GMainLoop *loop = (GMainLoop *)data;

    switch (GST_MESSAGE_TYPE(msg)) {
        gchar  *debug;
        GError *error;

    case GST_MESSAGE_EOS:
        g_print("End of stream\n");
        g_main_loop_quit(loop);
        break;

    case GST_MESSAGE_ERROR:

        gst_message_parse_error(msg, &error, &debug);
        g_free(debug);

        g_printerr("Error: %s\n", error->message);
        g_printerr("Debug Information: %s\n", debug);
        g_error_free(error);

        g_main_loop_quit(loop);
        break;
    default:
        break;
    }

    return TRUE;
}


static void on_pad_added(GstElement *element, GstPad *pad, gpointer data)
{
    gchar *name;
    GstElement *parse = (GstElement *)data;

    name = gst_pad_get_name(pad);
    g_print("A new pad %s was created for %s\n", name, gst_element_get_name(element));
    g_free(name);

    g_print("element %s will be linked to %s\n",
        gst_element_get_name(element),
        gst_element_get_name(parse));

    gst_element_link(element, parse);
}

int main(int argc, char *argv[])
{
    GMainLoop *loop;
    GstElement *pipeline, *source, *demux, *parser, *decoder, *sink, *fpssink;
    GstBus *bus;
    guint bus_watch_id;

    const gchar *input_file = INPUT_FILE;

    /* Initialization */
    gst_init(&argc, &argv);
    loop = g_main_loop_new(NULL, FALSE);

    /* Create gstreamer elements */
    pipeline = gst_pipeline_new("video-play");
    source = gst_element_factory_make("filesrc", "file-source");
    demux = gst_element_factory_make("qtdemux", "demux");
    parser = gst_element_factory_make("h264parse", "h264-parser");
    decoder = gst_element_factory_make("avdec_h264", "decoder");
    sink = gst_element_factory_make("d3dvideosink", "video-output");

    if (!pipeline || !source || !demux || !parser || !decoder || !sink) {
        g_printerr("One element could not be created. Exiting.\n");
        return -1;
    }

    /* Set input video file for source element */
    g_object_set(G_OBJECT(source), "location", input_file, NULL);

    /* we add a message handler */
    bus = gst_pipeline_get_bus(GST_PIPELINE(pipeline));
    bus_watch_id = gst_bus_add_watch(bus, bus_call, loop);
    gst_object_unref(bus);

    /* Add all elements into the pipeline */
    /* pipeline---[ filesrc + qtdemux + h264parse + avdec_h264 + d3dvideosink ] */
    gst_bin_add_many(GST_BIN(pipeline), source, demux, parser, decoder, sink, NULL);

    /* Link the elements filesrc->demux together */

    if (gst_element_link(source, demux) != TRUE) {
        g_printerr("Element source->demux could not be linked.\n");
        gst_object_unref(pipeline);
        return -1;
    }
    /* h264parse -> avdec_h264 -> d3dvideosink */

    if (gst_element_link_many(parser, decoder, sink, NULL) != TRUE) {
            g_printerr("Many Elements could not be linked.\n");
            gst_object_unref(pipeline);
            return -1;
    }

    g_signal_connect(demux, "pad-added", G_CALLBACK(on_pad_added), parser);

    /* Set the pipeline to "playing" state */
    g_print("Now playing: %s\n", input_file);
    if (gst_element_set_state(pipeline,
        GST_STATE_PLAYING) == GST_STATE_CHANGE_FAILURE) {
        g_printerr("Unable to set the pipeline to the playing state.\n");
        gst_object_unref(pipeline);
        return -1;
    }

    g_print("Running...\n");
    g_main_loop_run(loop);


    /* Free resources and change state to NULL */
    gst_object_unref(bus);
    g_print("Returned, stopping playback...\n");
    gst_element_set_state(pipeline, GST_STATE_NULL);
    g_print("Freeing pipeline...\n");
    gst_object_unref(GST_OBJECT(pipeline));
    g_print("Completed. Goodbye!\n");
    return 0;
}

你们能告诉我如何将这些pad链接到h264解析器元素来传输视频文件吗如果可能,请解释这些pad在Gstreamer工具和应用程序中是如何工作的

最佳答案

下面的命令成功地传输了mp4视频文件:
gst-launch-1.0.exe-v filesrc location=file.mp4qtdemexH264解析
! avdec_h264视频转换自动电视接收器
理想情况下,您的管道应该是:
gst-launch-1.0.exe-v filesrc location=file.mp4qtdemex名称=d
录像带排队H264解析avdec_h264视频转换!
自动电视接收器
如果您检查qtdemux(gst-inspect-1.0 qtdemux),您会注意到水槽垫有以下盖:
能力:
视频/快速时间
视频/mj2
音频/x-m4a
应用程序/x-3gp
如果您检查h264parse(gst-inspect-1.0h264parse),您会注意到SRC Pads有以下大写:
SRC模板:“SRC”
可用性:始终
能力:
视频/x-h264
解析:真
流格式:{(string)avc,(string)avc3,(string)byte stream}
对齐方式:{(string)au,(string)nal}
尝试将Qtdemux的接收器板链接到h264parse的src板时,可能需要收集视频帽才能连接到h264parse。
我使用了下面的代码将qtdemux与“pad added”信号中的h264parse连接起来:

static void pad_added_handler(GstElement *src, GstPad *new_pad, App *data) {
   GstPadLinkReturn ret;
   GstCaps *new_pad_caps = NULL;
   GstStructure *new_pad_struct = NULL;
   const gchar *new_pad_type = NULL;

   /* Check the new pad's type */
   new_pad_caps = gst_pad_get_current_caps(new_pad);
   new_pad_struct = gst_caps_get_structure(new_pad_caps, 0);
   new_pad_type = gst_structure_get_name(new_pad_struct);

   GST_PAD_NAME(new_pad), new_pad_type, gst_caps_to_string(new_pad_caps));

    if (g_str_has_prefix(new_pad_type, "video/x-h264")) {
          ret = gst_pad_link(new_pad, sink_pad_video);
     }
   }

注:
您可能需要链接caps过滤器以过滤视频源所需的视频功能,或者尝试以下条件:
if(g_str_has_prefix(new_pad_type,“video”){}
但我不确定添加队列是如何解决您的问题的。
希望这有帮助。

关于c - Gstreamer C代码失败,流停止,原因未协商(-4),我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/56074308/

10-11 16:34