• 新手学习FFmpeg


    本次尝试在视频A中的任意位置插入视频B.

    在上一篇中,我们通过调整PTS可以实现视频的加减速。这只是对同一个视频的调转,本次我们尝试对多个视频进行合并处理。

    Concat如何运行

    ffmpeg提供了一个concat滤镜来合并多个视频,例如:要合并视频Video A和Video B,通过调用

    ffmpeg -i va.mp4 -i vb.mp4 -filter_complex "[0][1]concat[out]" -map '[out]' -y output.mp4
    

    concat支持多个Input Source,上面的命令只合并了两个视频,通过生成concat流程图可以看到一些细节:

    echo "movie=va.mp4[0];movie=vb.mp4[1];[0][1]concat,nullsink" | graph2dot -o graph.tmp
    dot -Tpng graph.tmp -o graph.png
    

    这是concat典型用法,循环读取输入源,然后通过修改pts完成合并。

    concat是顺序修改,如果需要在video A中某个时间点插入video B,那么concat就无法完成了。 顺序合并是通过修改PTS实现,那么变序合并也可以通过修改PTS来实现,下面借助concat的逻辑来看看如何实现变序合并。

    变序合并

    为了方便说明问题,我们来看一下顺序和变序不同点到底在哪里。

    • 问题分析

    我们仍然假设需要合并的两个视频分别是Video A和Video B, 需要将Video B插入在Video A中。AF表示Video A的帧, BF表示Video B的帧。

    顺序合并

            +---------------------------------------------------------------------------------------------------------------+
            |       AF1    AF2    AF3     AF4     AF5    AF6     AF7    BF1    BF2     BF3    BF4     BF5    BF6            |
            |       |--------------|--------------|--------------|--------------|--------------|--------------|--->         |
            |Time   0              10             20             30            40              50            60             |
            |PTS    0      100     200     250    300     350    400    500    600     650    700    750     800            |
            +---------------------------------------------------------------------------------------------------------------+
    

    顺序合并就是读取Video B的帧,然后将pts以Video A结束时的PTS为基准进行修改。

    变序合并

            +---------------------------------------------------------------------------------------------------------------+
            |       AF1    AF2    AF3     AF4     BF1    BF2     BF3    BF4     BF5    BF6    AF5    AF6     AF7            |
            |       |--------------|--------------|--------------|--------------|--------------|--------------|--->         |
            |Time   0              10             20             30            40              50            60             |
            |PTS    0      100     200     250    300     350    400    500    600     650    700    750     800            |
            +---------------------------------------------------------------------------------------------------------------+
    

    变序合并时先读取Video A的帧,当达到规定的PTS时,开始读取Video B的帧,然后以A截断时的PTS为基准重新计算PTS。当Video B所有的帧都处理完毕之后,在从截断处开始重新处理Video A的帧。

    从上面两个图来看,问题好像不是很难解决。 只要达到截断的条件,就去处理另外一个视频,等待视频处理完毕之后。再返回来处理被截断的视频。

    但在实现的道路上有如下三个问题需要解决:

    1. 如何判断到达插入时间点
    2. 如何判断视频处理完毕
    3. 如何从断点处重新读取Frame

    下面就需要逐个问题解决了。

    • 如何判断到达插入时间点

    因为我们是需要在视频A中插入视频B,所以需要首先找到插入点。 而根据时间来判断插入点无疑是最简单的一种形式,计算时间就可以依靠前几篇中介绍的PTS知识了。

    当从视频源中读取到每帧后,我们通过帧的PTS和Time-Base根据pts * av_q2d(time_base)转换成播放时间。 这样第一个问题就顺利解决。

    当找到插入点后,我们需要暂存当前的位置,等待插入结束后,需要从断点处重新加载帧。

    • 如何判断视频处理完毕

    执行插入本质就是读取视频B的数据帧,然后修改PTS值。但我们需要得知视频B已经处理完毕,这样才能返回到视频A的断点处继续处理。 所以如何获取到视频处理完毕就是第二个问题。

    如果抛开ffmpeg来说,处理视频本质也是一个IO流(从视频文件中读取的IO流),当判断到IO流结束时(通过seek来判断EOF)时就是视频处理完毕的时候。 但ffmpeg将这一层屏蔽掉了,也就是在filter中是无法直接获取到IO流状态的。

    ffmpeg在屏蔽的同时,也提供了一种判断方式。filter在处理完每一帧之后,需要确认下一帧的状态(有下一帧/无下一帧),所以如果ffmpeg在读取到下一帧时返回了无下一帧,那就表示当前视频处理完毕。

    通过ff_inlink_acknowledge_status(AVFilterLink *link, int *rstatus, int64_t *rpts)来获取下一帧的状态,当返回的ret>0表示没有下一帧,这个时候就可以通过判断当前处理状态来决定是否关闭输出流。

            if 当前处理视频B
                    切换到视频A的断点
            else 当前处理视频A
                    关闭所有的输入流
                    关闭输出流
    
    • 如何从断点处重新读取Frame

    这是最后一个待解决的问题了,当视频B的数据都处理完之后,就需要从视频A的断点处重新读取数据帧。上面说到对视频流的读取,本质就是对一个文件的IO流处理,而在IO时都会有一个指针来表示当前位置。

    ff_inlink_acknowledge_status有两个作用,一方面获取下一帧,另一方面是确认当前帧处理结束。 换言之,当调用ff_inlink_acknowledge_status之后,ffmpeg会将IO流的指针向后移动到下一帧的起始位置,如果移动失败,则表示没有下一帧了。 如果移动成功,那么下次ff_inlink_consume_frame读取帧时,就从这个位置开始读取。

    因此如何从断点处重新读取Frame其实不是问题,只要断点处的帧被确认处理结束了,ffmpeg会自动的移到下一帧位置。当我们将输入源切换到视频A时,就自动从断点处开始读取帧了。

    • 伪代码实现

    通过下面的伪代码简要描述上述的过程:

            通过ff_outlink_get_status判断输出流状态
            if 输出流已关闭
                    退出
    
            for {
                    通过ff_inlink_consume_frame 获取下一帧
    
                    通过frame->pts * av_q2d(time_base)计算时间
    
                    if 时间达到插入点
                            修改当前状态, 进入暂存状态。
    
                    通过push_frame处理每一帧
            }
    
            通过ff_inlink_acknowledge_status确认帧状态
    
            if 当前是暂存状态
                    切换到视频B
    
            if 没有下一帧
                    if 当前是视频B && 当前是暂存状态
                            关闭视频B
                            切换回视频A
    
                    if 当前是视频A && 当前是暂存状态
                            关闭视频A
                            关闭输出流
    
    

    大致就是这个处理流程, 完整代码可以参考iconcat里面的代码。

  • 相关阅读:
    phpmyadmin的登陆配置
    修改xampp-mysql密码
    php实现获取汉字笔画数
    Java学习路线图,专为新手定制的Java学习计划建议
    高德地图Bug 'NSInternalInconsistencyException', reason: 'Invalid parameter not satisfying: !stayUp || CLClientIs
    BitCode
    解决 The sandbox is not sync with the Podfile.lock问题时候,如下所示
    iOS时间戳与字符串
    自定义大头针标注泡泡视图无法响应事件
    'The sandbox is not sync with the Podfile.lock'问题解决
  • 原文地址:https://www.cnblogs.com/vikings-blog/p/11570473.html
Copyright © 2020-2023  润新知