• 换脸技术 Deepfake Face2Face HeadOn FSGAN


    一、换脸技术发展简史

    概述:换脸技术的应用分为三类,即换脸/换五官,转换面部表情,转换面部与躯干运动。以下介绍按照时间顺序排列。

    1. Face2Face:Real-time Face Capture and Reenactment of RGB Videos(转换面部表情)

    由德国纽伦堡大学科学家 Justus Thies 的团队在 CVPR 2016 发布

    可以非常逼真的将一个人的面部表情、说话时面部肌肉的变化、嘴型等完美地实时复制到另一个人脸上

    论文:http://www.graphics.stanford.edu/~niessner/papers/2016/1facetoface/thies2016face.pdf

    2. Deepfake:Face Swapping(换脸 / 换五官)

    推出了 FakeApp(适用于Windows)

    Github 上有相同的开源项目 FaceSwap(适用于Ubuntu) https://github.com/deepfakes/faceswap

    3. HeadOn:Real-time Reenactment of Human Portrait Videos(转换面部表情与躯干运动)

    由 Face2Face 原班团队做的升级版,在 ACM Transactions on Graphics 2018 发布

    Face2Face 只能实现面部表情的转换,HeadOn 增加了身体运动和头部运动的迁移

    论文: http://niessnerlab.org/papers/2018/7headon/headon_preprint.pdf

    4. FSGAN:Subject Agnostic Face Swapping and Reenactment (换脸 & 转换面部表情)

    ICCV 2019 未开源

    论文:https://arxiv.org/pdf/1908.05932.pdf

    二、FaceSwap demo

    概述:利用 CLM框架与 OpenCV 可实现单张图片换脸,参考 https://blog.csdn.net/wi162yyxq/article/details/53883507 。若要实现视频换脸,需要事先收集大量 A 与 B 各个角度各种表情的人脸图像素材,针对视频帧的不同表情换脸,最后合成影片,但这将耗费宝贵的时间与精力。将换脸工作交给深度 GAN 自主学习可大量节省时间与精力,项目地址:

    https://github.com/deepfakes/faceswap

    1. 基本条件

    Ubuntu16.04

    GPU(Nvidia RTX 2070)

    Anaconda Python3.6

    Tensorflow-gpu

    FFMPEG 截取原始影像帧 / 合成换脸后的视频

    具体安装方法:https://github.com/deepfakes/faceswap/blob/master/INSTALL.md

    2. 过程与结果

    a. Extracting Faces

    先从video clips里截取帧,再截取人脸,适用于有多段 video clips 素材的情况

    $ ffmpeg -i video.mp4 -vf fps=5 "pic_name%04d.png"

    video 一般 25frame/second, fps=5 不必截取每一帧

    $ python faceswap.py extract -i ~/faceswap/src/frames_folder -o    ~/faceswap/faces/extracted_faces

    也可直接从一段 video 里截取人脸,适用于一段video(自动截取每一帧)。

    $ python faceswap.py extract -i ~/faceswap/src/video.mp4 -o  ~/faceswap/faces/extracted_faces

    b. Training a model

    换脸者A,B双方的训练资料最好 > 3000张

    理想 Loss: 0.009-0.01

    实际 Loss 0.022, Nvidia RTX 2080 Ti 训练28小时

    c. Converting a video

    按原始fps截取需要换脸的 video frames

    利用训练好的模型转换 video frames

        python faceswap.py convert -i ~/faceswap/src/extracted_frames/ -o ~/faceswap/converted/ -m  ~/faceswap/A_B_model/

    合成转换后的 video frames 至新视频

    ffmpeg -f image2 -i converted_frames%04d.png -vcodec libx264 -crf 1 -pix_fmt yuv420p -vf fps=60 A_B.mp4

    具体使用方法:https://github.com/deepfakes/faceswap/blob/master/USAGE.md

    三、Face2Face demo

    https://github.com/datitran/face2face-demo

    1. 环境配置与安装

    Ubuntu16.04

    Anaconda Python3.5

    Tensorflow 1.2

    OpenCV 3.1.0

    Dlib 19.4

    OpenCV 3.1.0 安装过程坎坷,试过用 pip,conda 指令安装:

    $ pip install opencv-python==3.1.0

    $ pip install opencv-contrib-python==3.1.0

    $ conda install opencv=3.1.0

    虽然都成功安装并通过测试

    $ import cv2

    $ cv2.__version__ 

    $ 3.1.0

    但是在运行 generate_train_data.py 的时候总是在 cv2.destroyallwindows() 这行报错。

    最后使用 Cmake-gui 安装成功,方法如下:

    a. 不用安装opencv-contrib

    b. cuda,python2,doc,example,test 所有选项取消勾选

    c. WITH_GTK_2_X 勾选

    d. PYTHON3 路径如下:

     
     

    e.  在 ./opencv-3.1.0/modules/videoio/src/cap_ffmpeg_impl.hpp 里最顶端添加了

        #define AV_CODEC_FLAG_GLOBAL_HEADER (1 << 22)

        #define CODEC_FLAG_GLOBAL_HEADER AV_CODEC_FLAG_GLOBAL_HEADER

        #define AVFMT_RAWPICTURE 0x0020

    f. $ make -j8

      $ sudo make install

      $ sudo ldconfig

      成功!!!

    2. 过程与结果

    a. 训练资料:原始图片与 Landmarks 各400张

    b. 训练周期:200 epochs

    c. 训练时间:3h with Nvidia RTX 2080Ti

    d. 结果:欠拟合

    a. 训练资料:原始图片与 Landmarks 各1500张

    b. 训练周期:500 epochs

    c. 训练时间:15h with Nvidia RTX 2080Ti

    d. 结果:过拟合

    背景噪声干扰大,不采用。



    作者:牛牪犇_9c01
    链接:https://www.jianshu.com/p/67eb20c3420e
    来源:简书
    著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
  • 相关阅读:
    写接口注意事项
    django-redis缓存
    ubuntu 16.04 ssh免密码连接不上
    ubuntu 16.04 配置静态ip 后默认的网卡eno1变成eth0了不能联网的问题解决
    ubuntu 16.04在真实机安装后的静态ip的配置
    ubuntu 16.04 静态ip的配置
    大数据Web可视化分析系统开发
    Structrued Streaming业务数据实时分析
    Spark Streaming实时数据分析
    Spark SQL快速离线数据分析
  • 原文地址:https://www.cnblogs.com/Ph-one/p/12522448.html
Copyright © 2020-2023  润新知