• [论文理解] On the "steerability" of generative adversarial networks


    On the "steerability" of generative adversarial networks

    Intro

    本文提出对GAN的latent space进行操作的一种方法,通过对latent space的编辑实现生成域外样本,操控生成样本的基本属性,如控制生成样本的位置、光照、二维旋转、三维旋转等等。

    文章的主要贡献为:

    1. 证明并实现了通过在latent space中的“walk”能够实现类似人类世界中相机的运动、颜色变换等操作,这些操作是通过自监督的方式学习到的。
    2. 不仅能实现对输出域的线性变换,还能实现对输出域的非线性变换。
    3. 量化了数据集可学习到变换的最大程度。

    GAN经过训练能够学习到一种映射,使得(G(z) ightarrow x),也就是将latent space的采样结果映射为一图像分布下的样本。因此很自然就想到了,能否学习一种变换,使得对latent space的变换,也能映射到图像分布?作者称之为“walk”,即在latent space中执行某种变换,生成的图像也会做出相应的变换,以此来调节生成的图片,甚至可以生成域外样本。

    Objective

    [omega^* = mathop{argmin}_omega mathbb{E}_{z,alpha}[ell(G(z + alpha omega),edit(G(z),alpha))] ]

    上式edit是对生成的图像的变换操作,(alpha)是外部调节参数,(omega)是可学习参数,看起来相当的简单。这里是认为G已经训练好了,即已经经过对抗训练可以生成图片了。公式假设的是操作是线性操作,实际上如果是非线性操作就拟合一个对z的非线性函数,神经网络里往往用非线性激活拟合非线性,拟合的应该是一个step的变化。所以递归变换n次就是nstep的变换。

    [ell = mathbb{E}_{z,n}[||f^n(z)-edit(G(z),nepsilon)||] ]

    其中n表示第n个step,(epsilon)表示步长,(f^n(z))是n次递归函数。

    Quantifying Steerability

    本文还提出变换前后量化对比的指标,以量化变换的效果。

    对于颜色变换,量化指标是随机抽取变换前后100 pixels像素值的变化,归一化到1.

    对于zoom和shift的变换,量化指标是用一个目标检测网络输出物体中心位置,除以box的宽高归一化。

    Reducing Transformation Limits

    上面说了,是在G确定的情况下去学习latent space的变换,那么能否直接端到端训练呢?显然是可以的.

    [G^*,omega^* = mathop{argmin}_{G,omega}(ell_{edit} + ell_{GAN}) ]

    直接端到端训练,GAN的loss按照原来的,而编辑loss拿输入原图和编辑后的做loss即可。

    实验部分太长了,不感兴趣。

    代码已开源:https://ali-design.github.io/gan_steerability/

  • 相关阅读:
    03_输出程序状态信息
    06_键盘事件
    Silverlight中引用图片的方式
    04_响应单点触控
    02_ListActive中响应事件 并LogCat输出
    批量插入更新的 sql语句
    07_重力倾斜度响应
    读取XML
    人生启示录效应篇之牢骚效应:凡是公司中有对工作发牢骚的人,那家公司或老板一定比没有这种人或有这种人而把牢骚埋在肚子里的公司要成功得多
    鼠标事件之JS
  • 原文地址:https://www.cnblogs.com/aoru45/p/12244447.html
Copyright © 2020-2023  润新知