• 视频学习--《语义分割中的自注意力机制和低秩重建》


    《语义分割中的自注意力机制和低秩重建》-李夏

    视频链接

    1. 语义分割(Semantic Segmentation):对图像中的每个像素同时输出一个label

      全卷积网络:理论上感知域增大,实际有效感知域很小。

    2. Nonlocal Network (对应自注意力机制)

      Non-local neural networks:为了推测某一位置上的物品信息,需要建立此位置和图像中所有点的关系,计算方法:

      f()为xi,xj的关系建模,C(x)是对f()的归一化,g(xj)是对参考像素的变换,相似度的其他选择:

      具体实现:

      复杂度为N*N*C

    3. A^2-Nets

      A^2-Nets: Double Attention Networks

      与Nonlocal network对比(右图为nonlocal net,左图为A^2-Nets):

      计算复杂度减小为 N*C*C

    4. EM Attention Networks

      Expectation Maximization Attention Networks for Semantic Segmentation

      N为图像数量,C为输入feature map的维度,Z为映射矩阵,结构上实现:

    5. Tricks for semantic segmentation

      Tricks that must work:

      • Not use Pytorch's official ResNet.
      • Avoid weight decay on BN and Conv's bias.
      • Use OHEM for test.
      • Interpolating with align_corners=True.
      • Set crop size as 8x+1.
      • Inference with sliding window on Cityscapes.
      • Inference with the whole image on PASCAL VOC.

      Tricks may work:

      • Use a 10 times larger lr at the segmentation head.

      • Training with warmup strategy.

  • 相关阅读:
    使用DirectX作渲染过程
    记于来北京两个星期
    添加 node mocha 测试模块
    for-of循环
    app-web 开发 追溯debug
    cmd关闭被占用的端口命令及教程详解
    vue使用element-ui的el-input监听不了键盘事件解决
    Nodejs 进阶:Express 常用中间件 body-parser 实现解析
    nodejs设置允许跨域
    nodejs 全局变量和全局对象
  • 原文地址:https://www.cnblogs.com/lixinhh/p/13502030.html
Copyright © 2020-2023  润新知