PatchUp: A Regularization Technique for Convolutional Neural Networks论文阅读笔记

PatchUp: A Regularization Technique for Convolutional Neural Networks

本文的主要思想是将类似cutmix的方法运用到了网络隐层

Introduction

主要介绍了一些mixup方法,并提出该方法具有流形入侵的问题存在(mix后的图像与伪mix的原始图像类似,但标签确实mix后的标签,主演就产生了冲突,在训练网络时容易让网络混乱)。而解决该问题的方法有Mete-Mix和manifold mixup,Mete-Mix方法需要引入一个额外的网络,manifold mixup将mix的步骤移到隐层实现。
cutmix是利用一个mask进行两张图片的mix,该mask可以将一张图片的某一个矩形区域替换为另一张图片的内容。作者提出的方法也是在隐层实现,其mix用的mask是利用类似DropBlock的方法获取的,并分为hard mask和soft mask两种类型。

PatchUp

该方法需要三个参数,mix所在的隐层k,获取的矩形区域尺寸block_size,判断是否选择该位置为矩形区域的 γ \gamma γ,其中 γ \gamma γ是作为伯努利分布的参数来确定某个位置是否为1,若为1则认为该位置在block_size范围内的区域为mix区域(即置为0)。

PatchUp: A Regularization Technique for Convolutional Neural Networks论文阅读笔记

hard mask和soft mask分别如上图所示。且两种混合的方法也略有不同:

PatchUp: A Regularization Technique for Convolutional Neural Networks论文阅读笔记
PatchUp: A Regularization Technique for Convolutional Neural Networks论文阅读笔记PatchUp: A Regularization Technique for Convolutional Neural Networks论文阅读笔记

这里的 λ \lambda λ是采样自β分布。

最后的损失函数为:
PatchUp: A Regularization Technique for Convolutional Neural Networks论文阅读笔记

其中,
PatchUp: A Regularization Technique for Convolutional Neural Networks论文阅读笔记

上一篇:Temporal Multi-Graph Convolutional Network for Traffic Flow Prediction


下一篇:(2020李宏毅)机器学习-Convolutional Neural Network