一. 19-nips-Transferable Normalization: Towards ImprovingTransferability of Deep Neural Networks
摘要
Pre-training的transferability在无监督的域适应情况下是很弱的。很少工作研究深度网络的内部结构对于可迁移性的影响。本文提出了Transferable Normalization来使得DNNs在跨域之间更具有可迁移性。
介绍
本文揭示BN是网络的可迁移性的限制。Batch Normalization对于平滑损失场景俩加快训练和提高模型性能至关重要,BN与域适应相匹配。但是,在cross-domain场景下,BN的设计对于DNN的可迁移性不是最优的。这时,跨域的均值和方差的暴力共享可能会扭曲特征分布,从而恶化网络的可迁移性。
方法
Domain specific mean and variance. 相较于传统的BN将source和target组合再进行归一化,TransNorm首先分别计算每一个通道的域特定均值和方差,然后在每一层对每个域的输入独立归一化(相较于AdaBN,考虑了source和target的统计信息)
Domain sharing gamma and beta.
相关文章
- 09-23《Gradient-based learning applied to document recognition》翻译
- 09-23CNN论文阅读(一) LeNet:Gradient-based learning applied to document recognition
- 09-23《Gradient-based learning applied to document recognition》翻译
- 09-23CMT307 Applied Machine Learning
- 09-23LeNet-Gradient-Based Learning Applied to Document Recognition 附录
- 09-23Deep Learning for Generic Object Detection: A Survey论文翻译
- 09-23AI:2020年6月22日北京智源大会演讲分享之10:40-11:30 Zoubin教授《Probabilistic Machine Learning and AI》
- 09-23ResNet——Deep Residual Learning for Image Recognition
- 09-23入坑kaggle第二天- 详细分析Titanic - Machine Learning from Disaster
- 09-23[资源]Computer vision: models, learning and inference 免费分享