AdderSR: Towards Energy Efficient Image Super-Resolution
**
加法网络:高能效的完成图像超分辨率!
摘要
**
该文主要研究使用加法神经网络(AdderNets)进行单张图超分辨率的问题。AdderNets在进行输出层计算时使用了加法运算,从而避免了传统的卷积神经网络卷积核相乘消耗的大量算力。大规模图像分类领域虽然已经存在了表现优异的AdderNets,但是由于图像超分辨率与其是两种不同的求解方式,从而不能直接使用现存模型。换言之,加法操作很难学习到图像处理任务的本质——恒等映射。并且高通滤波的功能通过AdderNets也很难实现。为了解决以上问题,我们缜密的研究了加法操作与恒等映射之间的关系,以及通过添加捷径提高加法网络的超分辨率模型性能。我们还提出了可学习的能量激活来调整特征贡献以及提炼细节。在不同的几个基准模型和数据集上的实验结果表明我们的图像超分辨率模型在实验其相似的性能和视觉效果的同时减少了约2.5倍的算力消耗。源码可以在此处下载:
https://github.com/huawei-noah/AdderNet
1.简介
通过一张低分辨率图像重建其高分辨率图像的单张图超分辨率技术(SISR)是一项典型的机器视觉任务。在智能手机和移动相机等显示生活领域,SISR是一项非常流行的信号处理任务。由于便携设备的硬件限制,开发一种低计算成本且能得到高视觉效果的SISR模型变得非常必要。
近几年深度卷积网络已经大幅度增强了SISR模型的性能。最先被提出的超分辨率卷积神经网络只包含3个卷积层和57K参数。自此之后,深度卷积网络的性能随着其深度和宽度(通道数)的增加而提升,最终导致了其模型性能的显著提升。其模型参数和需要消耗的算力也相应的显著提升。比如包含22M模型参数的残差网络在处理一行图时需要10192G FLOPs。然而,由于超分辨率网络模型需要更大的特征映射尺度,因此其要比用于视觉识别的网络模型有更高的计算复杂度。对于便携式设备来说,这种大量的计算会消耗大量的电量以及减少移动设备的寿命。
一些方法通过压缩和加速深度神经网络来解决上述问题,比较著名的压缩方法有滤波器剪枝和知识蒸馏使得网络变窄变薄。另一种方法是在保持原神经网络架构的前提通过量化来减少计算复杂度和乘法操作。二值化是其中一种比较经典的情况,权重和激活层在网络中都被+1和-1代替,这样可以显著的减少能量和内存消耗。然而,二值化网络不能达到全精度网络的准确精度,特别是超分辨率任务的网络。最近Chen等人提出了利用加法代替乘法的加法网络,他的思路启发我们利用加法网络来创建一个高能效的超分辨率模型。(择日更)