本文盘点CVPR 2020 所有图像去雨、去雾、去模糊的论文。
去雨示意图:
去雾示意图:
去模糊示意图:
作为底层图像处理任务,这三个方向有共同特点:现有技术无法真实模拟下雨、起雾、模糊,导致算法训练中使用的合成数据集和真实图像降质有差异,所以这个领域经常出现实验效果很豪横,实际使用却被抱怨的情况。
CVPR 2020中去雨方向 4 篇文章,去雾 3 篇,还有1篇去各种恶劣天气,去模糊 8 篇,大部分论文其实都是在解决上述实际应用中算法效果歇菜的问题。
大家可以在:
http://openaccess.thecvf.com/CVPR2020.py
按照题目下载这些论文。
如果想要下载所有CVPR 2020论文,请点击这里:
CVPR 2020 论文全面开放下载,含主会和workshop
图像去雨(Image Deraining)
提出一种基于高斯过程的半监督学习框架,使得网络在学习中使用合成数据集进行去雨训练时,同时使用未标注的真实世界图像,以使网络能更好地泛化。
[1].Syn2Real Transfer Learning for Image Deraining Using Gaussian Processes
作者 | Rajeev Yasarla, Vishwanath A. Sindagi, Vishal M. Patel
单位 | 约翰斯霍普金斯
代码 | https://github.com/rajeevyasarla/
Syn2Real
多尺度渐进融合网络用于单幅图像去雨
[2].Multi-Scale Progressive Fusion Network for Single Image Deraining
作者 | Kui Jiang, Zhongyuan Wang, Peng Yi, Chen Chen, Baojin Huang, Yimin Luo, Jiayi Ma, Junjun Jiang
单位 | 武汉大学;北卡罗来纳大学夏洛特分校;伦敦国王学院;哈尔滨工业大学
代码 | https://github.com/kuihua/MSPFN(尚未)
提出采用双层并行网络来恢复去雨图像丢失的细节信息。与现有图像去雨工作不同,该方法将去雨和恢复细节视为并行独立的两个模块。
[3].Detail-recovery Image Deraining via Context Aggregation Networks
作者 | Sen Deng, Mingqiang Wei, Jun Wang, Yidan Feng, Luming Liang, Haoran Xie, Fu Lee Wang, Meng Wang
单位 | 南京航空航天大学;MIIT Key Laboratory of Pattern Analysis and Machine Intelligence;Microsoft Applied Sciences Group;岭南大学;香港教育大学;合肥工业大学
代码 | https://github.com/Dengsgithub/DRD-Net(即将)
图像去雾(Image Dehazing)
提出了一种基于U-Net架构的具有密集特征融合的多尺度增强去雾网络
[4].Multi-Scale Boosted Dehazing Network With Dense Feature Fusion
作者 | Hang Dong, Jinshan Pan, Lei Xiang, Zhe Hu, Xinyi Zhang, Fei Wang, Ming-Hsuan Yang
单位 | 西安交通大学;南京理工大学;海康威视;加州大学默塞德分校;谷歌
代码 | https://github.com/BookerDeWitt/MSBDN-DFF
域适应 + 图像去雾,解决大部分去雾方法在合成数据集上优秀而真实数据集上歇菜的问题。
[5].Domain Adaptation for Image Dehazing
作者 | Yuanjie Shao, Lerenhan Li, Wenqi Ren, Changxin Gao, Nong Sang
单位 | 华中科技大学;中科院
代码 | https://github.com/HUSTSYJ/DA_dahazing
知识蒸馏 + 去雾。先使用干净图像训练自编码网络作为teacher;将去雾网络作为student,使用teacher挖掘的干净图像的隐含特征和重建信息来指导有雾图像到干净图像的映射。
[6].Distilling Image Dehazing With Heterogeneous Task Imitation
作者 | Ming Hong, Yuan Xie, Cuihua Li, Yanyun Qu
单位 | 厦门大学;华东师范大学
双目图像 + 去雾。提出双目传输模块探索并编码双目图像对中的深度关系,无需进行计算复杂的视差估计,预测去雾模型中的透射图,进而同时恢复出清晰的双目图像对。
[7].BidNet: Binocular Image Dehazing Without Explicit Disparity Estimation
作者 | Yanwei Pang, Jing Nie, Jin Xie, Jungong Han, Xuelong Li
单位 | 天津大学;英国华威大学;西北工业大学
去模糊(Deblurring)
去模糊方法的训练使用的合成数据并不能真实模拟图像模糊。为了解决这个问题,该文提出了一种包含两种GAN模型的新方法,即学习模糊的GAN(BGAN)和学习去模糊的GAN(DBGAN)。第一个模型BGAN学习如何使用未配对的清晰和模糊图像集对清晰图像进行模糊处理,然后指导第二个模型DBGAN学习如何正确对此类图像进行模糊处理。
[8].Deblurring by Realistic Blurring
作者 | Kaihao Zhang, Wenhan Luo, Yiran Zhong, Lin Ma, Bjorn Stenger, Wei Liu, Hongdong Li
单位 | 澳大利亚国立大学;腾讯AI实验室;Rakuten Institute of Technology;ACRV
视频去模糊
[9].Cascaded Deep Video Deblurring Using Temporal Sharpness Prior
作者 | Jinshan Pan, Haoran Bai, Jinhui Tang
单位 | 南京理工大学
代码 | https://github.com/csbhr/CDVD-TSP
运动去模糊
[10].Learning Event-Based Motion Deblurring
作者 | Zhe Jiang, Yu Zhang, Dongqing Zou, Jimmy Ren, Jiancheng Lv, Yebin Liu
单位 | 商汤;四川大学;清华大学
动态场景去模糊,使用光流引导训练的Spatially Variant反卷积
[11].Efficient Dynamic Scene Deblurring Using Spatially Variant Deconvolution Network With Optical Flow Guided Training
作者 | Yuan Yuan, Wei Su, Dandan Ma
单位 | 西北工业大学
自适应运动去模糊
[12].Spatially-Attentive Patch-Hierarchical Network for Adaptive Motion Deblurring
作者 | Maitreya Suin, Kuldeep Purohit, A. N. Rajagopalan
单位 | 印度理工学院
对噪声水平未知的图像去模糊
[13].Variational-EM-Based Deep Learning for Noise-Blind Image Deblurring
作者 | Yuesong Nan, Yuhui Quan, Hui Ji
单位 | 新加坡国立大学;华南理工大学
提出使用分析-合成网络对去模糊,分析网络估计模糊核,合成网络使用此模糊核去模糊。
[14].Deblurring Using Analysis-Synthesis Networks Pair
作者 | Adam Kaufman, Raanan Fattal
单位 | 希伯来大学
在非盲去模糊问题中,模糊核很多时候并不准确,该文探索在模糊核存在误差时的去模糊。
[15].Deep Learning for Handling Kernel/model Uncertainty in Image Deconvolution
作者 | Yuesong Nan, Hui Ji
单位 | 新加坡国立大学
去恶劣天气大一统模型,去雨、去雾、去雪一个框架搞定!
[16].All in One Bad Weather Removal using Architectural Search
作者 | Ruoteng Li, Robby T. Tan, Loong-Fah Cheong
单位 | National University of Singapore,Yale-NUS College
推荐阅读:
END
备注:质量
图像增强与质量评价交流群
图像增强、去雾、去雨、图像修补、图像恢复等技术,
若已为CV君其他账号好友请直接私信。
我爱计算机视觉
微信号:aicvml
QQ群:805388940
微博知乎:@我爱计算机视觉
投稿:amos@52cv.net
网站:www.52cv.net
在看,让更多人看到