史上最难的的CVPR2020终于来了!
由于疫情影响,今年原定于6.14开始的线下讨论会改成位于西雅图的线上会议。
在刚刚结束的CVPR 2020 开幕式上,悉数公布了本届CVPR最佳论文、最佳学生论文等奖项。值得一提的是,两个奖项的论文一作均为华人。
CVPR(Conference on Computer Vision and Pattern Recognition)作为全球*计算机会议之一,会议形式分为论文讨论会和短期课程,其目的是凭借极具性价比的研究,大力推动全球的计算机视觉行业的发展与进步。
根据本次Accept list接收情况来看,本次共接收文章1470篇(有效提交总数为5865篇),接受率为22%,比2018年的29.6%和2019年的25%都有下降,堪称CVPR史上最严的收稿会。
由于疫情,本次会议需要线上举行,项目主席Ce Liu很期待参会注册人数能有较大增长,今年的注册者,已经超过2018年参会注册人数。
华人作者比例高达39.2%,清华大学为最高产机构
由于疫情原因,转战线上的CVPR参会注册人数与前几年相比有一定程度的上升,但即使如此,与去年的9200人相比仍有小幅下降。
大会开场公布的数据,今年参与CVPR论文的作者数量高达16955位,其中中国作者比例达 39.2%,位居第一。
在中国作者的所属机构排名中,清华以340名位列第一,前10个机构中国高校占据了7席,包括上海交通大学、北京大学、浙江大学、中科大、北航、西安电子科技大学。
在接收主题方面,根据大会统计,视觉领域依然是当前最热门的主题,迁移/low-shot/半监督/无监督学习紧随其后,图像与视频合成、3D等也持续火热。
最佳论文
今年的最佳论文来自牛津大学,论文名为Unsupervised Learning of Probably Symmetric Deformable 3D Objects from Images in the Wild。
在论文中,研究人员提出了一种无需外部监督即可从原始单视图图像中学习3D变形对象类别的方法。该方法基于自动编码器,能够将每个输入图像分解为深度,反照率,视点和照明。
为了在不进行监督的情况下解开这些组件,研究人员利用了许多对象类别在原则上具有的对称结构,进而证明,通过照明推理帮助利用物体对称性,即使由于阴影而观看存在不对称也无碍。
除此之外,研究人员还通过预测对称概率图来建模可能对称的物体,与模型的其他组件进行端到端学习。
实验结果表明,这种方法可以非常准确地恢复人脸的3D形状,单视场图像中的猫脸和汽车,无需任何监督或事先的造型模型。在基准测试中,与另一种在2D图像对应级别上使用监督的方法相比,我们证明了更高的准确性。
论文链接:
https://arxiv.org/abs/1911.11130
代码地址:
https://github.com/elliottwu/unsup3d
demo地址:
http://www.robots.ox.ac.uk/~vgg/blog/unsupervised-learning-of-probably-symmetric-deformable-3d-objects-from-images-in-the-wild.html
本年度的最佳论文一作是来自香港科技大学2014级的本科生吴尚哲,2018年本科毕业后,吴尚哲选择进入了牛津大学视觉几何组,师从欧洲计算机科学家第一人Andrew Zisserman及弟子Andrea Vedaldi,深耕计算机视觉领域,主要研究方向是图像转换与生成,目前就读博士二年级。
最佳学生论文
今年的最佳学生论文奖是《BSP-Net: Generating Compact Meshes via Binary Space Partitioning》,作者为来自西蒙弗雷泽大学和谷歌研究院的三位研究者。
论文链接:
https://arxiv.org/pdf/1911.06971.pdf
代码地址:
https://github.com/czq142857/BSP-NET-original
这篇论文介绍了多边形网格在深度学习特别是3D形状生成中的运用。多边形网格在数字3D领域无处不在,但在深度学习革命中,扮演了次要角色。学习形状生成模型的主要方法依赖于隐函数,并且仅在昂贵的等值曲面处理例程之后才生成网格。
为了克服这些挑战,我们受到了计算机图形学Binary的经典空间数据结构的启发空间分区(BSP),以促进3D学习。
BSP的核心成分是对空间进行递归细分以获得凸集。通过利用此属性,我们设计了BSP-Net,该网络可通过凸分解学习表示3D形状。重要的是,BSPNet无需监督,因为训练过程中没有凸形分解。BSPNet训练网络使用从在一组平面上建立的BSPtree获得的一组凸面来重构形状。
通过BSPNet训练的凸面可以轻松提取以形成多边形网格,而无需进行等值曲面处理。生成的网格是紧凑的(即低聚多边形),非常适合代表尖锐的几何凸显;此外,生成的是水密网络,易于参数化。论文结果还显示,BSP-Net的重构质量与最新技术相比具有竞争力,同时使用的原语更少。
这篇论文的一作是华人研究员Zhiqin Chen,本科毕业于上海交通大学,现为西蒙弗雷泽大学博士一年级在读学生。
他的github主页????
https://czq142857.github.io/
最佳学生论文荣誉提名奖
本次获得最佳学生论文荣誉提名奖的是德国马普所和Facebook Reality Labs合作的论文:DeepCap: Monocular Human Performance Capture Using Weak Supervision。
在论文中,研究人员提出一种新颖的单目密集人体表现捕捉深度学习方法。该方法采用一种基于多视图监督的弱监督方法进行训练,完全不需要利用3D ground truth标注来训练数据。
此外,网络架构基于的两个独立网络将任务分解为姿态估计和非刚性表面变形步骤,大量的定性和定量评估表明,研究者提出的方法在质量和鲁棒性两方面优于当前SOTA方法。
该方法的流程图如下所示。首先,通过将稀疏多视图2D关节检测作为弱监督,研究者训练姿态网络PoseNet预测关节角度和相机相对旋转,其次,研究者训练变形网络 efNet 返回嵌入图旋转和平移参数,从而考虑到非刚性变形。此
了训练变形网络 DefNet,研究者将多视图 2D 关节检测和剪影用于监督。
论文链接:
https://arxiv.org/pdf/2003.08325.pdf
本次获得最佳学生论文荣誉提名奖的论文一作为马普所的Marc Habermann,他的主要研究方向为计算机视觉与计算机图形学、动作捕捉、从RGB视频重建非刚性变形、基于纹理的描述。
他的个人主页:
https://people.mpi-inf.mpg.de/~mhaberma/
PAMI青年研究者奖的两位获得者是Jon Barron 和 D华人研究员qing Sun。
Jon Barron在2007年毕业于多伦多大学,又在2013年拿到加州大学伯克利分校的计算机科学博士学位,现在是一名谷歌的研究员。
Deqing Sun本科毕业于哈尔滨工业大学电子与信息工程专业,2007年在香港中文大学获得硕士学位,2013年在美国布朗大学拿到了计算机科学博士学位,现为谷歌高级研究员。
他在十年前发表的关于光溜原理的文章也被今年的CVPR评为了经典论文。
今年的经典论文奖(Longuet-Higgins 奖)的获奖论文是 由Dqing Sun、Stefan Roth 和 Michael J. Black 三位在 CPR 2010 发的《一篇有关光流原理的文章:Secrets of Optical Flow Estimation and Their Principles》。
为了纪念今年过世的华人计算机视觉宗师Tomas S. Huang(黄煦涛)教授,PAMITC 今年批准设立 Tomas S. Huang 纪念奖,从 2021 年开始颁发。
黄煦涛先生生前是中国工程院和中国科学院“两院”外籍院士,美国国家工程院院士,电气电子工程师学会(IEEE)、美国光学学会、国际模式识别学会、国际光学学会(SPIE)等学会成员,
在学术界,翁巨扬和吴郢可以称得上是黄煦涛先生的两位得意门生。翁巨扬是黄煦涛在国内最早招收的博士生之一,曾在1992年Cresceptron项目中提出的“数据增强”和“最大化池”被广泛应用至今,也促进了CNN的演化。吴郢从华中科技大学毕业后,来到UIUC在黄煦涛的指导下攻读博士学位,随后在西北大学任教,培养出了包括前微软亚洲研究院首席研究员华刚在内的多名学生。
在产业界,黄煦涛先生门下弟子也各路开花,包括华为诺亚方舟计算机视觉首席科学家田奇、联想集团CTO芮勇、文远知行CEO韩旭、原360集团首席科学家、依图科技首席技术官颜水成、云从科技创始人周曦等。黄煦涛先生在华人计算机视觉领域的影响力可见一斑。
今年还有哪些明星论文?
Github上的的CVPR 2020开源代码和论文合集,已经放出已目前已有950颗星,根据论文分成52个分类,有兴趣的同学可以看看。
直达链接:
https://github.com/amusi/CVPR2020-Code
还有一些比较有趣的论文研究,比如Facebook AI研究,来自Georgia Gkioxari等人的超越2D图像的视觉识别。
输入2D,输出动态3D建模。不仅体现在物品上,还体现在人物上。
详细研究请见:
https://ai.facebook.com/blog/facebook-research-at-cvpr-2020
来自微软研究院的,老照片修复技术,如果能上线使用的话,绝对是胶片达人的福音。
苹果公司的神经网络的最小二乘法优化算法,经过在ImageNet上实验,结果证明使用最小二乘量化法的精度差距确实减小了。