本周关键词:机器翻译,神经网络教学,姿势估计
本周最佳学术研究
CNN 101: 卷积神经网络的交互式视觉学习
为了应对深度学习模型中的复杂性挑战,研究人员开发了CNN 101,这是一个交互式的可视化系统,可以帮助学生更好地了解和学习卷积神经网络,它是基础的深度学习模型体系结构。
使用现代Web技术构建的CNN 101无需专用硬件即可在用户的Web浏览器中本地运行。通过紧密集成的交互式视图,CNN 101通过解释单神经元级别以及层级别的卷积,激活和池化操作,提供了模型工作方式的概述和详细说明。
CNN 101进一步扩大了公众对深度学习技术的教育途径。它应用了交互式可视化技术,为用户提供了一种更简单的方法来学习深度学习机制并建立神经网络直觉。并且,对于现有的通过交互式可视化来解释复杂机器学习算法的研究工作,CNN 101可以与他们结合在一起。
作者还计划扩展CNN 101的功能,用来进一步支持用户自定义和个性化的学习。他们还致力于将CNN 101部署和开源在类似于TensorFlow Playground和GAN Lab的平台上,以便来自世界各地的学习者都可以轻松访问。
CNN 101 演示视频:
https://www.youtube.com/watch?v=g082-zitM7s&feature=youtu.be
原文:
https://arxiv.org/abs/2001.02004v1
主动人体姿势估计的深度强化学习
姿势深度强化学习(Pose-DRL)是一种在密集摄影机中运行的,基于完全可训练的深度强化学习(DRL)的主动式姿势估计架构,该架构可以选择适当的视点以提供基础的单眼姿势预测器。
研究人员使用单目标估计器和多目标估计器对模型进行评估,在两种情况下均获得了良好的结果。该系统还学习了时间自动停止的情形,以及向视频中的下一时间处理步骤过渡的功能。
研究人员称:“在使用Panoptic多视图设置进行的广泛实验中,对于包含多个人的复杂场景,我们证明了该模型学会了选择与强多视图基线相比明显更准确的姿势估计的视点。”
该系统学习选择视图集,与强多视图基线相比,产生的姿态估计更准确。结果不仅显示了智能视点选择的优势,而且还证明了“少即是多”,融合太多可能不正确的视点估计反而会导致结果变差。
阅读更多:
https://arxiv.org/abs/2001.02024v1
多语言神经机器翻译的综合研究
在本文中,日本大阪大学和*立信息与通信技术研究所,以及印度的微软人工智能研究院的研究人员对现有的多语言神经机器翻译(MNMT)文献进行了深入调查,以期使研究人员和从业人员对MNMT前景有更深入的了解。
他们根据中心使用实例对MNMT中的各种技术进行了简单分类,并根据资源场景,基础建模原理,核心问题和挑战对它们进行 进一步分类。他们还尽可能地通过相互比较来解决几种技术的优缺点,并讨论MNMT的未来发展方向。
MNMT在过去几年中已经起步。尽管它带来了许多令人振奋的进步,但仍有许多有趣的方向可供进一步探索。
首先,这项工作涵盖了与多语言NMT的主要场景相关的文献,包括多路,低资源或零资源(转移学习,数据透视和零镜头方法)和多源翻译。本文系统地汇编了主要的设计方法及其变体,主要的MNMT问题及其建议的解决方案。
对于NMT的初学者和专家而言,这是朝着促进和加速MNMT研究迈出的重要一步。任何对于MNMT感兴趣的人,都可以以此作为起点和新思想的来源。
原文:
https://arxiv.org/abs/2001.01115v2
强大且可扩展的快速分类器将用于车辆跟踪和车辆再识别
近期的一项研究提出了一个针对不同条件下摄像机网络中视频分析的协作分类器框架,这些条件包括多尺度、多分辨率摄像机以不同的遮挡、模糊和方向捕获环境。提出这一框架的研究人员来自于美国佐治亚理工学院和巴西圣保罗大学,他们描述了一种用于车辆跟踪和车辆再识别的实现方式,他们在其中实施了零弹学习(ZSL)系统来对车辆执行自动化跟踪。
对VeRi-776和Cars196的评估表明:成组的分类器框架具有强大的对抗能力,可以扩展到不断变化的视频特征(例如新的车辆类型 / 品牌和新的摄像头)。并且,他们与当前的离线视频分析方法相比更具有实时性能。
这项研究提出了一种用于车辆跟踪的全新技术,它同时也能进行端到端的车辆属性提取和车辆识别。它简单而强大的基础模型与当前的最新技术相比具有一定竞争优势,而且其参数要少几个数量级。研究人员在基本模型中使用大约1200万个参数来实现64.4 mAP,而在MTML-OSG中使用100多个参数时则具有62.6的平均平均精度(mAP,一种用于评估排名和检索的指标)
减少参数数量将其与当前方法的性能进行对比,研究人员们可以认定:这一框架能够达到这一领域内业界最顶尖的水准,这也是这一方法的优势之一。
原文:
https://arxiv.org/abs/1912.04423v2
Sparse-GAN在视网膜OCT图像疾病检测中的应用
CNN等技术使得我们可以用计算机视觉技术和深度学习方法来检测视网膜OCT图像中的病变。 但是,这样的方法需要大量的数据来进行训练,深度学习应用也正是因此被限制在了医学图像分析中。而如果我们究其原因就会发现:从具有一种或几种疾病的数据集中训练出来的深度学习系统无法检测到其他训练集中没有出现过的疾病。
为了解决这一问题,在Image-to-Image GAN(注:GAN指的是“对抗神经网络”)的启发下,研究人员现在建议在这项工作中采用Image-to-Image GAN进行医学图像的异常检测,并建议将重建图像映射到潜伏空间,并附加编码器以减少图像噪声的影响。
与此同时,研究人员们还建议规范化潜在特征的稀疏性,以仅使用正常训练数据来呈现所谓的稀疏约束生成对抗网络(Sparse-GAN),以此进行图像异常检测。
在OCT成像中,来自健康受试者的3D扫描可提供数百个“B扫描”图像而无损伤。如果我们将病变视为来自健康受试者的异常图像,可以使用没有病变的OCT “B扫描”来训练异常检测系统。
Sparse-GAN能够预测空间中潜在的异常,而不是图像级别的异常,并且还受到新颖的Sparsity Regularization Net的约束。而在可公开获得的数据集上对其进行的评估表明,它的性能优于业界最新方法。
也就是说,Sparse-GAN可用于疾病筛查,其中训练集中只有健康数据即可。这样,可以减轻数据收集和注释的难度。该方法还可以预测异常激活图,以显示病变以进行临床诊断。
原文:
https://arxiv.org/abs/1911.12527v2
其他爆款论文
第一个能够通过单一视角重现房间3D布局的方法:
https://arxiv.org/abs/2001.02149v1
PaRoT:一个基于TensorFlow的全新系统:
https://arxiv.org/abs/2001.02152v1
全新的、现实的、具有关注意识的众包方案:
https://arxiv.org/abs/1912.11238v2
第一个能够帮助我们更好地理解深度学习的理论系统:
https://arxiv.org/abs/2001.00939v2
一种在计算机安全性领域中比较和评估不同解释方法的标准:
https://arxiv.org/abs/1906.02108v3
数据集
数据集是怎么来的:
https://arxiv.org/abs/1803.09010v5
使用VizWiz数据集浏览器搜索和浏览一组大型机器学习数据集:
https://arxiv.org/abs/1912.09336v1
AI大事件
AI是如何帮助我们在中国战胜贫困的:
https://time.com/5759428/ai-poverty-china/
新算法帮你找到最佳读物:
http://news.mit.edu/2019/finding-good-read-among-billions-of-choices-1220
利用AI改善与消费者的联系:
对于美国公司来说,在美国建立实验室会越来越难:
MIT开发面向中学生的AI新课,传授AI伦理和基础知识:
http://news.mit.edu/2019/bringing-artificial-intelligence-and-mit-middle-school-classrooms-1230