01
Large Scaled Relation Extraction with Reinforcement Learning
@theodoric008 推荐
#Relation Extraction
本文是中科院自动化所发表于 AAAI 2018 的工作。论文提供了一种利用强化学习进行实体关系抽取的思路,近几年做 RE 的,有基于 Supervised 数据集的:2015 Xu CNN,2016 Zhou LSTM;有基于远程监督数据集的:2015 Zeng PCNN,2016 Lin PCNN + ATT 等等。
本文也是基于远程监督数据集,但是与前面提到的不同的是,本文模型可以对句子分类,而不仅仅对 Bag (Entity pair)。
论文链接:
https://www.paperweekly.site/papers/1783
02
Demystifying Core Ranking in Pinterest Image Search
@Ttssxuan 推荐
#Content-based Image Retrieval
本文是 Pinterest 试验的图片检索算法,本文从:training data,user/image featurization 和 ranking models 等角度进行解读,并做了性能和质量方面的测试。
论文链接:
https://www.paperweekly.site/papers/1798
03
Group Normalization
@chlr1995 推荐
#Normalization
本文为 Kaiming He 新作。Batch-Norm 在深度学习中一直扮演着重要的角色,但 BN 也存在着明显的问题——需要足够大的 Batch Size,大大增加了训练的成本。本文提出了一种新的归一化——Group Norm 替代 BN,并且通过实验证明,在较小的 Batch Size 下,使用 GN 的网络最终得到的结果,要比使用BN的结果更好。
论文链接:
https://www.paperweekly.site/papers/1765
代码链接:
https://github.com/shaohua0116/Group-Normalization-Tensorflow
04
CliCR: A Dataset of Clinical Case Reports for Machine Reading Comprehension
@paperweekly 推荐
#Machine Reading Comprehension
本文提出了一个医疗领域的机器理解数据集。该数据集基于大量临床病例报告,对病例进行了约100,000次间隙填充查询。
论文链接:
https://www.paperweekly.site/papers/1790
数据集链接:
https://github.com/clips/clicr
05
Single-Shot Bidirectional Pyramid Networks for High-Quality Object Detection
@chlr1995 推荐
#Object Detection
虽然现在利用 DL 的方法在实体检测方面取得了显著的成果,但是这些方法往往都是面向低精度的检测,即设定 IoU 为 0.5 提取粗精度的候选框,这样就导致了精度低甚至会检测出噪声。
本文提出了一种双向金字塔网络结构,在不牺牲检测效率的情况下,达到高精度检测(如,IoU>0.5)。而且在实验中,COCO 和 Pascal 数据集都取得了 state-of-the-art 的结果。
论文链接:
https://www.paperweekly.site/papers/1766
06
Averaging Weights Leads to Wider Optima and Better Generalization
@paperweekly 推荐
#Deep Neural Networks
本文提出了一种简单的 DNN 训练方法 SWA,作为 SGD 的替代。SWA 具备更好的泛化能力、更快的收敛速度,并且几乎没有任何计算开销。
论文链接:
https://www.paperweekly.site/papers/1789
代码链接:
https://github.com/timgaripov/swa
07
Deep Semantic Role Labeling with Self-Attention
@robertdlut 推荐
#Self-Attention
本文来自 AAAI2018,厦门大学 Tan 等人的工作。他们将 Self-Attention 应用到了语义角色标注任务(SRL)上,并取得了先进的结果。这篇论文中,作者将 SRL 作为一个序列标注问题,使用 BIO 标签进行标注,然后提出使用深度注意力网络(Deep Attentional Neural Network)进行标注。
在每一个网络块中,有一个 RNN/CNN/FNN 子层和一个 Self-Attention 子层组成。最后直接利用 softmax 当成标签分类进行序列标注。
论文链接:
https://www.paperweekly.site/papers/1786
代码链接:
https://github.com/XMUNLP/Tagger
08
YOLOv3: An Incremental Improvement
@chlr1995 推荐
#Object Detection
YOLO 网络 V3 版本,比 SSD 速度提升了 3 倍,比 RetinaNet 速度提高近 4 倍。本文使用 DarkNet 作为底层网络,通过优化模型细节,进一步加快了 YOLO 的速度。
论文链接:
https://www.paperweekly.site/papers/1782
代码链接:
https://pjreddie.com/darknet/yolo/
09
CapsuleGAN: Generative Adversarial Capsule Network
@williamking5 推荐
#GAN
本文将 Hinton 大神最新提出的胶囊网络 CapsNet 取代 CNN,作为判别器应用到了生成对抗网络当中。
论文链接:
https://www.paperweekly.site/papers/1770
10
Deep Matrix Factorization Models for Recommender Systems
@somtian 推荐
#Recommender System
本文在利用深度学习做推荐时,考虑了推荐的显式反馈和隐式反馈,将其融合构建成一个矩阵,从而将用户和产品的不同向量输入到两个并行的深层网络中去。最后,设计了一种新型的损失函数以同时考虑评分和交互两种不同类型的反馈数据。
论文链接:
https://www.paperweekly.site/papers/1799
11
Deep Learning using Rectified Linear Units (ReLU)
@chlr1995 推荐
#Gated Recurrent Unit
在深度神经网络中,ReLU 往往被用作激活函数,而使用 softmax 作为分类器。本文受到近来使用其他分类器方法启发,尝试了使用 ReLU 作为 DNN 的分类器。
原文发布时间为:2018-03-31