上午看到FlyAI-AINLP群里李俊毅同学发出的一条信息:
最近刚翻译、整理完的陈丹琦博士的论文,https://chendq-thesis-zh.readthedocs.io/en/latest/ ,感兴趣的同学可以来看看。Neural Reading Comprehension and Beyond,里面讲了很多关于神经阅读理解的背景知识,以及作者自己的实验思路。个人觉得适合初入nlp的以及对阅读理解和对话感兴趣的同学。才疏学浅,希望大家多多交流
赶紧去看了一下,译者非常用心的将陈丹琦博士论文整理在了readthedocs.io上:
陈丹琦博士,本科毕业于清华姚班,之后在斯坦福大学师从 Christopher Manning 教授,今年春季她的博士论文《Neural Reading Comprehension and Beyond》一经发布就引起了整个社交媒体的亢奋:
“很少有人的博士论文能够成为「爆款文章」,但陈丹琦做到了。这位近日从斯坦福毕业的计算机科学博士引发了人们的广泛关注。据斯坦福大学图书馆介绍,她长达 156 页的毕业论文《Neural Reading Comprehension and Beyond》上传仅四天就获得了上千次的阅读量,成为了斯坦福大学近十年来最热门的毕业论文之一。”
但是热潮归热潮,亢奋过后还是需要安心的读论文,这156页博士论文,光读完就需要很多时间,更不要说这么贴心的翻译版了,这里要再次感谢一下译者,以下选自这个文档的译者序,感兴趣的同学可以点击‘阅读原文’,直达原文链接:
关于这片论文的中文翻译在这里:https://chendq-thesis-zh.readthedocs.io/en/latest/
阅读一本优秀的博士毕业论文是最快了解一个领域的方式。这篇论文中会介绍机器阅读理解的前因后果以及最近和未来的发展趋势,并且,这里面会引用大量的参考文献,这都是宝贵的经过整理的NLP相关的学习资料。
本论文文主要研究了基于深度神经网络的阅读理解模型。与传统的稀疏的、手工设计的基于特征的模型相比,这些端到端神经模型被证明在学习丰富的语言现象方面更有效,并在很大程度上提高了所有现代阅读理解基准的性能。
NLP领域逐渐进入人们的视野,从word2vec到BERT再到后来提出的一些模型,都是在dig预训练这个环节。网络上流传很多资料,但很少有如此系统的文章,强推大家去仔细阅读一下。
才疏学浅,有不足之处,还望指出。谢谢。可以直接提出issue或者通过邮件联系:4ljy@163.com。
本文翻译已经咨询过原作者。
本文仅供学习交流所用,一切权利由原作者及单位保留,译者不承担法律责任。
原文地址:
https://www.cs.princeton.edu/~danqic/papers/thesis.pdf
陈丹琦博士个人主页:
https://www.cs.princeton.edu/~danqic/
Duke Lee