wikitext数据集

WikiText用于长时间依赖的语言建模

WikiText 英语词库数据(The WikiText Long Term Dependency Language Modeling Dataset)是一个包含1亿个词汇的英文词库数据,这些词汇是从Wikipedia的优质文章和标杆文章中提取得到,包括WikiText-2WikiText-103两个版本,相比于著名的 Penn Treebank (PTB) 词库中的词汇数量,前者是其2倍,后者是其110倍。每个词汇还同时保留产生该词汇的原始文章,这尤其适合当需要长时依赖(longterm dependency)自然语言建模的场景。

WikiText2可从URL = 'https://s3.amazonaws.com/research.metamind.io/wikitext/wikitext-2-v1.zip'下载

from torchtext.datasets import WikiText2

train_iter = WikiText2(split='train')
或者
train_iter, val_iter, test_iter = WikiText2()

参考:
https://www.sohu.com/a/305178444_100118081

关于WikiText2的进一步使用,参考https://pytorch.org/tutorials/beginner/transformer_tutorial.html

上一篇:Leetcode15. 三数之和


下一篇:python基础⑧-迭代器和生成器