机器学习-32-ELMO、BERT、GPT


ELMO、BERT、GPT

背景

机器是如何理解我们的文字的呢?最早的技术是1-of-N encoding,把每一个词汇表示成一个向量,每一个向量都只有一个地方为1,其他地方为0。但是这么做词汇之间的关联没有考虑,因为不同词之间的距离都是一样的。

所以,接下来有了word class的概念,举例说dog、cat和bird都是动物,它们应该是同类。但是动物之间也是有区别的,如dog和cat是哺乳类动物,和鸟类还是有些区别的。

后来有了更进阶的想法,称作word embedding,我们用一个向量来表示一个单词,相近的词汇距离较近,如cat和dog。那word embedding怎么训练呢?比较熟知的就是word2vec方法。

机器学习-32-ELMO、BERT、GPT

关于上面几个概念的介绍,可以参看这里

上一篇:【论文阅读】二进制的Embedding


下一篇:推荐系统--n--模型DeepCrossing和PNN