LOTClass中文使用

LOTClass 的中文实验、学习、应用。提供中文新闻多分类案例和数据

 

  1. 原始论文完全不适合于中文,因为中文BERT目前大都是基于字的,因此不能直接换BERT来拿来主义的套用到中文BERT。
  2. 好在有追一科技提出了词汇级BERT,WoBERT,不过是keras的,不适合Pytorch,于是自己训练了一个:WoBERT
  3. 最后稍微自定义了BERT中的分词器,实现了中文版的LOTClass:https://github.com/425776024/LOTClass

 

上一篇:DistilBERT, a distilled version of BERT: smaller, faster, cheaper and lighter学习


下一篇:BERT初体验:谷歌开源bert环境配置(Win10)