import jieba txt = open("D:\\西游记.txt", "r", encoding='utf-8').read() words = jieba.lcut(txt) # 使用精确模式对文本进行分词 counts = {} # 通过键值对的形式存储词语及其出现的次数 for word in words: if len(word) == 1: # 单个词语不计算在内 continue else: counts[word] = counts.get(word, 0) + 1 # 遍历所有词语,每出现一次其对应的值加 1 items = list(counts.items())#将键值对转换成列表 items.sort(key=lambda x: x[1], reverse=True) # 根据词语出现的次数进行从大到小排序 for i in range(20): word, count = items[i] print("{0:<5}{1:>5}".format(word, count))
相关文章
- 03-21jieba分词
- 03-21jieba词频统计
- 03-21jieba 分词
- 03-21jieba 库(网上) 和 wordcloud 库 巩固
- 03-21jieba 分词. 西游记相关的分词,出现次数最高的20个。
- 03-21[Python] 中文分词
- 03-21jieba分词 西游记
- 03-21python可视化文本分析(2)—snownlp+jieba分析QQ群成员发言情况
- 03-21jieba分词
- 03-21jieba 分词