利用jieba库,可以提取一篇文章的关键词
import jieba
txt = open("D:\\三国演义.txt", "r", encoding='utf-8').read() #读取已存好的txt文档
words = jieba.lcut(txt) # 使用精确模式对文本进行分词
counts = {} # 通过键值对的形式存储词语及其出现的次数
for word in words:
if len(word) == 1: # 单个词语不计算在内
continue
else:
counts[word] = counts.get(word, 0) + 1 # 遍历所有词语,每出现一次其对应的值加 1
items = list(counts.items())#将键值对转换成列表
items.sort(key=lambda x: x[1], reverse=True) # 根据词语出现的次数进行从大到小排序
#sort() 函数用于对原列表进行排序,如果指定参数,则使用比较函数指定的比较函数
#reverse 排序规则,reverse = True 降序, reverse = False 升序(默认)
#key 是用来比较的参数
for i in range(15):
word, count = items[i]
print("{0:<5}{1:>5}".format(word, count))