1. 下载一长篇中文小说。
2. 从文件读取待分析文本。
3. 安装并使用jieba进行中文分词。
pip install jieba
import jieba
ljieba.lcut(text)
4. 更新词库,加入所分析对象的专业词汇。
jieba.add_word('天罡北斗阵') #逐个添加
jieba.load_userdict(word_dict) #词库文本文件
参考词库下载地址:https://pinyin.sogou.com/dict/
转换代码:scel_to_text
5. 生成词频统计
6. 排序
7. 排除语法型词汇,代词、冠词、连词等停用词。
stops
8. 输出词频最大TOP20,把结果存放到文件里
#coding=utf-8
import jieba
import stopwords
# stopword = open(r'stops_chinese1.txt', 'r', encoding='utf-8')
dict = {}
f = open(r'jiji.txt', 'r', encoding='utf-8')
str1=f.read()
f.close()
remove = ",,—-。?.()?!‘’""[]!“”、"
jieba.load_userdict('world.txt')
for i in remove:
str1 = str1.replace(i, "")
str1=jieba.lcut(str1)
str1=" ".join(str1)
list = str1.split()
print(list)
for word in list:
dict[word] = list.count(word)
d = sorted(dict.items(), reverse=True, key=lambda d: d[1])
for l in range(20):
print(d[l][0], "--", d[l][1])
9. 生成词云。