jieba库
jieba库一般用于分词
例如: "*是一个伟大的国家"
-
输出 :['*', '是', '一个', '伟大', '的', '国家']
# 第一个就是分词分的尽量长,主要掌握这一个 ret = jieba.lcut("*是一个伟大的国家") print(ret) # 输出 ['*', '是', '一个', '伟大', '的', '国家']
# 第二个就是把第一个的长的单词继续切 ret = jieba.lcut_for_search("*是一个伟大的国家") print(ret) # 输出 ['中华', '华人', '人民', '共和', '*', '*', '是', '一个', '伟大', '的', '国家'] # 第三个就是把所有的可能全部切出来 ret = jieba.lcut("*是一个伟大的国家", cut_all=True) print(ret) # 输出 ['中华', '中华人民', '*', '华人', '人民', '人民*', '共和', '*', '国是', '一个', '伟大', '的', '国家']
词云
-
慈云需要用到的库
pip install matplotlib
pip install wordcloud
pip install imageio
# 打开文件 f = open(r"E:\python_Program\day06\threekingdoms.txt","r",encoding="utf8") data = f.read() # 读出数据 # 读入图像 image = imread(r"E:\python_Program\day06\image.png") # 想要词云识别中文就需要添加该字体的路径 # 也可以设置生成词云图片的大小 # 也可以自定义生成词语的图形样式 需要在参数中使用mask,并设置背景色为白色即可看到 w = wordcloud.WordCloud(font_path=r"C:\Windows\Fonts\simkai.ttf",width=500, height=700, mask=image, background_color="white") w.generate(data) # 通过数据 生成词云 w.to_file("outfile.png") # 生成文件
运行结果