python学习笔记之jieba库及词云的使用

jieba库

  • jieba库一般用于分词

  • 例如: "*是一个伟大的国家"

  • 输出 :['*', '是', '一个', '伟大', '的', '国家']

    # 第一个就是分词分的尽量长,主要掌握这一个
    ret = jieba.lcut("*是一个伟大的国家")
    print(ret)  # 输出 ['*', '是', '一个', '伟大', '的', '国家']
    # 第二个就是把第一个的长的单词继续切
    ret = jieba.lcut_for_search("*是一个伟大的国家")
    print(ret)  # 输出 ['中华', '华人', '人民', '共和', '*', '*', '是', '一个', '伟大', '的', '国家']
    
    # 第三个就是把所有的可能全部切出来
    ret = jieba.lcut("*是一个伟大的国家", cut_all=True)
    print(ret) # 输出 ['中华', '中华人民', '*', '华人', '人民', '人民*', '共和', '*', '国是', '一个', '伟大', '的', '国家']
    

词云

  • 慈云需要用到的库

    pip install matplotlib

    pip install wordcloud

    pip install imageio

    # 打开文件
    f = open(r"E:\python_Program\day06\threekingdoms.txt","r",encoding="utf8")
    data = f.read() # 读出数据
    
    # 读入图像
    image = imread(r"E:\python_Program\day06\image.png")
    
    # 想要词云识别中文就需要添加该字体的路径
    # 也可以设置生成词云图片的大小
    # 也可以自定义生成词语的图形样式 需要在参数中使用mask,并设置背景色为白色即可看到
    w = wordcloud.WordCloud(font_path=r"C:\Windows\Fonts\simkai.ttf",width=500, height=700,
                            mask=image, background_color="white")
    w.generate(data)    # 通过数据 生成词云
    w.to_file("outfile.png")    # 生成文件

运行结果
python学习笔记之jieba库及词云的使用


上一篇:从HTTL模板引擎看软件设计原则


下一篇:php搜索分词处理(jieba分词)