zoukankan      html  css  js  c++  java
  • python模块之wordcloud

    wordcloud官方文档:

    http://amueller.github.io/word_cloud/generated/wordcloud.WordCloud.html#wordcloud.WordCloud

    英文直接用wordcloud就可以,如果是中文需要进行分词,我用了jieba分词,jieba分词处理中文可参考:https://github.com/fxsjy/jieba

    实例:

    from wordcloud import WordCloud
    %matplotlib inline
    import matplotlib.pyplot as plt
    
    with open("wordcloud_en.txt","r") as f:
        text = f.read()
    
    wc = WordCloud()  #生成词云对象
    wc.generate(text)  #将text添加到词云中
    # print(wc.words_) #分词处理,统计词频
    wc.to_file("wc.jpg")  #词云统计成图片,保存到当前目录
    plt.imshow(wc)  #直接绘制到窗口上,和wc.jpg存图一致
    plt.axis("off")  #关闭坐标系
    

    执行结果:

    clip_image002

    词云定制相关

    from PIL import Image
    import numpy as np
    text_dict = {'Mom': 1.0, 'said': 0.7, 'take': 0.6, 'run rain': 0.6, 'time': 0.5, 'away': 0.5, 'rain': 0.3, 'stood': 0.3, 'day': 0.3, 'washing': 0.3, 'memories': 0.3, 'child': 0.3, 'young': 0.3, 'wet': 0.3, 'shopping': 0.2, 'Wal': 0.2, 'Mart': 0.2, 'pouring': 0.2, 'waited': 0.2, 'repeated': 0.2, 'honey': 0.2, 'minute': 0.2, 'soaked': 0.2, 'morning': 0.2, 'say': 0.2, 'us': 0.2, 'anything': 0.2, 'one': 0.2, 'moment': 0.2, 'needed': 0.2, 'ran': 0.2, 'cars': 0.2, 'got': 0.2, 'make': 0.2, 'every': 0.2, 'heaven': 0.2, 'must': 0.1, 'years': 0.1, 'old': 0.1, 'beautiful': 0.1, 'brown': 0.1, 'haired': 0.1, 'freckle': 0.1, 'faced': 0.1, 'image': 0.1, 'innocence': 0.1, 'outside': 0.1, 'kind': 0.1, 'gushes': 0.1, 'top': 0.1, 'gutters': 0.1, 'much': 0.1, 'hurry': 1, 'hit': 0.1, 'Earth': 3, 'flow': 4, 'spout': 0.1, 'awning': 0.1, 'inside': 0.1}
    mask = np.array(Image.open("cat.jpg"))  #打开图片并转换成数组类型
    # wc2 = WordCloud(background_color="white",max_words=15,mask=mask)  #背景颜色白色,最大词数是15,模板是mask
    wc2 = WordCloud(background_color="white",mask=mask)  #背景颜色白色,模板是mask
    
    wc2.generate_from_frequencies(text_dict) #字典类型的对象,所以用generate_from_frequencies
    
    plt.imshow(wc2)
    plt.axis("off")
    

    执行结果:

    clip_image004

    中文转换为词云

    import jieba  #使用该模块中的中文分词
    
    with open("wordcloud_cn.txt","r") as f:
        text = f.read()
    # print(text)
    
    # seg_list = jieba.cut(text,cut_all=True)  #全模式切割,生成一个生成器对象
    seg_list = jieba.cut(text,cut_all=False)  #精确式切割,生成一个生成器对象,也可不添加cut_all,默认为False
    example = " ".join(seg_list) #将对象通过join连接
    # print(example)
    
    wc3 = WordCloud(font_path=r"C:WindowsFontssimsun.ttc") #中文要指定字体
    wc3.generate(example)
    plt.imshow(wc3)
    plt.axis("off")
    

    执行结果:

    clip_image006

  • 相关阅读:
    通过internet网络唤醒主机的方法
    信用风险计量模型
    Vintage、滚动率、迁移率的应用
    (信贷风控十五)评分卡分数切分、授信额度与利率定价
    (信贷风控十)催收评分卡的介绍
    (信贷风控十六)组合评分卡模型
    (信贷风控十四)深度神经网络模型用于评分卡模型(理论)
    (十三)GBDT模型用于评分卡模型python实现
    (信贷风控九)行为评分卡模型python实现
    改变jupyter notebook的主题背景
  • 原文地址:https://www.cnblogs.com/pinpin/p/10527154.html
Copyright © 2011-2022 走看看