wordcloud 库使用
ps:
当前python版本
import matplotlib.pyplot as plt import matplotlib.image as mpimg import wordcloud # 基本使用,将文字转换为图的形式显示 text = '先提取项目的名称,再用Jieba分词后提取词汇;过滤掉“研发”、“系列”等无意义的词;最后用WordCloud 绘制词云。' image_path = "222.jpg" img = mpimg.imread(image_path) c = wordcloud.WordCloud( # prefer_horizontal=0.5, #词语水平方向排版出现的频率,默认 0.9 (所以词语垂直方向排版出现频率为 0.1 ) scale=4, #默认为1,按照比例进行放大画布,如设置为1.5,则长和宽都是原来画布的1.5倍 background_color='white', #背景颜色 # width=400, #生成的图片宽度 # height=300, #生成的图片高度 # min_font_size=10, #指定词云中字体的最小字号,默认4号 # max_font_size=20, #指定词云中字体的最大字号,根据高度自动调节 # font_step=2, #指定词云中字体字号的步进间隔,默认为1 font_path=r'D:python_projectT1msyhl.ttc', #指定字体文件的路径,默认None # max_words=5, #指定词云显示的最大单词数量,默认200 # stopwords=[], #指定词云的排除词列表,即不显示的单词列表 mask=img, #指定词云形状,默认为长方形,需要引用imread()函数 collocations=1, #bool, default=True 是否包括两个词的搭配 colormap='viridis', #string or matplotlib colormap, default=”viridis” #给每个单词随机分配颜色,若指定color_func,则忽略该方法 random_state=None #int or None #为每个单词返回一个PIL颜色 # regexp=None #string or None (optional)使用正则表达式分隔输入的文本 ) # c.generate_from_frequencies(items2) #根据词频生成词云 c.generate(text) #根据文本生成词云 # c.generate_from_text(text) #根据文本生成词云 # c.fit_words(frequencies) #根据词频生成词云 # c.process_text(text) #将长文本分词并去除屏蔽词(此处指英语,中文分词还是需要自己用别的库先行实现,使用上面的 fit_words(frequencies) ) # c.recolor([random_state, color_func, colormap]) #对现有输出重新着色。重新上色会比重新生成整个词云快很多 # c.to_array() #转化为 numpy array # c.to_file(filename) #输出到文件 # 保存为图片 # c.to_file("pyworldcloud.png") # 打印显示图片 plt.imshow(c) # 去除刻度尺 plt.axis("off") plt.show()