wordclou:根据文本生成词云

一.词云设置

python3 wordcloud词云-LMLPHP

 wc=WordCloud(width=400, height=200, #画布长、宽,默认(400,200)像素
margin=1, #字与字之间的距离
background_color='white',#背景颜色
min_font_size=3,max_font_size=None,#显示的最小,最大的字体大小
max_words=200,#显示的词的最大个数
ranks_only=None,#是否只是排名
prefer_horizontal=.9,#词语水平方向排版出现的频率0.9(所以词语垂直方向排版出现频率为 0.1 )
mask=None,## 以该参数值作图绘制词云,这个参数不为空时,width和height会被忽略
scale=1, #按照比例进行放大画布
color_func=None,#生成新颜色的函数,如果为空,则使用 self.color_func
stopwords=('Book'),#设置需要屏蔽的词,如果为空,则使用内置的STOPWORDS
random_state=None, # 为每个词返回一个PIL颜色
font_step=1, #字体步长,如果步长大于1,会加快运算但是可能导致结果出现较大的误差。
mode="RGB",#当参数为“RGBA”并且background_color不为空时,背景为透明
relative_scaling=.5, #词频和字体大小的关联性
regexp=None,#使用正则表达式分隔输入的文本
collocations=True,#是否包括两个词的搭配
colormap=None,#给每个单词随机分配颜色
normalize_plurals=True,#是否删除词的尾随S之类的
font_path="C:/Windows/Fonts/STFANGSO.ttf" #字体路径
)

WordCloud词云设置

二.生成词云

 fit_words(frequencies)  //根据词频生成词云
generate(text) //根据文本生成词云
generate_from_frequencies(frequencies[, ...]) //根据词频生成词云
generate_from_text(text) //根据文本生成词云
process_text(text) //将长文本分词并去除屏蔽词(此处指英语,中文分词还是需要自己用别的库先行实现,使用上面的 fit_words(frequencies) )
recolor([random_state, color_func, colormap]) //对现有输出重新着色。重新上色会比重新生成整个词云快很多。
to_array() //转化为 numpy array
to_file(filename) //输出到文件

相关方法

三.基本步骤

 import jieba #jieba分词
import matplotlib.pyplot as plt#绘制图形
from scipy.misc import imread#处理图像
from wordcloud import WordCloud, STOPWORDS, ImageColorGenerator#词云 #一.文本获取,利用jieba分词获取文本中的词
file=open('test.txt',encoding='UTF-8').read()
word=' '.join(jieba.cut_for_search(file)) #二.词云背景图像获取
image=imread('test.jpg') # 解析该图片 #三.词云设置
wc=WordCloud(
mode='RGBA',#设置透明底色
background_color=None,
mask=image, #词云形状设置为背景图像
max_words=100,#显示的词的最大个数
font_path="C:\\Windows\\Fonts\\STFANGSO.ttf",#设置字体,否则中文可能会出现乱码
scale=3#扩大三倍
) #生成词云
image_colors = ImageColorGenerator(image)# 基于背景颜色设置字体色彩
wc.generate(word)#根据文本生成词云 #显示
plt.imshow(wc)#显示词云图
plt.axis("off")#关闭坐标轴
plt.show()#显示窗口
wc.to_file('test.png')# 保存图片

词云

python3 wordcloud词云-LMLPHP

python3 wordcloud词云-LMLPHP

05-11 15:16