本文实例讲述了Python基于jieba库进行简单分词及词云功能实现方法。分享给大家供大家参考,具体如下:
目标:
1.导入一个文本文件
2.使用jieba对文本进行分词
3.使用wordcloud包绘制词云
环境:
Python 3.6.0 |Anaconda 4.3.1 (64-bit)
工具:
jupyter notebook
从网上下载了一篇小说《老九门》,以下对这篇小说进行分词,并绘制词云图。
分词使用最流行的分词包jieba,参考:https://github.com/fxsjy/jieba
或点击此处本站下载jieba库。
词云使用wordcloud包,参考:https://github.com/amueller/word_cloud
或点击此处本站下载wordcloud库。
这两个包都不是anaconda自带的,需要按官网的步骤安装。
import wordcloud as wc import jieba import matplotlib.pyplot as plt from scipy.misc import imread %matplotlib inline plt.rc('figure', figsize=(15, 15))
首先读取文件,保存到一个字符串对象中。
all_text = open(file='老九门.txt', encoding='utf-8').read()
查看一下字符串的内容,发现其中有很多多余的字符:'\n'、'\u3000'。
all_text
'\ufeff《盗墓笔记》中,一段与二月红有关的故事。\n《老九门》壹:二月红①\n丝帐许久没有换过了。\n\u3000\u3000她半夜入不了眠,睁开眼睛,便看到床边垂下的帐面,在月光下看着有一死暗淡。原来可是丝丝的带着光亮,好像最白的银拉出来的丝一般。\n\u3000\u3000果然再好的东西,也总是由好往坏了去。\n\u3000\u3000以往一过立秋,... ...<以下省略>
在分词之前先把这些多余字符剔除掉。
all_text = all_text.replace('\n', '' ) all_text = all_text.replace('\u3000', '')
下面先尝试做一次分词,把所有分词用空格分开,输出看一下分词的结果:
seg_list = jieba.cut(all_text, cut_all=False) words =' ' for seg in seg_list: words = words + seg + ' ' print(words)
"htmlcode">
jieba.load_userdict('dict.txt') all_seg = jieba.cut(all_text, cut_all=False) all_word =' ' for seg in all_seg: all_word = all_word + seg + ' ' print(all_word)"//img.jbzj.com/file_images/article/201806/2018616120414093.jpg" alt="" />
以下是词云制作过程:
# 引入字体 font=r"C:\WINDOWS\Fonts\simhei.ttf" #读取背景图片,生成矩阵 color_mask = imread("love.jpg") # 生成词云对象,设置参数 cloud = wc.WordCloud( font_path=font,#设置字体 background_color="black", #背景颜色 max_words=2000,# 词云显示的最大词数 mask=color_mask,#设置背景图片 max_font_size=100, #字体最大值 random_state=42) # 绘制词云图 mywc = cloud.generate(all_word) plt.imshow(mywc)<matplotlib.image.AxesImage at 0x1ecebf5e588>
# 把词云图保存到磁盘文件中 mywc.to_file('老九门wordcloud.png')<wordcloud.wordcloud.WordCloud at 0x1ece4b9bc88>
以上就是使用python进行分词,并绘制词云图的简单操作。对于jieba和wordcloud的更高级的使用方法,还需要进一步研究和学习。
更多关于Python相关内容感兴趣的读者可查看本站专题:《Python数学运算技巧总结》、《Python数据结构与算法教程》、《Python函数使用技巧总结》、《Python字符串操作技巧汇总》、《Python入门与进阶经典教程》及《Python文件与目录操作技巧汇总》
希望本文所述对大家Python程序设计有所帮助。
免责声明:本站资源来自互联网收集,仅供用于学习和交流,请遵循相关法律法规,本站一切资源不代表本站立场,如有侵权、后门、不妥请联系本站删除!
更新日志
- 凤飞飞《我们的主题曲》飞跃制作[正版原抓WAV+CUE]
- 刘嘉亮《亮情歌2》[WAV+CUE][1G]
- 红馆40·谭咏麟《歌者恋歌浓情30年演唱会》3CD[低速原抓WAV+CUE][1.8G]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[320K/MP3][193.25MB]
- 【轻音乐】曼托凡尼乐团《精选辑》2CD.1998[FLAC+CUE整轨]
- 邝美云《心中有爱》1989年香港DMIJP版1MTO东芝首版[WAV+CUE]
- 群星《情叹-发烧女声DSD》天籁女声发烧碟[WAV+CUE]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[FLAC/分轨][748.03MB]
- 理想混蛋《Origin Sessions》[320K/MP3][37.47MB]
- 公馆青少年《我其实一点都不酷》[320K/MP3][78.78MB]
- 群星《情叹-发烧男声DSD》最值得珍藏的完美男声[WAV+CUE]
- 群星《国韵飘香·贵妃醉酒HQCD黑胶王》2CD[WAV]
- 卫兰《DAUGHTER》【低速原抓WAV+CUE】
- 公馆青少年《我其实一点都不酷》[FLAC/分轨][398.22MB]
- ZWEI《迟暮的花 (Explicit)》[320K/MP3][57.16MB]