本文实例讲述了Python实现快速计算词频功能。分享给大家供大家参考,具体如下:
这几天看到一位同事的代码,方法如下:
def cut_word(body): temp_dict={} if body is not None: temp=jieba.cut(body) for t in temp: temp_dict[t]=1 else: pass return temp_dict
这个函数的功能是,输入一段字符串,比如:'今天天气很不错',输出一个字典,key为使用结巴的cut方法之后切分的词,value为1,如:{'很':1,'今天天气':1,'不错': 1}。
然后我看到同事的另一个方法:
def union_dict(x,y): _keys = set(sum([obj.keys() for obj in [x,y]],[])) _total = {} for _key in _keys: _total[_key] = sum([obj.get(_key,0) for obj in [x,y]]) return _total
是这样调用的:
final_dict=reduce(union_dict,result)
result是这样产生的:
result=df['body'].apply(cut_word)
也就是把df的body列每一行进行cut_word
函数操作(即将字符串转换成一个字典)。
result的类型是series,随后对result用reduce函数进行union_dict操作。
union_dict的作用是,输入两个字典,比如{'很':1,'今天天气':1,'不错': 1}和{'很':1,'今天天气':1,'差': 1},对key相同的进行value求和,也就是输出会变成{'很':2,'今天天气':2,'不错': 1,'差':1}。
所以这一系列的操作其实是为了计算一大堆文字的词频数,但同事使用的是对每一行分别进行拆分,生成字典,随后
对字典进行合并,其实有些麻烦。
再学习自然语言处理的时候,我了解到nltk有一个方法,可以直接计算词频,用在此处正好。
# -*- coding:utf-8 -*- import nltk import jieba str = '今天天气很不错。今天天气很差' a = list(jieba.cut(str)) cfd = nltk.FreqDist(a)
结果直接是一个带有频数的字典:{'很':2,'今天天气':2,'不错': 1,'很差':1,'。'}
由于同事的函数cut_word
对每个词只计一次频数,所以不能直接拼接字符串后调用FreqDist
函数,需要对每个cut
出来的列表去重,随后再拼接为大字符串调用FreqDist
,这也比之前写这两个函数简单许多。
对于普通的计算频数的需求来说,这个函数能直接解决,十分方便。
更多关于Python相关内容感兴趣的读者可查看本站专题:《Python数学运算技巧总结》、《Python数据结构与算法教程》、《Python函数使用技巧总结》、《Python字符串操作技巧汇总》、《Python入门与进阶经典教程》及《Python文件与目录操作技巧汇总》
希望本文所述对大家Python程序设计有所帮助。
免责声明:本站资源来自互联网收集,仅供用于学习和交流,请遵循相关法律法规,本站一切资源不代表本站立场,如有侵权、后门、不妥请联系本站删除!
更新日志
- 凤飞飞《我们的主题曲》飞跃制作[正版原抓WAV+CUE]
- 刘嘉亮《亮情歌2》[WAV+CUE][1G]
- 红馆40·谭咏麟《歌者恋歌浓情30年演唱会》3CD[低速原抓WAV+CUE][1.8G]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[320K/MP3][193.25MB]
- 【轻音乐】曼托凡尼乐团《精选辑》2CD.1998[FLAC+CUE整轨]
- 邝美云《心中有爱》1989年香港DMIJP版1MTO东芝首版[WAV+CUE]
- 群星《情叹-发烧女声DSD》天籁女声发烧碟[WAV+CUE]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[FLAC/分轨][748.03MB]
- 理想混蛋《Origin Sessions》[320K/MP3][37.47MB]
- 公馆青少年《我其实一点都不酷》[320K/MP3][78.78MB]
- 群星《情叹-发烧男声DSD》最值得珍藏的完美男声[WAV+CUE]
- 群星《国韵飘香·贵妃醉酒HQCD黑胶王》2CD[WAV]
- 卫兰《DAUGHTER》【低速原抓WAV+CUE】
- 公馆青少年《我其实一点都不酷》[FLAC/分轨][398.22MB]
- ZWEI《迟暮的花 (Explicit)》[320K/MP3][57.16MB]