DDR爱好者之家 Design By 杰米
本文实例讲述了Python实现的北京积分落户数据分析。分享给大家供大家参考,具体如下:
北京积分落户状况 获取数据(爬虫/文件下载)—> 分析 (维度—指标)
- 从公司维度分析不同公司对落户人数指标的影响 , 即什么公司落户人数最多也更容易落户
- 从年龄维度分析不同年龄段对落户人数指标影响 , 即什么年龄段落户人数最多也更容易落户
- 从百家姓维度分析不同姓对落户人数的指标影响 , 即什么姓的落户人数最多即也更容易落户
- 不同分数段的占比情况
# 导入库 import numpy as np import pandas as pd import matplotlib.pyplot as plt from matplotlib import font_manager
#读取数据(文件) , 并查看数据相应结构和格式 lh_data = pd.read_csv('./bj_luohu.csv',index_col='id',usecols=(0,1,2,3,4)) lh_data.describe()
# 1. 公司维度---人数指标 # 对公司进行分组聚合 , 并查看分数的相关数据 (个数 , 总分数 , 平均分 , 人数占比) group_company = lh_data.groupby('company',as_index=False)['score'].agg(['count','sum','mean']).sort_values('count',ascending=False) #更改列名称 group_company.rename(columns={'count':'people_num','sum':'score_sum','mean':'score_mean'},inplace=True) #定一个函数 , 得到占比 def num_percent(people_num=1,people_sum=1): return str('%.2f'%(people_num / people_sum * 100))+'%' #增加一个占比列 group_company['people_percent'] = group_company['people_num'].apply(num_percent,people_sum=lh_data['name'].count()) #查看只有一个人落户的公司 布尔索引 group_company[group_company['people_num'] == 1] group_company.head(10)
# 2.年龄维度----人数指标 #将出生年月转为年龄 lh_data['age'] = (pd.to_datetime('2019-09') - pd.to_datetime(lh_data['birthday'])) / pd.Timedelta('365 days') # 分桶 lh_data.describe() bins_age = pd.cut(lh_data['age'],bins=np.arange(30,70,5)) bins_age_group = lh_data['age'].groupby(bins_age).count() bins_age_group.index = [str(i.left) + '~' + str(i.right) for i in bins_age_group.index] bins_age_group.plot(kind='bar',alpha=1,rot=60,grid=0.2)
# 3. 姓维度----人数指标 # 增加姓列 #定义一个函数 得到姓名的姓 def get_fname(name): if len(str(name)) <= 3: return str(name[0]) else: return str(name[0:2]) lh_data['fname'] = lh_data['name'].apply(get_fname) # 对姓进行分组 group_fname = lh_data.groupby('fname')['score'].agg(['count','sum','mean']).sort_values('count',ascending=False) # 更改列名称 group_fname.rename(columns={'count':'people_num','sum':'people_sum','mean':'score_mean'},inplace=True) # 增加占比列 group_fname['people_percent'] = group_fname['people_num'].apply(num_percent,people_sum=lh_data['name'].count()) group_fname.head(10)
# 4. 查看分数段占比 # 分桶 将分数划分为一个个的区间 bins_score = pd.cut(lh_data['score'],np.arange(90,130,5)) # 将分数装入对应的桶里 bins_score_group = lh_data['score'].groupby(bins_score).count() # 更改索引显示格式 bins_score_group.index = [str(i.left)+'~'+str(i.right) for i in bins_score_group.index] bins_score_group.plot(kind='bar',alpha=1,rot=60,grid=0.2,title='score-people_num',colormap='RdBu_r')
总结
1.pandas的绘图方法不够灵活 , 功能也不够强大 , 最好还是使用matplotlib绘图
2.记住数据分析最重要的两个方法 分组: groupby() 和 分桶:cut() , 前者一般用于离散的数据(姓,公司) , 后者用于连续数据 (年龄段,分数段)
更多关于Python相关内容感兴趣的读者可查看本站专题:《Python数学运算技巧总结》、《Python数据结构与算法教程》、《Python函数使用技巧总结》、《Python字符串操作技巧汇总》及《Python入门与进阶经典教程》
希望本文所述对大家Python程序设计有所帮助。
DDR爱好者之家 Design By 杰米
广告合作:本站广告合作请联系QQ:858582 申请时备注:广告合作(否则不回)
免责声明:本站资源来自互联网收集,仅供用于学习和交流,请遵循相关法律法规,本站一切资源不代表本站立场,如有侵权、后门、不妥请联系本站删除!
免责声明:本站资源来自互联网收集,仅供用于学习和交流,请遵循相关法律法规,本站一切资源不代表本站立场,如有侵权、后门、不妥请联系本站删除!
DDR爱好者之家 Design By 杰米
暂无评论...
更新日志
2024年11月25日
2024年11月25日
- 凤飞飞《我们的主题曲》飞跃制作[正版原抓WAV+CUE]
- 刘嘉亮《亮情歌2》[WAV+CUE][1G]
- 红馆40·谭咏麟《歌者恋歌浓情30年演唱会》3CD[低速原抓WAV+CUE][1.8G]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[320K/MP3][193.25MB]
- 【轻音乐】曼托凡尼乐团《精选辑》2CD.1998[FLAC+CUE整轨]
- 邝美云《心中有爱》1989年香港DMIJP版1MTO东芝首版[WAV+CUE]
- 群星《情叹-发烧女声DSD》天籁女声发烧碟[WAV+CUE]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[FLAC/分轨][748.03MB]
- 理想混蛋《Origin Sessions》[320K/MP3][37.47MB]
- 公馆青少年《我其实一点都不酷》[320K/MP3][78.78MB]
- 群星《情叹-发烧男声DSD》最值得珍藏的完美男声[WAV+CUE]
- 群星《国韵飘香·贵妃醉酒HQCD黑胶王》2CD[WAV]
- 卫兰《DAUGHTER》【低速原抓WAV+CUE】
- 公馆青少年《我其实一点都不酷》[FLAC/分轨][398.22MB]
- ZWEI《迟暮的花 (Explicit)》[320K/MP3][57.16MB]