小白学 Python 数据分析(11):Pandas (十)数据分组

小白学 Python 数据分析(11):Pandas (十)数据分组

人生苦短,我用 Python

前文传送门:

小白学 Python 数据分析(1):数据分析基础

小白学 Python 数据分析(2):Pandas (一)概述

小白学 Python 数据分析(3):Pandas (二)数据结构 Series

小白学 Python 数据分析(4):Pandas (三)数据结构 DataFrame

小白学 Python 数据分析(5):Pandas (四)基础操作(1)查看数据

小白学 Python 数据分析(6):Pandas (五)基础操作(2)数据选择

小白学 Python 数据分析(7):Pandas (六)数据导入

小白学 Python 数据分析(8):Pandas (七)数据预处理

小白学 Python 数据分析(9):Pandas (八)数据预处理(2)

小白学 Python 数据分析(10):Pandas (九)数据运算

引言

各位同学好呀,我又出来了,本篇文章我们介绍下 Pandas 的数据分组。

本文用的数据集再次做更换,有同学在后台问小编为什么最近每篇文章都在换数据集。

emmmmmmmm,在小白刚入门的时候,很多同学找不到数据集练手,小编尽量多使用一些数据集,传到代码仓库后,大家 Down 下来直接就能使用,给大家多提供几个案例做选择。

AkShare

本次的数据集选择由 AkShare 提供的本次疫情的历史数据。

摘取一段 AkShare 官网的介绍,各位同学大致了解下 AkShare :

AkShare 的简介:

AkShare 是基于 Python 的开源金融数据接口库, 目的是实现对股票, 期货, 期权, 基金, 外汇, 债券, 指数, 数字货币等金融产品的基本面数据、实时和历史行情数据、衍生数据从数据采集, 数据清洗, 到数据落地的一套开源工具, 满足金融数据科学家, 数据科学爱好者在金融数据获取方面的需求.

AkShare 的特点是获取的是相对权威的金融数据网站公布的原始数据, 广大数据科学家可以利用原始数据进行各数据源之间的交叉验证, 进而再加工, 从而得出科学的结论.

好像和疫情没什么关系么,其实 AkShare 也是在最近的更新中添加了有关本次疫情的数据集。

首先第一件事儿就是先把我们今天要使用到的数据集搞下来,首先是 AkShare 的安装,参考文档示例进行安装( https://akshare.readthedocs.io/zh_CN/latest/akshare/ak-installation.html ):

通用安装:

pip install akshare  --upgrade

国内安装-Python:

pip install akshare -i http://mirrors.aliyun.com/pypi/simple/ --trusted-host=mirrors.aliyun.com  --upgrade

国内安装-Anaconda:

pip install akshare -i http://mirrors.aliyun.com/pypi/simple/ --trusted-host=mirrors.aliyun.com  --user  --upgrade

除了一些 Python 的库需要进行安装,还有一些其他环境需要安装,小编这里就不一一列出了,请各位同学参考文档进行安装。

安装好以后,将本次疫情的历史数据进行导出成 Excel ,然后开始我们今天的正题,这段导出代码其实非常简单,加上导包总共三行,如下:

import akshare as ak

epidemic_dxy_df = ak.epidemic_dxy(indicator="global")
epidemic_dxy_df.to_excel('epidemic_dxy.xlsx')

这里获取的其实是本次疫情截止小编写这篇文章时的一个最新数据。

说明: epidemic_dxy_df 是一个 DataFrame ,这里直接通过 DataFrame 的 to_excel 进行 Excel 导出。

如果不想使用 Excel 的同学,也可以直接操作 epidemic_dxy_df 这个 DataFrame ,只是每次运行的时候它都要从远端拉取数据,速度上挺慢的,从本地的 Excel 中读取数据还是会快很多。

导出的 Excel 小编就简单截个图,如图:

小白学 Python 数据分析(11):Pandas (十)数据分组

可以看到,总共有 66 行的数据,数据量不大,我们进行操作后,可以人工核实操作数据是否正确。

数据分组

如果有对 SQL 使用经验的同学来讲,分组这个词并不陌生,在 SQL 中的关键字是 group by ,而在 Pandas 中的方法名也十分相似,是 groupby()

当然,如果对 SQL 不熟悉的同学也可以参考下 Excel 的分组,都是一样的。

我们先按照七大洲对这个数据做一次分组,看下是什么结果:

import pandas as pd

# 数据导入
epidemic_dxy = pd.read_excel("epidemic_dxy.xlsx") print(epidemic_dxy.groupby(['continents'])) # 输出内容
<pandas.core.groupby.generic.DataFrameGroupBy object at 0x0000019AB24BAB48>

可以看到,这里输出的了一个 DataFrameGroupBy 的内存对象,实际上这个对象中包含了分组后的一些相关信息,并没有直接显示出来,我们直接调用一个汇总的方法看一下:

print(epidemic_dxy.groupby(['continents']).count())

# 输出内容
id createTime modifyTime ... operator locationId countryShortCode
continents ...
亚洲 26 26 26 ... 26 26 26
其他 1 1 1 ... 1 1 1
北美洲 4 4 4 ... 4 4 4
南美洲 2 2 2 ... 2 2 2
大洋洲 2 2 2 ... 2 2 2
欧洲 27 27 27 ... 27 27 27
非洲 3 3 3 ... 3 3 3

count() 的含义是取计数,就是当前的数据有多少条,可以看到,亚洲有 26 条数据。

如果我想知道当前七大洲的汇总数据呢?可以用到 sum() 这个方法:

import pandas as pd

# 数据导入
epidemic_dxy = pd.read_excel("epidemic_dxy.xlsx") pd.set_option('display.max_columns', None)
print(epidemic_dxy.groupby(['continents']).sum()) # 输出内容
id createTime modifyTime tags countryType \
continents
亚洲 18446021 41161613744000 41161613744000 0.0 52
其他 709404 1583138990000 1583138990000 0.0 2
北美洲 2838116 6332555961000 6332555961000 0.0 8
南美洲 1419041 3166277981000 3166277981000 0.0 4
大洋洲 1418867 3166277980000 3166277980000 0.0 4
欧洲 19156076 42744752735000 42744752735000 0.0 54
非洲 2128329 4749416970000 4749416970000 0.0 6 provinceId provinceShortName cityName currentConfirmedCount \
continents
亚洲 231 0.0 0.0 5458
其他 10 0.0 0.0 699
北美洲 38 0.0 0.0 99
南美洲 20 0.0 0.0 8
大洋洲 20 0.0 0.0 14
欧洲 265 0.0 0.0 2040
非洲 30 0.0 0.0 3 confirmedCount suspectedCount curedCount deadCount comment \
continents
亚洲 5940 0 399 83 0.0
其他 705 0 0 6 0.0
北美洲 107 0 7 1 0.0
南美洲 8 0 0 0 0.0
大洋洲 30 0 15 1 0.0
欧洲 2199 0 123 36 0.0
非洲 4 0 1 0 0.0 sort locationId
continents
亚洲 0 24793190
其他 0 0
北美洲 0 3887012
南美洲 0 1946009
大洋洲 0 1980008
欧洲 0 25035128
非洲 0 2944016

因为原始数据有点多,小编这里将所有的列全展示出来,可以看到亚洲目前的确诊数量是 5940 ,当然,这里不包含中国的数据。

这里的列太多了,很多列并不是我们关心的,如果我们只关心几个核心的数据怎么展示呢?

我们可以先分组,分组后取出我们需要的列,然后再对列做运算,如下:

import pandas as pd

# 数据导入
epidemic_dxy = pd.read_excel("epidemic_dxy.xlsx") print(epidemic_dxy.groupby(['continents'])['confirmedCount', 'suspectedCount', 'curedCount', 'deadCount'].sum()) # 输出内容
confirmedCount suspectedCount curedCount deadCount
continents
亚洲 5940 0 399 83
其他 705 0 0 6
北美洲 107 0 7 1
南美洲 8 0 0 0
大洋洲 30 0 15 1
欧洲 2199 0 123 36
非洲 4 0 1 0

在进行数据分组的时候,我们除了可以使用列名进行分组,还可以使用 Series 进行分组,它与使用列名进行分组在使用上没有任何不同:

import pandas as pd

# 数据导入
epidemic_dxy = pd.read_excel("epidemic_dxy.xlsx") print(epidemic_dxy.groupby(epidemic_dxy['continents'])['confirmedCount', 'suspectedCount', 'curedCount', 'deadCount'].sum()) # 输出内容
confirmedCount suspectedCount curedCount deadCount
continents
亚洲 5940 0 399 83
其他 705 0 0 6
北美洲 107 0 7 1
南美洲 8 0 0 0
大洋洲 30 0 15 1
欧洲 2199 0 123 36
非洲 4 0 1 0

这里的 epidemic_dxy['continents'] 本身就是一个 Series ,可以看到和上面使用列名进行分组无任何不同。

在分组的时候,除了可以使用一个列或者 Series ,还可以使用多个,只需要在 groupby() 的参数中进行添加即可,如下:

import pandas as pd

# 数据导入
epidemic_dxy = pd.read_excel("epidemic_dxy.xlsx") print(epidemic_dxy.groupby([epidemic_dxy['continents'], epidemic_dxy['provinceName']])['confirmedCount', 'suspectedCount', 'curedCount', 'deadCount'].sum()) # 输出内容
confirmedCount suspectedCount curedCount deadCount
continents provinceName
亚洲 亚美尼亚 1 0 0 0
以色列 10 0 1 0
伊拉克 19 0 0 0
伊朗 978 0 175 54
卡塔尔 1 0 0 0
... ... ... ... ...
欧洲 荷兰 10 0 0 0
西班牙 84 0 2 0
非洲 埃及 2 0 1 0
尼日利亚 1 0 0 0
阿尔及利亚 1 0 0 0 [65 rows x 4 columns]

我们这里使用了七大洲和国家进行分组,可以看到整个求和的数据集已经按照七大洲和国家求和列出了。

你以为分组到这里就算完了?

nonono,下面还有个神奇的家伙 —— aggregate()

aggregate() 这个方法是做什么的呢?

如果我们想在一次分组中,进行两次汇总运算,那么,就要用到这个函数了,比如,我想在刚才的数据中先计数,在求和,那么可以这么写:

import pandas as pd

# 数据导入
epidemic_dxy = pd.read_excel("epidemic_dxy.xlsx") print(epidemic_dxy.groupby(epidemic_dxy['continents'])['confirmedCount', 'suspectedCount', 'curedCount', 'deadCount'].aggregate(['count', 'sum'])) # 输出内容
count sum count ... sum count sum
continents ...
亚洲 26 5940 26 ... 399 26 83
其他 1 705 1 ... 0 1 6
北美洲 4 107 4 ... 7 4 1
南美洲 2 8 2 ... 0 2 0
大洋洲 2 30 2 ... 15 2 1
欧洲 27 2199 27 ... 123 27 36
非洲 3 4 3 ... 1 3 0 [7 rows x 8 columns]

怎么样,是不是很神奇,左边是计数,右边是求和。

不过有一点要注意下,在我们对数据进行分组运算完成后,有时候会需要对数据进行进一步的处理,由于分组运算后的结果并不是标准的 DataFrame 形式,需要我们对它进行进一步的转化,这里用到的方法就是重置索引 reset_index()

import pandas as pd

# 数据导入
epidemic_dxy = pd.read_excel("epidemic_dxy.xlsx") new_dataframe = epidemic_dxy.groupby(epidemic_dxy['continents'])['confirmedCount', 'suspectedCount', 'curedCount', 'deadCount'].sum().reset_index() print(new_dataframe) # 输出内容
continents confirmedCount suspectedCount curedCount deadCount
0 亚洲 5940 0 399 83
1 其他 705 0 0 6
2 北美洲 107 0 7 1
3 南美洲 8 0 0 0
4 大洋洲 30 0 15 1
5 欧洲 2199 0 123 36
6 非洲 4 0 1 0

这样,我们就得到了一个新的 DataFrame ,可以在这个新的 DataFrame 进行新的骚操作了。

本篇的内容到这里才算结束,各位看更的同学,记得要手写代码哦~~~

示例代码

老规矩,所有的示例代码都会上传至代码管理仓库 Github 和 Gitee 上,方便大家取用。

示例代码-Github

示例代码-Gitee

上一篇:搭建Harbor企业级docker仓库


下一篇:【k8s】使用k8s部署一个简单的nginx服务