目录
第二章 pandas基础
1
import numpy as np
2
import pandas as pd
在开始学习前,请保证pandas
的版本号不低于如下所示的版本,否则请务必升级!请确认已经安装了xlrd, xlwt, openpyxl
这三个包,其中xlrd
版本不得高于2.0.0
。
1
pd.__version__
[2]:
'1.1.5'
一、文件的读取和写入
1. 文件读取
pandas
可以读取的文件格式有很多,这里主要介绍读取csv, excel, txt
文件。
1
df_csv = pd.read_csv('../data/my_csv.csv')
2
df_csv
[3]:
, , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,
col1 | col2 | col3 | col4 | col5 | |
---|---|---|---|---|---|
0 | 2 | a | 1.4 | apple | 2020/1/1 |
1 | 3 | b | 3.4 | banana | 2020/1/2 |
2 | 6 | c | 2.5 | orange | 2020/1/5 |
3 | 5 | d | 3.2 | lemon | 2020/1/7 |
,
1
df_txt = pd.read_table('../data/my_table.txt')
2
df_txt
[4]:
, , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,
col1 | col2 | col3 | col4 | |
---|---|---|---|---|
0 | 2 | a | 1.4 | apple 2020/1/1 |
1 | 3 | b | 3.4 | banana 2020/1/2 |
2 | 6 | c | 2.5 | orange 2020/1/5 |
3 | 5 | d | 3.2 | lemon 2020/1/7 |
,
1
df_excel = pd.read_excel('../data/my_excel.xlsx')
2
df_excel
[5]:
, , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,
col1 | col2 | col3 | col4 | col5 | |
---|---|---|---|---|---|
0 | 2 | a | 1.4 | apple | 2020/1/1 |
1 | 3 | b | 3.4 | banana | 2020/1/2 |
2 | 6 | c | 2.5 | orange | 2020/1/5 |
3 | 5 | d | 3.2 | lemon | 2020/1/7 |
,
这里有一些常用的公共参数,header=None
表示第一行不作为列名,index_col
表示把某一列或几列作为索引,索引的内容将会在第三章进行详述,usecols
表示读取列的集合,默认读取所有的列,parse_dates
表示需要转化为时间的列,关于时间序列的有关内容将在第十章讲解,nrows
表示读取的数据行数。上面这些参数在上述的三个函数里都可以使用。
1
pd.read_table('../data/my_table.txt', header=None)
[6]:
, , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,
0 | 1 | 2 | 3 | |
---|---|---|---|---|
0 | col1 | col2 | col3 | col4 |
1 | 2 | a | 1.4 | apple 2020/1/1 |
2 | 3 | b | 3.4 | banana 2020/1/2 |
3 | 6 | c | 2.5 | orange 2020/1/5 |
4 | 5 | d | 3.2 | lemon 2020/1/7 |
,
1
pd.read_csv('../data/my_csv.csv', index_col=['col1', 'col2'])
[7]:
, , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,
col3 | col4 | col5 | ||
---|---|---|---|---|
col1 | col2 | |||
2 | a | 1.4 | apple | 2020/1/1 |
3 | b | 3.4 | banana | 2020/1/2 |
6 | c | 2.5 | orange | 2020/1/5 |
5 | d | 3.2 | lemon | 2020/1/7 |
,
1
pd.read_table('../data/my_table.txt', usecols=['col1', 'col2'])
[8]:
, , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,
col1 | col2 | |
---|---|---|
0 | 2 | a |
1 | 3 | b |
2 | 6 | c |
3 | 5 | d |
,
1
pd.read_csv('../data/my_csv.csv', parse_dates=['col5'])
[9]:
, , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,
col1 | col2 | col3 | col4 | col5 | |
---|---|---|---|---|---|
0 | 2 | a | 1.4 | apple | 2020-01-01 |
1 | 3 | b | 3.4 | banana | 2020-01-02 |
2 | 6 | c | 2.5 | orange | 2020-01-05 |
3 | 5 | d | 3.2 | lemon | 2020-01-07 |
,
1
pd.read_excel('../data/my_excel.xlsx', nrows=2)
[10]:
, , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,
col1 | col2 | col3 | col4 | col5 | |
---|---|---|---|---|---|
0 | 2 | a | 1.4 | apple | 2020/1/1 |
1 | 3 | b | 3.4 | banana | 2020/1/2 |
,
在读取txt
文件时,经常遇到分隔符非空格的情况,read_table
有一个分割参数sep
,它使得用户可以自定义分割符号,进行txt
数据的读取。例如,下面的读取的表以||||
为分割:
1
pd.read_table('../data/my_table_special_sep.txt')
[11]:
, , , , , , , , , , , , , , , , , , , , , , , , , , ,
col1 |||| col2 | |
---|---|
0 | TS |||| This is an apple. |
1 | GQ |||| My name is Bob. |
2 | WT |||| Well done! |
3 | PT |||| May I help you? |
,
上面的结果显然不是理想的,这时可以使用sep
,同时需要指定引擎为python
:
1
pd.read_table('../data/my_table_special_sep.txt', sep=' \|\|\|\| ', engine='python')
[12]:
, , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,
col1 | col2 | |
---|---|---|
0 | TS | This is an apple. |
1 | GQ | My name is Bob. |
2 | WT | Well done! |
3 | PT | May I help you? |
,
【WARNING】sep
是正则参数
在使用read_table
的时候需要注意,参数sep
中使用的是正则表达式,因此需要对|
进行转义变成\|
,否则无法读取到正确的结果。有关正则表达式的基本内容可以参考第八章或者其他相关资料。
【END】
2. 数据写入
一般在数据写入中,最常用的操作是把index
设置为False
,特别当索引没有特殊意义的时候,这样的行为能把索引在保存的时候去除。
1
df_csv.to_csv('../data/my_csv_saved.csv', index=False)
2
df_excel.to_excel('../data/my_excel_saved.xlsx', index=False)
pandas
中没有定义to_table
函数,但是to_csv
可以保存为txt
文件,并且允许自定义分隔符,常用制表符\t
分割:
1
df_txt.to_csv('../data/my_txt_saved.txt', sep='\t', index=False)
如果想要把表格快速转换为markdown
和latex
语言,可以使用to_markdown
和to_latex
函数,此处需要安装tabulate
包。
1
print(df_csv.to_markdown())
| | col1 | col2 | col3 | col4 | col5 | |---:|-------:|:-------|-------:|:-------|:---------| | 0 | 2 | a | 1.4 | apple | 2020/1/1 | | 1 | 3 | b | 3.4 | banana | 2020/1/2 | | 2 | 6 | c | 2.5 | orange | 2020/1/5 | | 3 | 5 | d | 3.2 | lemon | 2020/1/7 |
1
print(df_csv.to_latex())
\begin{tabular}{lrlrll} \toprule {} & col1 & col2 & col3 & col4 & col5 \\ \midrule 0 & 2 & a & 1.4 & apple & 2020/1/1 \\ 1 & 3 & b & 3.4 & banana & 2020/1/2 \\ 2 & 6 & c & 2.5 & orange & 2020/1/5 \\ 3 & 5 & d & 3.2 & lemon & 2020/1/7 \\ \bottomrule \end{tabular}
二、基本数据结构
pandas
中具有两种基本的数据存储结构,存储一维values
的Series
和存储二维values
的DataFrame
,在这两种结构上定义了很多的属性和方法。
1. Series
Series
一般由四个部分组成,分别是序列的值data
、索引index
、存储类型dtype
、序列的名字name
。其中,索引也可以指定它的名字,默认为空。
1
s = pd.Series(data = [100, 'a', {'dic1':5}],
2
index = pd.Index(['id1', 20, 'third'], name='my_idx'),
3
dtype = 'object',
4
name = 'my_name')
5
s
[17]:
my_idx ,id1 100 ,20 a ,third {'dic1': 5} ,Name: my_name, dtype: object
【NOTE】object
类型
object
代表了一种混合类型,正如上面的例子中存储了整数、字符串以及Python
的字典数据结构。此外,目前pandas
把纯字符串序列也默认认为是一种object
类型的序列,但它也可以用string
类型存储,文本序列的内容会在第八章中讨论。
【END】
对于这些属性,可以通过 . 的方式来获取:
1
s.values
[18]:
array([100, 'a', {'dic1': 5}], dtype=object)
1
s.index
[19]:
Index(['id1', 20, 'third'], dtype='object', name='my_idx')
1
s.dtype
[20]:
dtype('O')
1
s.name
[21]:
'my_name'
利用.shape
可以获取序列的长度:
1
s.shape
[22]:
(3,)
索引是pandas
中最重要的概念之一,它将在第三章中被详细地讨论。如果想要取出单个索引对应的值,可以通过[index_item]
可以取出。
2. DataFrame
DataFrame
在Series
的基础上增加了列索引,一个数据框可以由二维的data
与行列索引来构造:
1
data = [[1, 'a', 1.2], [2, 'b', 2.2], [3, 'c', 3.2]]
2
df = pd.DataFrame(data = data,
3
index = ['row_%d'%i for i in range(3)],
4
columns=['col_0', 'col_1', 'col_2'])
5
df
[23]:
, , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,
col_0 | col_1 | col_2 | |
---|---|---|---|
row_0 | 1 | a | 1.2 |
row_1 | 2 | b | 2.2 |
row_2 | 3 | c | 3.2 |
,
但一般而言,更多的时候会采用从列索引名到数据的映射来构造数据框,同时再加上行索引:
1
df = pd.DataFrame(data = {'col_0': [1,2,3],
2
'col_1':list('abc'),
3
'col_2': [1.2, 2.2, 3.2]},
4
index = ['row_%d'%i for i in range(3)])
5
df
[24]:
, , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,
col_0 | col_1 | col_2 | |
---|---|---|---|
row_0 | 1 | a | 1.2 |
row_1 | 2 | b | 2.2 |
row_2 | 3 | c | 3.2 |
,
由于这种映射关系,在DataFrame
中可以用[col_name]
与[col_list]
来取出相应的列与由多个列组成的表,结果分别为Series
和DataFrame
:
1
df['col_0']
[25]:
row_0 1 ,row_1 2 ,row_2 3 ,Name: col_0, dtype: int64
1
df[['col_0', 'col_1']]
[26]:
, , , , , , , , , , , , , , , , , , , , , , , , , , ,
col_0 | col_1 | |
---|---|---|
row_0 | 1 | a |
row_1 | 2 | b |
row_2 | 3 | c |
,
与Series
类似,在数据框中同样可以取出相应的属性:
1
df.values
[27]:
array([[1, 'a', 1.2], , [2, 'b', 2.2], , [3, 'c', 3.2]], dtype=object)
1
df.index
[28]:
Index(['row_0', 'row_1', 'row_2'], dtype='object')
1
df.columns
[29]:
Index(['col_0', 'col_1', 'col_2'], dtype='object')
1
df.dtypes # 返回的是值为相应列数据类型的Series
[30]:
col_0 int64 ,col_1 object ,col_2 float64 ,dtype: object
1
df.shape
[31]:
(3, 3)
通过.T
可以把DataFrame
进行转置:
1
df.T
[32]:
, , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,
row_0 | row_1 | row_2 | |
---|---|---|---|
col_0 | 1 | 2 | 3 |
col_1 | a | b | c |
col_2 | 1.2 | 2.2 | 3.2 |
,
三、常用基本函数
为了进行举例说明,在接下来的部分和其余章节都将会使用一份learn_pandas.csv
的虚拟数据集,它记录了四所学校学生的体测个人信息。
1
df = pd.read_csv('../data/learn_pandas.csv')
2
df.columns
[33]:
Index(['School', 'Grade', 'Name', 'Gender', 'Height', 'Weight', 'Transfer', , 'Test_Number', 'Test_Date', 'Time_Record'], , dtype='object')
上述列名依次代表学校、年级、姓名、性别、身高、体重、是否为转系生、体测场次、测试时间、1000米成绩,本章只需使用其中的前七列。
1
df = df[df.columns[:7]]
1. 汇总函数
head, tail
函数分别表示返回表或者序列的前n
行和后n
行,其中n
默认为5:
1
df.head(2)
[35]:
, , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,
School | Grade | Name | Gender | Height | Weight | Transfer | |
---|---|---|---|---|---|---|---|
0 | Shanghai Jiao Tong University | Freshman | Gaopeng Yang | Female | 158.9 | 46.0 | N |
1 | Peking University | Freshman | Changqiang You | Male | 166.5 | 70.0 | N |
,
1
df.tail(3)
[36]:
, , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,
School | Grade | Name | Gender | Height | Weight | Transfer | |
---|---|---|---|---|---|---|---|
197 | Shanghai Jiao Tong University | Senior | Chengqiang Chu | Female | 153.9 | 45.0 | N |
198 | Shanghai Jiao Tong University | Senior | Chengmei Shen | Male | 175.3 | 71.0 | N |
199 | Tsinghua University | Sophomore | Chunpeng Lv | Male | 155.7 | 51.0 | N |
,
info, describe
分别返回表的信息概况和表中数值列对应的主要统计量 :
1
df.info()
<class 'pandas.core.frame.DataFrame'> RangeIndex: 200 entries, 0 to 199 Data columns (total 7 columns): # Column Non-Null Count Dtype --- ------ -------------- ----- 0 School 200 non-null object 1 Grade 200 non-null object 2 Name 200 non-null object 3 Gender 200 non-null object 4 Height 183 non-null float64 5 Weight 189 non-null float64 6 Transfer 188 non-null object dtypes: float64(2), object(5) memory usage: 11.1+ KB
1
df.describe()
[38]:
, , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,
Height | Weight | |
---|---|---|
count | 183.000000 | 189.000000 |
mean | 163.218033 | 55.015873 |
std | 8.608879 | 12.824294 |
min | 145.400000 | 34.000000 |
25% | 157.150000 | 46.000000 |
50% | 161.900000 | 51.000000 |
75% | 167.500000 | 65.000000 |
max | 193.900000 | 89.000000 |
,
【NOTE】更全面的数据汇总
info, describe
只能实现较少信息的展示,如果想要对一份数据集进行全面且有效的观察,特别是在列较多的情况下,推荐使用pandas-profiling包,它将在第十一章被再次提到。
【END】
2. 特征统计函数
在Series
和DataFrame
上定义了许多统计函数,最常见的是sum, mean, median, var, std, max, min
。例如,选出身高和体重列进行演示:
1
df_demo = df[['Height', 'Weight']]
2
df_demo.mean()
[39]:
Height 163.218033 ,Weight 55.015873 ,dtype: float64
1
df_demo.max()
[40]:
Height 193.9 ,Weight 89.0 ,dtype: float64
此外,需要介绍的是quantile, count, idxmax
这三个函数,它们分别返回的是分位数、非缺失值个数、最大值对应的索引:
1
df_demo.quantile(0.75)
[41]:
Height 167.5 ,Weight 65.0 ,Name: 0.75, dtype: float64
1
df_demo.count()
[42]:
Height 183 ,Weight 189 ,dtype: int64
1
df_demo.idxmax() # idxmin是对应的函数
[43]:
Height 193 ,Weight 2 ,dtype: int64
上面这些所有的函数,由于操作后返回的是标量,所以又称为聚合函数,它们有一个公共参数axis
,默认为0代表逐列聚合,如果设置为1则表示逐行聚合:
1
df_demo.mean(axis=1).head() # 在这个数据集上体重和身高的均值并没有意义
[44]:
0 102.45 ,1 118.25 ,2 138.95 ,3 41.00 ,4 124.00 ,dtype: float64
3. 唯一值函数
对序列使用unique
和nunique
可以分别得到其唯一值组成的列表和唯一值的个数:
1
df['School'].unique()
[45]:
array(['Shanghai Jiao Tong University', 'Peking University', , 'Fudan University', 'Tsinghua University'], dtype=object)
1
df['School'].nunique()
[46]:
4
value_counts
可以得到唯一值和其对应出现的频数:
1
df['School'].value_counts()
[47]:
Tsinghua University 69 ,Shanghai Jiao Tong University 57 ,Fudan University 40 ,Peking University 34 ,Name: School, dtype: int64
如果想要观察多个列组合的唯一值,可以使用drop_duplicates
。其中的关键参数是keep
,默认值first
表示每个组合保留第一次出现的所在行,last
表示保留最后一次出现的所在行,False
表示把所有重复组合所在的行剔除。
1
df_demo = df[['Gender','Transfer','Name']]
2
df_demo.drop_duplicates(['Gender', 'Transfer'])
[48]:
, , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,
Gender | Transfer | Name | |
---|---|---|---|
0 | Female | N | Gaopeng Yang |
1 | Male | N | Changqiang You |
12 | Female | NaN | Peng You |
21 | Male | NaN | Xiaopeng Shen |
36 | Male | Y | Xiaojuan Qin |
43 | Female | Y | Gaoli Feng |
,
1
df_demo.drop_duplicates(['Gender', 'Transfer'], keep='last')
[49]:
, , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,
Gender | Transfer | Name | |
---|---|---|---|
147 | Male | NaN | Juan You |
150 | Male | Y | Chengpeng You |
169 | Female | Y | Chengquan Qin |
194 | Female | NaN | Yanmei Qian |
197 | Female | N | Chengqiang Chu |
199 | Male | N | Chunpeng Lv |
,
1
df_demo.drop_duplicates(['Name', 'Gender'], keep=False).head() # 保留只出现过一次的性别和姓名组合
[50]:
, , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,
Gender | Transfer | Name | |
---|---|---|---|
0 | Female | N | Gaopeng Yang |
1 | Male | N | Changqiang You |
2 | Male | N | Mei Sun |
4 | Male | N | Gaojuan You |
5 | Female | N | Xiaoli Qian |
,
1
df['School'].drop_duplicates() # 在Series上也可以使用
[51]:
0 Shanghai Jiao Tong University ,1 Peking University ,3 Fudan University ,5 Tsinghua University ,Name: School, dtype: object
此外,duplicated
和drop_duplicates
的功能类似,但前者返回了是否为唯一值的布尔列表,其keep
参数与后者一致。其返回的序列,把重复元素设为True
,否则为False
。 drop_duplicates
等价于把duplicated
为True
的对应行剔除。
1
df_demo.duplicated(['Gender', 'Transfer']).head()
[52]:
0 False ,1 False ,2 True ,3 True ,4 True ,dtype: bool
1
df['School'].duplicated().head() # 在Series上也可以使用
[53]:
0 False ,1 False ,2 True ,3 False ,4 True ,Name: School, dtype: bool
4. 替换函数
一般而言,替换操作是针对某一个列进行的,因此下面的例子都以Series
举例。pandas
中的替换函数可以归纳为三类:映射替换、逻辑替换、数值替换。其中映射替换包含replace
方法、第八章中的str.replace
方法以及第九章中的cat.codes
方法,此处介绍replace
的用法。
在replace
中,可以通过字典构造,或者传入两个列表来进行替换:
1
df['Gender'].replace({'Female':0, 'Male':1}).head()
[54]:
0 0 ,1 1 ,2 1 ,3 0 ,4 1 ,Name: Gender, dtype: int64
1
df['Gender'].replace(['Female', 'Male'], [0, 1]).head()
[55]:
0 0 ,1 1 ,2 1 ,3 0 ,4 1 ,Name: Gender, dtype: int64
另外,replace
还有一种特殊的方向替换,指定method
参数为ffill
则为用前面一个最近的未被替换的值进行替换,bfill
则使用后面最近的未被替换的值进行替换。从下面的例子可以看到,它们的结果是不同的:
1
s = pd.Series(['a', 1, 'b', 2, 1, 1, 'a'])
2
s.replace([1, 2], method='ffill')
[56]:
0 a ,1 a ,2 b ,3 b ,4 b ,5 b ,6 a ,dtype: object
1
s.replace([1, 2], method='bfill')
[57]:
0 a ,1 b ,2 b ,3 a ,4 a ,5 a ,6 a ,dtype: object
【WARNING】正则替换请使用str.replace
虽然对于replace
而言可以使用正则替换,但是当前版本下对于string
类型的正则替换还存在bug
,因此如有此需求,请选择str.replace
进行替换操作,具体的方式将在第八章中讲解。
【END】
逻辑替换包括了where
和mask
,这两个函数是完全对称的:where
函数在传入条件为False
的对应行进行替换,而mask
在传入条件为True
的对应行进行替换,当不指定替换值时,替换为缺失值。
1
s = pd.Series([-1, 1.2345, 100, -50])
2
s.where(s<0)
[58]:
0 -1.0 ,1 NaN ,2 NaN ,3 -50.0 ,dtype: float64
1
s.where(s<0, 100)
[59]:
0 -1.0 ,1 100.0 ,2 100.0 ,3 -50.0 ,dtype: float64
1
s.mask(s<0)
[60]:
0 NaN ,1 1.2345 ,2 100.0000 ,3 NaN ,dtype: float64
1
s.mask(s<0, -50)
[61]:
0 -50.0000 ,1 1.2345 ,2 100.0000 ,3 -50.0000 ,dtype: float64
需要注意的是,传入的条件只需是与被调用的Series
索引一致的布尔序列即可:
1
s_condition= pd.Series([True,False,False,True],index=s.index)
2
s.mask(s_condition, -50)
[62]:
0 -50.0000 ,1 1.2345 ,2 100.0000 ,3 -50.0000 ,dtype: float64
数值替换包含了round, abs, clip
方法,它们分别表示按照给定精度四舍五入、取绝对值和截断:
1
s = pd.Series([-1, 1.2345, 100, -50])
2
s.round(2)
[63]:
0 -1.00 ,1 1.23 ,2 100.00 ,3 -50.00 ,dtype: float64
1
s.abs()
[64]:
0 1.0000 ,1 1.2345 ,2 100.0000 ,3 50.0000 ,dtype: float64
1
s.clip(0, 2) # 前两个数分别表示上下截断边界
[65]:
0 0.0000 ,1 1.2345 ,2 2.0000 ,3 0.0000 ,dtype: float64
【练一练】
在 clip 中,超过边界的只能截断为边界值,如果要把超出边界的替换为自定义的值,应当如何做?
【END】
5. 排序函数
排序共有两种方式,其一为值排序,其二为索引排序,对应的函数是sort_values
和sort_index
。
为了演示排序函数,下面先利用set_index
方法把年级和姓名两列作为索引,多级索引的内容和索引设置的方法将在第三章进行详细讲解。
1
df_demo = df[['Grade', 'Name', 'Height', 'Weight']].set_index(['Grade','Name'])
2
df_demo.head(3)
[66]:
, , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,
Height | Weight | ||
---|---|---|---|
Grade | Name | ||
Freshman | Gaopeng Yang | 158.9 | 46.0 |
Changqiang You | 166.5 | 70.0 | |
Senior | Mei Sun | 188.9 | 89.0 |
,
对身高进行排序,默认参数ascending=True
为升序:
1
df_demo.sort_values('Height').head()
[67]:
, , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,
Height | Weight | ||
---|---|---|---|
Grade | Name | ||
Junior | Xiaoli Chu | 145.4 | 34.0 |
Senior | Gaomei Lv | 147.3 | 34.0 |
Sophomore | Peng Han | 147.8 | 34.0 |
Senior | Changli Lv | 148.7 | 41.0 |
Sophomore | Changjuan You | 150.5 | 40.0 |
,
1
df_demo.sort_values('Height', ascending=False).head()
[68]:
, , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,
Height | Weight | ||
---|---|---|---|
Grade | Name | ||
Senior | Xiaoqiang Qin | 193.9 | 79.0 |
Mei Sun | 188.9 | 89.0 | |
Gaoli Zhao | 186.5 | 83.0 | |
Freshman | Qiang Han | 185.3 | 87.0 |
Senior | Qiang Zheng | 183.9 | 87.0 |
,
在排序中,经常遇到多列排序的问题,比如在体重相同的情况下,对身高进行排序,并且保持身高降序排列,体重升序排列:
1
df_demo.sort_values(['Weight','Height'],ascending=[True,False]).head()
[69]:
, , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,
Height | Weight | ||
---|---|---|---|
Grade | Name | ||
Sophomore | Peng Han | 147.8 | 34.0 |
Senior | Gaomei Lv | 147.3 | 34.0 |
Junior | Xiaoli Chu | 145.4 | 34.0 |
Sophomore | Qiang Zhou | 150.5 | 36.0 |
Freshman | Yanqiang Xu | 152.4 | 38.0 |
,
索引排序的用法和值排序完全一致,只不过元素的值在索引中,此时需要指定索引层的名字或者层号,用参数level
表示。另外,需要注意的是字符串的排列顺序由字母顺序决定。
1
df_demo.sort_index(level=['Grade','Name'],ascending=[True,False]).head()
[70]:
, , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,
Height | Weight | ||
---|---|---|---|
Grade | Name | ||
Freshman | Yanquan Wang | 163.5 | 55.0 |
Yanqiang Xu | 152.4 | 38.0 | |
Yanqiang Feng | 162.3 | 51.0 | |
Yanpeng Lv | NaN | 65.0 | |
Yanli Zhang | 165.1 | 52.0 |
,
6. apply方法
apply
方法常用于DataFrame
的行迭代或者列迭代,它的axis
含义与第2小节中的统计聚合函数一致,apply
的参数往往是一个以序列为输入的函数。例如对于.mean()
,使用apply
可以如下地写出:
1
df_demo = df[['Height', 'Weight']]
2
def my_mean(x):
3
res = x.mean()
4
return res
5
df_demo.apply(my_mean)
[71]:
Height 163.218033 ,Weight 55.015873 ,dtype: float64
同样的,可以利用lambda
表达式使得书写简洁,这里的x
就指代被调用的df_demo
表中逐个输入的序列:
1
df_demo.apply(lambda x:x.mean())
[72]:
Height 163.218033 ,Weight 55.015873 ,dtype: float64
若指定axis=1
,那么每次传入函数的就是行元素组成的Series
,其结果与之前的逐行均值结果一致。
1
df_demo.apply(lambda x:x.mean(), axis=1).head()
[73]:
0 102.45 ,1 118.25 ,2 138.95 ,3 41.00 ,4 124.00 ,dtype: float64
这里再举一个例子:mad
函数返回的是一个序列中偏离该序列均值的绝对值大小的均值,例如序列1,3,7,10中,均值为5.25,每一个元素偏离的绝对值为4.25,2.25,1.75,4.75,这个偏离序列的均值为3.25。现在利用apply
计算升高和体重的mad
指标:
1
df_demo.apply(lambda x:(x-x.mean()).abs().mean())
[74]:
Height 6.707229 ,Weight 10.391870 ,dtype: float64
这与使用内置的mad
函数计算结果一致:
1
df_demo.mad()
[75]:
Height 6.707229 ,Weight 10.391870 ,dtype: float64
【WARNING】谨慎使用apply
得益于传入自定义函数的处理,apply
的*度很高,但这是以性能为代价的。一般而言,使用pandas
的内置函数处理和apply
来处理同一个任务,其速度会相差较多,因此只有在确实存在自定义需求的情境下才考虑使用apply
。
【END】
四、窗口对象
pandas
中有3类窗口,分别是滑动窗口rolling
、扩张窗口expanding
以及指数加权窗口ewm
。需要说明的是,以日期偏置为窗口大小的滑动窗口将在第十章讨论,指数加权窗口见本章练习。
1. 滑窗对象
要使用滑窗函数,就必须先要对一个序列使用.rolling
得到滑窗对象,其最重要的参数为窗口大小window
。
1
s = pd.Series([1,2,3,4,5])
2
roller = s.rolling(window = 3)
3
roller
[76]:
Rolling [window=3,center=False,axis=0]
在得到了滑窗对象后,能够使用相应的聚合函数进行计算,需要注意的是窗口包含当前行所在的元素,例如在第四个位置进行均值运算时,应当计算(2+3+4)/3,而不是(1+2+3)/3:
1
roller.mean()
[77]:
0 NaN ,1 NaN ,2 2.0 ,3 3.0 ,4 4.0 ,dtype: float64
1
roller.sum()
[78]:
0 NaN ,1 NaN ,2 6.0 ,3 9.0 ,4 12.0 ,dtype: float64
对于滑动相关系数或滑动协方差的计算,可以如下写出:
1
s2 = pd.Series([1,2,6,16,30])
2
roller.cov(s2)
[79]:
0 NaN ,1 NaN ,2 2.5 ,3 7.0 ,4 12.0 ,dtype: float64
1
roller.corr(s2)
[80]:
0 NaN ,1 NaN ,2 0.944911 ,3 0.970725 ,4 0.995402 ,dtype: float64
此外,还支持使用apply
传入自定义函数,其传入值是对应窗口的Series
,例如上述的均值函数可以等效表示:
1
roller.apply(lambda x:x.mean())
[81]:
0 NaN ,1 NaN ,2 2.0 ,3 3.0 ,4 4.0 ,dtype: float64
shift, diff, pct_change
是一组类滑窗函数,它们的公共参数为periods=n
,默认为1,分别表示取向前第n
个元素的值、与向前第n
个元素做差(与Numpy
中不同,后者表示n
阶差分)、与向前第n
个元素相比计算增长率。这里的n
可以为负,表示反方向的类似操作。
1
s = pd.Series([1,3,6,10,15])
2
s.shift(2)
[82]:
0 NaN ,1 NaN ,2 1.0 ,3 3.0 ,4 6.0 ,dtype: float64
1
s.diff(3)
[83]:
0 NaN ,1 NaN ,2 NaN ,3 9.0 ,4 12.0 ,dtype: float64
1
s.pct_change()
[84]:
0 NaN ,1 2.000000 ,2 1.000000 ,3 0.666667 ,4 0.500000 ,dtype: float64
1
s.shift(-1)
[85]:
0 3.0 ,1 6.0 ,2 10.0 ,3 15.0 ,4 NaN ,dtype: float64
1
s.diff(-2)
[86]:
0 -5.0 ,1 -7.0 ,2 -9.0 ,3 NaN ,4 NaN ,dtype: float64
将其视作类滑窗函数的原因是,它们的功能可以用窗口大小为n+1
的rolling
方法等价代替:
1
s.rolling(3).apply(lambda x:list(x)[0]) # s.shift(2)
[87]:
0 NaN ,1 NaN ,2 1.0 ,3 3.0 ,4 6.0 ,dtype: float64
1
s.rolling(4).apply(lambda x:list(x)[-1]-list(x)[0]) # s.diff(3)
[88]:
0 NaN ,1 NaN ,2 NaN ,3 9.0 ,4 12.0 ,dtype: float64
1
def my_pct(x):
2
L = list(x)
3
return L[-1]/L[0]-1
4
s.rolling(2).apply(my_pct) # s.pct_change()
[89]:
0 NaN ,1 2.000000 ,2 1.000000 ,3 0.666667 ,4 0.500000 ,dtype: float64
【练一练】
rolling
对象的默认窗口方向都是向前的,某些情况下用户需要向后的窗口,例如对1,2,3设定向后窗口为2的sum
操作,结果为3,5,NaN,此时应该如何实现向后的滑窗操作?
【END】
2. 扩张窗口
扩张窗口又称累计窗口,可以理解为一个动态长度的窗口,其窗口的大小就是从序列开始处到具体操作的对应位置,其使用的聚合函数会作用于这些逐步扩张的窗口上。具体地说,设序列为a1, a2, a3, a4,则其每个位置对应的窗口即[a1]、[a1, a2]、[a1, a2, a3]、[a1, a2, a3, a4]。
1
s = pd.Series([1, 3, 6, 10])
2
s.expanding().mean()
[90]:
0 1.000000 ,1 2.000000 ,2 3.333333 ,3 5.000000 ,dtype: float64
【练一练】
cummax, cumsum, cumprod
函数是典型的类扩张窗口函数,请使用expanding
对象依次实现它们。
【END】
五、练习
Ex1:口袋妖怪数据集
现有一份口袋妖怪的数据集,下面进行一些背景说明:
-
#
代表全国图鉴编号,不同行存在相同数字则表示为该妖怪的不同状态 -
妖怪具有单属性和双属性两种,对于单属性的妖怪,
Type 2
为缺失值 -
Total, HP, Attack, Defense, Sp. Atk, Sp. Def, Speed
分别代表种族值、体力、物攻、防御、特攻、特防、速度,其中种族值为后6项之和
1
df = pd.read_csv('../data/pokemon.csv')
2
df.head(3)
[91]:
, , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ,
# | Name | Type 1 | Type 2 | Total | HP | Attack | Defense | Sp. Atk | Sp. Def | Speed | |
---|---|---|---|---|---|---|---|---|---|---|---|
0 | 1 | Bulbasaur | Grass | Poison | 318 | 45 | 49 | 49 | 65 | 65 | 45 |
1 | 2 | Ivysaur | Grass | Poison | 405 | 60 | 62 | 63 | 80 | 80 | 60 |
2 | 3 | Venusaur | Grass | Poison | 525 | 80 | 82 | 83 | 100 | 100 | 80 |
,
-
对
HP, Attack, Defense, Sp. Atk, Sp. Def, Speed
进行加总,验证是否为Total
值。 -
对于
#
重复的妖怪只保留第一条记录,解决以下问题: -
求第一属性的种类数量和前三多数量对应的种类
- 求第一属性和第二属性的组合种类
-
求尚未出现过的属性组合
-
按照下述要求,构造
Series
: -
取出物攻,超过120的替换为
high
,不足50的替换为low
,否则设为mid
- 取出第一属性,分别用
replace
和apply
替换所有字母为大写 - 求每个妖怪六项能力的离差,即所有能力中偏离中位数最大的值,添加到
df
并从大到小排序
Ex2:指数加权窗口
- 作为扩张窗口的
ewm
窗口
在扩张窗口中,用户可以使用各类函数进行历史的累计指标统计,但这些内置的统计函数往往把窗口中的所有元素赋予了同样的权重。事实上,可以给出不同的权重来赋给窗口中的元素,指数加权窗口就是这样一种特殊的扩张窗口。
其中,最重要的参数是alpha
,它决定了默认情况下的窗口权重为wi=(1−α)i,i∈{0,1,...,t}wi=(1−α)i,i∈{0,1,...,t},其中i=ti=t表示当前元素,i=0i=0表示序列的第一个元素。
从权重公式可以看出,离开当前值越远则权重越小,若记原序列为xx,更新后的当前元素为ytyt,此时通过加权公式归一化后可知:
yt=∑ti=0wixt−i∑ti=0wi=xt+(1−α)xt−1+(1−α)2xt−2+...+(1−α)tx01+(1−α)+(1−α)2+...+(1−α)tyt=∑i=0twixt−i∑i=0twi=xt+(1−α)xt−1+(1−α)2xt−2+...+(1−α)tx01+(1−α)+(1−α)2+...+(1−α)t
对于Series
而言,可以用ewm
对象如下计算指数平滑后的序列:
1
np.random.seed(0)
2
s = pd.Series(np.random.randint(-1,2,30).cumsum())
3
s.head()
[92]:
0 -1 ,1 -1 ,2 -2 ,3 -2 ,4 -2 ,dtype: int32
1
s.ewm(alpha=0.2).mean().head()
[93]:
0 -1.000000 ,1 -1.000000 ,2 -1.409836 ,3 -1.609756 ,4 -1.725845 ,dtype: float64
请用expanding
窗口实现。
- 作为滑动窗口的
ewm
窗口
从第1问中可以看到,ewm
作为一种扩张窗口的特例,只能从序列的第一个元素开始加权。现在希望给定一个限制窗口n
,只对包含自身的最近的n
个元素作为窗口进行滑动加权平滑。请根据滑窗函数,给出新的wi
与yt
的更新公式,并通过rolling
窗口实现这一功能。