文章目录

一、Pandas文件读取

1.pandas数据读取

1、读取纯文本文件

1.1 读取csv 使用默认的标题行、逗号分隔符

1.2 读取txt文件 自己指定分隔符、列名

2、读取excel文件

3、读取sql文件

二、pandas的数据结构DataFrame和Series

DataFrame 二维数据 整个表格 多行多列

1.Series

1.1 仅有数据列表即可生产最简单的Series

1.2 创建一个具有标签索引的Series

1.3 使用python字典创建Series

1.4 根据数据标签索引查询数据

2. DataFrame

2.1 根据多个字典序列创建DataFrame

从DataFrame中查询出Series

3.1 查询一列,结果是一个pd.Series

3.2 查询多列,结果是一个pd.DataFrame

3.3 查询一行,结果是一个pd.Series

3.4 查询多行,结果是一个pd.DataFrame

三.Pandas查询数据的5种方法

Pandas查询数据的几种方法

Pandas使用df.loc查询数据的方法

注意

0. 读取数据

1. 使用单个label值查询数据

2. 使用值列进行表批量查询

3. 使用数值区间进行范围查询

4. 使用条件表达式查询

复杂条件查询 查询一下完美得天气

5. 调用函数查询

四、Pandas怎样新增数据列

0. 读取csv数据到DataFrame

1. 直接赋值的方法

2. df.apply方法

3. df.assign方法

4. 按条件选择分组分别赋值

五、Pandas数据统计函数

0. 读取csv数据

1. 汇总类统计

2. 唯一去重和按值计数

2.1 唯一去重

2.2 按值计数

3. 相关系数和协防差

六、Pandas对缺失值的处理

实例 特殊excel的读取、清洗、处理

步骤1 读取excel的时候 忽略前几个空行

步骤2 检测空值

步骤3 删除掉全是空值的列

步骤4 删除掉全是空值的行

步骤5 将分数列为空的填充为0分

步骤6 将姓名的缺失值填充

步骤7 将清晰好的excel保存

七、Pandas的SettingWithCopyWarning报警

0. 数据读取

1. 复现

2、原因

4. 解决方法2

Pandas不允许先筛选子DataFrame 在进行修改写入

八、Pandas数据排序

0. 读取数据

1. Series的排序

2. DataFrame的排序

2.1 单列排序

2.2 多列排序

九、Pandas字符串处理

0. 读取北京2018年天气数据

1. 获取Series的str属性 使用各种字符串处理函数

4. 使用正则表达式的处理

Series.str默认就开启了正则表达式模式

十、Pandas的axis参数怎么理解

***按哪个axis 就是这个axis要动起来(类似被for遍历) 其它的axis保持不动\***

1. 单列drop, 就是删除某一列

3. 按照axis 0/index执行mean聚合操作

***按哪个axis 就是这个axis要动起来(类似被for遍历) 其它的axis保持不动\***

3. 按照axis 1/columns执行mean聚合操作

***按哪个axis 就是这个axis要动起来(类似被for遍历) 其它的axis保持不动\***

5. 再次举例, 加深理解

***按哪个axis 就是这个axis要动起来(类似被for遍历) 其它的axis保持不动\***

十一、Pandas的索引index的用途

1. 使用index查询数据

2. 使用index会提升查询性能

实验1:完全随机的查询顺序

实验2:将index排序后的查询

3.使用index能自动对齐数据

s1,s2都具有b,c索引,而a,d为各自独有,无法对齐,所有相加结果为空

4. 使用index更多更强大的数据结构支持

十二、Pandas怎样实现DataFrame的Merge

merge的语法

1、电影数据集的join实例

电影评分数据集

2、理解merge时数量的对齐关系

2.1 one-to-one 一对一关系的merge

2.2 one-to-many 一对多关系的merge

2.3 many-to-many 多对多关系的merge

3、理解left join、right join、inner join、outer join的区别

3.1 inner join 默认

3.2 left join

3.3 right join

3.4 outer join

4、如果出现非Key的字段重名怎么办

十三、Pandas实现数据的合并concat

使用场景

一句话说明concat语法

concat语法 pandas.concat(objs, axis 0, join outer , ignore_index False)

append语法 DataFrame.append(other, ignore_index False)

参考文档

一、使用Pandas.concat合并数据

1. 默认的concat, 参数为axis 0, join outer, ignore_index False

2. 使用ignore_index True可以忽略原来的索引

3. 使用join inner过滤掉不匹配的列

4. 使用axis 1相当于添加新列

A:添加一列Series

B:添加多列Series

二、使用DateFrame.append按行合并数据

1. 给一个DataFrame添加另一个DataFrame

2. 忽略原来的索引 另ignore_index True

3.可以一行一行的给DataFrame添加数据

A:低性能版

B:性能好的版本

十四、Pandas批量拆分Excel与合并Excel

0. 读取源Excel到Pandas

1、将一个大excel等份拆成多个Excel

1. 1 计算拆分后的每个excel的行数

1.2 拆分成多个DataFrame

1.3 将每个DataFrame存入excel

2、合并多个小Excel到一个大Excel

2.1 遍历文件夹 得到要合并的Excel名称列表

2.2 分别读取到DataFrame

2.3 使用pd.concat进行合并

2.4 将合并后的DataFrame输出到Excel

十五、Pandas怎样实现groupby分组统计

1、分组使用聚合函数做数据统计

1.1 单个列groupby 查询所有数据列的统计

1.2 多个列groupby 查询所有数据列的统计

1.3 同时查看多种数据统计

1.4 查看单列的结果数据统计

1.5 不同列使用不同的聚合函数

2、遍历groupby的结果理解执行流程

2.1 遍历单个列聚合的分组

2.2 遍历多个列聚合的分组

3、实例分组探索天气数据

3.1 查看每个月的最高温度

3.2 查看每个月的最高温度、最低温度、平均空气质量指数

十六、Pandas的分层索引MultiIndex

1、Series的分层索引MultiIndex

2、Series有多层索引MultiIndex怎么筛选数据

3、DataFrame的多层索引MultiIndex

4、DataFrame有多层索引MultiIndex怎样筛选

十七、Pandas的数据转换函数map、apply、applymap

1. map用于Series值的转换

方法1 Series.map(dict)

方法2 Series.map(function)

2. apply用于Series和DataFrame的转换

Series.apply(function)

DataFrame.apply(function)

3. applymap用于DataFrame所有值的转换

十八、Pandas怎样对每个分组应用apply函数?

知识 Pandas的GroupBy遵从split、apply、combine模式

GroupBy.apply(function)

本次实例演示

实例1 怎样对数值列按分组的归一化

演示 用户对电影评分的归一化

实例2 怎么取每个分组的TOP N数据

一、Pandas文件读取

1.pandas数据读取

pandas需要先读取表格类型的数据 然后进行分析

数据类型

说明

pandas读取方法

csv、tsv、txt

用逗号分隔、tab分割的纯文本文件

pd.read_csv

excel

微软xls或者xlsx文件

pd.read_excel

mysql

关系型数据库表

pd.read_sql

In [1]:

import pandas as pd

1、读取纯文本文件

1.1 读取csv 使用默认的标题行、逗号分隔符

In [2]:

fpath ./pandas-learn-code/datas/ml-latest-small/ratings.csv

In [3]:

# 使用pd.read_csv读取数据

ratings pd.read_csv(fpath)

In [4]:

# 查看前几行数据

ratings.head()

Out[4]:

userId

movieId

rating

timestamp

0

1

1

4.0

964982703

1

1

3

4.0

964981247

2

1

6

4.0

964982224

3

1

47

5.0

964983815

4

1

50

5.0

964982931

In [5]:

# 查看数据的形状 返回(行数、列数)

ratings.shape

Out[5]:

(100836, 4)

In [6]:

# 查看列名列表

ratings.columns

Out[6]:

Index([ userId , movieId , rating , timestamp ], dtype object )

In [7]:

# 查看索引

ratings.index

Out[7]:

RangeIndex(start 0, stop 100836, step 1)

In [9]:

# 查看每列的数据类型

ratings.dtypes

Out[9]:

userId int64

movieId int64

rating float64

timestamp int64

dtype: object

1.2 读取txt文件 自己指定分隔符、列名

In [10]:

fpath ./pandas-learn-code/datas/crazyant/access_pvuv.txt

In [11]:

pvuv pd.read_csv(fpath, sep \t , header None, names [ pdate , pv , uv ])

sep代表分隔符

header none代表没有列名

names代表指定的列明

In [13]:

pvuv.head()

Out[13]:

pdate

pv

uv

0

2019-09-10

139

92

1

2019-09-09

185

153

2

2019-09-08

123

59

3

2019-09-07

65

40

4

2019-09-06

157

98

2、读取excel文件

In [18]:

fpath ./pandas-learn-code/datas/crazyant/access_pvuv.xlsx

pvuv pd.read_excel(fpath)

In [19]:

pvuv

Out[19]:

日期

PV

UV

0

2019-09-10

139

92

1

2019-09-09

185

153

2

2019-09-08

123

59

3

2019-09-07

65

40

4

2019-09-06

157

98

5

2019-09-05

205

151

6

2019-09-04

196

167

7

2019-09-03

216

176

8

2019-09-02

227

148

9

2019-09-01

105

61

3、读取sql文件

In [36]:

import pymysql

conn pymysql.connect(

host 127.0.0.1 ,

user root ,

password 123456 ,

database test ,

charset utf8

)

In [41]:

fpath ./pandas-learn-code/datas/crazyant/test_crazyant_pvuv.sql

mysql_page pd.read_sql( select * from crazyant_pvuv , con conn)

In [42]:

pvuv

Out[42]:

日期

PV

UV

0

2019-09-10

139

92

1

2019-09-09

185

153

2

2019-09-08

123

59

3

2019-09-07

65

40

4

2019-09-06

157

98

5

2019-09-05

205

151

6

2019-09-04

196

167

7

2019-09-03

216

176

8

2019-09-02

227

148

9

2019-09-01

105

61

二、pandas的数据结构DataFrame和Series

DataFrame 二维数据 整个表格 多行多列

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-tT4RRssV-1597761927694)(C:\Users\z y\AppData\Roaming\Typora\typora-user-images\image-20200730213558995.png)]

In [1]:

import pandas as pd

import numpy as np

1.Series

Series是一种类似于一维数组的对象 它由一组数据(不同数据类型)以及一组与之相关的数据标签(即索引)组成。

1.1 仅有数据列表即可生产最简单的Series

In [3]:

s1 pd.Series([1, a ,5.2,7])

In [5]:

# 左侧为索引 右侧是数据

s1.head()

Out[5]:

0 1

1 a

2 5.2

3 7

dtype: object

In [6]:

# 获取索引

s1.index

Out[6]:

RangeIndex(start 0, stop 4, step 1)

In [7]:

# 获取数据

s1.values

Out[7]:

array([1, a , 5.2, 7], dtype object)

1.2 创建一个具有标签索引的Series

In [8]:

s2 pd.Series([1, a ,5.2,7], index [ a , b , c , d ])

In [9]:

s2

Out[9]:

a 1

b a

c 5.2

d 7

dtype: object

In [10]:

s2.index

Out[10]:

Index([ a , b , c , d ], dtype object )

1.3 使用python字典创建Series

In [11]:

sdata { Ohio :35000, Texas :72000, Oregon :16000, Utah :5000}

In [13]:

s3 pd.Series(sdata)

In [14]:

# 字典的key成为了Series的索引

s3

Out[14]:

Ohio 35000

Texas 72000

Oregon 16000

Utah 5000

dtype: int64

1.4 根据数据标签索引查询数据

类似python的字典dict

In [15]:

s2

Out[15]:

a 1

b a

c 5.2

d 7

dtype: object

In [20]:

s2[ a ]

Out[20]:

1

In [21]:

# 查询一个值,返回查询值的数据类型

type(s2[ a ])

Out[21]:

int

In [18]:

# 一次查询多个值

s2[[ a , b , c ]]

Out[18]:

a 1

b a

c 5.2

dtype: object

In [22]:

# 查询多个值,返回的还是Series

type(s2[[ a , b , c ]])

Out[22]:

pandas.core.series.Series

2. DataFrame

DataFrame是一个表格型的数据结构

每列可以是不同的值类型(数值,字符串,布尔值等)

既有行索引index,也有列索引columns

可以被看做由Series组成的字典

2.1 根据多个字典序列创建DataFrame

In [24]:

data {

state :[ Ohio , Ohio , Ohio , Nevada , Nevada ],

year :[2000,2001,2002,2003,2004],

pop :[1.5,1.7,3.6,2.4,2.9]

}

df pd.DataFrame(data)

In [25]:

df

Out[25]:

state

year

pop

0

Ohio

2000

1.5

1

Ohio

2001

1.7

2

Ohio

2002

3.6

3

Nevada

2003

2.4

4

Nevada

2004

2.9

In [26]:

df.dtypes

Out[26]:

state object

year int64

pop float64

dtype: object

In [27]:

df.columns

Out[27]:

Index([ state , year , pop ], dtype object )

In [28]:

df.index

Out[28]:

RangeIndex(start 0, stop 5, step 1)

从DataFrame中查询出Series

如果只查询一列,一列,返回的是pd.Series

如果查询多行,多列,返回的是pd.DataFrame

In [29]:

df

Out[29]:

state

year

pop

0

Ohio

2000

1.5

1

Ohio

2001

1.7

2

Ohio

2002

3.6

3

Nevada

2003

2.4

4

Nevada

2004

2.9

3.1 查询一列,结果是一个pd.Series

In [30]:

df[ year ]

Out[30]:

0 2000

1 2001

2 2002

3 2003

4 2004

Name: year, dtype: int64

In [35]:

# 返回的是一个Series

type(df[ year ])

Out[35]:

pandas.core.series.Series

3.2 查询多列,结果是一个pd.DataFrame

In [33]:

df[[ year , pop ]]

Out[33]:

year

pop

0

2000

1.5

1

2001

1.7

2

2002

3.6

3

2003

2.4

4

2004

2.9

In [34]:

# 返回的结果是一个DataFrame

type(df[[ year , pop ]])

Out[34]:

pandas.core.frame.DataFrame

3.3 查询一行,结果是一个pd.Series

In [39]:

df.loc[0]

Out[39]:

state Ohio

year 2000

pop 1.5

Name: 0, dtype: object

In [40]:

type(df.loc[0])

Out[40]:

pandas.core.series.Series

3.4 查询多行,结果是一个pd.DataFrame

In [41]:

# DataFrame中切片会返回结尾的数据

df.loc[0:3]

Out[41]:

state

year

pop

0

Ohio

2000

1.5

1

Ohio

2001

1.7

2

Ohio

2002

3.6

3

Nevada

2003

2.4

In [42]:

type(df.loc[0:3])

Out[42]:

pandas.core.frame.DataFrame

三.Pandas查询数据的5种方法

Pandas查询数据的几种方法

df.loc方法,根据行,列的标签值查询

df.iloc方法,根据行,列的数字位置查询

df.where方法

df.query方法

.loc方法既能查询,又能覆盖写入,推荐使用此方法

Pandas使用df.loc查询数据的方法

使用单个label值查询数据

使用值列表批量查询

使用数值区间进行范围查询

使用条件表达式查询

调用函数查询

注意

以上查询方法,既适用于行,也适用于列

In [3]:

import pandas as pd

0. 读取数据

数据为北京2018年全年天气预报

In [4]:

df pd.read_csv( ./pandas-learn-code/datas/beijing_tianqi/beijing_tianqi_2018.csv )

In [5]:

df.head()

Out[5]:

ymd

bWendu

yWendu

tianqi

fengxiang

fengli

aqi

aqiInfo

aqiLevel

0

2018-01-01

3℃

-6℃

晴~多云

东北风

1-2级

59

2

1

2018-01-02

2℃

-5℃

阴~多云

东北风

1-2级

49

1

2

2018-01-03

2℃

-5℃

多云

北风

1-2级

28

1

3

2018-01-04

0℃

-8℃

东北风

1-2级

28

1

4

2018-01-05

3℃

-6℃

多云~晴

西北风

1-2级

50

1

In [6]:

# 设定索引为日期,方便按日期筛选

df.set_index( ymd , inplace True)

In [7]:

df.head()

Out[7]:

bWendu

yWendu

tianqi

fengxiang

fengli

aqi

aqiInfo

aqiLevel

ymd

2018-01-01

3℃

-6℃

晴~多云

东北风

1-2级

59

2

2018-01-02

2℃

-5℃

阴~多云

东北风

1-2级

49

1

2018-01-03

2℃

-5℃

多云

北风

1-2级

28

1

2018-01-04

0℃

-8℃

东北风

1-2级

28

1

2018-01-05

3℃

-6℃

多云~晴

西北风

1-2级

50

1

In [8]:

# 时间序列见后续课程,本次按字符串处理

df.index

Out[8]:

Index([ 2018-01-01 , 2018-01-02 , 2018-01-03 , 2018-01-04 , 2018-01-05 ,

2018-01-06 , 2018-01-07 , 2018-01-08 , 2018-01-09 , 2018-01-10 ,

...

2018-12-22 , 2018-12-23 , 2018-12-24 , 2018-12-25 , 2018-12-26 ,

2018-12-27 , 2018-12-28 , 2018-12-29 , 2018-12-30 , 2018-12-31 ],

dtype object , name ymd , length 365)

In [9]:

# 替换掉温度的后缀℃

# df.loc[:]表示筛选出所有的行

df.loc[:, bWendu ] df[ bWendu ].str.replace( ℃ , ).astype( int32 )

df.loc[:, yWendu ] df[ yWendu ].str.replace( ℃ , ).astype( int32 )

In [10]:

# bWendu和yWendu改为int类型

df.dtypes

Out[10]:

bWendu int32

yWendu int32

tianqi object

fengxiang object

fengli object

aqi int64

aqiInfo object

aqiLevel int64

dtype: object

1. 使用单个label值查询数据

行或者列,都可以只传入单个值,实现精确匹配

In [11]:

# 得到单个值

df.loc[ 2018-01-03 , bWendu ]

Out[11]:

2

In [12]:

# 得到一个Series

df.loc[ 2018-01-03 ,[ bWendu , yWendu ]]

Out[12]:

bWendu 2

yWendu -5

Name: 2018-01-03, dtype: object

2. 使用值列进行表批量查询

In [13]:

# 得到Series

df.loc[[ 2018-01-03 , 2018-01-04 , 2018-01-05 ], bWendu ]

Out[13]:

ymd

2018-01-03 2

2018-01-04 0

2018-01-05 3

Name: bWendu, dtype: int32

In [14]:

# 得到DataFrame

df.loc[[ 2018-01-03 , 2018-01-04 , 2018-01-05 ], [ bWendu , yWendu ]]

Out[14]:

bWendu

yWendu

ymd

2018-01-03

2

-5

2018-01-04

0

-8

2018-01-05

3

-6

3. 使用数值区间进行范围查询

注意:区间既包含开始,也包含结束

In [15]:

# 行index按区间

df.loc[ 2018-01-03 : 2018-01-05 , bWendu ]

Out[15]:

ymd

2018-01-03 2

2018-01-04 0

2018-01-05 3

Name: bWendu, dtype: int32

In [16]:

# 列index按区间

df.loc[ 2018-01-03 , bWendu : fengxiang ]

Out[16]:

bWendu 2

yWendu -5

tianqi 多云

fengxiang 北风

Name: 2018-01-03, dtype: object

In [17]:

# 行和列都按区间查询

df.loc[ 2018-01-03 : 2018-01-05 , bWendu : fengxiang ]

Out[17]:

bWendu

yWendu

tianqi

fengxiang

ymd

2018-01-03

2

-5

多云

北风

2018-01-04

0

-8

东北风

2018-01-05

3

-6

多云~晴

西北风

4. 使用条件表达式查询

bool列表的长度得等于行数或者列数

In [23]:

df.loc[df[ yWendu ]

Out[23]:

bWendu

yWendu

tianqi

fengxiang

fengli

aqi

aqiInfo

aqiLevel

ymd

2018-01-23

-4

-12

西北风

3-4级

31

1

2018-01-24

-4

-11

西南风

1-2级

34

1

2018-01-25

-3

-11

多云

东北风

1-2级

27

1

2018-12-26

-2

-11

晴~多云

东北风

2级

26

1

2018-12-27

-5

-12

多云~晴

西北风

3级

48

1

2018-12-28

-3

-11

西北风

3级

40

1

2018-12-29

-3

-12

西北风

2级

29

1

2018-12-30

-2

-11

晴~多云

东北风

1级

31

1

In [24]:

df[ yWendu ]

Out[24]:

ymd

2018-01-01 False

2018-01-02 False

2018-01-03 False

2018-01-04 False

2018-01-05 False

2018-01-06 False

2018-01-07 False

2018-01-08 False

2018-01-09 False

2018-01-10 False

2018-01-11 False

2018-01-12 False

2018-01-13 False

2018-01-14 False

2018-01-15 False

2018-01-16 False

2018-01-17 False

2018-01-18 False

2018-01-19 False

2018-01-20 False

2018-01-21 False

2018-01-22 False

2018-01-23 True

2018-01-24 True

2018-01-25 True

2018-01-26 False

2018-01-27 False

2018-01-28 False

2018-01-29 False

2018-01-30 False

...

2018-12-02 False

2018-12-03 False

2018-12-04 False

2018-12-05 False

2018-12-06 False

2018-12-07 False

2018-12-08 False

2018-12-09 False

2018-12-10 False

2018-12-11 False

2018-12-12 False

2018-12-13 False

2018-12-14 False

2018-12-15 False

2018-12-16 False

2018-12-17 False

2018-12-18 False

2018-12-19 False

2018-12-20 False

2018-12-21 False

2018-12-22 False

2018-12-23 False

2018-12-24 False

2018-12-25 False

2018-12-26 True

2018-12-27 True

2018-12-28 True

2018-12-29 True

2018-12-30 True

2018-12-31 False

Name: yWendu, Length: 365, dtype: bool

复杂条件查询 查询一下完美得天气

注意 组合条件用 符号合并 每个条件判断都得带括号

In [29]:

df.loc[(df[ bWendu ] 30) (df[ yWendu ] 15) (df[ tianqi ] 晴 ) (df[ aqiLevel ] 1),:]

Out[29]:

bWendu

yWendu

tianqi

fengxiang

fengli

aqi

aqiInfo

aqiLevel

ymd

2018-08-24

30

20

北风

1-2级

40

1

2018-09-07

27

16

西北风

3-4级

22

1

In [30]:

(df[ bWendu ] 30) (df[ yWendu ] 15) (df[ tianqi ] 晴 ) (df[ aqiLevel ] 1)

Out[30]:

ymd

2018-01-01 False

2018-01-02 False

2018-01-03 False

2018-01-04 False

2018-01-05 False

2018-01-06 False

2018-01-07 False

2018-01-08 False

2018-01-09 False

2018-01-10 False

2018-01-11 False

2018-01-12 False

2018-01-13 False

2018-01-14 False

2018-01-15 False

2018-01-16 False

2018-01-17 False

2018-01-18 False

2018-01-19 False

2018-01-20 False

2018-01-21 False

2018-01-22 False

2018-01-23 False

2018-01-24 False

2018-01-25 False

2018-01-26 False

2018-01-27 False

2018-01-28 False

2018-01-29 False

2018-01-30 False

...

2018-12-02 False

2018-12-03 False

2018-12-04 False

2018-12-05 False

2018-12-06 False

2018-12-07 False

2018-12-08 False

2018-12-09 False

2018-12-10 False

2018-12-11 False

2018-12-12 False

2018-12-13 False

2018-12-14 False

2018-12-15 False

2018-12-16 False

2018-12-17 False

2018-12-18 False

2018-12-19 False

2018-12-20 False

2018-12-21 False

2018-12-22 False

2018-12-23 False

2018-12-24 False

2018-12-25 False

2018-12-26 False

2018-12-27 False

2018-12-28 False

2018-12-29 False

2018-12-30 False

2018-12-31 False

Length: 365, dtype: bool

5. 调用函数查询

In [31]:

# 直接写lambda表达式

df.loc[lambda df: (df[ bWendu ] 30) (df[ yWendu ] 15),:]

Out[31]:

bWendu

yWendu

tianqi

fengxiang

fengli

aqi

aqiInfo

aqiLevel

ymd

2018-04-28

27

17

西南风

3-4级

125

轻度污染

3

2018-04-29

30

16

多云

南风

3-4级

193

中度污染

4

2018-05-04

27

16

晴~多云

西南风

1-2级

86

2

2018-05-09

29

17

晴~多云

西南风

3-4级

79

2

2018-05-10

26

18

多云

南风

3-4级

118

轻度污染

3

2018-05-11

24

15

阴~多云

东风

1-2级

106

轻度污染

3

2018-05-12

28

16

小雨

东南风

3-4级

186

中度污染

4

2018-05-13

30

17

南风

1-2级

68

2

2018-05-16

29

21

多云~小雨

东风

1-2级

142

轻度污染

3

2018-05-17

25

19

小雨~多云

北风

1-2级

70

2

2018-05-18

28

16

多云~晴

南风

1-2级

49

1

2018-05-19

27

16

多云~小雨

南风

1-2级

69

2

2018-05-20

21

16

阴~小雨

东风

1-2级

54

2

2018-05-23

29

15

西南风

3-4级

153

中度污染

4

2018-05-26

30

17

小雨~多云

西南风

3-4级

143

轻度污染

3

2018-05-28

30

16

西北风

4-5级

178

中度污染

4

2018-06-09

23

17

小雨

北风

1-2级

45

1

2018-06-10

27

17

多云

东南风

1-2级

51

2

2018-06-11

29

19

多云

西南风

3-4级

85

2

2018-06-13

28

19

雷阵雨~多云

东北风

1-2级

73

2

2018-06-18

30

21

雷阵雨

西南风

1-2级

112

轻度污染

3

2018-06-22

30

21

雷阵雨~多云

东南风

1-2级

83

2

2018-07-08

30

23

雷阵雨

南风

1-2级

73

2

2018-07-09

30

22

雷阵雨~多云

东南风

1-2级

106

轻度污染

3

2018-07-10

30

22

多云~雷阵雨

南风

1-2级

48

1

2018-07-11

25

22

雷阵雨~大雨

东北风

1-2级

44

1

2018-07-12

27

22

多云

南风

1-2级

46

1

2018-07-13

28

23

雷阵雨

东风

1-2级

60

2

2018-07-17

27

23

中雨~雷阵雨

西风

1-2级

28

1

2018-07-24

28

26

暴雨~雷阵雨

东北风

3-4级

29

1

2018-08-11

30

23

雷阵雨~中雨

东风

1-2级

60

2

2018-08-12

30

24

雷阵雨

东南风

1-2级

74

2

2018-08-14

29

24

中雨~小雨

东北风

1-2级

42

1

2018-08-16

30

21

晴~多云

东北风

1-2级

40

1

2018-08-17

30

22

多云~雷阵雨

东南风

1-2级

69

2

2018-08-18

28

23

小雨~中雨

北风

3-4级

40

1

2018-08-19

26

23

中雨~小雨

东北风

1-2级

37

1

2018-08-22

28

21

雷阵雨~多云

西南风

1-2级

48

1

2018-08-24

30

20

北风

1-2级

40

1

2018-08-27

30

22

多云~雷阵雨

东南风

1-2级

89

2

2018-08-28

29

22

小雨~多云

南风

1-2级

58

2

2018-08-30

29

20

多云

南风

1-2级

47

1

2018-08-31

29

20

多云~阴

东南风

1-2级

48

1

2018-09-01

27

19

阴~小雨

南风

1-2级

50

1

2018-09-02

27

19

小雨~多云

南风

1-2级

55

2

2018-09-03

30

19

北风

3-4级

70

2

2018-09-06

27

18

多云~晴

西北风

4-5级

37

1

2018-09-07

27

16

西北风

3-4级

22

1

2018-09-08

27

15

多云~晴

北风

1-2级

28

1

2018-09-09

28

16

西南风

1-2级

51

2

2018-09-10

28

19

多云

南风

1-2级

65

2

2018-09-11

26

19

多云

南风

1-2级

68

2

2018-09-12

29

19

多云

南风

1-2级

59

2

2018-09-13

29

20

多云~阴

南风

1-2级

107

轻度污染

3

2018-09-14

28

19

小雨~多云

南风

1-2级

128

轻度污染

3

2018-09-15

26

15

多云

北风

3-4级

42

1

2018-09-17

27

17

多云~阴

北风

1-2级

37

1

2018-09-18

25

17

阴~多云

西南风

1-2级

50

1

2018-09-19

26

17

多云

南风

1-2级

52

2

2018-09-20

27

16

多云

西南风

1-2级

63

2

64 rows × 8 columns

In [33]:

# 编写自己的函数 查询9月份 空气质量好的数据

def query_my_data(df):

return df.index.str.startswith( 2018-09 ) (df[ aqiLevel ] 1)

df.loc[query_my_data,:]

Out[33]:

bWendu

yWendu

tianqi

fengxiang

fengli

aqi

aqiInfo

aqiLevel

ymd

2018-09-01

27

19

阴~小雨

南风

1-2级

50

1

2018-09-04

31

18

西南风

3-4级

24

1

2018-09-05

31

19

晴~多云

西南风

3-4级

34

1

2018-09-06

27

18

多云~晴

西北风

4-5级

37

1

2018-09-07

27

16

西北风

3-4级

22

1

2018-09-08

27

15

多云~晴

北风

1-2级

28

1

2018-09-15

26

15

多云

北风

3-4级

42

1

2018-09-16

25

14

多云~晴

北风

1-2级

29

1

2018-09-17

27

17

多云~阴

北风

1-2级

37

1

2018-09-18

25

17

阴~多云

西南风

1-2级

50

1

2018-09-21

25

14

西北风

3-4级

50

1

2018-09-22

24

13

西北风

3-4级

28

1

2018-09-23

23

12

西北风

4-5级

28

1

2018-09-24

23

11

北风

1-2级

28

1

2018-09-25

24

12

晴~多云

南风

1-2级

44

1

2018-09-29

22

11

北风

3-4级

21

1

2018-09-30

19

13

多云

西北风

4-5级

22

1

四、Pandas怎样新增数据列

In [1]:

import pandas as pd

0. 读取csv数据到DataFrame

In [15]:

df pd.read_csv( ./pandas-learn-code/datas/beijing_tianqi/beijing_tianqi_2018.csv )

In [16]:

df.head()

Out[16]:

ymd

bWendu

yWendu

tianqi

fengxiang

fengli

aqi

aqiInfo

aqiLevel

0

2018-01-01

3℃

-6℃

晴~多云

东北风

1-2级

59

2

1

2018-01-02

2℃

-5℃

阴~多云

东北风

1-2级

49

1

2

2018-01-03

2℃

-5℃

多云

北风

1-2级

28

1

3

2018-01-04

0℃

-8℃

东北风

1-2级

28

1

4

2018-01-05

3℃

-6℃

多云~晴

西北风

1-2级

50

1

1. 直接赋值的方法

实例 清理温度列 变成数字类型

In [31]:

df.loc[:, bWendu ] df[ bWendu ].str.replace( ℃ , ).astype( int32 )

df.loc[:, yWendu ] df[ yWendu ].str.replace( ℃ , ).astype( int32 )

实例 计算温差

In [49]:

del df[ bWendnu ]

In [51]:

del df[ bWednu ]

In [52]:

# 注意 fpath[ bWendu ]其实是一个Series 后面的减法返回的是Series

df.loc[:, wencha ] df[ bWendu ] - df[ yWendu ]

In [53]:

df.head()

Out[53]:

ymd

bWendu

yWendu

tianqi

fengxiang

fengli

aqi

aqiInfo

aqiLevel

wencha

0

2018-01-01

3

-6

晴~多云

东北风

1-2级

59

2

9

1

2018-01-02

2

-5

阴~多云

东北风

1-2级

49

1

7

2

2018-01-03

2

-5

多云

北风

1-2级

28

1

7

3

2018-01-04

0

-8

东北风

1-2级

28

1

8

4

2018-01-05

3

-6

多云~晴

西北风

1-2级

50

1

9

2. df.apply方法

Apply a function along an axis of the DataFrame. Objects passed to the function are Series objects whose index is either the DataFrame’s index (axis 0) or the DataFrame’s columns (axis 1) 实例 添加一列温度类型

如果最高温度大于33度就是高温

低于-10度是低温

否则是常温

In [60]:

def get_wendu_type(x):

if x[ bWendu ] 33:

return 高温

if x[ yWendu ] -10:

return 低温

return 常温

# 注意需要设置axis 1

df.loc[:, wendu_type ] df.apply(get_wendu_type, axis 1)

In [61]:

# 查看温度类型的计数

df[ wendu_type ].value_counts()

Out[61]:

常温 328

高温 29

低温 8

Name: wendu_type, dtype: int64

3. df.assign方法

Assign new columns to a DataFrame.

Returns a new object with all original columns in addtion to new ones.

实例 将温度从摄氏度变成华氏度

In [63]:

# 可以同时添加多个新的列

df.assign(

yWendu_huashi lambda x: x[ yWendu ]*9/5 32,

bWendu_huashi lambda x: x[ bWendu ]*9/5 32

)

. . .

4. 按条件选择分组分别赋值

按条件选择数据 然后对整个数据赋值新列

实例 高低温差大于10度 则认为温差大

In [65]:

df.loc[:, wencha_type ]

df.loc[df[ bWendu ]-df[ yWendu ] 10, wencha_type ] 温差大

df.loc[df[ bWendu ]-df[ yWendu ] 10, wencha_type ] 温度正常

In [67]:

df[ wencha_type ].value_counts()

Out[67]:

温度正常 187

温差大 178

Name: wencha_type, dtype: int64

五、Pandas数据统计函数

汇总类统计

唯一去重和按值计数

相关系数和协方差

In [2]:

import pandas as pd

0. 读取csv数据

In [5]:

fpath ./pandas-learn-code/datas/beijing_tianqi/beijing_tianqi_2018.csv

df pd.read_csv(fpath)

In [6]:

df.head(3)

Out[6]:

ymd

bWendu

yWendu

tianqi

fengxiang

fengli

aqi

aqiInfo

aqiLevel

0

2018-01-01

3℃

-6℃

晴~多云

东北风

1-2级

59

2

1

2018-01-02

2℃

-5℃

阴~多云

东北风

1-2级

49

1

2

2018-01-03

2℃

-5℃

多云

北风

1-2级

28

1

In [12]:

df.loc[:, yWendu ] df[ yWendu ].str.replace( ℃ , ).astype( int32 )

In [14]:

df.head(3)

Out[14]:

ymd

bWendu

yWendu

tianqi

fengxiang

fengli

aqi

aqiInfo

aqiLevel

0

2018-01-01

3

-6

晴~多云

东北风

1-2级

59

2

1

2018-01-02

2

-5

阴~多云

东北风

1-2级

49

1

2

2018-01-03

2

-5

多云

北风

1-2级

28

1

1. 汇总类统计

In [15]:

# 一次提取所有数字列统计结果

df.describe()

Out[15]:

bWendu

yWendu

aqi

aqiLevel

count

365.000000

365.000000

365.000000

365.000000

mean

18.665753

8.358904

82.183562

2.090411

std

11.858046

11.755053

51.936159

1.029798

min

-5.000000

-12.000000

21.000000

1.000000

25%

8.000000

-3.000000

46.000000

1.000000

50%

21.000000

8.000000

69.000000

2.000000

75%

29.000000

19.000000

104.000000

3.000000

max

38.000000

27.000000

387.000000

6.000000

In [16]:

# 查看单个Series的数据

df[ bWendu ].mean()

Out[16]:

18.665753424657535

In [17]:

# 最高温

df[ bWendu ].max()

Out[17]:

38

In [18]:

# 最低温

df[ bWendu ].min()

Out[18]:

-5

2. 唯一去重和按值计数

2.1 唯一去重

一般不用于数值列 而是枚举、分类列

In [19]:

df[ fengxiang ].unique()

Out[19]:

array([ 东北风 , 北风 , 西北风 , 西南风 , 南风 , 东南风 , 东风 , 西风 ], dtype object)

In [20]:

df[ tianqi ].unique()

Out[20]:

array([ 晴~多云 , 阴~多云 , 多云 , 阴 , 多云~晴 , 多云~阴 , 晴 , 阴~小雪 , 小雪~多云 ,

小雨~阴 , 小雨~雨夹雪 , 多云~小雨 , 小雨~多云 , 大雨~小雨 , 小雨 , 阴~小雨 ,

多云~雷阵雨 , 雷阵雨~多云 , 阴~雷阵雨 , 雷阵雨 , 雷阵雨~大雨 , 中雨~雷阵雨 , 小雨~大雨 ,

暴雨~雷阵雨 , 雷阵雨~中雨 , 小雨~雷阵雨 , 雷阵雨~阴 , 中雨~小雨 , 小雨~中雨 , 雾~多云 ,

霾 ], dtype object)

In [22]:

df[ fengli ].unique()

Out[22]:

array([ 1-2级 , 4-5级 , 3-4级 , 2级 , 1级 , 3级 ], dtype object)

2.2 按值计数

In [24]:

df[ fengxiang ].value_counts()

Out[24]:

南风 92

西南风 64

北风 54

西北风 51

东南风 46

东北风 38

东风 14

西风 6

Name: fengxiang, dtype: int64

In [25]:

df[ tianqi ].unique()

Out[25]:

array([ 晴~多云 , 阴~多云 , 多云 , 阴 , 多云~晴 , 多云~阴 , 晴 , 阴~小雪 , 小雪~多云 ,

小雨~阴 , 小雨~雨夹雪 , 多云~小雨 , 小雨~多云 , 大雨~小雨 , 小雨 , 阴~小雨 ,

多云~雷阵雨 , 雷阵雨~多云 , 阴~雷阵雨 , 雷阵雨 , 雷阵雨~大雨 , 中雨~雷阵雨 , 小雨~大雨 ,

暴雨~雷阵雨 , 雷阵雨~中雨 , 小雨~雷阵雨 , 雷阵雨~阴 , 中雨~小雨 , 小雨~中雨 , 雾~多云 ,

霾 ], dtype object)

In [26]:

df[ fengli ].value_counts()

Out[26]:

1-2级 236

3-4级 68

1级 21

4-5级 20

2级 13

3级 7

Name: fengli, dtype: int64

3. 相关系数和协防差

用途

两只股票 是不是同涨同跌 程度多大 正相关还是负相关

产品销量的波动 跟哪些因素正相关、负相关 程度有多大

对于两个变量x, y:

协方差 衡量同向反向程度 如果协方差为正 说明x,y同向变化 协方差越大说明同向程度越高 如果协方差为负 说明x,y反向运动 协方差越小说明反向程度越高。

相关系数 衡量相似度程度 当他们的相关系数为1时 说明两个变量变化时正向相似度越大 当关系数为-1时 说明两个变量变化的反向相似度最大

In [27]:

# 协方差矩阵

df.cov()

Out[27]:

bWendu

yWendu

aqi

aqiLevel

bWendu

140.613247

135.529633

47.462622

0.879204

yWendu

135.529633

138.181274

16.186685

0.264165

aqi

47.462622

16.186685

2697.364564

50.749842

aqiLevel

0.879204

0.264165

50.749842

1.060485

In [28]:

# 相关系数矩阵

df.corr()

Out[28]:

bWendu

yWendu

aqi

aqiLevel

bWendu

1.000000

0.972292

0.077067

0.071999

yWendu

0.972292

1.000000

0.026513

0.021822

aqi

0.077067

0.026513

1.000000

0.948883

aqiLevel

0.071999

0.021822

0.948883

1.000000

In [29]:

# 单独查看空气质量和最高温度的相关系数

df[ aqi ].corr(df[ bWendu ])

Out[29]:

0.07706705916811067

In [30]:

df[ aqi ].corr(df[ yWendu ])

Out[30]:

0.026513282672968895

In [31]:

# 空气质量和温差的相关系数

df[ aqi ].corr(df[ bWendu ]-df[ yWendu ])

Out[31]:

0.2165225757638205

虽然单独观察最高温度和最低温度对空气质量的影响不大 但是明显温差对空气质量的影响要大得多 因此 前端数据的挖掘对结果的呈现十分重要。

六、Pandas对缺失值的处理

Pandas使用这些函数处理缺失值

isnull和notnull 检测是否是空值 可用于df和Series

dropna 丢弃、删除缺失值

axis 删除行还是列 {0 or “index”, 1 or “columns”}, default 0

how 如果等于any则任何值为空都删除 如果等于all则所有值都为空才删除

inplace 如果为True则修改当前df 否则返回新的df

fillna 填充空值

value 用于填充的值 可以是单个值 或者字典(key是列名 value是值)

method 等于ffill使用前一个不为空的值填充forward fill 等于fill使用后一个不为 空的值填充backword fill

axis 按行还是列填充 {0 or “index”, 1 or columns’}

inplace 如果为True则修改当前df 否则返回新的df

In [1]:

import pandas as pd

实例 特殊excel的读取、清洗、处理

步骤1 读取excel的时候 忽略前几个空行

In [5]:

# skiprows 2, 跳过前两行

studf pd.read_excel( ./pandas-learn-code/datas/student_excel/student_excel.xlsx , skiprows 2)

In [6]:

studf

Out[6]:

Unnamed: 0

姓名

科目

分数

0

NaN

小明

语文

85.0

1

NaN

NaN

数学

80.0

2

NaN

NaN

英语

90.0

3

NaN

NaN

NaN

NaN

4

NaN

小王

语文

85.0

5

NaN

NaN

数学

NaN

6

NaN

NaN

英语

90.0

7

NaN

NaN

NaN

NaN

8

NaN

小刚

语文

85.0

9

NaN

NaN

数学

80.0

10

NaN

NaN

英语

90.0

步骤2 检测空值

In [7]:

studf.isnull()

Out[7]:

Unnamed: 0

姓名

科目

分数

0

True

False

False

False

1

True

True

False

False

2

True

True

False

False

3

True

True

True

True

4

True

False

False

False

5

True

True

False

True

6

True

True

False

False

7

True

True

True

True

8

True

False

False

False

9

True

True

False

False

10

True

True

False

False

In [9]:

studf[ 分数 ].isnull()

Out[9]:

0 False

1 False

2 False

3 True

4 False

5 True

6 False

7 True

8 False

9 False

10 False

Name: 分数, dtype: bool

In [10]:

studf[ 分数 ].notnull()

Out[10]:

0 True

1 True

2 True

3 False

4 True

5 False

6 True

7 False

8 True

9 True

10 True

Name: 分数, dtype: bool

In [12]:

# 筛选没有空分数的所有行

studf.loc[studf[ 分数 ].notnull(), :]

Out[12]:

Unnamed: 0

姓名

科目

分数

0

NaN

小明

语文

85.0

1

NaN

NaN

数学

80.0

2

NaN

NaN

英语

90.0

4

NaN

小王

语文

85.0

6

NaN

NaN

英语

90.0

8

NaN

小刚

语文

85.0

9

NaN

NaN

数学

80.0

10

NaN

NaN

英语

90.0

步骤3 删除掉全是空值的列

In [15]:

studf.dropna(axis columns , how all , inplace True)

In [16]:

studf

Out[16]:

姓名

科目

分数

0

小明

语文

85.0

1

NaN

数学

80.0

2

NaN

英语

90.0

4

小王

语文

85.0

5

NaN

数学

NaN

6

NaN

英语

90.0

8

小刚

语文

85.0

9

NaN

数学

80.0

10

NaN

英语

90.0

步骤4 删除掉全是空值的行

In [13]:

studf.dropna(axis index , how all , inplace True)

In [17]:

studf

Out[17]:

姓名

科目

分数

0

小明

语文

85.0

1

NaN

数学

80.0

2

NaN

英语

90.0

4

小王

语文

85.0

5

NaN

数学

NaN

6

NaN

英语

90.0

8

小刚

语文

85.0

9

NaN

数学

80.0

10

NaN

英语

90.0

步骤5 将分数列为空的填充为0分

In [19]:

studf.fillna({ 分数 : 0})

. . .

In [20]:

# 等同于

studf.loc[:, 分数 ] studf[ 分数 ].fillna(0)

In [21]:

studf

Out[21]:

姓名

科目

分数

0

小明

语文

85.0

1

NaN

数学

80.0

2

NaN

英语

90.0

4

小王

语文

85.0

5

NaN

数学

0.0

6

NaN

英语

90.0

8

小刚

语文

85.0

9

NaN

数学

80.0

10

NaN

英语

90.0

步骤6 将姓名的缺失值填充

使用前面的有效值填充 用ffill:forward fill

In [22]:

studf.loc[:, 姓名 ] studf[ 姓名 ].fillna(method ffill )

In [23]:

studf

Out[23]:

姓名

科目

分数

0

小明

语文

85.0

1

小明

数学

80.0

2

小明

英语

90.0

4

小王

语文

85.0

5

小王

数学

0.0

6

小王

英语

90.0

8

小刚

语文

85.0

9

小刚

数学

80.0

10

小刚

英语

90.0

步骤7 将清晰好的excel保存

In [25]:

studf.to_excel(r D:\WinterIsComing\python\New_Wave\pandas_basic\student_excel.xlsx , index False)

七、Pandas的SettingWithCopyWarning报警

0. 数据读取

In [1]:

import pandas as pd

In [2]:

fpath ./pandas-learn-code/datas/beijing_tianqi/beijing_tianqi_2018.csv

df pd.read_csv(fpath)

In [3]:

df.head()

Out[3]:

ymd

bWendu

yWendu

tianqi

fengxiang

fengli

aqi

aqiInfo

aqiLevel

0

2018-01-01

3℃

-6℃

晴~多云

东北风

1-2级

59

2

1

2018-01-02

2℃

-5℃

阴~多云

东北风

1-2级

49

1

2

2018-01-03

2℃

-5℃

多云

北风

1-2级

28

1

3

2018-01-04

0℃

-8℃

东北风

1-2级

28

1

4

2018-01-05

3℃

-6℃

多云~晴

西北风

1-2级

50

1

In [5]:

df.loc[:, bWendu ] df[ bWendu ].str.replace( ℃ , ).astype( int32 )

df.loc[:, yWendu ] df[ yWendu ].str.replace( ℃ , ).astype( int32 )

In [7]:

df.head()

Out[7]:

ymd

bWendu

yWendu

tianqi

fengxiang

fengli

aqi

aqiInfo

aqiLevel

0

2018-01-01

3

-6

晴~多云

东北风

1-2级

59

2

1

2018-01-02

2

-5

阴~多云

东北风

1-2级

49

1

2

2018-01-03

2

-5

多云

北风

1-2级

28

1

3

2018-01-04

0

-8

东北风

1-2级

28

1

4

2018-01-05

3

-6

多云~晴

西北风

1-2级

50

1

1. 复现

In [10]:

# 筛选出3月份的数据用于分析

condition df.loc[:, ymd ].str.startswith( 2018-03 )

In [11]:

# 设置三月份的温差

# 错误写法

df[condition][ wen_cha ] df[ bWendu ] - df[ yWendu ]

D:\Tools\Anaconda3\lib\site-packages\ipykernel_launcher.py:3: SettingWithCopyWarning:

A value is trying to be set on a copy of a slice from a DataFrame.

Try using .loc[row_indexer,col_indexer] value instead

See the caveats in the documentation: http://pandas.pydata/pandas-docs/stable/indexing.html#indexing-view-versus-copy

This is separate from the ipykernel package so we can avoid doing imports until

In [12]:

# 查看修改是否成功

df[condition].head()

# 只筛选了3月的数据 但没有新增温差列

Out[12]:

ymd

bWendu

yWendu

tianqi

fengxiang

fengli

aqi

aqiInfo

aqiLevel

59

2018-03-01

8

-3

多云

西南风

1-2级

46

1

60

2018-03-02

9

-1

晴~多云

北风

1-2级

95

2

61

2018-03-03

13

3

多云~阴

北风

1-2级

214

重度污染

5

62

2018-03-04

7

-2

阴~多云

东南风

1-2级

144

轻度污染

3

63

2018-03-05

8

-3

南风

1-2级

94

2

2、原因

发出警告的代码 df[condition][“wen_cha”] df[“bWendu”]-df[“yWendu”]

相当于 df.get(condition).set(wen_cha) 第一步骤的get发出了报警

*链式操作其实是两个步骤 先get后set get得到的dataframe可能是view(是DateFrame的子视图 我们对它修改会直接影响原DateFrame)也可能是copy pandas发出警告*

官网文档 https://pandas.pydata/pandas-docs/stable/user_guide/indexing.html#returning-a-view-versus-a-copy

核心要诀 pandas的dataframe的修改写操作 只允许在源dataframe上进行 一步到位

## 3. 解决方法1

将get set的两步操作 改成set的一步操作

In [15]:

df.loc[condition, wen_cha ] df[ bWendu ] - df[ yWendu ]

In [18]:

df.head(2)

Out[18]:

ymd

bWendu

yWendu

tianqi

fengxiang

fengli

aqi

aqiInfo

aqiLevel

wen_cha

0

2018-01-01

3

-6

晴~多云

东北风

1-2级

59

2

NaN

1

2018-01-02

2

-5

阴~多云

东北风

1-2级

49

1

NaN

In [19]:

df[condition].head(2)

Out[19]:

ymd

bWendu

yWendu

tianqi

fengxiang

fengli

aqi

aqiInfo

aqiLevel

wen_cha

59

2018-03-01

8

-3

多云

西南风

1-2级

46

1

11.0

60

2018-03-02

9

-1

晴~多云

北风

1-2级

95

2

10.0

4. 解决方法2

如果需要预筛选数据做后续的处理分析 先使用copy复制DataFrame并进行操作

In [20]:

# 复制一个新的DateFrame df_month3 筛选3月份的数据并复制

df_month3 df[condition].copy()

In [22]:

df_month3.head()

Out[22]:

ymd

bWendu

yWendu

tianqi

fengxiang

fengli

aqi

aqiInfo

aqiLevel

wen_cha

59

2018-03-01

8

-3

多云

西南风

1-2级

46

1

11.0

60

2018-03-02

9

-1

晴~多云

北风

1-2级

95

2

10.0

61

2018-03-03

13

3

多云~阴

北风

1-2级

214

重度污染

5

10.0

62

2018-03-04

7

-2

阴~多云

东南风

1-2级

144

轻度污染

3

9.0

63

2018-03-05

8

-3

南风

1-2级

94

2

11.0

In [24]:

df_month3[ wencha ] df_month3[ bWendu ] - df_month3[ yWendu ]

In [25]:

df_month3.head()

Out[25]:

ymd

bWendu

yWendu

tianqi

fengxiang

fengli

aqi

aqiInfo

aqiLevel

wen_cha

wencha

59

2018-03-01

8

-3

多云

西南风

1-2级

46

1

11.0

11

60

2018-03-02

9

-1

晴~多云

北风

1-2级

95

2

10.0

10

61

2018-03-03

13

3

多云~阴

北风

1-2级

214

重度污染

5

10.0

10

62

2018-03-04

7

-2

阴~多云

东南风

1-2级

144

轻度污染

3

9.0

9

63

2018-03-05

8

-3

南风

1-2级

94

2

11.0

11

Pandas不允许先筛选子DataFrame 在进行修改写入

要么使用.loc实现一个步骤直接修改源dataframe

要么先复制一个子DataFrame再一个步骤执行修改

八、Pandas数据排序

Series的排序

*Series.sort_values(ascending True, inplace False)*

参数说明

ascending 默认为True升序排序 为False降序排序

inplace 是否修改原始Series

DataFrame的排序

*DataFrame.sort_values(by, ascending True, inplace False)*

参数说明

by 字符串或者List 单列排序或者多列排序

ascending bool或者List 升序还是降序 如果是list对应by的多列

inplace 是否修改原始DataFrame

In [1]:

import pandas as pd

0. 读取数据

In [2]:

fpath ./pandas-learn-code/datas/beijing_tianqi/beijing_tianqi_2018.csv

df pd.read_csv(fpath)

In [4]:

# 替换温度的后缀℃

df.loc[:, bWendu ] df[ bWendu ].str.replace( ℃ , ).astype( int32 )

df.loc[:, yWendu ] df[ yWendu ].str.replace( ℃ , ).astype( int32 )

In [5]:

df.head()

Out[5]:

ymd

bWendu

yWendu

tianqi

fengxiang

fengli

aqi

aqiInfo

aqiLevel

0

2018-01-01

3

-6

晴~多云

东北风

1-2级

59

2

1

2018-01-02

2

-5

阴~多云

东北风

1-2级

49

1

2

2018-01-03

2

-5

多云

北风

1-2级

28

1

3

2018-01-04

0

-8

东北风

1-2级

28

1

4

2018-01-05

3

-6

多云~晴

西北风

1-2级

50

1

1. Series的排序

In [7]:

# 默认为升序

df[ aqi ].sort_values()

Out[7]:

271 21

281 21

249 22

272 22

301 22

246 24

35 24

33 24

10 24

273 25

282 25

359 26

9 26

111 27

24 27

2 28

264 28

319 28

250 28

266 28

3 28

265 28

205 28

197 28

204 29

258 29

362 29

283 30

308 30

22 31

...

334 163

109 164

108 170

68 171

176 174

70 174

294 176

124 177

286 177

147 178

49 183

131 186

13 187

118 193

336 198

287 198

330 198

306 206

61 214

90 218

316 219

57 220

335 234

85 243

329 245

317 266

71 287

91 287

72 293

86 387

Name: aqi, Length: 365, dtype: int64

In [10]:

# 将排序方式调整为降序

df[ aqi ].sort_values(ascending False)

Out[10]:

86 387

72 293

91 287

71 287

317 266

329 245

85 243

335 234

57 220

316 219

90 218

61 214

306 206

330 198

287 198

336 198

118 193

13 187

131 186

49 183

147 178

286 177

124 177

294 176

70 174

176 174

68 171

108 170

109 164

334 163

...

22 31

308 30

283 30

362 29

258 29

204 29

197 28

205 28

265 28

3 28

266 28

250 28

319 28

264 28

2 28

24 27

111 27

9 26

359 26

282 25

273 25

10 24

33 24

35 24

246 24

301 22

272 22

249 22

281 21

271 21

Name: aqi, Length: 365, dtype: int64

In [12]:

# 对中文也可以排序

df[ tianqi ].sort_values()

Out[12]:

225 中雨~小雨

230 中雨~小雨

197 中雨~雷阵雨

196 中雨~雷阵雨

112 多云

108 多云

232 多云

234 多云

241 多云

94 多云

91 多云

88 多云

252 多云

84 多云

364 多云

165 多云

81 多云

79 多云

78 多云

77 多云

257 多云

74 多云

69 多云

67 多云

261 多云

262 多云

268 多云

270 多云

226 多云

253 多云

...

338 阴~多云

111 阴~多云

243 阴~小雨

139 阴~小雨

20 阴~小雪

167 阴~雷阵雨

237 雷阵雨

195 雷阵雨

223 雷阵雨

187 雷阵雨

168 雷阵雨

188 雷阵雨

193 雷阵雨

175 雷阵雨

218 雷阵雨~中雨

216 雷阵雨~中雨

224 雷阵雨~中雨

222 雷阵雨~中雨

189 雷阵雨~多云

163 雷阵雨~多云

180 雷阵雨~多云

183 雷阵雨~多云

194 雷阵雨~多云

172 雷阵雨~多云

233 雷阵雨~多云

191 雷阵雨~大雨

219 雷阵雨~阴

335 雾~多云

353 霾

348 霾

Name: tianqi, Length: 365, dtype: object

2. DataFrame的排序

2.1 单列排序

In [13]:

# 按照空气质量进行排序

df.sort_values(by aqi )

Out[13]:

ymd

bWendu

yWendu

tianqi

fengxiang

fengli

aqi

aqiInfo

aqiLevel

271

2018-09-29

22

11

北风

3-4级

21

1

281

2018-10-09

15

4

多云~晴

西北风

4-5级

21

1

249

2018-09-07

27

16

西北风

3-4级

22

1

272

2018-09-30

19

13

多云

西北风

4-5级

22

1

301

2018-10-29

15

3

北风

3-4级

22

1

246

2018-09-04

31

18

西南风

3-4级

24

1

35

2018-02-05

0

-10

北风

3-4级

24

1

33

2018-02-03

0

-9

多云

北风

1-2级

24

1

10

2018-01-11

-1

-10

北风

1-2级

24

1

273

2018-10-01

24

12

北风

4-5级

25

1

282

2018-10-10

17

4

多云~晴

西北风

1-2级

25

1

359

2018-12-26

-2

-11

晴~多云

东北风

2级

26

1

9

2018-01-10

-2

-10

西北风

1-2级

26

1

111

2018-04-22

16

12

阴~多云

东北风

3-4级

27

1

24

2018-01-25

-3

-11

多云

东北风

1-2级

27

1

2

2018-01-03

2

-5

多云

北风

1-2级

28

1

264

2018-09-22

24

13

西北风

3-4级

28

1

319

2018-11-16

8

-1

晴~多云

北风

1-2级

28

1

250

2018-09-08

27

15

多云~晴

北风

1-2级

28

1

266

2018-09-24

23

11

北风

1-2级

28

1

3

2018-01-04

0

-8

东北风

1-2级

28

1

265

2018-09-23

23

12

西北风

4-5级

28

1

205

2018-07-25

32

25

多云

北风

1-2级

28

1

197

2018-07-17

27

23

中雨~雷阵雨

西风

1-2级

28

1

204

2018-07-24

28

26

暴雨~雷阵雨

东北风

3-4级

29

1

258

2018-09-16

25

14

多云~晴

北风

1-2级

29

1

362

2018-12-29

-3

-12

西北风

2级

29

1

283

2018-10-11

18

5

晴~多云

北风

1-2级

30

1

308

2018-11-05

10

2

多云

西南风

1-2级

30

1

22

2018-01-23

-4

-12

西北风

3-4级

31

1

334

2018-12-01

7

0

多云

东南风

1级

163

中度污染

4

109

2018-04-20

28

14

多云~小雨

南风

4-5级

164

中度污染

4

108

2018-04-19

26

13

多云

东南风

4-5级

170

中度污染

4

68

2018-03-10

14

-2

东南风

1-2级

171

中度污染

4

176

2018-06-26

36

25

西南风

3-4级

174

中度污染

4

70

2018-03-12

15

3

多云~晴

南风

1-2级

174

中度污染

4

294

2018-10-22

19

5

多云~晴

西北风

1-2级

176

中度污染

4

124

2018-05-05

25

13

多云

北风

3-4级

177

中度污染

4

286

2018-10-14

21

10

多云

南风

1-2级

177

中度污染

4

147

2018-05-28

30

16

西北风

4-5级

178

中度污染

4

49

2018-02-19

6

-3

多云

南风

1-2级

183

中度污染

4

131

2018-05-12

28

16

小雨

东南风

3-4级

186

中度污染

4

13

2018-01-14

6

-5

晴~多云

西北风

1-2级

187

中度污染

4

118

2018-04-29

30

16

多云

南风

3-4级

193

中度污染

4

336

2018-12-03

8

-3

多云~晴

东北风

3级

198

中度污染

4

287

2018-10-15

17

11

小雨

北风

1-2级

198

中度污染

4

330

2018-11-27

9

-3

晴~多云

西北风

2级

198

中度污染

4

306

2018-11-03

16

6

多云

南风

1-2级

206

重度污染

5

61

2018-03-03

13

3

多云~阴

北风

1-2级

214

重度污染

5

90

2018-04-01

25

11

晴~多云

南风

1-2级

218

重度污染

5

316

2018-11-13

13

5

多云

东南风

1-2级

219

重度污染

5

57

2018-02-27

7

0

东风

1-2级

220

重度污染

5

335

2018-12-02

9

2

雾~多云

东北风

1级

234

重度污染

5

85

2018-03-27

27

11

南风

1-2级

243

重度污染

5

329

2018-11-26

10

0

多云

东南风

1级

245

重度污染

5

317

2018-11-14

13

5

多云

南风

1-2级

266

重度污染

5

71

2018-03-13

17

5

晴~多云

南风

1-2级

287

重度污染

5

91

2018-04-02

26

11

多云

北风

1-2级

287

重度污染

5

72

2018-03-14

15

6

多云~阴

东北风

1-2级

293

重度污染

5

86

2018-03-28

25

9

多云~晴

东风

1-2级

387

严重污染

6

365 rows × 9 columns

In [14]:

# 指定降序

df.sort_values(by aqi , ascending False)

Out[14]:

ymd

bWendu

yWendu

tianqi

fengxiang

fengli

aqi

aqiInfo

aqiLevel

86

2018-03-28

25

9

多云~晴

东风

1-2级

387

严重污染

6

72

2018-03-14

15

6

多云~阴

东北风

1-2级

293

重度污染

5

71

2018-03-13

17

5

晴~多云

南风

1-2级

287

重度污染

5

91

2018-04-02

26

11

多云

北风

1-2级

287

重度污染

5

317

2018-11-14

13

5

多云

南风

1-2级

266

重度污染

5

329

2018-11-26

10

0

多云

东南风

1级

245

重度污染

5

85

2018-03-27

27

11

南风

1-2级

243

重度污染

5

335

2018-12-02

9

2

雾~多云

东北风

1级

234

重度污染

5

57

2018-02-27

7

0

东风

1-2级

220

重度污染

5

316

2018-11-13

13

5

多云

东南风

1-2级

219

重度污染

5

90

2018-04-01

25

11

晴~多云

南风

1-2级

218

重度污染

5

61

2018-03-03

13

3

多云~阴

北风

1-2级

214

重度污染

5

306

2018-11-03

16

6

多云

南风

1-2级

206

重度污染

5

287

2018-10-15

17

11

小雨

北风

1-2级

198

中度污染

4

336

2018-12-03

8

-3

多云~晴

东北风

3级

198

中度污染

4

330

2018-11-27

9

-3

晴~多云

西北风

2级

198

中度污染

4

118

2018-04-29

30

16

多云

南风

3-4级

193

中度污染

4

13

2018-01-14

6

-5

晴~多云

西北风

1-2级

187

中度污染

4

131

2018-05-12

28

16

小雨

东南风

3-4级

186

中度污染

4

49

2018-02-19

6

-3

多云

南风

1-2级

183

中度污染

4

147

2018-05-28

30

16

西北风

4-5级

178

中度污染

4

286

2018-10-14

21

10

多云

南风

1-2级

177

中度污染

4

124

2018-05-05

25

13

多云

北风

3-4级

177

中度污染

4

294

2018-10-22

19

5

多云~晴

西北风

1-2级

176

中度污染

4

70

2018-03-12

15

3

多云~晴

南风

1-2级

174

中度污染

4

176

2018-06-26

36

25

西南风

3-4级

174

中度污染

4

68

2018-03-10

14

-2

东南风

1-2级

171

中度污染

4

108

2018-04-19

26

13

多云

东南风

4-5级

170

中度污染

4

109

2018-04-20

28

14

多云~小雨

南风

4-5级

164

中度污染

4

334

2018-12-01

7

0

多云

东南风

1级

163

中度污染

4

274

2018-10-02

24

11

西北风

1-2级

31

1

308

2018-11-05

10

2

多云

西南风

1-2级

30

1

283

2018-10-11

18

5

晴~多云

北风

1-2级

30

1

362

2018-12-29

-3

-12

西北风

2级

29

1

258

2018-09-16

25

14

多云~晴

北风

1-2级

29

1

204

2018-07-24

28

26

暴雨~雷阵雨

东北风

3-4级

29

1

2

2018-01-03

2

-5

多云

北风

1-2级

28

1

3

2018-01-04

0

-8

东北风

1-2级

28

1

250

2018-09-08

27

15

多云~晴

北风

1-2级

28

1

205

2018-07-25

32

25

多云

北风

1-2级

28

1

197

2018-07-17

27

23

中雨~雷阵雨

西风

1-2级

28

1

264

2018-09-22

24

13

西北风

3-4级

28

1

266

2018-09-24

23

11

北风

1-2级

28

1

265

2018-09-23

23

12

西北风

4-5级

28

1

319

2018-11-16

8

-1

晴~多云

北风

1-2级

28

1

111

2018-04-22

16

12

阴~多云

东北风

3-4级

27

1

24

2018-01-25

-3

-11

多云

东北风

1-2级

27

1

9

2018-01-10

-2

-10

西北风

1-2级

26

1

359

2018-12-26

-2

-11

晴~多云

东北风

2级

26

1

273

2018-10-01

24

12

北风

4-5级

25

1

282

2018-10-10

17

4

多云~晴

西北风

1-2级

25

1

33

2018-02-03

0

-9

多云

北风

1-2级

24

1

246

2018-09-04

31

18

西南风

3-4级

24

1

10

2018-01-11

-1

-10

北风

1-2级

24

1

35

2018-02-05

0

-10

北风

3-4级

24

1

249

2018-09-07

27

16

西北风

3-4级

22

1

301

2018-10-29

15

3

北风

3-4级

22

1

272

2018-09-30

19

13

多云

西北风

4-5级

22

1

271

2018-09-29

22

11

北风

3-4级

21

1

281

2018-10-09

15

4

多云~晴

西北风

4-5级

21

1

365 rows × 9 columns

2.2 多列排序

In [15]:

# 按空气质量等级、最高温度默认排序 默认升序

df.sort_values(by [ aqiLevel , bWendu ])

Out[15]:

ymd

bWendu

yWendu

tianqi

fengxiang

fengli

aqi

aqiInfo

aqiLevel

360

2018-12-27

-5

-12

多云~晴

西北风

3级

48

1

22

2018-01-23

-4

-12

西北风

3-4级

31

1

23

2018-01-24

-4

-11

西南风

1-2级

34

1

340

2018-12-07

-4

-10

西北风

3级

33

1

21

2018-01-22

-3

-10

小雪~多云

东风

1-2级

47

1

24

2018-01-25

-3

-11

多云

东北风

1-2级

27

1

25

2018-01-26

-3

-10

晴~多云

南风

1-2级

39

1

361

2018-12-28

-3

-11

西北风

3级

40

1

362

2018-12-29

-3

-12

西北风

2级

29

1

9

2018-01-10

-2

-10

西北风

1-2级

26

1

339

2018-12-06

-2

-9

西北风

3级

40

1

341

2018-12-08

-2

-10

晴~多云

西北风

2级

37

1

359

2018-12-26

-2

-11

晴~多云

东北风

2级

26

1

363

2018-12-30

-2

-11

晴~多云

东北风

1级

31

1

10

2018-01-11

-1

-10

北风

1-2级

24

1

32

2018-02-02

-1

-9

北风

3-4级

32

1

3

2018-01-04

0

-8

东北风

1-2级

28

1

33

2018-02-03

0

-9

多云

北风

1-2级

24

1

35

2018-02-05

0

-10

北风

3-4级

24

1

8

2018-01-09

1

-8

西北风

3-4级

34

1

34

2018-02-04

1

-8

西南风

1-2级

36

1

40

2018-02-10

1

-9

西北风

3-4级

39

1

345

2018-12-12

1

-8

西南风

1级

50

1

1

2018-01-02

2

-5

阴~多云

东北风

1-2级

49

1

2

2018-01-03

2

-5

多云

北风

1-2级

28

1

5

2018-01-06

2

-5

多云~阴

西南风

1-2级

32

1

7

2018-01-08

2

-6

西北风

4-5级

50

1

14

2018-01-15

2

-5

东南风

1-2级

47

1

4

2018-01-05

3

-6

多云~晴

西北风

1-2级

50

1

346

2018-12-13

3

-7

西北风

2级

42

1

330

2018-11-27

9

-3

晴~多云

西北风

2级

198

中度污染

4

56

2018-02-26

12

-1

晴~多云

西南风

1-2级

157

中度污染

4

68

2018-03-10

14

-2

东南风

1-2级

171

中度污染

4

70

2018-03-12

15

3

多云~晴

南风

1-2级

174

中度污染

4

287

2018-10-15

17

11

小雨

北风

1-2级

198

中度污染

4

294

2018-10-22

19

5

多云~晴

西北风

1-2级

176

中度污染

4

286

2018-10-14

21

10

多云

南风

1-2级

177

中度污染

4

84

2018-03-26

25

7

多云

西南风

1-2级

151

中度污染

4

124

2018-05-05

25

13

多云

北风

3-4级

177

中度污染

4

108

2018-04-19

26

13

多云

东南风

4-5级

170

中度污染

4

109

2018-04-20

28

14

多云~小雨

南风

4-5级

164

中度污染

4

131

2018-05-12

28

16

小雨

东南风

3-4级

186

中度污染

4

142

2018-05-23

29

15

西南风

3-4级

153

中度污染

4

118

2018-04-29

30

16

多云

南风

3-4级

193

中度污染

4

147

2018-05-28

30

16

西北风

4-5级

178

中度污染

4

133

2018-05-14

34

22

晴~多云

南风

3-4级

158

中度污染

4

176

2018-06-26

36

25

西南风

3-4级

174

中度污染

4

57

2018-02-27

7

0

东风

1-2级

220

重度污染

5

335

2018-12-02

9

2

雾~多云

东北风

1级

234

重度污染

5

329

2018-11-26

10

0

多云

东南风

1级

245

重度污染

5

61

2018-03-03

13

3

多云~阴

北风

1-2级

214

重度污染

5

316

2018-11-13

13

5

多云

东南风

1-2级

219

重度污染

5

317

2018-11-14

13

5

多云

南风

1-2级

266

重度污染

5

72

2018-03-14

15

6

多云~阴

东北风

1-2级

293

重度污染

5

306

2018-11-03

16

6

多云

南风

1-2级

206

重度污染

5

71

2018-03-13

17

5

晴~多云

南风

1-2级

287

重度污染

5

90

2018-04-01

25

11

晴~多云

南风

1-2级

218

重度污染

5

91

2018-04-02

26

11

多云

北风

1-2级

287

重度污染

5

85

2018-03-27

27

11

南风

1-2级

243

重度污染

5

86

2018-03-28

25

9

多云~晴

东风

1-2级

387

严重污染

6

365 rows × 9 columns

In [17]:

# 两个字段都是降序

df.sort_values(by [ aqiLevel , bWendu ],ascending False)

Out[17]:

ymd

bWendu

yWendu

tianqi

fengxiang

fengli

aqi

aqiInfo

aqiLevel

86

2018-03-28

25

9

多云~晴

东风

1-2级

387

严重污染

6

85

2018-03-27

27

11

南风

1-2级

243

重度污染

5

91

2018-04-02

26

11

多云

北风

1-2级

287

重度污染

5

90

2018-04-01

25

11

晴~多云

南风

1-2级

218

重度污染

5

71

2018-03-13

17

5

晴~多云

南风

1-2级

287

重度污染

5

306

2018-11-03

16

6

多云

南风

1-2级

206

重度污染

5

72

2018-03-14

15

6

多云~阴

东北风

1-2级

293

重度污染

5

61

2018-03-03

13

3

多云~阴

北风

1-2级

214

重度污染

5

316

2018-11-13

13

5

多云

东南风

1-2级

219

重度污染

5

317

2018-11-14

13

5

多云

南风

1-2级

266

重度污染

5

329

2018-11-26

10

0

多云

东南风

1级

245

重度污染

5

335

2018-12-02

9

2

雾~多云

东北风

1级

234

重度污染

5

57

2018-02-27

7

0

东风

1-2级

220

重度污染

5

176

2018-06-26

36

25

西南风

3-4级

174

中度污染

4

133

2018-05-14

34

22

晴~多云

南风

3-4级

158

中度污染

4

118

2018-04-29

30

16

多云

南风

3-4级

193

中度污染

4

147

2018-05-28

30

16

西北风

4-5级

178

中度污染

4

142

2018-05-23

29

15

西南风

3-4级

153

中度污染

4

109

2018-04-20

28

14

多云~小雨

南风

4-5级

164

中度污染

4

131

2018-05-12

28

16

小雨

东南风

3-4级

186

中度污染

4

108

2018-04-19

26

13

多云

东南风

4-5级

170

中度污染

4

84

2018-03-26

25

7

多云

西南风

1-2级

151

中度污染

4

124

2018-05-05

25

13

多云

北风

3-4级

177

中度污染

4

286

2018-10-14

21

10

多云

南风

1-2级

177

中度污染

4

294

2018-10-22

19

5

多云~晴

西北风

1-2级

176

中度污染

4

287

2018-10-15

17

11

小雨

北风

1-2级

198

中度污染

4

70

2018-03-12

15

3

多云~晴

南风

1-2级

174

中度污染

4

68

2018-03-10

14

-2

东南风

1-2级

171

中度污染

4

56

2018-02-26

12

-1

晴~多云

西南风

1-2级

157

中度污染

4

330

2018-11-27

9

-3

晴~多云

西北风

2级

198

中度污染

4

4

2018-01-05

3

-6

多云~晴

西北风

1-2级

50

1

346

2018-12-13

3

-7

西北风

2级

42

1

1

2018-01-02

2

-5

阴~多云

东北风

1-2级

49

1

2

2018-01-03

2

-5

多云

北风

1-2级

28

1

5

2018-01-06

2

-5

多云~阴

西南风

1-2级

32

1

7

2018-01-08

2

-6

西北风

4-5级

50

1

14

2018-01-15

2

-5

东南风

1-2级

47

1

8

2018-01-09

1

-8

西北风

3-4级

34

1

34

2018-02-04

1

-8

西南风

1-2级

36

1

40

2018-02-10

1

-9

西北风

3-4级

39

1

345

2018-12-12

1

-8

西南风

1级

50

1

3

2018-01-04

0

-8

东北风

1-2级

28

1

33

2018-02-03

0

-9

多云

北风

1-2级

24

1

35

2018-02-05

0

-10

北风

3-4级

24

1

10

2018-01-11

-1

-10

北风

1-2级

24

1

32

2018-02-02

-1

-9

北风

3-4级

32

1

9

2018-01-10

-2

-10

西北风

1-2级

26

1

339

2018-12-06

-2

-9

西北风

3级

40

1

341

2018-12-08

-2

-10

晴~多云

西北风

2级

37

1

359

2018-12-26

-2

-11

晴~多云

东北风

2级

26

1

363

2018-12-30

-2

-11

晴~多云

东北风

1级

31

1

21

2018-01-22

-3

-10

小雪~多云

东风

1-2级

47

1

24

2018-01-25

-3

-11

多云

东北风

1-2级

27

1

25

2018-01-26

-3

-10

晴~多云

南风

1-2级

39

1

361

2018-12-28

-3

-11

西北风

3级

40

1

362

2018-12-29

-3

-12

西北风

2级

29

1

22

2018-01-23

-4

-12

西北风

3-4级

31

1

23

2018-01-24

-4

-11

西南风

1-2级

34

1

340

2018-12-07

-4

-10

西北风

3级

33

1

360

2018-12-27

-5

-12

多云~晴

西北风

3级

48

1

365 rows × 9 columns

In [18]:

# 分别指定升序和降序

df.sort_values(by [ aqiLevel , bWendu ], ascending [True, False])

Out[18]:

ymd

bWendu

yWendu

tianqi

fengxiang

fengli

aqi

aqiInfo

aqiLevel

178

2018-06-28

35

24

多云~晴

北风

1-2级

33

1

149

2018-05-30

33

18

西风

1-2级

46

1

206

2018-07-26

33

25

多云~雷阵雨

东北风

1-2级

40

1

158

2018-06-08

32

19

多云~雷阵雨

西南风

1-2级

43

1

205

2018-07-25

32

25

多云

北风

1-2级

28

1

226

2018-08-15

32

24

多云

东北风

3-4级

33

1

231

2018-08-20

32

23

多云~晴

北风

1-2级

41

1

232

2018-08-21

32

22

多云

北风

1-2级

38

1

148

2018-05-29

31

16

多云

西北风

1-2级

41

1

196

2018-07-16

31

24

中雨~雷阵雨

南风

1-2级

43

1

234

2018-08-23

31

21

多云

北风

1-2级

43

1

240

2018-08-29

31

20

晴~多云

北风

3-4级

44

1

246

2018-09-04

31

18

西南风

3-4级

24

1

247

2018-09-05

31

19

晴~多云

西南风

3-4级

34

1

190

2018-07-10

30

22

多云~雷阵雨

南风

1-2级

48

1

220

2018-08-09

30

24

多云

南风

1-2级

49

1

227

2018-08-16

30

21

晴~多云

东北风

1-2级

40

1

235

2018-08-24

30

20

北风

1-2级

40

1

219

2018-08-08

29

24

雷阵雨~阴

东北风

1-2级

45

1

225

2018-08-14

29

24

中雨~小雨

东北风

1-2级

42

1

241

2018-08-30

29

20

多云

南风

1-2级

47

1

242

2018-08-31

29

20

多云~阴

东南风

1-2级

48

1

137

2018-05-18

28

16

多云~晴

南风

1-2级

49

1

204

2018-07-24

28

26

暴雨~雷阵雨

东北风

3-4级

29

1

229

2018-08-18

28

23

小雨~中雨

北风

3-4级

40

1

233

2018-08-22

28

21

雷阵雨~多云

西南风

1-2级

48

1

192

2018-07-12

27

22

多云

南风

1-2级

46

1

197

2018-07-17

27

23

中雨~雷阵雨

西风

1-2级

28

1

243

2018-09-01

27

19

阴~小雨

南风

1-2级

50

1

248

2018-09-06

27

18

多云~晴

西北风

4-5级

37

1

142

2018-05-23

29

15

西南风

3-4级

153

中度污染

4

109

2018-04-20

28

14

多云~小雨

南风

4-5级

164

中度污染

4

131

2018-05-12

28

16

小雨

东南风

3-4级

186

中度污染

4

108

2018-04-19

26

13

多云

东南风

4-5级

170

中度污染

4

84

2018-03-26

25

7

多云

西南风

1-2级

151

中度污染

4

124

2018-05-05

25

13

多云

北风

3-4级

177

中度污染

4

286

2018-10-14

21

10

多云

南风

1-2级

177

中度污染

4

294

2018-10-22

19

5

多云~晴

西北风

1-2级

176

中度污染

4

287

2018-10-15

17

11

小雨

北风

1-2级

198

中度污染

4

70

2018-03-12

15

3

多云~晴

南风

1-2级

174

中度污染

4

68

2018-03-10

14

-2

东南风

1-2级

171

中度污染

4

56

2018-02-26

12

-1

晴~多云

西南风

1-2级

157

中度污染

4

330

2018-11-27

9

-3

晴~多云

西北风

2级

198

中度污染

4

336

2018-12-03

8

-3

多云~晴

东北风

3级

198

中度污染

4

334

2018-12-01

7

0

多云

东南风

1级

163

中度污染

4

13

2018-01-14

6

-5

晴~多云

西北风

1-2级

187

中度污染

4

49

2018-02-19

6

-3

多云

南风

1-2级

183

中度污染

4

85

2018-03-27

27

11

南风

1-2级

243

重度污染

5

91

2018-04-02

26

11

多云

北风

1-2级

287

重度污染

5

90

2018-04-01

25

11

晴~多云

南风

1-2级

218

重度污染

5

71

2018-03-13

17

5

晴~多云

南风

1-2级

287

重度污染

5

306

2018-11-03

16

6

多云

南风

1-2级

206

重度污染

5

72

2018-03-14

15

6

多云~阴

东北风

1-2级

293

重度污染

5

61

2018-03-03

13

3

多云~阴

北风

1-2级

214

重度污染

5

316

2018-11-13

13

5

多云

东南风

1-2级

219

重度污染

5

317

2018-11-14

13

5

多云

南风

1-2级

266

重度污染

5

329

2018-11-26

10

0

多云

东南风

1级

245

重度污染

5

335

2018-12-02

9

2

雾~多云

东北风

1级

234

重度污染

5

57

2018-02-27

7

0

东风

1-2级

220

重度污染

5

86

2018-03-28

25

9

多云~晴

东风

1-2级

387

严重污染

6

365 rows × 9 columns

九、Pandas字符串处理

前面我们已经使用了字符串的处理函数

df[“bWendu”].str.replace(“℃”, “”).astype(‘int32’)

*Pandas的字符串处理 *

使用方法 先获取Series的str属性 然后在属性上调用函数

只能在字符串列上使用 不能数字列上使用

Dataframe上没有str属性和处理方法

Series.str并不是Python原生字符串 而是自己的一套方法 不过大部分和原生str很相似

*Series.str字符串方法列表参考文档:*

https://pandas.pydata/pandas-docs/stable/reference/series.html#string-handling

*本节演示内容 *

获取Series的str属性 然后使用各种字符串处理函数

使用str的startswith、contains等bool类Series可以做条件查询

需要多次str处理的链式操作

使用正则表达式的处理

0. 读取北京2018年天气数据

In [5]:

import pandas as pd

In [6]:

fpath ./pandas-learn-code/datas/beijing_tianqi/beijing_tianqi_2018.csv

df pd.read_csv(fpath)

In [8]:

df.head()

Out[8]:

ymd

bWendu

yWendu

tianqi

fengxiang

fengli

aqi

aqiInfo

aqiLevel

0

2018-01-01

3℃

-6℃

晴~多云

东北风

1-2级

59

2

1

2018-01-02

2℃

-5℃

阴~多云

东北风

1-2级

49

1

2

2018-01-03

2℃

-5℃

多云

北风

1-2级

28

1

3

2018-01-04

0℃

-8℃

东北风

1-2级

28

1

4

2018-01-05

3℃

-6℃

多云~晴

西北风

1-2级

50

1

In [13]:

df.dtypes

Out[13]:

ymd object

bWendu object

yWendu object

tianqi object

fengxiang object

fengli object

aqi int64

aqiInfo object

aqiLevel int64

dtype: object

1. 获取Series的str属性 使用各种字符串处理函数

In [14]:

df[ bWendu ].str

Out[14]:

In [15]:

# 字符串替换函数

df.loc[:, bWendu ] df[ bWendu ].str.replace( ℃ , ).astype( int32 )

In [16]:

df.head()

Out[16]:

ymd

bWendu

yWendu

tianqi

fengxiang

fengli

aqi

aqiInfo

aqiLevel

0

2018-01-01

3

-6℃

晴~多云

东北风

1-2级

59

2

1

2018-01-02

2

-5℃

阴~多云

东北风

1-2级

49

1

2

2018-01-03

2

-5℃

多云

北风

1-2级

28

1

3

2018-01-04

0

-8℃

东北风

1-2级

28

1

4

2018-01-05

3

-6℃

多云~晴

西北风

1-2级

50

1

In [19]:

# 判断是不是数字

df[ yWendu ].str.isnumeric()

Out[19]:

0 False

1 False

2 False

3 False

4 False

5 False

6 False

7 False

8 False

9 False

10 False

11 False

12 False

13 False

14 False

15 False

16 False

17 False

18 False

19 False

20 False

21 False

22 False

23 False

24 False

25 False

26 False

27 False

28 False

29 False

...

335 False

336 False

337 False

338 False

339 False

340 False

341 False

342 False

343 False

344 False

345 False

346 False

347 False

348 False

349 False

350 False

351 False

352 False

353 False

354 False

355 False

356 False

357 False

358 False

359 False

360 False

361 False

362 False

363 False

364 False

Name: yWendu, Length: 365, dtype: bool

In [21]:

# 在数列列上调用str会报错

df[ aqi ].str.len()

. . .

## 2. 使用str的startswith, contains等得到的bool的Series可以做条件查询

In [23]:

# 查询三月数据

condition df[ ymd ].str.startswith( 2018-03 )

In [25]:

condition

. . .

In [27]:

df[condition].head()

Out[27]:

ymd

bWendu

yWendu

tianqi

fengxiang

fengli

aqi

aqiInfo

aqiLevel

59

2018-03-01

8

-3℃

多云

西南风

1-2级

46

1

60

2018-03-02

9

-1℃

晴~多云

北风

1-2级

95

2

61

2018-03-03

13

3℃

多云~阴

北风

1-2级

214

重度污染

5

62

2018-03-04

7

-2℃

阴~多云

东南风

1-2级

144

轻度污染

3

63

2018-03-05

8

-3℃

南风

1-2级

94

2

## 3. 需要多次str处理的链式操作

怎么提取201803这样的数字月份

1. 先将日期2018-03-31替换成20180331的形式

2. 提取月份字符串201803

In [28]:

df[ ymd ].str.replace( - , )

. . .

In [29]:

# 每次调用函数,都返回一个新Series

# 不能直接在Series上调用str方法

df[ ymd ].str.replace( - , ).slice(0, 6)

---------------------------------------------------------------------------

AttributeError Traceback (most recent call last)

in 1 # 每次调用函数,都返回一个新Series

---- 2 df[ ymd ].str.replace( - , ).slice(0, 6)

D:\Tools\Anaconda3\lib\site-packages\pandas\core\generic.py in __getattr__(self, name)

5065 if self._info_axis._can_hold_identifiers_and_holds_name(name):

5066 return self[name]

- 5067 return object.__getattribute__(self, name)

5068

5069 def __setattr__(self, name, value):

AttributeError: Series object has no attribute slice

In [31]:

# replace后得到的是Series,通过再次.str后才能切片

df[ ymd ].str.replace( - , ).str.slice(0, 6)

Out[31]:

0 201801

1 201801

2 201801

3 201801

4 201801

5 201801

6 201801

7 201801

8 201801

9 201801

10 201801

11 201801

12 201801

13 201801

14 201801

15 201801

16 201801

17 201801

18 201801

19 201801

20 201801

21 201801

22 201801

23 201801

24 201801

25 201801

26 201801

27 201801

28 201801

29 201801

...

335 201812

336 201812

337 201812

338 201812

339 201812

340 201812

341 201812

342 201812

343 201812

344 201812

345 201812

346 201812

347 201812

348 201812

349 201812

350 201812

351 201812

352 201812

353 201812

354 201812

355 201812

356 201812

357 201812

358 201812

359 201812

360 201812

361 201812

362 201812

363 201812

364 201812

Name: ymd, Length: 365, dtype: object

In [32]:

# slice就是切片语法,可以直接调用

df[ ymd ].str.replace( - , ).str[0:6]

Out[32]:

0 201801

1 201801

2 201801

3 201801

4 201801

5 201801

6 201801

7 201801

8 201801

9 201801

10 201801

11 201801

12 201801

13 201801

14 201801

15 201801

16 201801

17 201801

18 201801

19 201801

20 201801

21 201801

22 201801

23 201801

24 201801

25 201801

26 201801

27 201801

28 201801

29 201801

...

335 201812

336 201812

337 201812

338 201812

339 201812

340 201812

341 201812

342 201812

343 201812

344 201812

345 201812

346 201812

347 201812

348 201812

349 201812

350 201812

351 201812

352 201812

353 201812

354 201812

355 201812

356 201812

357 201812

358 201812

359 201812

360 201812

361 201812

362 201812

363 201812

364 201812

Name: ymd, Length: 365, dtype: object

In [37]:

df.head()

Out[37]:

ymd

bWendu

yWendu

tianqi

fengxiang

fengli

aqi

aqiInfo

aqiLevel

0

2018-01-01

3

-6℃

晴~多云

东北风

1-2级

59

2

1

2018-01-02

2

-5℃

阴~多云

东北风

1-2级

49

1

2

2018-01-03

2

-5℃

多云

北风

1-2级

28

1

3

2018-01-04

0

-8℃

东北风

1-2级

28

1

4

2018-01-05

3

-6℃

多云~晴

西北风

1-2级

50

1

4. 使用正则表达式的处理

In [42]:

# 添加新列

def get_nianyueri(x):

year, month, day x[ ymd ].split( - )

return f {year}年{month}月{day}日

df[ 中文日期 ] df.apply(get_nianyueri, axis 1)

In [40]:

df[ 中文日期 ]

. . .

问题:怎么将 2018年12月31日 中的年,月,日三个中文字符去除

In [44]:

# 方法1:链式replace

df[ 中文日期 ].str.replace( 年 , ).str.replace( 月 , ).str.replace( 日 , )

. . .

Series.str默认就开启了正则表达式模式

In [43]:

# 方法2:正则表达式替换

df[ 中文日期 ].str.replace( [年月日] , )

. . .

十、Pandas的axis参数怎么理解

axis 0或者 index

如果是单行操作 就指的是某一行

如果是聚合操作 指的是跨行cross rows

axis 1或者 columns

如果是单列操作 就指的是某一列

如果是聚合操作 指的是跨列cross columns

*按哪个axis 就是这个axis要动起来(类似被for遍历) 其它的axis保持不动*

In [ ]:

In [2]:

import pandas as pd

import numpy as np

In [7]:

df pd.DataFrame(

np.arange(12).reshape(3,4),

columns [ A , B , C , D ]

)

In [8]:

df

Out[8]:

A

B

C

D

0

0

1

2

3

1

4

5

6

7

2

8

9

10

11

1. 单列drop, 就是删除某一列

In [9]:

# 代表的就是删除某列

df.drop( A , axis 1)

Out[9]:

B

C

D

0

1

2

3

1

5

6

7

2

9

10

11

In [10]:

# 代表的就是删除某行

df.drop(1, axis 0)

Out[10]:

A

B

C

D

0

0

1

2

3

2

8

9

10

11

3. 按照axis 0/index执行mean聚合操作

反直觉:输出的不是每行的结果,而是每列的结果

In [11]:

df

Out[11]:

A

B

C

D

0

0

1

2

3

1

4

5

6

7

2

8

9

10

11

In [16]:

# axis 0 or axis index

df.mean(axis 0)

Out[16]:

A 4.0

B 5.0

C 6.0

D 7.0

dtype: float64

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-2VilxhcD-1597761927700)(http://localhost:8888/notebooks/pandas-learn-code/other_files/pandas-axis-index.png)]

*按哪个axis 就是这个axis要动起来(类似被for遍历) 其它的axis保持不动*

3. 按照axis 1/columns执行mean聚合操作

反直觉:输出的不是每行的结果,而是每列的结果

In [21]:

df

Out[21]:

A

B

C

D

0

0

1

2

3

1

4

5

6

7

2

8

9

10

11

In [22]:

# axis 1 or axis columns

df.mean(axis 1)

Out[22]:

0 1.5

1 5.5

2 9.5

dtype: float64

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-XahGzry0-1597761927702)(http://localhost:8888/notebooks/pandas-learn-code/other_files/pandas-axis-columns.png)]

*按哪个axis 就是这个axis要动起来(类似被for遍历) 其它的axis保持不动*

5. 再次举例, 加深理解

In [23]:

def get_sum_value(x):

return x[ A ] x[ B ] x[ C ] x[ D ]

df[ sum_value ] df.apply(get_sum_value, axis 1)

In [24]:

df

Out[24]:

A

B

C

D

sum_value

0

0

1

2

3

6

1

4

5

6

7

22

2

8

9

10

11

38

*按哪个axis 就是这个axis要动起来(类似被for遍历) 其它的axis保持不动*

In [27]:

df[ A ]

Out[27]:

0 0

1 4

2 8

Name: A, dtype: int32

十一、Pandas的索引index的用途

把数据存储于普通的column列也能用于数据查询 那使用index有什么好处

index的用途总结

更方便的数据查询

使用index可以获得性能提升

自动的数据对齐功能

更多更强大的数据结构支持

In [1]:

import pandas as pd

In [2]:

df pd.read_csv( ./pandas-learn-code/datas/ml-latest-small/ratings.csv )

In [3]:

df.head()

Out[3]:

userId

movieId

rating

timestamp

0

1

1

4.0

964982703

1

1

3

4.0

964981247

2

1

6

4.0

964982224

3

1

47

5.0

964983815

4

1

50

5.0

964982931

In [4]:

df.count()

Out[4]:

userId 100836

movieId 100836

rating 100836

timestamp 100836

dtype: int64

1. 使用index查询数据

In [5]:

# drop False,让索引列还保持在column

# 下列代码实现了将userId设置成了index,同时保留了userId

df.set_index( userId , inplace True, drop False)

In [6]:

df.head()

Out[6]:

userId

movieId

rating

timestamp

userId

1

1

1

4.0

964982703

1

1

3

4.0

964981247

1

1

6

4.0

964982224

1

1

47

5.0

964983815

1

1

50

5.0

964982931

In [7]:

df.index

Out[7]:

Int64Index([ 1, 1, 1, 1, 1, 1, 1, 1, 1, 1,

...

610, 610, 610, 610, 610, 610, 610, 610, 610, 610],

dtype int64 , name userId , length 100836)

In [8]:

# 使用index的查询方法:在loc[]中直接写入要查询的参数

# 查询userId为500的用户信息

df.loc[500].head(5)

Out[8]:

userId

movieId

rating

timestamp

userId

500

500

1

4.0

1005527755

500

500

11

1.0

1005528017

500

500

39

1.0

1005527926

500

500

101

1.0

1005527980

500

500

104

4.0

1005528065

In [9]:

# 使用column的condition查询方法

df.loc[df[ userId ] 500].head()

Out[9]:

userId

movieId

rating

timestamp

userId

500

500

1

4.0

1005527755

500

500

11

1.0

1005528017

500

500

39

1.0

1005527926

500

500

101

1.0

1005527980

500

500

104

4.0

1005528065

2. 使用index会提升查询性能

如果index是唯一的 Pandas会使用哈希表优化 查询性能为O(1);

如果index不是唯一的 但是有序 Pandas会使用二分查找算法 查询性能为O(logN);

如果index是完全随机的 那么每次查询都要扫描全表 查询性能为O(N);

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-3xFJcngE-1597761927705)(http://localhost:8888/notebooks/pandas-learn-code/other_files/pandas-index-performance.png)]

实验1:完全随机的查询顺序

In [11]:

# 将数据随机打散

from sklearn.utils import shuffle

df_shuffle shuffle(df)

In [12]:

df_shuffle.head()

Out[12]:

userId

movieId

rating

timestamp

userId

244

244

1377

4.0

975093513

413

413

3753

5.0

1484439911

280

280

6539

3.5

1348435219

18

18

86332

3.5

1455051197

274

274

3160

2.5

1197275106

In [13]:

# 索引是否是递增的

df_shuffle.index.is_monotonic_increasing

Out[13]:

False

In [14]:

# 索引是否是唯一的

df_shuffle.index.is_unique

Out[14]:

False

In [15]:

# 计时,查看id 500的数据性能

# %timeit将名称执行多次,查看性能

%timeit df_shuffle.loc[500]

366 µs ± 7.09 µs per loop (mean ± std. dev. of 7 runs, 1000 loops each)

实验2:将index排序后的查询

In [17]:

# 将df_shuffle进行排序

df_sorted df_shuffle.sort_index()

In [18]:

df_sorted.head()

Out[18]:

userId

movieId

rating

timestamp

userId

1

1

3578

5.0

964980668

1

1

2406

4.0

964982310

1

1

110

4.0

964982176

1

1

2090

5.0

964982838

1

1

2096

4.0

964982838

In [19]:

# 索引是否是递增的

df_sorted.index.is_monotonic_increasing

Out[19]:

True

In [20]:

df_sorted.index.is_unique

Out[20]:

False

In [21]:

%timeit df_sorted.loc[500]

178 µs ± 4.55 µs per loop (mean ± std. dev. of 7 runs, 10000 loops each)

3.使用index能自动对齐数据

包括Series和DateFrame

In [22]:

s1 pd.Series([1,2,3], index list( abc ))

In [23]:

s1

Out[23]:

a 1

b 2

c 3

dtype: int64

In [24]:

s2 pd.Series([2,3,4], index list( bcd ))

In [25]:

s2

Out[25]:

b 2

c 3

d 4

dtype: int64

In [26]:

s1 s2

Out[26]:

a NaN

b 4.0

c 6.0

d NaN

dtype: float64

s1,s2都具有b,c索引,而a,d为各自独有,无法对齐,所有相加结果为空

4. 使用index更多更强大的数据结构支持

*很多强大的索引数据结构*

CategoricalIndex 基于分类数据的Index 提升性能

MultiIndex 多维索引 用于groupby多维聚合后结果等

DatetimeIndex 时间类型索引 强大的日期和时间的方法支持

十二、Pandas怎样实现DataFrame的Merge

Pandas的Merge 相当于Sql的Join 将不同的表按key关联到一个表

merge的语法

pd.merge(left, right, how ‘inner’, on None, left_on None, right_on None, left_index False, right_index False, sort True, suffixes (’*x’, ‘*y’), copy True, indicator False, validate None)

left right 要merge的dataframe或者有name的Series

how join类型 ‘left’, ‘right’, ‘outer’, ‘inner’

on join的key left和right都需要有这个key

left_on left的df或者series的key

right_on right的df或者seires的key

left_index right_index 使用index而不是普通的column做join

suffixes 两个元素的后缀 如果列有重名 自动添加后缀 默认是(’*x’, ‘*y’)

文档地址 https://pandas.pydata/pandas-docs/stable/reference/api/pandas.DataFrame.merge.html

本次讲解提纲

电影数据集的join实例

理解merge时一对一、一对多、多对多的数量对齐关系

理解left join、right join、inner join、outer join的区别

如果出现非Key的字段重名怎么办

1、电影数据集的join实例

电影评分数据集

是推荐系统研究的很好的数据集

位于本代码目录 ./datas/movielens-1m

包含三个文件

用户对电影的评分数据 ratings.dat

用户本身的信息数据 users.dat

电影本身的数据 movies.dat

可以关联三个表 得到一个完整的大表

数据集官方地址 https://grouplens/datasets/movielens/

In [8]:

import pandas as pd

In [12]:

df_ratings pd.read_csv(

./pandas-learn-code/datas/movielens-1m/ratings.dat ,

sep :: ,

engine python ,

names UserID::MovieID::Rating::Timestamp .split( :: )

)

In [13]:

df_ratings.head()

Out[13]:

UserID

MovieID

Rating

Timestamp

0

1

1193

5

978300760

1

1

661

3

978302109

2

1

914

3

978301968

3

1

3408

4

978300275

4

1

2355

5

978824291

In [14]:

df_users pd.read_csv(

./pandas-learn-code/datas/movielens-1m/users.dat ,

sep :: ,

engine python ,

names UserID::Gender::Age::Occupation::Zip-code .split( :: )

)

In [15]:

df_users.head()

Out[15]:

UserID

Gender

Age

Occupation

Zip-code

0

1

F

1

10

48067

1

2

M

56

16

70072

2

3

M

25

15

55117

3

4

M

45

7

02460

4

5

M

25

20

55455

In [17]:

df_movies pd.read_csv(

./pandas-learn-code/datas/movielens-1m/movies.dat ,

sep :: ,

engine python ,

names MovieID::Title::Genres .split( :: )

)

In [18]:

df_movies.head()

Out[18]:

MovieID

Title

Genres

0

1

Toy Story (1995)

Animation|Children’s|Comedy

1

2

Jumanji (1995)

Adventure|Children’s|Fantasy

2

3

Grumpier Old Men (1995)

Comedy|Romance

3

4

Waiting to Exhale (1995)

Comedy|Drama

4

5

Father of the Bride Part II (1995)

Comedy

In [ ]:

df_

In [21]:

# inner:两边都有某个数据时才会保留

df_ratings_users pd.merge(

df_ratings, df_users, left_on UserID , right_on UserID , how inner

)

In [22]:

df_ratings_users.head()

Out[22]:

UserID

MovieID

Rating

Timestamp

Gender

Age

Occupation

Zip-code

0

1

1193

5

978300760

F

1

10

48067

1

1

661

3

978302109

F

1

10

48067

2

1

914

3

978301968

F

1

10

48067

3

1

3408

4

978300275

F

1

10

48067

4

1

2355

5

978824291

F

1

10

48067

In [25]:

df_ratings_users_movies pd.merge(

df_ratings_users, df_movies, left_on MovieID , right_on MovieID , how inner

)

In [26]:

df_ratings_users_movies.head()

Out[26]:

UserID

MovieID

Rating

Timestamp

Gender

Age

Occupation

Zip-code

Title

Genres

0

1

1193

5

978300760

F

1

10

48067

One Flew Over the Cuckoo’s Nest (1975)

Drama

1

2

1193

5

978298413

M

56

16

70072

One Flew Over the Cuckoo’s Nest (1975)

Drama

2

12

1193

4

978220179

M

25

12

32793

One Flew Over the Cuckoo’s Nest (1975)

Drama

3

15

1193

4

978199279

M

25

7

22903

One Flew Over the Cuckoo’s Nest (1975)

Drama

4

17

1193

5

978158471

M

50

1

95350

One Flew Over the Cuckoo’s Nest (1975)

Drama

2、理解merge时数量的对齐关系

以下关系要正确理解

one-to-one 一对一关系 关联的key都是唯一的

比如(学号 姓名) merge (学号 年龄)

结果条数为 1*1

one-to-many 一对多关系 左边唯一key 右边不唯一key

比如(学号 姓名) merge (学号 [语文成绩、数学成绩、英语成绩])

结果条数为 1*N

many-to-many 多对多关系 左边右边都不是唯一的

比如(学号 [语文成绩、数学成绩、英语成绩]) merge (学号 [篮球、足球、乒乓球])

结果条数为 M*N

2.1 one-to-one 一对一关系的merge

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-gL3djpVk-1597761927707)(http://localhost:8888/notebooks/pandas-learn-code/other_files/pandas-merge-one-to-one.png)]

In [31]:

left pd.DataFrame({ sno :[11, 12, 13, 14],

name :[ name_a , name_b , name_c , name_d ]

})

left

Out[31]:

sno

name

0

11

name_a

1

12

name_b

2

13

name_c

3

14

name_d

In [28]:

right pd.DataFrame({ sno :[11, 12, 13, 14],

age :[ 21 , 22 , 23 , 24 ]

})

right

Out[28]:

sno

age

0

11

21

1

12

22

2

13

23

3

14

24

In [30]:

# 一对一关系,结果中有4条

pd.merge(left, right, on sno )

Out[30]:

sno

name

age

0

11

name_a

21

1

12

name_b

22

2

13

name_c

23

3

14

name_d

24

2.2 one-to-many 一对多关系的merge

注意 数据会被复制

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-7xToCx8V-1597761927707)(http://localhost:8888/notebooks/pandas-learn-code/other_files/pandas-merge-one-to-many.png)]

In [32]:

left pd.DataFrame({ sno :[11, 12, 13, 14],

name :[ name_a , name_b , name_c , name_d ]

})

left

Out[32]:

sno

name

0

11

name_a

1

12

name_b

2

13

name_c

3

14

name_d

In [33]:

right pd.DataFrame({ sno :[11, 11, 11, 12, 12, 13],

grade :[ 语文88 , 数学90 , 英语75 , 语文66 , 数学55 , 英语29 ]

})

right

Out[33]:

sno

grade

0

11

语文88

1

11

数学90

2

11

英语75

3

12

语文66

4

12

数学55

5

13

英语29

In [35]:

# 数目以多的一边为准

pd.merge(left, right, on sno )

Out[35]:

sno

name

grade

0

11

name_a

语文88

1

11

name_a

数学90

2

11

name_a

英语75

3

12

name_b

语文66

4

12

name_b

数学55

5

13

name_c

英语29

2.3 many-to-many 多对多关系的merge

注意 结果数量会出现乘法

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Y9grLyta-1597761927708)(http://localhost:8888/notebooks/pandas-learn-code/other_files/pandas-merge-many-to-many.png)]

In [36]:

left pd.DataFrame({ sno :[11, 11, 12, 12, 12],

爱好 :[ 篮球 , 羽毛球 , 乒乓球 , 篮球 , 足球 ]

})

left

Out[36]:

sno

爱好

0

11

篮球

1

11

羽毛球

2

12

乒乓球

3

12

篮球

4

12

足球

In [37]:

right pd.DataFrame({ sno :[11, 11, 11, 12, 12, 13],

grade :[ 语文88 , 数学90 , 英语75 , 语文66 , 数学55 , 英语29 ]

})

right

Out[37]:

sno

grade

0

11

语文88

1

11

数学90

2

11

英语75

3

12

语文66

4

12

数学55

5

13

英语29

In [38]:

pd.merge(left, right, on sno )

Out[38]:

sno

爱好

grade

0

11

篮球

语文88

1

11

篮球

数学90

2

11

篮球

英语75

3

11

羽毛球

语文88

4

11

羽毛球

数学90

5

11

羽毛球

英语75

6

12

乒乓球

语文66

7

12

乒乓球

数学55

8

12

篮球

语文66

9

12

篮球

数学55

10

12

足球

语文66

11

12

足球

数学55

3、理解left join、right join、inner join、outer join的区别

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-45nVqPR9-1597761927708)(http://localhost:8888/notebooks/pandas-learn-code/other_files/pandas-leftjoin-rightjoin-outerjoin.png)]

In [52]:

left pd.DataFrame({ key :[ K0 , K1 , K2 , K3 ],

A :[ A0 , A1 , A2 , A3 ],

B :[ B0 , B1 , B2 , B3 ]})

right pd.DataFrame({ key :[ K0 , K1 , K4 , K5 ],

C :[ C0 , C1 , C2 , C3 ],

D :[ D0 , D1 , D2 , D3 ]})

In [53]:

left

Out[53]:

key

A

B

0

K0

A0

B0

1

K1

A1

B1

2

K2

A2

B2

3

K3

A3

B3

In [54]:

right

Out[54]:

key

C

D

0

K0

C0

D0

1

K1

C1

D1

2

K4

C2

D2

3

K5

C3

D3

3.1 inner join 默认

左边和右边的key都有 才会出现在结果里

In [55]:

pd.merge(left, right, how inner )

Out[55]:

key

A

B

C

D

0

K0

A0

B0

C0

D0

1

K1

A1

B1

C1

D1

3.2 left join

左边的都会出现在结果里 右边的如果无法匹配则为Null

In [56]:

pd.merge(left, right, how left )

Out[56]:

key

A

B

C

D

0

K0

A0

B0

C0

D0

1

K1

A1

B1

C1

D1

2

K2

A2

B2

NaN

NaN

3

K3

A3

B3

NaN

NaN

3.3 right join

右边的都会出现在结果里 左边的如果无法匹配则为Null

In [57]:

pd.merge(left, right, how right )

Out[57]:

key

A

B

C

D

0

K0

A0

B0

C0

D0

1

K1

A1

B1

C1

D1

2

K4

NaN

NaN

C2

D2

3

K5

NaN

NaN

C3

D3

3.4 outer join

左边、右边的都会出现在结果里 如果无法匹配则为Null

In [58]:

pd.merge(left, right, how outer )

Out[58]:

key

A

B

C

D

0

K0

A0

B0

C0

D0

1

K1

A1

B1

C1

D1

2

K2

A2

B2

NaN

NaN

3

K3

A3

B3

NaN

NaN

4

K4

NaN

NaN

C2

D2

5

K5

NaN

NaN

C3

D3

4、如果出现非Key的字段重名怎么办

In [61]:

left pd.DataFrame({ key :[ K0 , K1 , K2 , K3 ],

A :[ A0 , A1 , A2 , A3 ],

B :[ B0 , B1 , B2 , B3 ]})

right pd.DataFrame({ key :[ K0 , K1 , K4 , K5 ],

A :[ A10 , A11 , A12 , A13 ],

D :[ D0 , D1 , D4 , D5 ]})

In [60]:

left

Out[60]:

key

A

B

0

K0

A0

B0

1

K1

A1

B1

2

K2

A2

B2

3

K3

A3

B3

In [62]:

right

Out[62]:

key

A

D

0

K0

A10

D0

1

K1

A11

D1

2

K4

A12

D4

3

K5

A13

D5

In [64]:

pd.merge(left, right, on key )

Out[64]:

key

A_x

B

A_y

D

0

K0

A0

B0

A10

D0

1

K1

A1

B1

A11

D1

In [65]:

# 两个元素的后缀 如果列有重名 自动添加后缀 默认是( x , y )

pd.merge(left, right, on key , suffixes ( _left , _right ))

Out[65]:

key

A_left

B

A_right

D

0

K0

A0

B0

A10

D0

1

K1

A1

B1

A11

D1

十三、Pandas实现数据的合并concat

使用场景

批量合并相同格式的Excel、给DataFrame添加行、给DataFrame添加列

一句话说明concat语法

使用某种合并方式(inner/outer)

沿着某个轴向(axis 0/1)

把多个Pandas对象(DataFrame/Series)合并成一个。

concat语法 pandas.concat(objs, axis 0, join ‘outer’, ignore_index False)

objs 一个列表 内容可以是DataFrame或者Series 可以混合

axis 默认是0代表按行合并 如果等于1代表按列合并

join 合并的时候索引的对齐方式 默认是outer join 也可以是inner join

ignore_index 是否忽略掉原来的数据索引

append语法 DataFrame.append(other, ignore_index False)

append只有按行合并 没有按列合并 相当于concat按行的简写形式

other 单个dataframe、series、dict 或者列表

ignore_index 是否忽略掉原来的数据索引

参考文档

pandas.concat的api文档 https://pandas.pydata/pandas-docs/stable/reference/api/pandas.concat.html

pandas.concat的教程 https://pandas.pydata/pandas-docs/stable/user_guide/merging.html

pandas.append的api文档 https://pandas.pydata/pandas-docs/stable/reference/api/pandas.DataFrame.append.html

In [1]:

import pandas as pd

import warnings

warnings.filterwarnings( ignore )

一、使用Pandas.concat合并数据

In [2]:

df1 pd.DataFrame({ A :[ A0 , A1 , A2 , A3 ],

B :[ B0 , B1 , B2 , B3 ],

C :[ C0 , C1 , C2 , C3 ],

D :[ D0 , D1 , D2 , D3 ],

E :[ E0 , E1 , E2 , E3 ]

})

df1

Out[2]:

A

B

C

D

E

0

A0

B0

C0

D0

E0

1

A1

B1

C1

D1

E1

2

A2

B2

C2

D2

E2

3

A3

B3

C3

D3

E3

In [3]:

df2 pd.DataFrame({ A :[ A4 , A5 , A6 , A7 ],

B :[ B4 , B5 , B6 , B7 ],

C :[ C4 , C5 , C6 , C7 ],

D :[ D4 , D5 , D6 , D7 ],

F :[ F4 , F5 , F6 , F7 ]

})

df2

Out[3]:

A

B

C

D

F

0

A4

B4

C4

D4

F4

1

A5

B5

C5

D5

F5

2

A6

B6

C6

D6

F6

3

A7

B7

C7

D7

F7

1. 默认的concat, 参数为axis 0, join outer, ignore_index False

In [4]:

pd.concat([df1, df2])

Out[4]:

A

B

C

D

E

F

0

A0

B0

C0

D0

E0

NaN

1

A1

B1

C1

D1

E1

NaN

2

A2

B2

C2

D2

E2

NaN

3

A3

B3

C3

D3

E3

NaN

0

A4

B4

C4

D4

NaN

F4

1

A5

B5

C5

D5

NaN

F5

2

A6

B6

C6

D6

NaN

F6

3

A7

B7

C7

D7

NaN

F7

2. 使用ignore_index True可以忽略原来的索引

In [5]:

pd.concat([df1, df2], ignore_index True)

Out[5]:

A

B

C

D

E

F

0

A0

B0

C0

D0

E0

NaN

1

A1

B1

C1

D1

E1

NaN

2

A2

B2

C2

D2

E2

NaN

3

A3

B3

C3

D3

E3

NaN

4

A4

B4

C4

D4

NaN

F4

5

A5

B5

C5

D5

NaN

F5

6

A6

B6

C6

D6

NaN

F6

7

A7

B7

C7

D7

NaN

F7

3. 使用join inner过滤掉不匹配的列

In [6]:

pd.concat([df1, df2], ignore_index True, join inner )

Out[6]:

A

B

C

D

0

A0

B0

C0

D0

1

A1

B1

C1

D1

2

A2

B2

C2

D2

3

A3

B3

C3

D3

4

A4

B4

C4

D4

5

A5

B5

C5

D5

6

A6

B6

C6

D6

7

A7

B7

C7

D7

4. 使用axis 1相当于添加新列

In [7]:

df1

Out[7]:

A

B

C

D

E

0

A0

B0

C0

D0

E0

1

A1

B1

C1

D1

E1

2

A2

B2

C2

D2

E2

3

A3

B3

C3

D3

E3

A:添加一列Series

In [9]:

s1 pd.Series(list(range(4)), name F )

pd.concat([df1, s1], axis 1)

Out[9]:

A

B

C

D

E

F

0

A0

B0

C0

D0

E0

0

1

A1

B1

C1

D1

E1

1

2

A2

B2

C2

D2

E2

2

3

A3

B3

C3

D3

E3

3

B:添加多列Series

In [10]:

s2 df1.apply(lambda x:x[ A ] _GG , axis 1)

In [11]:

s2

Out[11]:

0 A0_GG

1 A1_GG

2 A2_GG

3 A3_GG

dtype: object

In [12]:

s2.name G

In [13]:

# 列表可以只有Series

pd.concat([s1,s2], axis 1)

Out[13]:

F

G

0

0

A0_GG

1

1

A1_GG

2

2

A2_GG

3

3

A3_GG

In [14]:

# 列表是可以混合顺序的

pd.concat([s1, df1, s2], axis 1)

Out[14]:

F

A

B

C

D

E

G

0

0

A0

B0

C0

D0

E0

A0_GG

1

1

A1

B1

C1

D1

E1

A1_GG

2

2

A2

B2

C2

D2

E2

A2_GG

3

3

A3

B3

C3

D3

E3

A3_GG

二、使用DateFrame.append按行合并数据

In [15]:

df1 pd.DataFrame([[1, 2], [3, 4]], columns list( AB ))

df1

Out[15]:

A

B

0

1

2

1

3

4

In [16]:

df2 pd.DataFrame([[5, 6], [7, 8]], columns list( AB ))

df2

Out[16]:

A

B

0

5

6

1

7

8

1. 给一个DataFrame添加另一个DataFrame

In [18]:

df1.append(df2)

Out[18]:

A

B

0

1

2

1

3

4

0

5

6

1

7

8

2. 忽略原来的索引 另ignore_index True

In [19]:

df1.append(df2, ignore_index True)

Out[19]:

A

B

0

1

2

1

3

4

2

5

6

3

7

8

3.可以一行一行的给DataFrame添加数据

In [21]:

# 创建一个空的df

df pd.DataFrame(columns [ A ])

df

Out[21]:

A

A:低性能版

In [22]:

for i in range(5):

# 注意 这里每次都在复制

df df.append({ a :i}, ignore_index True)

df

Out[22]:

A

a

0

NaN

0.0

1

NaN

1.0

2

NaN

2.0

3

NaN

3.0

4

NaN

4.0

B:性能好的版本

In [23]:

# 第一个

pd.concat(

[pd.DataFrame([i], columns [ A ]) for i in range(5)],

ignore_index True

)

Out[23]:

A

0

0

1

1

2

2

3

3

4

4

In [27]:

ss pd.DataFrame( i for i in range(5))

ss

Out[27]:

0

0

0

1

1

2

2

3

3

4

4

十四、Pandas批量拆分Excel与合并Excel

实例演示

将一个大Excel等份拆成多个Excel

将多个小Excel合并成一个大Excel并标记来源

In [51]:

work_dir D:/WinterIsComing/python/New_Wave/pandas_basic/15.excel_split_merge

# 用来放置拆分后的小文件

splits_dir f {work_dir}/splits

In [52]:

import os

if not os.path.exists(splits_dir):

os.mkdir(splits_dir)

0. 读取源Excel到Pandas

In [54]:

import pandas as pd

In [53]:

df_source pd.read_excel(r D:/WinterIsComing/python/New_Wave/pandas_basic/15.excel_split_merge/crazyant_blog_articles_source.xlsx )

In [55]:

df_source.head()

Out[55]:

id

title

tags

0

2585

Tensorflow怎样接收变长列表特征

python,tensorflow,特征工程

1

2583

Pandas实现数据的合并concat

pandas,python,数据分析

2

2574

Pandas的Index索引有什么用途

pandas,python,数据分析

3

2564

机器学习常用数据集大全

python,机器学习

4

2561

一个数据科学家的修炼路径

数据分析

In [56]:

df_source.index

Out[56]:

RangeIndex(start 0, stop 258, step 1)

In [57]:

# 258行 3列

df_source.shape

Out[57]:

(258, 3)

In [58]:

# 通过df_source.shape得到元组(258, 3)

# 通过df_source.shape[0]得到行数

total_row_count df_source.shape[0]

total_row_count

Out[58]:

258

1、将一个大excel等份拆成多个Excel

使用df.iloc方法 将一个大的DataFrame 拆分成多个小DataFrame

将使用DataFrame.to_excel保存每个小Excel

1. 1 计算拆分后的每个excel的行数

In [59]:

# 将一个大Excel 拆分给这几个人

user_names [ A , B , C , D , E , F ]

In [60]:

# 每个人的任务数目

split_size total_row_count // len(user_names)

# 此处的作用在于如果有余数 可以将未分配的行数 分配给前面几人 保证所有的行都分配出去

if total_row_count % len(user_names) ! 0:

split_size 1

split_size

Out[60]:

43

1.2 拆分成多个DataFrame

In [64]:

df_subs []

for idx, user_name in enumerate(user_names):

# iloc的开始索引

begin idx*split_size

# iloc的结束索引

end begin split_size

# 实现df按照iloc拆分

df_sub df_source.iloc[begin:end]

# 将每个子df存入列表

df_subs.append((idx, user_name, df_sub))

df_subs[0][2].head(5)

Out[64]:

id

title

tags

0

2585

Tensorflow怎样接收变长列表特征

python,tensorflow,特征工程

1

2583

Pandas实现数据的合并concat

pandas,python,数据分析

2

2574

Pandas的Index索引有什么用途

pandas,python,数据分析

3

2564

机器学习常用数据集大全

python,机器学习

4

2561

一个数据科学家的修炼路径

数据分析

In [65]:

df_subs[1][2].head(5)

Out[65]:

id

title

tags

43

2120

Zookeeper并不保证读取的是最新数据

zookeeper

44

2089

Mybatis源码解读-初始化过程详解

mybatis

45

2076

怎样借助Python爬虫给宝宝起个好名字

python,爬虫

46

2022

Mybatis源码解读-设计模式总结

mybatis,设计模式

47

2012

打工者心态、主人公意识、个人公司品牌

程序人生

1.3 将每个DataFrame存入excel

In [63]:

for idx, user_name, df_sub in df_subs:

file_name f {splits_dir}/spike_pandas_{idx}_{user_name}.xlsx

df_sub.to_excel(file_name, index False)

2、合并多个小Excel到一个大Excel

遍历文件夹 得到要合并的Excel文件列表

分别读取到DataFrame 给每个df添加一列用于标记来源

使用pd.concat进行df批量合并

将合并后的DataFrame输出到excel

2.1 遍历文件夹 得到要合并的Excel名称列表

In [66]:

import os

excel_names []

# listdir返回指定目录下的所有文件和文件夹名称

for excel_name in os.listdir(splits_dir):

excel_names.append(excel_name)

excel_names

Out[66]:

[ spike_pandas_0_A.xlsx ,

spike_pandas_1_B.xlsx ,

spike_pandas_2_C.xlsx ,

spike_pandas_3_D.xlsx ,

spike_pandas_4_E.xlsx ,

spike_pandas_5_F.xlsx ]

2.2 分别读取到DataFrame

In [70]:

df_list []

for excel_name in excel_names:

# 读取每个excel到df

excel_path f {splits_dir}/{excel_name}

df_split pd.read_excel(excel_path)

# 得到username 通过字符串切片

username excel_name.replace( spike_pandas_ , ).replace( .xlsx , )[2:]

# print(username)

# 给df_split添加一列username

df_split[ username ] username

df_list.append(df_split)

2.3 使用pd.concat进行合并

In [71]:

df_merged pd.concat(df_list)

In [72]:

df_merged.shape

Out[72]:

(258, 4)

In [74]:

df_merged.head()

Out[74]:

id

title

tags

username

0

2585

Tensorflow怎样接收变长列表特征

python,tensorflow,特征工程

A

1

2583

Pandas实现数据的合并concat

pandas,python,数据分析

A

2

2574

Pandas的Index索引有什么用途

pandas,python,数据分析

A

3

2564

机器学习常用数据集大全

python,机器学习

A

4

2561

一个数据科学家的修炼路径

数据分析

A

In [76]:

df_merged[ username ].value_counts()

Out[76]:

B 43

F 43

D 43

E 43

A 43

C 43

Name: username, dtype: int64

2.4 将合并后的DataFrame输出到Excel

In [77]:

df_merged.to_excel(f {work_dir}/spike_pandas_merged.xlsx , index False)

十五、Pandas怎样实现groupby分组统计

类似SQL

select city,max(temperature) from city_weather group by city;

groupby 先对数据分组 然后在每个分组上应用聚合函数、转换函数

本次演示

一、分组使用聚合函数做数据统计

二、遍历groupby的结果理解执行流程

三、实例分组探索天气数据

In [1]:

import pandas as pd

import numpy as np

# 加上这一句 能在jupyter notebook展示matplo图表

%matplotlib inline

In [4]:

df pd.DataFrame({ A : [ foo , bar , foo , bar , foo , bar , foo , foo ],

B : [ one , one , two , three , two , two , one , three ],

C : np.random.randn(8),

D : np.random.randn(8)})

df

Out[4]:

A

B

C

D

0

foo

one

-0.102369

0.042233

1

bar

one

1.552845

-0.623522

2

foo

two

0.770077

0.205682

3

bar

three

-1.989910

-0.617111

4

foo

two

1.230455

-0.422428

5

bar

two

-0.697516

-0.964579

6

foo

one

-0.939646

-0.414017

7

foo

three

0.763570

0.451086

1、分组使用聚合函数做数据统计

1.1 单个列groupby 查询所有数据列的统计

In [5]:

df.groupby( A ).sum()

Out[5]:

C

D

A

bar

-1.134582

-2.205211

foo

1.722086

-0.137444

我们看到

groupby中的’A’变成了数据的索引列

因为要统计sum 但B列不是数字 所以被自动忽略掉

1.2 多个列groupby 查询所有数据列的统计

In [6]:

# 以A,B为索引 查询C,D的平均值

df.groupby([ A , B ]).mean()

Out[6]:

C

D

A

B

bar

one

1.552845

-0.623522

three

-1.989910

-0.617111

two

-0.697516

-0.964579

foo

one

-0.521008

-0.185892

three

0.763570

0.451086

two

1.000266

-0.108373

In [7]:

# 取消A.B作为索引

df.groupby([ A , B ], as_index False).mean()

Out[7]:

A

B

C

D

0

bar

one

1.552845

-0.623522

1

bar

three

-1.989910

-0.617111

2

bar

two

-0.697516

-0.964579

3

foo

one

-0.521008

-0.185892

4

foo

three

0.763570

0.451086

5

foo

two

1.000266

-0.108373

1.3 同时查看多种数据统计

In [8]:

df.groupby( A ).agg([np.sum, np.mean, np.std])

Out[8]:

C

D

sum

mean

std

sum

mean

std

A

bar

-1.134582

-0.378194

1.792834

-2.205211

-0.735070

0.198786

foo

1.722086

0.344417

0.864635

-0.137444

-0.027489

0.385242

我们看到 列变成了多级索引

1.4 查看单列的结果数据统计

In [10]:

# 预过滤 性能更好

df.groupby( A )[ C ].agg([np.sum, np.mean, np.std])

Out[10]:

sum

mean

std

A

bar

-1.134582

-0.378194

1.792834

foo

1.722086

0.344417

0.864635

In [9]:

# 方法2

df.groupby( A ).agg([np.sum, np.mean, np.std])[ C ]

Out[9]:

sum

mean

std

A

bar

-1.134582

-0.378194

1.792834

foo

1.722086

0.344417

0.864635

1.5 不同列使用不同的聚合函数

In [12]:

# 以字典的形式对不同的列使用不同的聚合函数

df.groupby( A ).agg({ C :np.sum, D :np.mean})

Out[12]:

C

D

A

bar

-1.134582

-0.735070

foo

1.722086

-0.027489

2、遍历groupby的结果理解执行流程

for循环可以直接遍历每个group

2.1 遍历单个列聚合的分组

In [13]:

g df.groupby( A )

g

Out[13]:

In [16]:

df

Out[16]:

A

B

C

D

0

foo

one

-0.102369

0.042233

1

bar

one

1.552845

-0.623522

2

foo

two

0.770077

0.205682

3

bar

three

-1.989910

-0.617111

4

foo

two

1.230455

-0.422428

5

bar

two

-0.697516

-0.964579

6

foo

one

-0.939646

-0.414017

7

foo

three

0.763570

0.451086

In [15]:

for name,group in g:

print(name)

print(group)

print()

# name:bar and foo

# group:是两个DataFrame

bar

A B C D

1 bar one 1.552845 -0.623522

3 bar three -1.989910 -0.617111

5 bar two -0.697516 -0.964579

foo

A B C D

0 foo one -0.102369 0.042233

2 foo two 0.770077 0.205682

4 foo two 1.230455 -0.422428

6 foo one -0.939646 -0.414017

7 foo three 0.763570 0.451086

*可以获取单个分组的数据*

In [17]:

g.get_group( bar )

Out[17]:

A

B

C

D

1

bar

one

1.552845

-0.623522

3

bar

three

-1.989910

-0.617111

5

bar

two

-0.697516

-0.964579

2.2 遍历多个列聚合的分组

In [20]:

g df.groupby([ A , B ])

g

Out[20]:

In [21]:

for name, group in g:

print(name)

print(group)

print()

# 分组的名称变成了元组

( bar , one )

A B C D

1 bar one 1.552845 -0.623522

( bar , three )

A B C D

3 bar three -1.98991 -0.617111

( bar , two )

A B C D

5 bar two -0.697516 -0.964579

( foo , one )

A B C D

0 foo one -0.102369 0.042233

6 foo one -0.939646 -0.414017

( foo , three )

A B C D

7 foo three 0.76357 0.451086

( foo , two )

A B C D

2 foo two 0.770077 0.205682

4 foo two 1.230455 -0.422428

可以看到 name是一个2个元素的tuple 代表不同的列

In [22]:

g.get_group(( foo , one ))

Out[22]:

A

B

C

D

0

foo

one

-0.102369

0.042233

6

foo

one

-0.939646

-0.414017

*可以直接查询group后的某几列 生成Series或者子DataFrame*

In [24]:

# 获得一个SeriesGroupBy

g[ C ]

Out[24]:

In [25]:

for name, group in g[ C ]:

print(name)

print(group)

print(type(group))

print()

( bar , one )

1 1.552845

Name: C, dtype: float64

( bar , three )

3 -1.98991

Name: C, dtype: float64

( bar , two )

5 -0.697516

Name: C, dtype: float64

( foo , one )

0 -0.102369

6 -0.939646

Name: C, dtype: float64

( foo , three )

7 0.76357

Name: C, dtype: float64

( foo , two )

2 0.770077

4 1.230455

Name: C, dtype: float64

其实所有的聚合统计 都是在dataframe和series上进行的

3、实例分组探索天气数据

In [27]:

fpath ./pandas-learn-code/datas/beijing_tianqi/beijing_tianqi_2018.csv

df pd.read_csv(fpath)

df.head()

Out[27]:

ymd

bWendu

yWendu

tianqi

fengxiang

fengli

aqi

aqiInfo

aqiLevel

0

2018-01-01

3℃

-6℃

晴~多云

东北风

1-2级

59

2

1

2018-01-02

2℃

-5℃

阴~多云

东北风

1-2级

49

1

2

2018-01-03

2℃

-5℃

多云

北风

1-2级

28

1

3

2018-01-04

0℃

-8℃

东北风

1-2级

28

1

4

2018-01-05

3℃

-6℃

多云~晴

西北风

1-2级

50

1

In [28]:

# 替换掉温度的后缀℃

df.loc[:, bWendu ] df[ bWendu ].str.replace( ℃ , ).astype( int32 )

df.loc[:, yWendu ] df[ yWendu ].str.replace( ℃ , ).astype( int32 )

df.head()

Out[28]:

ymd

bWendu

yWendu

tianqi

fengxiang

fengli

aqi

aqiInfo

aqiLevel

0

2018-01-01

3

-6

晴~多云

东北风

1-2级

59

2

1

2018-01-02

2

-5

阴~多云

东北风

1-2级

49

1

2

2018-01-03

2

-5

多云

北风

1-2级

28

1

3

2018-01-04

0

-8

东北风

1-2级

28

1

4

2018-01-05

3

-6

多云~晴

西北风

1-2级

50

1

In [29]:

# 新增一列为月份

df[ month ] df[ ymd ].str[:7]

df.head()

Out[29]:

ymd

bWendu

yWendu

tianqi

fengxiang

fengli

aqi

aqiInfo

aqiLevel

month

0

2018-01-01

3

-6

晴~多云

东北风

1-2级

59

2

2018-01

1

2018-01-02

2

-5

阴~多云

东北风

1-2级

49

1

2018-01

2

2018-01-03

2

-5

多云

北风

1-2级

28

1

2018-01

3

2018-01-04

0

-8

东北风

1-2级

28

1

2018-01

4

2018-01-05

3

-6

多云~晴

西北风

1-2级

50

1

2018-01

3.1 查看每个月的最高温度

In [31]:

data df.groupby( month )[ bWendu ].max()

data

Out[31]:

month

2018-01 7

2018-02 12

2018-03 27

2018-04 30

2018-05 35

2018-06 38

2018-07 37

2018-08 36

2018-09 31

2018-10 25

2018-11 18

2018-12 10

Name: bWendu, dtype: int32

In [32]:

type(data)

Out[32]:

pandas.core.series.Series

In [34]:

data.plot()

Out[34]:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Ssxk6ssS-1597761927710)(data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAAAXUAAAEKCAYAAADticXcAAAABHNCSVQICAgIfAhkiAAAAAlwSFlzAAALEgAACxIB0t1 /AAAADl0RVh0U29mdHdhcmUAbWF0cGxvdGxpYiB2ZXJzaW9uIDMuMC4zLCBodHRwOi8vbWF0cGxvdGxpYi5vcmcvnQurowAAIABJREFUeJzt3Xl8VNX9//HXJ5N9ISEkgZAEwx7CkqAhoLiLghvY1p0iClStti6lX63WumtbrdhNrQqIIlqtK0UlUiqgVtmErBB2SYBshGwkJCQ5vz9m9Ecpy2SZubN8no/HPDK5uXPv 0DymTvn3nOuGGNQSinlGwKsDqCUUqr7aFFXSikfokVdKaV8iBZ1pZTyIVrUlVLKh2hRV0opH6JFXSmlfIgWdaWU8iFa1JVSyocEunuHcXFxJjU11d27VUopr7Z /foqY0z8ydZze1FPTU1l3bp17t6tUkp5NRH51pn1tPtFKaV8iBZ1pZTyIVrUlVLKh2hRV0opH6JFXSmlfIgWdaWU8iFa1JVSyoe4/Tp1pVxl7a5q8ktrGZEUzYikHoQH66 38j/6W6 83oGDLTzx8SbeWV/6/bIAgSG9o8hIjmFUSjQZyTEM7RNFkE0/nCrfpkVdeS1jDO9v2MPjH22irukwt507kOvH9qO4rJ7c0lpyS2rIKSrjrXUlAIQEBjC8bw8yUmLISI4hIyWG1F7hiIjFLVGq 4gxxq07zMrKMjpNgOqqXVUHeeCDAr7YVsWp/WJ48ocjSevT43/WM8ZQUt3ExtIacktqyCutIX9PLYcOtwMQHRbEqOTo74t8RnI0CT1C3d0cpU5KRNYbY7JOtp4eqSuv0tLazsuf7 DPy7cSbAvgsStGMDW7HwEBxz7aFhH69QqnX69wJmf0BaC1rZ2tFQ3kltSQW1pDbkktL6zcTlu7/QAnMTr0 26bzOQYRiRH0yM0yG1tVKortKgrr7H 22ruey fLeUNXDoykYcuT /UUXWgLYBhiT0YltiDa7P7AdDU0kbh3trvu21yS2tYWlgGgAgMiIsgIyWGzJQYRiXHMCwxipBAW7e2T6nuoEVdebzapsM8tXQzi1bvJikmjHnTs7hgWO9u3UdYsI2s1FiyUmO/X3bgYAt5e2q/77ZZtaWK977ZA0CQTUhP7MGoI7ptBsZHHvcTg1Luon3qymMZY/gofx P/LOI/Q3NzBjfn7svHEJEiDXHIsYY9tUeIrekho2lNeSV1JJXWsPBljYAIkMCGZkU/X23TUZKDInRoXoiVnUL7VNXXq30QCO/ aCAz4orGZkUzSs3jmFEUrSlmUSEvjFh9I0J4 KRiQC0tRt2VDawsaSGvNJacktrmP/FTg632Q W4iJDyEyJ/q8j pjwYCuboXycFnXlUVrb2nnly13MWbYFEfjNZelMP/0UAj30 nJbgDC4dxSDe0dxVVYKAM2tbWzaV3/Eidga/rWp4vvXnNIr3H4iNjmazJQYhveNJixY dV99CirjxGXmkN972XT HeOiYMS CRKSNIigmzOlaHhQTayHScVP1O3aHDFJTWft9ts3ZXNYtz9wL2N4YhvaPIdAySGpUcw5DekR77RqY8m/apK8s1NLfyzKfFvPqfXcRHhfDI5OFMHN7H5/uiK oO/dfVNrklNdQdagUgNCiAEX2j7V02jm6bfrE6UMqfOdunrkVdWerTwjIeWlxIWd0hpo07hV9OHOq314QbY9i1v5G80ho2ltiLfOHeOppb7QOlYsKD7IOkku3FflRyDPFRIRanVu6iJ0qVRyurPcRDiwvIKSwnrU8Uz009lVP79bQ6lqVEhP5xEfSPi2BKZhIAh9vaHdMe2Lttcktr OtnlTjGSZEUE8bVWSncccEgPYpXgBZ15WZt7YbXv/6Wp3OKaW1v595Jacw6q79OtHUcQbYAx6yT0Uwda1/W2NJKwZ46cktq GJbFc/ awstbW3838Q0a8Mqj6BFXblN0d467n8/n40lNZw1OI4nrhhJv17hVsfyOuHBgWT3jyW7fyyzzurP/e8X8Nxn2wkPDuT28wZZHU9ZTIu6crmmljb uHwLcz/fSc/wIP50bSaTM/pqd0E3EBEev2IETS2tPJ1TTFiQjRln9rc6lrKQU0VdREKBVUCI4zXvGGMeEpEFwDlArWPVG40xG10RVHmnlVsqeeCDfEqqm7h2TAq/ujhNB990M1uA8IerMmg63MajS4oID7Z9P6eN8j/OHqk3A cbYxpEJAj4QkQ cfzs/4wx77gmnvJWlfXNPLakiMW5exkYH8FbN49j7IBeVsfyWYG2AP583Whufm09972fT1iw7fuTrcq/OFXUjf26xwbHt0GOh3uvhVRe4 21JTz URGHDrdz94Qh3HruAJ3R0A1CAm28OO00bnxlDb94O5fQIBsTh/exOpZyM6cvORARm4hsBCqAZcaY1Y4fPSEieSLyrIgc86JZEblZRNaJyLrKyspuiK081fMrtnHPu3kMS zBJ3edxZ0TBmtBd6PQIBtzp49hZFI0P39jAyu36N bv3G6qBtj2owxmUAykC0iI4D7gDRgDBAL3Huc175kjMkyxmTFx8d3Q2zliRZ8uZOnlhYzJbMvb/xkHAPjI62O5JciQwJ59aZsBiVEcsvCdazesd/qSMqNOnxxsDGmBlgBTDLG7DN2zcArQHY351Ne4u21JTz8zyIuSu/NH67KwKbzilsqOjyIhTOzSe4ZzowFa9lYUmN1JOUmThV1EYkXkRjH8zBgArBZRBIdywS4AihwVVDluRbn7uXe9/I4e0g8f7l tA4k8hC9IkN4feZYekWGcMO81RTtrbM6knIDZ//6EoHPRCQPWIu9T30JsEhE8oF8IA543DUxladaVlTOL97ayJjUWF788Wnaf 5h kSHsmjWWCJCApk2bzXbKhpO/iLl1XRCL9Vpn2 tZOaCdQzr24NFs8YSadEdidTJ7ahs4OoXv8YWAP 45QwdyeuFnJ3QSz8nq05Zs7Oan7y2joEJkbx2U7YWdA83ID6S12dl09zazvVzv2ZfbZPVkZSLaFFXHZZbUsOMBWtJiglj4cxsosP9c6pcb5PWpwevzcimpvEwU19eTWV9s9WRlAtoUVcdsmlfHTfMX0PPiCAWzRpHXKTO5 1NRiXH8MpNY9hXe4hp81ZT09hidSTVzbSoK6dtr2xg2rzVhAXZeGPWOPpEh1odSXXCmNRYXr4hix2VB5k fw31hw5bHUl1Iy3qyikl1Y1Mfdk iHjRT8aSEqsn2rzZmYPjeH7qqRTurWPmgnU0tbRZHUl1Ey3q6qTKag8xde5qmg63sXDmWB0p6iMmpPfm2WsyWfdtNTcvXEdzqxZ2X6BFXZ1QVUMzU d TfXBFl6bkc2wxB5WR1Ld6PKMvvzuR6P4fGsVP3tjA4fb2q2OpLpIi7o6rtrGw0ybt4Y9NU3Mv3EMGSkxVkdSLnB1VgqPThnOsqJyZr dS1u7TsDqzfTiYnVMDc2tTH9lDdsrGpg7PYvs/rFWR1IudMPpqTS2tPG7TzYTFmTjtz8cSYDO3 OVtKir/9HU0sbMBWvJ31PLC1NP5ewhOrOmP7j1nIE0Nrfy539vIyzYxkOXp stB72QFnX1X5pb27j19fWs2VXNn64dzUV6kwW/cveFQ2hsaWPuFzsJD7Zxz6Q0qyOpDtKirr7X2tbOHW/ab6zw1I9GMTmjr9WRlJuJCL dBiNh9t4fsV2IkICuf28QVbHUh2gRV0B0NZu OU/cskpLOfhy9O5ekyK1ZGURUSEx6eMoKmljadzigkLsjHjzP5Wx1JO0qKuMMbwwAf5fLBxL/dMGsqN4/UP2N8FBAhPXzmKppY2Hl1SRHiwjWuz 1kdSzlBL2n0c8YYHluyiTfXlPCz8wZx27n6UVvZBdoC PN1ozl3aDz3vZ/Phxv3WB1JOUGLup bs2wL87/cyU3jU5l90RCr4ygPExwYwN9 fBpj 8fyi7dzWVpQZnUkdRJa1P3Y8yu28Zd/b PaMSk8eJlevqaOLTTIxtzpYxiVHM3P3/yGFcUVVkdSJ6BF3U8t HInTy0tZkpmX574wUgt6OqEIkMCWXBTNoMTorhl4Xq 3rHf6kjqOLSo 6G315bw8D LmDi8N89clYFNRw4qJ0SHBbFwZjYpseHMXLCWDbsPWB1JHYMWdT zOHcv976Xx9lD4vnzdaMJtOmvgHJer8gQFs0aS1xUCNPnr9EbWXsg/Yv2I8uKyvnFWxsZkxrLiz8 jZBAm9WRlBfq3SOU12eOJcgWwC0L1 lNNjyMFnU/8fnWSm5f9A0jkqKZf MYwoK1oKvOS4kN57mpp7JrfyOz386lXWd29Bha1P3Amp3V/OS1dQxMiOTVm7KJDNExZ6rrxg3oxa8vGcanReU8v2Kb1XGUg1NFXURCRWSNiOSKSKGIPOJY3l9EVovIVhF5S0SCXRtXdVRuSQ0zFqwlKSaMhTOziQ4PsjqS8iE3jU/lB6OTeGbZFj7brJc6egJnj9SbgfONMRlAJjBJRMYBvweeNcYMBg4AM10TU3XGpn113DB/DT0jglg0axxxkSFWR1I RkR48gcjGdanB3f8fQO7qg5aHcnvOVXUjd13p7mDHA8DnA 841j KnBFtydUnVK0t45p81YTFmTjjVnj6BMdanUk5aPCgm28OO00bAHCLQvXc7C51epIfs3pPnURsYnIRqACWAZsB2qMMd/9D5YCScd57c0isk5E1lVWVnY1szqBppY2fr90M5P/ gUiwqKfjCUlNtzqWMrHpcSG89frTmVrRT33vJOHMXri1CpOF3VjTJsxJhNIBrKBYcda7TivfckYk2WMyYqP17vouMqqLZVM/OMqXlixnR MTuLTu85mYHyk1bGUnzhzcBz3Tkrjo/x9vLhqh9Vx/FaHL4MwxtSIyApgHBAjIoGOo/VkYG8351NOqGpo5rElRXy4cS8D4iJ48yfjOH1gL6tjKT9089kDyNtTy1NLNzO8bw/OGqwHce7m7NUv8SIS43geBkwANgGfAVc6VpsOfOiKkOrYjDG8tXY3Fzyzkk/yy7jzgsF8ctdZWtCVZUTs87AP6R3Fz9/cQEl1o9WR/I6z3S JwGcikgesBZYZY5YA9wK/EJFtQC9gnmtiqqNtq2jgmpe 5t538xnaJ4qP7zyLuy8coqNEleXCgwN5cdpptLcbbl64nqaWNqsj RVx9wmNrKwss27dOrfu05c0t7bx/GfbeWHFdsKCbdx/SRpXnZZCgE7KpTzMZ8UVzFiwlikZfXn2mkydCbSLRGS9MSbrZOvp0EIv8vWO/dz/fj47Kg8yJbMvD1yaTnyUXnuuPNN5QxOYfeEQ/vDpFkYmxzBT73PqFlrUvcCBgy08 fEm/rG lJTYMF6dkc05Q/QElPJ8t507iPw9tTz58SaGJUZxxsA4qyP5PJ37xYMZY3h/QykT5qzkvQ17uPWcgXx61zla0JXXCAgQnrk6k/5xEfz8jQ3sqWmyOpLP06Luob7df5Ab5q/h7rdySYkNZ8nPz RXF6fp7IrK60SG2E ctrS2c vC9Rw6rCdOXUmLuoc53NbOc59t46JnV7Fxdw2PTRnOuz89g2GJPayOplSnDYyPZM41meTvqeWBDwp0xKkLaZ 6B1n/7QHufy f4vJ6Lh7Rh4cnD6d3D52zRfmGC9N7c cFg/nT8q1kJEcz7fRUqyP5JC3qHqC26TBPLd3MG2t2k9gjlLk3ZDEhvbfVsZTqdndeMJiCPbU88s8i0hJ7MCY11upIPke7XyxkjOGjvH1MmLOSN9fs5qYz vPpL87Rgq58VkCAMOeaTFJiw/np699QVnvI6kg R4u6RUoPNDLz1XXc/sY3JESF8OHtZ/Lg5el6VyLl86LDgnhp2mk0tbTy00XraW7VE6fdSYu6m7W2tTP38x1cOGcVX23fzwOXDuPD28czMjna6mhKuc3g3lH84aoMNuyu4eHFRVbH8Sl6WOhG aW13Pd HgV76jg/LYFHpwwnuafOda7808UjE7nt3IE8v2I7o5KjuS67n9WRfIIWdTdoaG7lmU LefU/u4iLDOH5qady8Yg OheG8nuzLxpKwd46HvqwkKF9oji1X0 rI3k97X5xsZVbKrlozkoW/GcX14/tx79mn8MlIxO1oCsF2AKEP1 bSZ/oUH76 noq6vXEaVdpUXehxpZWbl24nvCQQN659Qwev2IkPUKDrI6llEeJCQ/mxWmnUdfUyu2LvqGltd3qSF5Ni7oLrdpSSdPhNh6dMpzTTtGPlUodz7DEHvz ylGs3XWAJz7SE6ddoX3qLrS0oIye4UFk6wALpU5qckZf8ktrePnznYxIiuaqrBSrI3klPVJ3kZbWdpZvrmDCsN4E2vSfWSln3DspjTMG9uLXHxSQV1pjdRyvpNXGRb7asZ/6Q61MGtHH6ihKeY1AWwB/vf5U4iNDuHXhevY3NFsdyetoUXeRnMIyIoJtjB kNwVQqiNiI wnTvcfbOH2N76htU1PnHaEFnUXaGs3fFpYzrlDEwgN0vnPleqoEUnR/PaHI/l6RzW//WSz1XG8ip4odYENuw9Q1dDMRO16UarTfnhqMnmltcz7YiejkqOZkplkdSSvoEfqLrC0oIxgWwDnDdXbzinVFb dBjZ/WO59908CvfWWh3HKzhV1EUkRUQ E5FNIlIoInc6lj8sIntEZKPjcYlr43o Yww5RWWMH9SLKB1opFSXBNkCeO76U4kJC aWhes5cLDF6kgez9kj9VZgtjFmGDAOuF1E0h0/e9YYk l4fOySlF5k0756SqqbmDhcu16U6g7xUSH8bdppVNQ1c8ffN9DWrrfCOxGniroxZp8x5hvH83pgE6AdXMewtLCMAEFvdKFUN8pMieGxK4bz dYqns4ptjqOR twn7qIpAKjgdWORT8TkTwRmS8ifj8W/tPCMrJSY4mLDLE6ilI 5Zox/Zg6th9/W7mdj/P3WR3HY3WoqItIJPAucJcxpg54ARgIZAL7gGeO87qbRWSdiKyrrKzsYmTPtavqIJvL6pmkXS9KucRDlw8nMyWG 97Lp7xOZ3Q8FqeLuogEYS/oi4wx7wEYY8qNMW3GmHbgZSD7WK81xrxkjMkyxmTFx/vuFSE5hWUAXDRcu16UcoXgwACevSaT5tY27n03D2O0f/1ozl79IsA8YJMxZs4RyxOPWO0HQEH3xvMuSwvLGJkUrXczUsqF sdFcN/Fw1hRXMnf15ZYHcfjOHukPh6YBpx/1OWLT4lIvojkAecBd7sqqKcrrzvEht01TNSjdKVcbtq4Uxg/qBePLymipLrR6jgexdmrX74wxogxZtSRly8aY6YZY0Y6lk82xvjt2YtPHV0veimjUq4XECA8dWUGASLM/kcu7XqZ4/d0RGk3ySksZ0B8BIMSIq2OopRfSIoJ48HL01mzs5r5X 60Oo7H0KLeDWoaW/hqx34mDtebSSvlTleelsyEYQk8lVPMtop6q N4BC3q3WD5pgra2o1eyqiUm4kIT/5wJBHBNma/navT9KJFvVssLSwjMTqUUcnRVkdRyu8kRIXy BUjyS2t5YUV262OYzkt6l3U2NLKqi2V2vWilIUuHZXI5Iy /Gn5Vgr2 PdsjlrUu2hlcSXNre064Egpiz06ZTixEcHMfjuX5tY2q NYRot6F UUltEzPIjs1Firoyjl12LCg/n9j0ZRXF7Ps8u2Wh3HMlrUu6CltZ3lmyuYMKw3gTb9p1TKauelJXDtmBReWrWd9d9WWx3HElqJuuCrHfupP9TKJL1tnVIe44HL0ukbE8bst3NpbGm1Oo7baVHvgpzCMiKCbYwfFGd1FKWUQ2RIIE9fmcGu/Y38zg9vWq1FvZPa2g2fFpZzbloCoUE2q MopY5w sBezBjfn9e pYvtlZZHcettKh30obdB6hqaNa5XpTyUPdMGsqA AjueSeXukOHrY7jNlrUO2lpQRnBtgDOG q788Mr5c1Cg2zMuTqT8vpmHv1nkdVx3EaLeicYY8gpKmP8oF5EhQZZHUcpdRyZKTHcdu5A3llfyrKicqvjuIUW9U4o2ldHSXWTdr0o5QV fv5g0hN7cN97eVQfbLE6jstpUe EnMJyAgQmpOsoUqU8XXBgAHOuyaC26TAPfJDv87fA06LeCTkFZWSlxhIXGWJ1FKWUE9L69ODuC4fwcX4Zi3P3Wh3HpbSod9DOqoMUl9frNLtKeZlbzh7I6H4x/OaDAsrrDlkdx2W0qHdQjuO2dTqBl1LexRYgzLk6k5a2du55J89nu2G0qHdQTmEZI5OiSe4ZbnUUpVQH9Y L4L6Lh7FySyV/X1tidRyX0KLeAWW1h9iwu4aJepSulNeaNu4UzhjYi8eXFFFS3Wh1nG6nRb0DlhXZu150Ai lvFdAgPD0VRmICLP/kUt7u291w2hR74ClhWUMiI9gUEKU1VGUUl2QFBPGg5ens2ZnNfO/3Gl1nG7lVFEXkRQR UxENolIoYjc6VgeKyLLRGSr42tP18a1Tk1jC1/vqNYBR0r5iKtOS2bCsASeyilmW0W91XG6jbNH6q3AbGPMMGAccLuIpAO/ApYbYwYDyx3f 6Tlmypoazd6KaNSPkJEePKHI4kItjH77Vxa29qtjtQtnCrqxph9xphvHM/rgU1AEjAFeNWx2qvAFa4I6QmWFpaRGB3KqORoq6MopbpJQlQoj18xktzSWp5fsd3qON2iw33qIpIKjAZWA72NMfvAXviBhO4M5ykaW1pZtaWSicP7ICJWx1FKdaNLRyUyOaMvf16 lYI9tVbH6bIOFXURiQTeBe4yxtR14HU3i8g6EVlXWVnZ0YyWW1lcSXNruw44UspHPTplOLERwcx O5fm1jar43SJ00VdRIKwF/RFxpj3HIvLRSTR8fNEoOJYrzXGvGSMyTLGZMXHe9/84zmFZfQMDyI7NdbqKEopF4gJD b3PxpFcXk9zy7banWcLnH26hcB5gGbjDFzjvjRYmC64/l04MPujWe9ltZ2lm uYMKw3gTa9ApQpXzVeWkJXDsmhZdWbWf9t9VWx k0Z6vUeGAacL6IbHQ8LgF B1woIluBCx3f 5Svduyn/lCrDjhSyg88cFk6fWPCmP12Lo0trVbH6RRnr375whgjxphRxphMx NjY8x Y8wFxpjBjq/e /Z2HEsLyogItjF UJzVUZRSLhYZEsjTV2awa38jv/tks9VxOkX7E06grd2wrKicc9MSCA2yWR1HKeUGpw/sxYzx/Xntq2/5YmuV1XE6TIv6CXyz wBVDc06ilQpP3PPpKEMiI/gnndyqTt02Oo4HaJF/QRyCsoItgVw3lDvu2JHKdV5oUE25lydSVndIR5ZXGR1nA7Ron4cxhiWFpYxflAvokKDrI6jlHKzzJQYbjt3EO9 U8qnjpvjeAMt6sdRtK O0gNN2vWilB 744LBpCf24P7389nf0Gx1HKdoUT OnIIyAgQmpOsoUqX8VXBgAHOuyaC26TAPfFDgFbfA06J HDmF5WSlxhIXGWJ1FKWUhdL69ODuC4fwSUEZi3P3Wh3npLSoH8POqoMUl9frNLtKKQBuOXsgo/vF8JsPCqis9 xuGC3qx5DjOCmiE3gppQBsAcLTV2bQdLiNp5Z69qAkLerHkFNYxsikaJJ7hlsdRSnlIQYlRDLjzP78Y30p6789YHWc49KifpSy2kNs2F3DRD1KV0od5Y7zB9O7RwgPLS6gzUNvWK1F/SjLiuxdLzqBl1LqaBEhgfz60nQK9tTxxprdVsc5Ji3qR1laWMaA AgGJURZHUUp5YEuH5XI6QN68YecYqoPtlgd539oUT9CTWMLX o1qtelFLHJSI8MmU4Dc2tPJ3jeSdNtagf4V bKmhrNzqKVCl1QkN6R3HjGan8fW0JuSU1Vsf5L1rUj5BTWEZidCijkqOtjqKU8nB3TRhMXGQID35YQLsHnTTVou7Q2NLKqi2VTBzeB/vd 5RS6viiQoO4/5I0cktreXtdidVxvqdF3WFlcSXNre064Egp5bQrMpMYk9qT3y/dTE2jZ5w01aLusLSwjJ7hQWSnxlodRSnlJUSERyaPoLbpMH/4tNjqOIAWdQBaWtv596YKJgzrTaBN/0mUUs5L79uDG05PZdHq3RTsqbU6jhZ1gP9sr6K uVUHHCmlOuXuC4fQKyLYI06aalHHPs1uRLCN8YPirI6ilPJC0WFB3DspjW921/DuN6WWZvH7ot7WblhWVMa5aQmEBtmsjqOU8lI/OjWZ0f1i N0nm6ltsu5m1U4VdRGZLyIVIlJwxLKHRWSPiGx0PC5xXUzX Wb3AaoaWnTAkVKqSwIChMemjKC6sYVnl22xLoeT6y0AJh1j bPGmEzH4 Pui U OQVlBNsCOG9ovNVRlFJebkRSNFPH9uO1r3axaV dJRmcKurGmFVAtYuzuJ0xhqWFZYwf1Iuo0CCr4yilfMAvLxpKdFgQD35ozT1Nu9qn/jMRyXN0z/TslkRuVLSvjtIDTdr1opTqNjHhwdwzKY21uw7wwcY9bt9/V4r6C8BAIBPYBzxzvBVF5GYRWSci6yorK7uwy 6VU1BGgMCEdB1FqpTqPtdkpZCRHM2TH2 m/pB7T5p2uqgbY8qNMW3GmHbgZSD7BOu ZIzJMsZkxcd7Tt91TmE5WamxxEWGWB1FKeVDAgKER6eMoKqhmT/9a6t7993ZF4pI4hHf/gAoON66nmhn1UGKy t17nSllEtkpMRw7ZgUXvnPLraU17ttv85e0vgm8BUwVERKRWQm8JSI5ItIHnAecLcLc3a7nEL7bet0Ai llKv838Q0IkMC3XrSNNCZlYwx1x1j8bxuzuJWSwvKGJkUTXLPcKujKKV8VGxEML cOJTffFDAkrx9XJ7R1 X79MsRpWW1h9hYUsNEPUpXSrnY9dn9GJHUgyc 2sTB5laX788vi/qnRfauF53ASynlarYA /S8ZXWH PO/XX/S1C Lek5hGQPiIxiUEGV1FKWUHzjtlJ5ceVoy8z7fybaKBpfuy K oGDLXy9o1qvelFKudWvLk4jLNjGw4sLXXrS1O K vLNFbS1Gx1FqpRyq7jIEGZfOIQvtlUAmgBuAAAMdUlEQVSxtKDMZfvxu6K tKCMxOhQRiVHWx1FKeVnfjzuFNL6RPHYkiIaW1xz0tSvinpjSyufb61k4vA iIjVcZRSfibQFsCjU0awt/YQz322zSX78KuivrK4kubWdh1wpJSyTHb/WH4wOomXV 1kZ9XBbt XxX1pYVl9AwPIjs11uooSik/dt/FaQQHBvDIP7v/pKnfFPWW1nb vamCCcN6E2jzm2YrpTxQQo9Q7powmBXFlSwrKu/WbftNdfvP9irqm1t1wJFSyiNMPyOVIb0jeXRJEYcOt3Xbdv2mqOcUlhMRbGP8oDiroyilFEG2AB6ZPILSA028sGJ7t23XL4p6W7thWVEZ56YlEBpkszqOUkoBcPrAXlye0ZcXVm5n9/7GbtmmXxT1L7ZVUdXQogOOlFIe5/5L0ggMEB5dUtgt2/P5or65rI47/76B5J5hXJCWYHUcpZT6L4nRYdxxwWD tamCf2/u klTny7qOyob PHc1YQG2nhj1jgiQpyaPl4ppdxqxvj DIyP4JF/dv2kqc8W9ZLqRqbOXY0x8PqssfTrpTfDUEp5puDAAB6ePJxv9zfy8qodXdqWTxb1stpDTJ27moPNrSycOZZBCZFWR1JKqRM6a3A8F4/ow3MrtlF6oPMnTX2uqO9vaGbq3K/Z39DMqzOySe/bw pISinllAcuS0cQHltS1Olt FRRr208zI/nrWFPTRPzbxzD6H49rY6klFJOS4oJ42fnDyKnsJyVWyo7tQ2fKeoNza1Mf2UN2ysaeHFaFmMH9LI6klJKddiss/qT2iucRxYX0tza8ZOmPlHUm1ramLlgLfl7avnL9aM5Z0i81ZGUUqpTQgJtPDR5ODuqDjLvi50dfr3XF/Xm1jZufX09a3ZVM fqDB1gpJTyeucNTeDC9N78Zfk29tY0dei1ThV1EZkvIhUiUnDEslgRWSYiWx1f3d6B3drWzh1vbmDllkp 4ORTMlMcncEpZRyiQcvS6fdGJ74eFOHXufskfoCYNJRy34FLDfGDAaWO753m/Z2wy//kUtOYTkPXpbOtdn93Ll7pZRyqZTYcG47dxAf5e3jy21VTr/OqaJujFkFVB 1eArwquP5q8AVTu 1i4wx/PqDAj7YuJf/mziUGWf2d9eulVLKbW45ZwApsWE8tNj5eWG60qfe2xizD8Dx1S0TqxhjeGzJJt5cs5vbzxvI7ecNcsdulVLK7UKDbDx02XC2VTQ4/Rq3nCgVkZtFZJ2IrKus7Ny1l9 Zs2wL87/cyY1npPLLi4Z2U0KllPJME9J7c/PZA5xevytFvVxEEgEcXyuOt6Ix5iVjTJYxJis vvOXGz6/Yht/ fc2rslK4cHL0hGRTm9LKaW8xf2XDHN63a4U9cXAdMfz6cCHXdjWSb36n108tbSYyRl9efKHIwkI0IKulFJHc/aSxjeBr4ChIlIqIjOB3wEXishW4ELH9y7x9toSHlpcyIXpvXnm6gxsWtCVUuqYnJpg3Bhz3XF dEE3Zjmmxbl7ufe9PM4aHMdfrx9NkM3rx0sppZTLeHSFXFZUzi/e2siYU2J5aVoWIYF6f1GllDoRjy3qn2 t5PZF3zA8KZp5N2YRFqwFXSmlTsYji/qandX85LV1DIiP4NWbxhAVGmR1JKWU8goeV9RzS2qYsWAtfWPCeH3WWGLCg62OpJRSXsOjivqmfXXcMH8NPSOCeGPWOOIiQ6yOpJRSXsVjivqOygamzVtNWJCNN2aNo090qNWRlFLK63hEUS pbmTq3NUYA6/PGktKbLjVkZRSyis5dZ26K5XVHmLq3NU0trTx95vHMSgh0upISinltSw9Ut/f0MzUuV9TfbCFV2dkMyyxh5VxlFLK61lW1GsbD/PjeWvYU9PEvOlZZKbEWBVFKaV8hiVFvaG5lemvrGF7RQMvTsti7IBeVsRQSimf4/Y 9XYDMxesJX9PLS9MPZVzhnR Kl6llFL/ze1Ffff gxzYVc0fr8nkouF93L17pZTyaW4v6vXNrTz3w5FMyUxy966VUsrnub1PPTE6lGvG9HP3bpVSyi 4vajr0H llHIdjxhRqpRSqntoUVdKKR iRV0ppXyIFnWllPIhWtSVUsqHaFFXSikfokVdKaV8iBZ1pZTyIWKMce8OReqBYrfu1HpxQJXVIdxM2 z7/K29YG2bTzHGnHQGRCvufFRsjMmyYL WEZF12mbf529t9rf2gne0WbtflFLKh2hRV0opH2JFUX/Jgn1aTdvsH/ytzf7WXvCCNrv9RKlSSinX0e4XpZTyISct6iKSIiKficgmESkUkTsdy2NFZJmIbHV87elYniYiX4lIs4j88qht3e3YRoGIvCkiocfZ53THdreKyPQjlj8hIiUi0tC1ZntVm5eKSK5jG38TEZsftHmFiBSLyEbHI8GX2ywiUUe0daOIVInIH321vY7l14hInmMbT3V3Wy1u81IRqRGRJUct/5mIbBMRIyJxrmozxpgTPoBE4FTH8yhgC5AOPAX8yrH8V8DvHc8TgDHAE8Avj9hOErATCHN8/zZw4zH2FwvscHzt6Xje0/GzcY48DSfL3ZWHh7W5h OrAO8C1/pBm1cAWa78P/a0Nh 13nrgbF9tL9AL2A3EO9Z7FbjAF/6PHT 7ALgcWHLU8tFAKrALiHPV7/VJj9SNMfuMMd84ntcDmxwNnOL4z/juP UKxzoVxpi1wOFjbC4QCBORQCAc2HuMdSYCy4wx1caYA8AyYJJj218bY/adLHNXeVib647YTjDgkpMgntRmd/HENovIYOyF5fMuNu9/eFB7BwBbjDGVjvX BfyoG5r4PyxoM8aY5UD9MZZvMMbs6lKDnNChPnURScX brMa6P1dgXV8PeFHZGPMHuAP2N h9wG1xphPj7FqElByxPeljmWW8IQ2i0gOUIH9F WdTjbFaZ7QZuAVR1fEb0REOtkUp3lImwGuA94yjkM7V7G4vduANBFJdRTIK4CUrrTHGW5qs WcLuoiEon94/9dRxw9Os3RZzUF6A/0BSJE5MfHWvUYyyy5RMdT2myMmYj9Y2QIcH5Hc3SEh7R5qjFmJHCW4zGtozk6wkPa/J1rgTc7mqEjrG6v46j9p8Bb2D R7AJaO5qjI9zYZss5VdRFJAj7P8giY8x7jsXlIpLo Hki9iPJE5kA7DTGVBpjDgPvAWeIyNgjThBNxv5ufuS7djLH ZjjSp7WZmPMIWAx9l8sl/CUNjuOir77uPwGkN09LfxfntJmx74ygEBjzPpuadwxeEp7jTH/NMaMNcacjn0uqK3d1cajubnNlnPm6hcB5gGbjDFzjvjRYuC7s9nTgQ9PsqndwDgRCXds8wLHNlcbYzIdj8VADnCRiPR0vDte5FjmNp7SZhGJPOIXLxC4BNjcXe08kge1OfC7KwMcf4yXAQXd1c4jeUqbj9jOdbjwKN2T2iuOK5ocy28D5nZPK/ bBW22njn52eMzsX9EzAM2Oh6XYD DvRz7O xyINaxfh/s79B1QI3j XdXcDyCvSgVAAuBkOPscwb2frdtwE1HLH/Ksb12x9eHT5a/Mw9PaTPQG1jryFEI/AX7kZwvtzkC 9Uf37X5T4DNl9t8xM92AGmuaKuntRf7m1eR4 GSK7osbPPnQCXQ5Hj9RMfyOxzft2L/xDLXFW3WEaVKKeVDdESpUkr5EC3qSinlQ7SoK6WUD9GirpRSPkSLulJK RAt6kqdhIjEiMhtR3x/rhw1A59SnkKLulInF4N9gIxSHk LuvIpjkmiNovIXLHPe71IRCaIyJdinzs7W xzaX8g9vm8vxaRUY7XPiwi88U n/sOEbnDsdnfAQMdQ8GfdiyLFJF3HPta5BhlqJTlAq0OoJQLDAKuAm7GPiL3euwjCycD92OfOXCDMeYKETkfeA3IdLw2DTgP 9zbxSLyAvb5tkcYYzLB3v2Cfba/4dhHBn4JjAe cEfjlDoRPVJXvminMSbfGNOOfaqB5cY dDof 00KzsQ zBtjzL BXiIS7XjtR8aYZmNMFfZJnnofZx9rjDGljn1sdGxXKctpUVe qPmI5 1HfN O/dPpiabAPfK1bRz/06yz6ynlVlrUlT9aBUyF77tSqsyJ59iux94do5TH06ML5Y8exn5npTygkf8/BesxGWP2O060FgCfAB 5PqJSnaOzNCqllA/R7hellPIhWtSVUsqHaFFXSikfokVdKaV8iBZ1pZTyIVrUlVLKh2hRV0opH6JFXSmlfMj/AwCmttdcI8/aAAAAAElFTkSuQmCC)]

3.2 查看每个月的最高温度、最低温度、平均空气质量指数

In [35]:

df.head()

Out[35]:

ymd

bWendu

yWendu

tianqi

fengxiang

fengli

aqi

aqiInfo

aqiLevel

month

0

2018-01-01

3

-6

晴~多云

东北风

1-2级

59

2

2018-01

1

2018-01-02

2

-5

阴~多云

东北风

1-2级

49

1

2018-01

2

2018-01-03

2

-5

多云

北风

1-2级

28

1

2018-01

3

2018-01-04

0

-8

东北风

1-2级

28

1

2018-01

4

2018-01-05

3

-6

多云~晴

西北风

1-2级

50

1

2018-01

In [38]:

group_data df.groupby( month ).agg({ bWendu :np.max, yWendu :np.min, aqi :np.mean})

group_data

Out[38]:

bWendu

yWendu

aqi

month

2018-01

7

-12

60.677419

2018-02

12

-10

78.857143

2018-03

27

-4

130.322581

2018-04

30

1

102.866667

2018-05

35

10

99.064516

2018-06

38

17

82.300000

2018-07

37

22

72.677419

2018-08

36

20

59.516129

2018-09

31

11

50.433333

2018-10

25

1

67.096774

2018-11

18

-4

105.100000

2018-12

10

-12

77.354839

In [39]:

group_data.plot()

Out[39]:

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Lwmi8hwM-1597761927711)(data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAAAXoAAAEKCAYAAAAcgp5RAAAABHNCSVQICAgIfAhkiAAAAAlwSFlzAAALEgAACxIB0t1 /AAAADl0RVh0U29mdHdhcmUAbWF0cGxvdGxpYiB2ZXJzaW9uIDMuMC4zLCBodHRwOi8vbWF0cGxvdGxpYi5vcmcvnQurowAAIABJREFUeJzs3Xd4VFX6wPHvSe kE0hIAiQQOoTQi6AiSLEg1XVX176ua0Fsuz/B3VVXUFlZXVxx7UhHUVDRtQSQTugkgYSSkFASUgjpycz5/XGHEKSFtJlM3s/z5GHmzp173wmT95577rnvUVprhBBC2C8HawcghBCiYUmiF0IIOyeJXggh7JwkeiGEsHOS6IUQws5JohdCCDsniV4IIeycJHohhLBzkuiFEMLOOVk7AIDAwEAdGRlp7TCEEKJJSUhIOK21DrraejaR6CMjI9m fbu1wxBCiCZFKZVWk/Wk60YIIeycJHohhLBzkuiFEMLO2UQfvRAVFRVkZGRQWlpq7VCaBDc3N8LCwnB2drZ2KKIJkEQvbEJGRgbe3t5ERkailLJ2ODZNa01OTg4ZGRm0bdvW2uGIJkC6boRNKC0tJSAgQJJ8DSilCAgIkLMfUWOS6IXNkCRfc/K7EtdCEr0VHMg9wJYTW6wdhhCimZBE38jM2sxTa5/iof89xNYTW60djqjm6NGjdO3a9YJlX375JbfddlvV83/84x9ERUVVPV 1ahW33HJLvew/MjKS06dP18u2hKhOEn0j23h8I2kFabg5uTF97XSOFx63dkjiCgYOHMimTZuqnm/atAkfHx ysrIA2LhxI4MGDbJWeELUiCT6RrYwaSGB7oF8evOnVJgreOLnJyitlItqtqKyspK7776b7t27M2HCBDw9PWnRogWpqakAZGZmcscdd7Bx40bASPQDBw4E4Pvvv2fAgAHExsYyceJECgsLAaOlPnPmTGJjY nWrRvJyckA5OTkcNNNN9GrVy8eeughtNbAxWcWr7/ Oi GJj/QqEHZLhlY0ovSCdXzJ/4eEeDxPtF80/hvyDP/30J/6 e 8NOglucBm8ddV 0k8XlCv2 zc2oeZ47pcdb0DBw7w/vvvM2jQIO69917mzZvHwIED2bhxIyaTiejoaPr37893333H2LFj2bNnD3369OH06dO89NJL/PDDD3h6ejJr1izmzJnDjBkzAAgMDGTHjh3MmzeP119/nf/ 97/89a9/ZfDgwcyYMYOvv/6a fPn1 tnFuIcadE3okXJi3BUjkzsMBGAYW2G8UiPR/jq0FcsTF5o5egEQJs2baq6Yu666y5 eUXBg0axMaNG9m4cSMDBgygb9 bNmyhZ07d9KxY0fc3NzYvHkziYmJDBo0iJ49e/Lxxx Tlna 3tT48eMB6N27N0ePHgVg3bp13HXXXQCMGTMGPz /xv2wotmQFn0jKa4oZmXqSkZEjiDI43xV0Yd6PERibiKvbXuNDn4d6BPSx4pR2oaatLwbyq/PqpRSDBw4kLfeeguTycQDDzyAt7c3paWlxMfHVx0UtNaMGDGCRYsWXXK7rq6uADg6OlJZWXnZ/QE4OTlhNpurnst4eVFX0qJvJKsOraKwopA7Y 68YLmDcuCVwa/QxrsN09dO52TRSStFKADS09OrLr4uWrSIwYMH07lzZ44fP8769evp1asXAD179uQ///lPVf98//792bBhQ1VffnFxMQcPHrzivoYOHcpnn30GwLfffkteXh4ALVu2JCsri5ycHMrKyli9enWDfFbRfEiibwRaaxYlL6JzQGd6BPW46HVvF2/mXj XMlOZXJy1sk6dOvHxxx/TvXt3cnNz cMf/oBSin79 hEYGFhVW2bAgAEcPny4KtEHBQXx0UcfMXXqVLp3707//v2rLrpezsyZM1m3bh2xsbF8//33hIeHA Ds7MyMGTPo168fY8eOJSYmpmE/tLB76tyVfmuKi4vT9jzxyOYTm3ng wd4adBL3Bp162XX yn9Jx7/ XFuaX9Ls7s4m5SURKdOnawdRpMivzOhlErQWsddbT1p0TeChUkL8XP1Y1TbUVdc7/rw63m4x8N8degrFh9Y3EjRCSHsnST6BpZZmMnajLVM6DABV0fXq67/hx5/4Lqw65i9dTbbT9rvWY4QovFcNdErpT5QSmUppfZVW/aaUipZKbVHKfWFUsq32mvPK6VSlVIHlFIjGyrwpmJJ8hIUikkdJ9VofQflwD G/IMw7zCeWvuUXJwVQtRZTVr0HwG/7nP4H9BVa90dOAg8D6CU6gxMAbpY3jNPKeVYb9E2MSWVJaxIWcH14dcT4hlS4/d5u3jz5vA3Ka0sZVr8NMpMZQ0YpRDC3l010Wut1wG5v1r2vdb63GDgzUCY5fGtwGKtdZnW giQCvStx3iblG8Of0NBecFFQypror1ve14Z/Ap7T /l5c0vYwsXzYUQTVN99NHfC3xreRwKHKv2WoZlWbOjtWZh8kI6 HWgd8vetdrGDRE38GD3B/ki9QuWHlhazxEKIZqLOiV6pdRfgErgs3OLLrHaJZuiSqkHlVLblVLbs7Oz6xKGTUo4lcDBvIPcGXNnnYZJPtLjEYaEDuHVra y49SOeoxQXM3tt9/OypUrq5537NiRl156qer5HXfcweeff17n/cTHxzN27Ng6b0eIy6l1oldK3Q2MBX6jz/crZABtqq0WBlyyDq/Wer7WOk5rHRcUFHSpVZq0hckL8XHxYXS70XXajqODI68OfZXWXq2ZFj NU0Wn6ilCcTXnipmBUWnSy8vropLF526YEsKW1SrRK6VGAc8Ct2iti6u99BUwRSnlqpRqC0QDzW52jZNFJ/kp/SfuiL4Ddyf3Om/Px8WHucPnUlxZzLT4aZSbyushSlHdCy 8wNy5c6ue/ Uvf6GkpOSCcsRjx44lOzsbrTVHjhzB3d2dkJAQTCYTTz/9NH369KF79 68 67gNFSHzZsGBMmTCAmJobf/OY3Vdda1qxZQ0xMDIMHD77grODFF1/k9ddfr3retWvXqiJoQtTWVYuaKaUWAcOAQKVUBjATY5SNK/A/S7fEZq31w1rr/UqppUAiRpfOH7XWpoYK3lYtPbAUjWZyzOR622aUXxQvD36ZafHTeGXLK7w48MV627bN fY5OLm3frcZ0g1ufvWyL993332MHz exx9/HLPZzOLFi9m4cSNz5syhvLycjRs3ct1113H48GGSkpLYuXNnVUGz999/nxYtWrBt2zbKysoYNGgQN910EwA7d 5k//79tG7dmkGDBrFhwwbi4uJ44IEH Omnn4iKimLy5Pr7nghxKVdN9FrrqZdY/P4V1n8ZeLkuQTVlZaYylh9cznVh1xHqVb/XoUdEjOCBbg/w3t736BLYparcsai7yMhIAgIC2LlzJ6dOnaJXr160bNmSLl26sGPHDjZv3swzzzzD4cOH2bhxIzt37rxgwpE9e/awfPlyAM6cOUNKSgouLi707duXsDBjUFrPnj05evQoXl5etG3blujoaMAohyy16EVDkjLF9WzNkTXkleVxZ6drH1JZE3/s UcScxN5ZcsrRPtG0zO4Z4Psx6qu0PJuSPfffz8fffQRJ0 e5N577wWMfvp169Zx9uxZ/Pz86N /P2 //TY7d 7k4YcfBowRVm 99RYjR154f2B8fHxVeWK4sETx5S7QS4li0RCkBEI9Ojeksn2L9vQL6dcg 3B0cGTWkFm08mzFk/FPklWc1SD7aY5uv/121qxZw7Zt26qS9qBBg3j33Xfp0cOoOtq9e3c2b95Meno6XboYdfNHjhzJO 8Q0VFBQAHDx6kqKjosvuJiYnhyJEjHDp0COCCGvaRkZHs2GGMrtqxYwdHjhyp/w8qmh1J9PVod/ZuEnMSmRoztUErT7ZwbcHc4XMpqihiWvw0KkwVDbav5sTFxYXhw4czadIkHB2NG7oHDhzI4cOHGTBgAGC0uIODg4mLi8PBwfjzuf/ ncuTOxsbF07dqVhx566ILJRX7Nzc2N fPnM2bMGAYPHkxERETVa3fccQe5ubn07NmTd955hw4dOjTgJxbNhZQprkfPrHuGXzJ 4YeJP Dh7NHg /vu6HdMXzudiR0mMmPAjAbfX0OyhZK7ZrOZ2NhYli1bVtV/bsts4XcmrEvKFDey7OJs/nf0f9wadWujJHmAkZEjubfrvSw7uIzlB5c3yj7tVWJiIlFRUdxwww1NIskLcS3kYmw9WXZwGSZtYmrMpQYpNZzHej1Gcm6ycXHWL/qSM1iJq vcuTOHDx 2dhhCNAhp0deDClMFyw4uY3DoYMJ9wht1344OjsweOptgj2Cm/TyN0yWnG3X/QgjbJ4m Hnyf9j2nS0432JDKqzl3cfZsxVm5OCuEuIgk nqwMHkhET4RDGxtvbonHf078reBf2Nn1k5mbZtltTiEELZHEn0d7T 9nz3Ze5gaMxUHZd1f56i2o/h9l9 z5MASvkj5wqqxCCFshyT6OlqYvBAPJw9ubX rtUMB4LHYx jfqj9/3/x39mbXc70YcYH//Oc/fPLJJ9YOQ4irkkRfBzklOXx75FtuaX8LXi5e1g4HACcHJ14b hrBHsE8Ef EXJxtQA8//DC/ 93vrB2GEFclib4OVqSsoMJcwdROjTuk8mp83Xx5c/ibFJQV8FT8U3Jx9hrcdttt9O7dmy5dulQVGvvwww/p0KED1113HQ888ACPPvoocHFJYSFslYyjr6UKcwVLDixhQKsBtGvRztrhXCTGP4a/Dvwrz65/lte2v8af /3Z2iHV2Kyts0jOTa7Xbcb4x/Bs32evut4HH3yAv78/JSUl9OnThzFjxjBz5kwSEhJo0aIFw4cPp1evXvUamxANTVr0tfRT k9kFWdZbUhlTYxuN5q7O9/NouRFrExdefU3CP71r3/Ro0cP vfvz7Fjx/j0008ZNmwYQUFBuLi4SO14cYFKcyVrjqyhqOLyRexsgbToa2lh0kJCvUIZEjrE2qFc0RO9nyA5N5m/b/o7Ub5RdA3sau2QrqomLe GEB8fzw8//MCmTZvw8PBg2LBhxMTEkJSUZJV4hO1bnLyYWdtmMazNMOYOn2v1kXeXY5tR2bjk3GR2ZO1gasxUHB0crR3OFTk5OPHada8R6B7IEz8/QU5JjrVDsllnzpzBz88PDw8PkpOT2bx5MyUlJcTHx5OTk0NFRQXLli2zdpjCRuSV5jFv9zyC3IOIPxbPe3ves3ZIlyWJvhYWJi3E3cmd26Jus3YoNeLn5sebw98kvyyfp9Y xZ7sPRRXFF/9jc3MqFGjqKyspHv37rzwwgv079 fVq1a8eKLLzJgwABuvPFGYmNjrR2msBH/3vVviiuKee m9xjTbgz/3vVv1mest3ZYlyRliq9Rfmk Ny6/kXHtxzFzwExrh3NNVh9ezZ/X/xmN8X8e6hVKtG800X7RRPlGEe0XTaRPJM6Ozo0eW1MpufvRRx xfft23n77bWuH0mR Z/boQO4BJq2exJSOU3i 3/OUVJbw229 y/Gi4ywZs4Q2Pm0aJY6alimuyeTgHwBjgSytdVfLMn9gCRAJHAUmaa3zlDHbxlxgNFAM3KO13lHbD2GLVqSsoMxU1uhVKuvD2HZj6R3cm6TcJFLyUkjNTyUlL4X1mesxWeZwd1JORLaIJNo3mii/qKp/Q71Cbbb/UYjGpLVm9rbZeLt480jPRwBwd3Lnn8P/yZTVU3gi/gkWjF6Au5O7lSM976oteqXUUKAQ KRaop8N5GqtX1VKPQf4aa2fVUqNBv6Ekej7AXO11ledU6 ptOgrzZWM/nw0Yd5hfDDyA2uHU2/KTeUcOXOE1PzUquSfmp9KZmFm1TruTu5E UZVtfzP/RvgFlAvs2lJ6/Taye/MOn5M 5En4p/gL/3 wpSYKRe89kvmLzzywyPc3PZmXh3yaoPONAf12KLXWq9TSkX avGtwDDL44 BeOBZy/JPtHH02KyU8lVKtdJan6h56LZr7bG1nCg6wTN9nrF2KPXKxdGFjv4d6ejf8YLlheWFHDpzqCrxp alsjZjLV knq j4 fqd0HLP9rXOAjU5k5hrXWD/2HYC1vocm2OykxlvLb9NaJ8o5jQYcJFrw8OHcyjvR7lrZ1v0S2wG3d1vssKUV6stsMrW55L3lrrE0qpYMvyUOBYtfUyLMsuSvRKqQeBBwHCwxu3hnttLUxeSIhnCMPaDLN2KI3Cy8WLHkE9LprMJKckh5T8FFLzzp8BfJH6BSWVJVXrtPJsVdXyj/KNooNfB9r7tsfJ4dJfOTc3N3JycggIqJ8zBHumtSYnJwc3Nzdrh9LsfJr4KZmFmbx303uX/S7f3 1 9p3ex vbX6ejf0f6hPRp5CgvVt/j6C/1F3rJpofWej4wH4yum3qOo96l5KWw9eRWHo99/LL/wc1FgHsAAe4B9G/Vv2qZWZs5Xni8KvGn5BtnARuPb6TSbEyUHeUbxZxhc2jbou1F2wwLCyMjI4Ps7OxG xxNmZubG2FhYdYOo1nJLs5m/p75DG8z/ILv/q85KAdeGfwKU7 eyvS101k6diktPVs2YqQXq23GOnWuS0Yp1QrIsizPAKpfbg4DjtclQFuxKHkRLg4u3BF9h7VDsUkOyoEw7zDCvMMuOOOpMFWQVpDG3tN7mZMwhymrp/DXQX9lVOSoC97v7OxM27YXHwCEsBVzd8yl0lzJ9LjpV13Xy8WLN4e/yZ1f38m0tdP4cOSHuDi6NEKUl1bbYRRfAXdbHt8NfFlt e UoT9wxh7658 UnWH14dWMbjcaPzc/a4fTpDg7OhPlF8Xt0bezbNwyov2ieXrt07y69VUptiaajH2n9/HloS/5beff1ni60Pa 7Xlp8Evsyd7Dq1tfbeAIr yqiV4ptQjYBHRUSmUope4DXgVGKKVSgBGW5wDfAIeBVOA94JEGibqRrUxdSUllSZMcUmlLQjxD HDkh9zV6S4 S/qMe9bcw4nCJt8OEHZOa82rW18lwC2AB7s/eE3vHRExgnu73suyg8v4POXzBorw6moy6uZy2e2GS6yrgT/WNShbYjKbWJy8mJ5BPekc0Nna4TR5zo7OPNv3WWJbxvLChheYuHoirw55lcGhg60dmhCX9M2Rb9idvZu/Dfwbns6e1/z x3o9RmJOIi9vfpkOfh2sUm9K7oC5il8yfyGjMMOmq1Q2RSMiRrB4zGJaerTkkR8e4e2db2Mym6wdlhAXKK4oZk7CHDoHdObWqNrNIufo4MjsobMJdA/kyfgnyS3Nrecor04S/VUsTF5IkHsQN0bcaO1Q7E5ki0gWjF7ALe1v4d097/LQDw9J0TVhUz7c/yFZxVk81/e5Ot0Z7ufmxz H/5O80jyeWftM1Ui0xiKJ/gqOnDnCxuMbmdhxIs4OjV//pTlwd3LnpcEv8beBf2NX1i4mrZrEzqyd1g5LCI4XHufDfR9yc9ub6RVc98lmOgd05oX L7Dl5Bbm7phbDxHWnCT6K1iUvAgnBycmdpho7VDs3u3Rt7Ng9AJcnVz5/Zrf8/H j XuT2FVcxLmoFBM6z2t3rZ5a9StTO44mY/2f8Sao2vqbbtXI4n MgrLC/ky9UtGRo4k0D3Q2uE0CzH MSwZu4ThbYbz vbXeTL SQrKC6wdlmiGEk4l8N3R77i3672EeIbU67af7fMsPYN6MmPDDFLyUup125cjif4yvjz0JcWVxdwZIxdhG5O3izdzhs1hetx01h5by5TVU p9/lghrsRkNjFr6yxCPEO4p s99b59Z0dn3hj2Bp7Ono3WmJFEfwlmbWZx8mK6BnSle1B3a4fT7CiluLvL3Xww6gPKTGX85uvf8HnK59KVIxrFytSVJOUmMa33tAYrNRzsEcwb171B5tlM/rL L5i1uUH2c44k kvYdHwTRwuOypBKK sV3IulY5cS2zKWmRtn8sKGFy4onCZEfTtbfpZ/7fwXvYJ7XVSmo77Ftozl6T5PE58Rz7t73m3QfUmiv4SFyQvxd/NnZORIa4fS7AW4B/CfG//Dwz0e5qtDX/Gbb37D0TNHrR2WsFPz98wnrzSPZ/s 2yhVVKfGTGVcu3G8s sd1mWsa7D9SKL/lWMFx1ifsZ4JHSZYtQiROM/RwZE/9vwj826cR3ZxNlO nsJ3R7 zdljCzqQVpLEgaQG3Rd1Gl4AujbJPpRQzBsygo39Hnlv/HOkF6Q2yH0n0v7LowCIclSOTOkyydijiVwaHDmbZuGW0923P9LXTmbV1lhRGE/Xm9W2v4 roymOxjzXqft2c3PjnsH/ioBx4Iv4JiiuK630fkuirKa4oZmXKSm6IuMHq9aPFpYV4hvDRyI 4q9NdLEhawD3f3cPJopPWDks0cRszNxKfEc D3R 0ynDqMO8wZg ZTWpeKi9uerHeBx5Ioq9m9eHVnK04K0Mqbdy5wmivX/c6qXmpTFw1kQ2ZG6wdlmiiKswVzN42mzbebbirk/Wm/hsYOpDHYh/j2yPf8mnip/W6bUn0FlprFiUvIsY/pl5udxYNb2TkSBaPXUygeyB/ OEPzNs1TwqjiWu29MBSDp05xNNxT1v9utx9Xe/jhvAbmJMwh20nt9XbdiXRW2w9uZXU/FTujLlT5ixtQtq2aMvCMQsZ134c7 x h4d/eNgq1QFF05Rfms 8XfPo36q/TcwFrZTipUEvEe4TzvS10 utW1ISvcXCpIX4uvpyc9ubrR2KuEbuTu68NOgl/jrwr w4tYOJqyayK2uXtcMSTcC/d/2boooinunzjM008M5NQ1hmKmNa/DTKTeV13qYkeowqdfEZ8YyPHo bk5u1wxG1oJRifPR4ozCao1EY7ZP9n8jdtOKyUvJSWHpwKRM7TCTaL9ra4VygXYt2vDzoZfae3ss/tv6jztuTRA8sPrAYgMkdJ1s5ElFXnQI6sXjsYoaGDeW17a8xLX4aZ8vPWjssYWO01szaNgsvZy/ 2NM2J8W7IeIG7u92P8sPLmfFwRV12ladEr1S6kml1H6l1D6l1CKllJtSqq1SaotSKkUptUQpZdN3HZVWlvJ5yucMbzOc1l6trR2OqAc Lj68OfxNpsdN5 djPzNp1SQ T/mc0spSa4cmbMTPx35my4kt/LHnH/F187V2OJf1aM9HGdh6IC9veZm92XtrvZ1aJ3qlVCjwGBCnte4KOAJTgFnAP7XW0UAecF to2sE3xz5hjNlZ2RIpZ2pKow28gM8nT2ZuXEmNy2/ibd3vk12cba1wxNWVG4q5/Xtr9O RXsmdbTtGyMdHRyZNWQWwR7BPBn/ZK1nYKtr140T4K6UcgI8gBPA9cByy sfA7fVcR8NRmvNwqSFRPlG0Sekj7XDEQ0gtmUsy8Yt44ORH9AjuAfz98znphU38Zdf/kJSTpK1wxNWsCBpAcfOHuOZvs/g5OBk7XCuytfNl38O yf5Zfk8ve7pWk1DWOtEr7XOBF4H0jES/BkgAcjXWp LJAMIre0 GtqOrB0cyDvA1JipNnPFXdQ/pRR9Qvrw1vVvsfr21UzuOJkf0n5g0upJ3LPmHn5M/1HG3zcTp0tO8 7udxkWNoyBrQdaO5wa6xTQiZkDZrLt5DbeTHjzmt9fl64bP BWoC3QGvAELjU28ZLDHpRSDyqltiultmdnW dUemHSQrxdvBnbbqxV9i8aX7hPOM/1fY7/Tfwf0 Omc6LwBE/8/ARjvxjLgsQFFJYXWjtE0YD teNflJvLmd5nurVDuWbj2o9jasxUPk78mG PfHtN761L182NwBGtdbbWugL4HBgI Fq6cgDCgOOXerPWer7WOk5rHRcUFFSHMGrnh7Qf DH9R26Puh0PZ49G37 wLh8XH 7ucjdfj/ aN657gyCPIGZtm8WNy29k1tZZZJzNsHaIop7tz9nPytSV/LbTb4nwibB2OLXydNzT9AruxcyNMzmYd7DG76tLok8H iulPJTR73EDkAj8DEywrHM38GUd9lHvtNa8u/tdnox/ki4BXXig2wPWDklYkZODEzdF3sQnN3/CojGLuC7sOhYnL2bMF2N44ucnSDiVIGPx7YDWmllbZ Hn5seD3R 0dji15uzozBvXvYGXsxdP/PxEjd9Xlz76LRgXXXcAey3bmg88C0xTSqUCAcD7td1HfSutLOXZdc/y9q63GdtuLB M sCmh1aJxtU1sCuzhs5izR1ruLfrvWw/tZ171tzD5NWTWXVolZREbsLWHF3DzqydPB77OF4uXtYOp06CPIKYM2wOJ4pO1Pg9yhZaK3FxcXr79u0Nuo s4iwe kxEnMSeSz2Me7rep9cgBVXVFJZwurDq1mQuIDDZw4T6B7IlI5TmNRxEn5uftYOT9RQSWUJ474Yh7 bP4vGLMLRwdHaIdWLZQeXManjpAStddzV1m0WiX7f6X08/tPjnK04y6tDXuX68OsbbF/C/pi1mU3HN/Fp4qdsOL4BV0dXxrYby12d7iLKL8ra4YmreGfXO8zbPY PRn1E75a9rR1OvVJK1SjR2/4g0jpac2QN/7fh/whwC DTmz lo39Ha4ckmhgH5cCg0EEMCh3EofxDLEhawKpDq1iRsoIBrQZwV e7GBw6GAclFUVszYnCE3yw7wNGRY6yuyR/Ley2RW/WZubtmse7e94lNjiWOcPmEOAeUK/7EM1Xfmk y1OWsyhpEVklWUT6RHJXp7sY136cjOKyIc sfYafjv3EqttW0cqrlbXDqXc1bdHbZaIvrijm/zb8H/9L x 3Rd3GC/1fsPqEAsI VZgq D7tez5N/JT9OfvxcfFhQocJTI2ZSohniLXDa9Z2nNrB3Wvu5uEeD9ts4bK6araJ/mTRSf700584mHeQab2n8bvOv5OLrqLBaa3Zlb2LTxM/5cf0H1Eoboq4ifu7308Hvw7WDq/ZMWszU7 eSk5JDl/d9pXdnmU1yz763dm7efynxykzlfHW9W8xNGyotUMSzYRSil7BvegV3IvMwkwWJS1iRcoKvk/7nqkxU3mk5yN4u3hbO8xm48vUL0nMSeTVIa/abZK/FnZz9WjVoVXcu Ze3J3cWTB6gSR5YTWhXqFM7zOdb8d/y/jo8XyW9Bm3rLyF1Ycc29InAAAgAElEQVRXy81XjaCwvJC5O bSM6gno9uOtnY4NqHJJ3qzNvPPhH/y51/ TI/gHiwas4j2vu2tHZYQ Lr5MmPADBaNWUSIRwjPr3 e33/3 2u6dV1cu/l755NTmsOzfZ VbluLJp3oiyqKePynx/lg3wdM7DCRd0e8K3e6CpvTJbALn435jJkDZpKan8qkVZOYvW22FFBrAOkF6SxIXMCt7W la2BXa4djM5psos8szOS33/6W9Znreb7v87zQ/wWcHZytHZYQl SgHJjQYQKrb1vN7dG3syBxAeNWjpPunHr2 vbXcXZw5vHYx60dik1pkol x6kdTF09lZOFJ5l34zzu7HSnnKKJJsHXzZeZA2aycMxCWnq0rOrOSclLsXZoTd6m45v4 djPPND9AYI8Gr8iri1rcon i5QvuO/7 2jh2oLPxnzWpCYPEOKcroFd Wz0Z8wYMIPU/FQmrpoo3Tl1UGmuZPa22YR5hfHbzr 1djg2p8kkepPZxGvbXmPGxhnEtYxjwegFtG3R1tphCVFrjg6OTOww8aLunK8Pfy3dOddAa817e98jNT V6XHTcXV0tXZINqdJJPqz5Wd59KdH STxE 6MuZN3bnyHFq4trB2WEPXiXHfOZ6M/o6VHS55b/xz3fncvqXmp1g7N5hVXFPPc ueYt2seIyJGSMHCy7D5O2OPFRzj0Z8eJb0gnef7PW/zs7YLURcms4nPUz9n7o65FJYX8ptOv EPPf7Q5GuoN4SUvBSeWvsUaQVpPNrzUe7rdl zKyxX0ztjbfq3svXEVqZ M5Wc0hzeHfGuJHlh985156y6bRW3Rd3Gp4mfcsvKW6Q751e OvQVd359JwVlBbw34j0e6P5As0vy18JmfzNLDyzlof89RIBbAItGL6Jvq77WDkmIRuPn5seLA19kwegFBHkESXeORWllKTM3zuQvv/yFbkHdWH7LcskNNWBzXTfnrp4vSl7E4NDBzB46W2qEiGbNZDaxImUFc3fMpbii2OjO6fkHPJ09rR1ao0orSOOp Kc4kHeAB7o9wCM9H8HJwa7KdV2zJlm98kzZGaavnc7mE5u5u/PdPNn7SbuZ9kuIusorzWPujrmsSFlBkHsQ0 Omc3Pbm5vFPSTfH/2eGRtn4OTgxD8G/4MhYUOsHZJNaJREr5TyBf4LdAU0cC9wAFgCRAJHgUla67wrbScuLk4v 3EZf/rpT2QWZjKj/wxuj7691nEJYc/2ZO/h5S0vk5iTSJ QPvy575/tdkrDClMFbyS8wWdJn9E9sDuvX/e6XU4gUluNleg/BtZrrf rlHIBPIA/A7la61eVUs8BflrrZ6 0nZgeMdr/OX clBNvDn T2JaxtY5JiOagOXTnHC88zvS109l7ei93dbqLab2n4ewoZU6qa/BEr5TyAXYD7XS1jSilDgDDtNYnlFKtgHit9RUnavVo66FHvjmSt294m1Cv0FrFI0RzlFuay9wdc/k85XOC3YOZ3mc6oyJHNfnunHUZ6/jzL3/GZDbxt0F/Y0TECGuHZJMaI9H3BOYDiUAPIAF4HMjUWvtWWy9Pa 13pW217NhSH9532K5aI0I0pt3Zu3l588sk5SbRN6Qvz/d9vkl251SaK/n3rn/z373/paNfR YMm0O4T7i1w7JZjZHo44DNwCCt9Ral1FygAPhTTRK9UupB4EGA8PDw3mlpabWKQwhhMJlNLD 4nLk7jZutBoUOYkrHKQwOHdwkBjVkF2fzzLpn2H5qO3dE38FzfZ/DzcnN2mHZtMZI9CHAZq11pOX5EOA5IIpr7Lqp78nBhWjOcktzWZy8mOUHl5Ndkk1rz9ZM7DiR8dHj8Xfzt3Z4l7TlxBaeWfcMJZUlvND/Bca1H2ftkJqExroYux64X2t9QCn1InCu7yWn2sVYf631M1fajiR6IepfhbmCn9N/ZsmBJWw9uRVnB2duiryJKR2n0COoh03045u1mff2vMe83fOI8IlgznVzmmSXk7U0VqLviTG80gU4DPwe427bpUA4kA5M1FrnXmk7kuiFaFiH8g x5MASvjr0FUUVRcT4xzC542RGtx1ttcmz80rzeH7982w4voHRbUczc8BMmcj7GjXJG6aEEA2ruKKY1YdXs TAEg7mHcTL2Ytbo25lUsdJtGvRrtHi2JW1i lrp5NbmstzfZ9jYoeJNnGG0dRIohdCXJbWml3Zu1icvJjv076n0lxJv5B TI6ZzPA2wxustIDWmk8SP HNhDdp6dmSOcPm0Dmgc4PsqzmQRC EqJHTJadZmbqSpQeWcqLoBMHuwUzoOIEJ0RPqdUq gvICZmyYwY/pP3J9m v5 C/4 PiU2/bb44k0QshronJbGJ95noWH1jMhswNOCknrg /nikxU4hrGVenrpXEnESein Kk0UneaL3E/yu8 kq6YeSKIXQtRaekE6Sw8s5YvULygoL6Bdi3ZM7jiZce3HXVM1Wa01yw4uY9bWWfi6 fLGdW/QM7hnA0bevEiiF0LUWWllKWuOrmFJ8hL25ezD3cmdse3GMrnjZDr6X/H2GIorivnrpr/yzZFvGNR6EK8MecVmx/E3VZLohRD1at/pfSw5sIRvj3xLmamM2OBYJneczI0RN Li6HLBuofyDzEtfhpHC47ySI9HZAaoBiKJXgjRIM6UnWFl6kqWHFjCsbPH8Hfz547oO5jYYSKtvFqx6tAq/r7577g7uTN76Gz6tepn7ZDtliR6IUSDMmszm45vYvGBxazLWAdAjH8MiTmJ9G7Zm9lDZxPsEWzlKO1bTRN9856HSwhRaw7KgUGhgxgUOojjhcdZfnA5P6T/wP3d7uePPf/Y7Kf5syXSohdCiCaqpi16uToihBB2ThK9EELYOUn0Qghh5yTRCyGEnZNEL4QQdk4SvRBC2DlJ9EIIYeck0QshhJ2TRC EEHauzoleKeWolNqplFpted5WKbVFKZWilFqilHK52jaEEEI0nPpo0T8OJFV7Pgv4p9Y6GsgD7quHfQghhKilOiV6pVQYMAb4r W5Aq4HlltW Ri4rS77EEIIUTd1bdG/CTwDmC3PA4B8rXWl5XkGEFrHfQghhKiDWid6pdRYIEtrnVB98SVWvWR5TKXUg0qp7Uqp7dnZ2bUNQwghxFXUpWD0IOAWpdRowA3wwWjh yqlnCyt jDg KXerLWeD8wHo0xxHeIQ4pJKyk2k5xaTfbYMN2cHPFyc8HBxxMPVEU8XJ9ydHXFwuFTbRAj7UutEr7V HngeQCk1DJiutf6NUmoZMAFYDNwNfFkPcQpxEa01 cUVpOUWk5ZTRHpOcdXjtJxiss6WXXUb7s6OeLo64u5iJH8PF8eqA4Knq5NluWO1g4ST5bmxzNPVEXdn499z68gBRNiahpgC5llgsVLqJWAn8H4D7EM0E2az5kRB6QWJ3PjXSOZnSysvWL ljysR/p4M7RBEhL8H4QEehPi4UW4yU1Rmori8kuJy49 iMhMlFSaKyoxlRWWVVc9PF5ZdtN618Kh2MDj32NP14gOJx1UOGp4uTni4OlYdQIzxDkJcm3pJ9FrreCDe8vgw0Lc tiuah9IKExl5xaTlGD/p51rlucVk5JZQbjJXrevsqAjz8yDc34PYcD/C/T2ICPAkIsCDNn4euLs4NkiMZrM2DgLllZSUm6oOGkXlJkosB4NzB5GichPFZdVeKzdRUm6isKySrIIyiisqKS4ztlVaYb76zi2UAg9n46yi6uDgUu1sxHJA8HRxIsDLhZ5t/Oge1gI354b5nYimQyZ1FI2iqKySw9lFVS3xc63y9JxiThSUUn1GS08XR8IDPOkQ7M2ITi0JD/AgMsCTcH8PWvu642iFbhEHB4WnqxOervX7J2OyHEDOHRiqDhZllgNKtWUXr2M8PltayamC0gvOUMoqjQOIs6OiS sWxEX40dvyE zjVq fQdg SfSi3mmtycwvISEtr on6UQB5mrJPNDLlYgAD/q3CyA8wIOIAA/C/Y2WeYCnS7PponB0UHi5OuFVzweQ3KLyqt/9jrQ8Pt2cxn9/OQJAG393eoefS/z dAzxtsrBUzQemRxc1FmFyUzi8QK2W5JKQloeJwtKAaOvule4L70j/OncyseS0D3qvWUsrqy80sz 42eqkv/2tDyyLRervVyd6BXuS6wl fcK98XbzdnKEYuaqOnk4JLoxTXLLy6/oLW OyO/qq851Ned3hF xEX6ERvuR0yIN06OUjvP1mitycgrsST9XBLS8jlw0jjrUgo6tvQmLtLS6g/3p42/e7M5y2pKJNGLeqG15vDpIhKO5lUlhUPZRQA4OSi6tPahd4R/Vf9vSAvp/22qzpZWsOtYftUBfGd6PoVlxqimIG/X8909kX50ae2Dq5Nc5LW2miZ6OX8WFyitMLH7WD4J6XkkHM1jR3oeecUVAPh6ONM73I/xsWHERfjRPcy3wUa5iMbn7ebMkOgghkQHAcaF4oOnzlZ1yW1Py2XN/pMAuDg50COsBbERflUHgAAvV2uGL65AWvTN3KmCUqOlfjSPhPQ89meeodJy1bR9kGdVS713hD/tAj3lRqBmLsvyfUlIM74v zLPUGEyvi9tAz2JDfdjYPsAhkQHyuieRiBdN IixeXGEMed6cbFuIS0PDLySgBwdXKgRxtfo389wo9e4X74e8pUAuLKSitM7M08c76xkJZbdQYYE LN0A5BDIkOpE kv4znbwCS6JshrTW5ReXn7x6tNlY9zVLz5Zxgb1fLxTajf71zKx9cnOSiqagbs1mTeKKA9SmnWZ SzfajeZSbzLg6OdC3rT9Do4MY0iGQji295eJuPZBEb6dMZs3x/BLL3aPVErnljtJzF8/OadXCzXL36Pk7SHuE RLmJ6MoRMMrLq9ky5Fc1h3MZn3KaVKzCgGjoTEkOoihHQIZFBVIoPTv14ok iastMLEsapEXky6pRxAek4xx/KKq/pEwbjzsY2fUdMlolo5gIgAD8L8POR0WdiU4/kl/JJymnUp2fySepp8SzdPl9Y RuKPDqR3pJ M6KkhSfQ2Lr 4/MJEXq1g17mbjc7xdnW66O7RcwW7WrWwTkkAIerKZNbsP36G9SmnWXcwm4S0PCrNGndnR/q182dIdBDXdQikfZCXnH1ehiR6G5WWU8TTy/ew9UjuBcuDvV0vTOSWO0gjAjzx83CWL7qwe4VllWw5nFPVzXP4tHG/RqsWbgyJDmRIdBCDogJlkEA1kuhtjNaaz7ak88o3STgqxYND29EhxLsqoXu4yC0NQlR3LLeYX1KNi7q/pJymoLQSpaBbaIuqxB8b7tesBxFIorchJ8 U8uyKPaw9mM3gqEBmT hOa193a4clRJNhMmv2ZORXjebZkZ6PyazxcHFkQLsAhnYI4roOQUQGelo71EYlid4GaK35avdxXli5j3KTmT P7sRd/SLkpiMh6qigtILNh3JYl2J086TlFANGjZ6RXUMY1SWETq3sfwinJHoryy0q5/9W7uWbvSfpFe7LGxN70C7Iy9phCWGX0nKK DEpi /2n2Tb0VzMGsL9PRjVNYSRXVrSq42fXTawJNFb0Y9Jp3h2xV7OlJTzxI0deGhoO6ngKEQjOV1Yxg Jp1iz/yQbUk9TYdIEe7tyU5eWjOrSin7t/HG2k79HSfRWcLa0gr vTmTp9gxiQryZM6knnVv7WDssYS2V5eDgaPwIqygoreDnZKOl/3NyNiUVJlq4O3NDp2BGdQlhaIegJn2vSYMneqVUG ATIAQwA/O11nOVUv7AEiASOApM0lrnXWlb9pDoNx3KYfqy3Zw4U8JD17XniRuj5aaP5ubsKTi2GY5thWNb4Pgu0CbwCADPYPCy/HgGgVfLix97BMhBoQGVVphYn3KaNftO8kPSKc6UVODu7MiwjkGM6hrC8JhgfJrYhCuNkehbAa201juUUt5AAnAbcA Qq7V VSn1HOCntX72Sttqyom tMLE7DUH GDDESIDPHhjUg96R/hbOyzR0MwmyEo0EvqxrZC GfLTjNccXSE0FsL6gJMrFGZBUTYUnoLCbCjKgsrSi7epHMAjsNoBIRi8LAeCXz/28JeDQh1UmMxsOZzLd/tP8t3 k2SdLcPZUTEoKpCRXUIY0bllkyjL0OhdN0qpL4G3LT/DtNYnLAeDeK11xyu9t6km t3H8pm2dBeHsov43YAInrs5RsbD26vSAsjcfj6pZ2yH8rPGa57BEN4P2vSDNv2hVXcjwV O1lBWcD7pVz8AXPDY8mMqu3gbysE4G7jcmYJ/e NgY ejTuqD2azZeSyf7/afZM2 k6TnFuOgIC7Sn1FdQhjZNYRQGx0O3aiJXikVCawDugLpWmvfaq/laa39LvGeB4EHAcLDw3unpaXVOY7GUmEy89aPKfw7/hBBXq68NrF71WQNwg5obbTOzyX1Y1shaz9oM6CgZRdo09dI6m36gl9kwyXUqoOCJelXPwBc8NhyxmAqP//eoE7Q5z7oPhnc5FpRTWitST55ljX7jJZ 8knjYN4ttIVlBE8IUcG2M3qu0RK9UsoLWAu8rLX XCmVX5NEX11TatEfPHWWaUt3sS zgPG9Qpl5SxdauDetfj3xK5XlcHKPJalbumIKjZmUcPGCsLjzST0sDtxaWDfey9EaSs8YST99M2x/H47vBGdP6D4R4u4zzjZEjR09XWS09PefZGd6PgBRwV6MtIzg6RrqY9Wx o2S6JVSzsBq4Dut9RzLsgPYYdeNyax5/5fDvP79QbxcnXjl9q6M6trK2mGJ2ijKgYxqrfXjO873mfuGn0/q4f0huHPT7gvP3GEk/L0roLLEuG4Qdx90uR2cZQaoa3HyTCnfJxot/c2HczGZNaG 7ozsEsItPVvTI6xFoyf9xrgYq4CPMS68PlFt WtATrWLsf5a62eutC1bT/TpOcVMX7abrUdzGdG5Ja/c3o0gb9u/UCMwWrmnD55P6sc2Q06q8ZqDM7TqYfSth/eDsL7gY6cH75I82LUItn8AOSng7ge97oLev4eA9taOrsnJKyrnh6RTfLf/JOtSTlNeaaZdkCfje4VyW69Qwvw8GiWOxkj0g4H1wF6M4ZUAfwa2AEuBcCAdmKi1zr3kRixsNdFrrVm09RgvfZ2Io1LMvKULd8SG2v1t1U2e2Wy02JNWQdJXkJ9uLHf3P5/U2/SD1r3A2TYvsjUYreHIOqOVn/w1mCuh/fVGK7/DKHCUwQTXqqC0gm/3nmDFjsyqqrT92vpzR2wYN3cLwbsBh2zKDVN1dKrAKEQWfyCbQVEBzJ7Qw2avvAuMfvaj643knvy1caHS0QXaDYOOoyFyMAREySiU6s6ehB2fQMJHUJAJPqEQezfE/s5 z2wa2LHcYlbuzOSLnZkcPl2Eq5MDN3UJYXyvUIZEB9b7HfKS6OvgXCGyskoTz42K4XcDIu2yTkaTV14Mh34ykvvBb40Lkc6eED0COo2D6JtktElNmCrh4BqjlX/oJ3BwgpgxRiu/7VA5ONaC1ppdx/L5YmcmX 0 Tn5xBYFertzSozXjY0Pp0rp LuJKoq FvKJy/u/LfXy95wQ92/gyZ5IUIrM5JfmQ8r3RJZPyg3GB0d3PaLXHjIX2w5tfd0x9yjkECR/CzgVGv35ANMTdCz2nGr9ncc3KK83EH8jii52Z/JiURbnJTIeWXtzeK4zberWmVYvaf18l0V jn5OzeGbFHvKLpRCZzSnMMrpjklYZ/cvmCvBuZbQ6O42DiEHgKENc61VFKSSuhG3vG9c7nNyh2x1GKz801trRNVn5xeV8vfcEn /IJCEtD6VgYPsAxvcKY1TXEDxdr 0aiST6Giosq Sl1Yks3naMji29mTO5B11a2 g46eYkLw2SV0PSakjfBGjwa2sk9k63QGhvcJADcaM4scfo1tmzDCqKjIvYcfdB1zvApXFGl9ijo6eL MLSn5 eW4y7syOjuoZwe69QBkUF1mguaEn0V2E2azYdzuHZFXs4nl/Cg0Pb8 QIKURmVdkHjC6ZpFVwYrexrGVXI7nHjDXuSJX YuspPQN7lhqt/Owk48axHncaXTtBHawdXZOltSYhLY/Pd2ayevdxCkoraenjyq09Q7m9VyidWl3 OpMk l8pKTexOyOfhLQ8EtLy2JGeR35xBREBHsyRQmTWobVx52bSKuMnJ8VYHtYXOo01kruM8bY9WkPaRqOVn/iV0ZUWOQT63G90p0k3Wq2VVpj4OTmLFTsyiT QRaVZ06mVD N7hXJrz9YE 1x4k1uzT/Qnz5SSkJbH9rRcdqTlsf94AZVm47NGBXvRO9yP3pF jO3eSgqRNSazyeiKSVpldMsUZIByNIY/dhpnJAqf1taOUtRUYRbs/BS2fwRn0sErxEj4fe4zKmyKWsspLGP1nhN8vjOT3cfycVAwODqIO2JDualzCO4ujs0r0VeazCSfPFvVWk9IyyMzvwQAN2cHeoT50jvCj7hIP3q18cPP06W Qhc1YTbDkbWw/3NI/gaKTxulfKNuMJJ7h1GSFJo6swlSf4Ct70Hq/8DZA3r9FgY8YhR9E3WSmlVYNT4/M78ETxdHbu7Wijcm9bTfRF9QWsHO9HwSjuaSkJ7HrvR8ispNALT0cSUuwp/eEX70jvCjc2sfu5k2rMkpzoVdnxm33eceBhdv6DDS6JaJGgGuMnTVLp1KhE1vG/352gSdb4WBj8lonXpgNmu2Hs3l8x0ZfLP3JPv/Nso Er3WmvTcYrYfzSMhPY Eo3kczDqL1uCgoFMrH Ii/Ii1JPZQX3cpUWBNWhu12re/D/s N2qpt lvnMp3ukUKaTUnBcdhy39g 4dGqeXIIUbCj7pRRkzVg5JyEx6uTk0z0ZdVmtiXecboXz9qXDQ9XWjU2PZ2daJXhB9xlqTes43vNY87FQ2kvAj2LjNGZJzcY5T37T7ZGJER0tXa0QlrKi0wSi1snmeUWgiKgYF/gm4TrzxBi7iqJtVH36FLD/371xazPS2PvRlnKDcZNdIiAjyqumDiIvyJDvaSUgS2JivZaL3vXmy02lp2NZJ790ng6m3t6IQtMVUYZ3kb/wWn9hkXbvs/bFTQdPe9 vvFRZpUondtFa0j7v0XXUN9iIv0JzbcSO5SCthGVZYb4923fwBpG4ziYZ1vM7pn2vSTse7iyrQ2aups/BccjjfO/nrfA/0eBt821o6uSWlSib5z9556R0ICbs5ys5JNy083Kh3u MSYxcg3wmi997oLPAOtHZ1oik7sgY1vwb4VRgOhy3ijW0dmwqqRJpXobaHWjbgMswlSfzS6Zw5 Z/wxdhhl3ALf/nq5qCbqR/4x2PwO7PgYyguN8tIDHzO Y3KGeFmS6EXdFGYbN8IkfGi05D2DjTrlve R02vRcEryje/c5v8Y8/a27Ga08LuOlztuL0ESvbh2Wp fVDrxSzCVG0Pi4u41yhE4yY1mopFUlhmjuDa BdnJxqQo/f9gTIwicwxUkUQvaq60APYsMS6uZiWCawuj/njcvRB0xXndhWhYZrNxp 2Gf0HaL8Z3M 4e6PcHmQULSfSiJk7uNca9711m9Iu26mHUKel6B7h4Wjs6IS6UmWC08BO/NOojdZ9kdOsEd7J2ZFZT00TfYHcbKaVGAXMBR C/WutXG2pf4hpUlBp/KNvfh2NbwMnNSOznJpSQC1/CVoX2hokfQe4R4 arnQuMEhtRI2DQY0Y3o3x/L6lBWvRKKUfgIDACyAC2AVO11omXWl9a9A2ossyo7Z6 2UjsaRssU8RFGV0zPaZKQTHRNBXnGmekW981hvsGREPEQAjvb9zP4d/O7hO/tVv0fYFUrfVhSzCLgVuBSyZ6UY8Ks42EfmwLHNtq1Hs3lRmv beDDjdDj8nQ9jq7/yMQds7DH657GgY atyZnfw17F9pDNEE8Ag0En54P PfVj2bba2lhkr0ocCxas8zgH7VV1BKPQg8CBAeHt5AYdg5s9kYkXAuqR/bbFSJBONu1da9oN9Dxpe8TV/wCrZuvEI0BGd3iPu98WM2w kDljNYy9/Ega N9RxdjGTfpu/5Vn8z ZtoqER/qabiBX1EWuv5wHwwum4aKA77UlZoXJCqarFvg7IzxmueQcYXt/fvjX9b95SCUaL5cXAwLs4GdzISPxhnuRlbzyf/rfONMspgzENcvdUfFAMO9neHfkMl gyg l01YcDxBtqXfdIazmRUS pb4OQ o743yvgidx1//kvq11a6YoS4FK8gY aymDHG819ftzr0I xZbLzm6gNhfc7/XYX2tovifA2V6LcB0UqptkAmMAW4s4H2ZR9MFcZwx3NJPX0LnLUcG509ISwOhjxl fLFSbU/IWrLydXovmnT13iuNeQdMVr751r98f8ANCgHY1L6Nv3PJ/8WbZpco6pBEr3WulIp9SjwHcbwyg 01vsbYl9NVnEuZGw7n9QzE6DSmP6QFuHG6IFzX6zgLuAodfeFaBBKGQMV/NtBjynGspJ8yNxu/G0e2wK7FsK294zXvFtZrntZ/j5Dutt8eQa5YaqxVJQYk2If gkO/WzU4wZwcDK KOe NGF9oUWodWMVQlzIVAlZ y9s9Z9JN15z9oCON0P3KUYRtkZslMmdsdamtVFO4NBPxk/aRqgsNa78hw AtkONK/ tY8HFw9rRCiGuVcFxo7V/ZB3s/8K4P8UzGLpNMM4MQro3eBePJHprKMw2JlI4l9wLTxrLg2KMI337G4wuGUnsQtiXynJI d64qHtgDZgrIKiTkfC7TwKf1g2yW0n0jaGyzDiNO5fYT 4xlrv7Q/vhRnJvN1y6YoRoTopzjRb niVGix9lnMH3mAqdxoGrV73tShJ9Q9Aasg9U647ZABXFRj97m/5Gco 6AUJ6yIQcQgjIOQR7lsLuRZCfZvTndxoH3Scbk6vUccy JPr6UpQDR LPX0QtyDSWB0RbujeMg7UAAAhPSURBVGOuh8hBdjHWVgjRQLQ2Wve7Fxmt/dIzxuidbhOMln7LLrXarCT62qosN 6iO9dqP74L0ODmaxyB219vtNx9pWyDEKIWKkrh4BqjayflezBXGjNp9ZgM3SaCd0iNNyWJvqa0hpzU84n9yHqoKDLqXbfpe77V3rqXXd4aLYSwoqLTsO9z4yJuZoJxg1a74UYrP2bMVQduSKI/R2soKzBGxBRlQeGp84/PZMLRX86Ph/VvV607ZjC4tWiYmIQQ4teyDxqt/D1L4MwxcPGCzrca/fmRQy553c E73WUHbWqEFdeAoKsy7z2JLQK0sv3oZyMAqBhfU5n9z929bfhxJCiNowmyF9o6U//0soP2vMmdt9knFTVnBM1apNL9Fv22ZMZ1eYZUnWWVd fLnk7RFolB71DAKvlkZBI8/gix97 EtXjBDCtlWUwIFvjHr7qT8aRQ1b9TTG53edgPIObkKJvo2H3v6Qz/laLxdQ4BloSdCW5O0ZZCTzqsctjeceAZK8hRD2qTAL9i43 vNP7AbliHoxz7pzxl4TF0/oc5 lJV49oVuStxT0EkI0d17BMOAR4ycryWjl87cavdU2WvS2NLxSCCGaiJr20cvtm0IIYeck0QshhJ2TRC EEHZOEr0QQtg5SfRCCGHnJNELIYSdk0QvhBB2ThK9EELYOZu4YUopdRY4YO04GlkgcNraQTQy czNg3zmxhOhtQ662kq2UlvgQE3u7rInSqnt8pntn3zm5sHWP7N03QghhJ2TRC EEHbOVhL9fGsHYAXymZsH czNg01/Zpu4GCuEEKLh2EqLXgghRAOpVaJXSrVRSv2slEpSSu1XSj1uWe6vlPqfUirF8q fZXmMUmqTUqpMKTX9V9t60rKNfUqpRUopt8vs827LdlOUUndXW/6yUuqYUqqwNp liX7mNUqp3ZZt/Ecp1SDTatnYZ45XSh1QSu2y/ATb82dWSnlX 6y7lFKnlVJv2vNntiyfrJTaY9nG7Ib4vFb8zGuUUvlKqdW/Wv6oUipVKaWVUoEN8oG11tf8A7QCYi2PvYGDQGdgNvCcZflzwCzL42CgD/AyML3adkKBI4C75flS4J5L7M8fOGz518/y2M/yWn9LPIW1 SxN9DP7WP5VwApgSjP4zPFAXEP H9vaZ/7VegnAUHv zEAAkA4EWdb7GLjBHj6z5bUbgHHA6l8t7wVEAkeBwIb4vLVq0WutT2itd1genwWSLB/4Vst/zrn/pNss62RprbcBFZfYnNP/t3d3IVKVcRzHv3/aEnUhrYvNXsDeYKG3vdJeDMrEDQkRIsgsoi6CvJCug2C7i4oguuhmKyi2EERqQ8Jsu8gELULRrcxEpSyp1V4UKsn238X/mTrp7LgzOzPn6fj7wLA7Z87bT8b/Oc8553kWmG1mPcAc4Ps68wwCW9z9J3f/GdgC3J3Wvd3dj7SSoxmZZT5eWM8FQEdutOSUuVtyzGxm1xKFZusM49WVUeargH3uPpHm wC4tw0Rz1BCZtx9DDhRZ/pOdz80o0BnMeNr9Ga2kDgi7QD6akU3/WzYvHb374DniaP4EeBXd3 /zqyXAd8W3h9O00qRQ2Yz2wz8SHxxNrQYZdpyyAy8li5jPGVm1mKUacskM8BqYL2n079OKjnzfqDfzBamorkKuGImeaajS5lLNaNCb2a9xKWDJwpnmc0sP584gl4JXArMNbMH681aZ1opjwvlktndB4nm5yxgabP70YxMMq9x9xuA29ProWb3oxmZZK65H3ir2X1oVtmZ09n948B6ovVyCDjV7H40o4uZS9VyoTez84l/oBF335gm/2BmC9LnC4gzzkaWAQfdfcLd/wQ2Area2eLCTaiVxBG/eGS/nCmaR52UW2Z3/wMYJb5oHZFL5nTmVGtmvwksak/CM WSOW3rJqDH3T9rS7gp5JLZ3d9198Xufgsx/tXX7cp4ui5nLlWrT90Y8Arwpbu/UPhoFKjdQX8YeOcsq/oGuNnM5qR13pXWucPdB9JrFNgMLDez ekIujxN65pcMptZb GL2AOsAPa2K2dRRpl7ak8jpP c9wDj7cpZlEvmwnpW0 Gz ZwyW3qaKk1fCwy3J V/lZC5XN7aHeslRPNyN7ArvVYQd83HiKPwGHBRmv8S4ih HPgl/V57cuRpolCNA28As6bY5qPENbz9wCOF6c m9U2mn0OtZPq/ZAb6gE/TfnwOvESc8VU581ziqZNa5heB86qcufDZAaC/E1lzzEwc1L5Ir448TVZi5q3ABPB7Wn4wTV X3p8iWjbD7c6rnrEiIhWnnrEiIhWnQi8iUnEq9CIiFadCLyJScSr0IiIVp0Iv0gIzm2dmawvv77DTRiUUyYUKvUhr5hEdekSyp0IvlZcGydprZsMWY4aPmNkyM9tmMe74IotxyN 2GAt9u5ndmJYdMrNXLcbDP2Bm69JqnwGuTl3cn0vTes1sQ9rWSOopKVK6nrJ3QKRLrgHuAx4jehY/QPSOXAk8SYymuNPdV5nZUuB1YCAt2w/cSYxb/pWZvUyMVX69uw9AXLohRkC8jujduA24Dfi4G FEGtEZvZwrDrr7HnefJIZRGPPoFr6H KMPS4ju67j7h8DFZnZhWnaTu59096PEIFd9U2zjE3c/nLaxK61XpHQq9HKuOFn4fbLwfpJo2TYaLri47F9M3RKe7nwiXaVCLxI AtbAP5dhjnrj8clPEJdyRLKnMw6RMET8BavdwG/8O1RtXe5 LN3MHQfeAzZ1fhdFWqPRK0VEKk6XbkREKk6FXkSk4lToRUQqToVeRKTiVOhFRCpOhV5EpOJU6EVEKk6FXkSk4v4GsPIi oY43AcAAAAASUVORK5CYII )]

十六、Pandas的分层索引MultiIndex

为什么要学习分层索引MultiIndex

分层索引 在一个轴向上拥有多个索引层级 可以表达更高维度数据的形式

可以更方便的进行数据筛选 如果有序则性能更好

groupby等操作的结果 如果是多KEY 结果是分层索引 需要会使用

一般不需要自己创建分层索引(MultiIndex有构造函数但一般不用)

演示数据 百度、阿里巴巴、爱奇艺、京东四家公司的10天股票数据

数据来自 英为财经

https://cn.investing/

本次演示提纲

一、Series的分层索引MultiIndex

二、Series有多层索引怎样筛选数据

三、DataFrame的多层索引MultiIndex

四、DataFrame有多层索引怎样筛选数据

In [7]:

import pandas as pd

%matplotlib inline

In [8]:

fpath ./pandas-learn-code/datas/stocks/互联网公司股票.xlsx

stocks pd.read_excel(fpath)

In [10]:

stocks.shape

Out[10]:

(12, 8)

In [5]:

stocks.head()

Out[5]:

日期

公司

收盘

开盘

交易量

涨跌幅

0

2019-10-03

BIDU

104.32

102.35

104.73

101.15

2.24

0.02

1

2019-10-02

BIDU

102.62

100.85

103.24

99.50

2.69

0.01

2

2019-10-01

BIDU

102.00

102.80

103.26

101.00

1.78

-0.01

3

2019-10-03

BABA

169.48

166.65

170.18

165.00

10.39

0.02

4

2019-10-02

BABA

165.77

162.82

166.88

161.90

11.60

0.00

In [12]:

stocks[ 公司 ].unique()

Out[12]:

array([ BIDU , BABA , IQ , JD ], dtype object)

In [14]:

# 按公司分组查询收盘价的平均值

stocks.groupby( 公司 )[ 收盘 ].mean()

Out[14]:

公司

BABA 166.80

BIDU 102.98

IQ 15.90

JD 28.35

Name: 收盘, dtype: float64

1、Series的分层索引MultiIndex

In [16]:

# ser是Series,有两列索引

ser stocks.groupby([ 公司 , 日期 ])[ 收盘 ].mean()

ser

Out[16]:

公司 日期

BABA 2019-10-01 165.15

2019-10-02 165.77

2019-10-03 169.48

BIDU 2019-10-01 102.00

2019-10-02 102.62

2019-10-03 104.32

IQ 2019-10-01 15.92

2019-10-02 15.72

2019-10-03 16.06

JD 2019-10-01 28.19

2019-10-02 28.06

2019-10-03 28.80

Name: 收盘, dtype: float64

多维索引中 空白的意思是 使用上面的值

In [20]:

ser.index

Out[20]:

MultiIndex(levels [[ BABA , BIDU , IQ , JD ], [ 2019-10-01 , 2019-10-02 , 2019-10-03 ]],

codes [[0, 0, 0, 1, 1, 1, 2, 2, 2, 3, 3, 3], [0, 1, 2, 0, 1, 2, 0, 1, 2, 0, 1, 2]],

names [ 公司 , 日期 ])

In [21]:

# unstack把二级索引变成列

# 公司继续作为索引 但日期变为columns

ser.unstack()

Out[21]:

日期

2019-10-01

2019-10-02

2019-10-03

公司

BABA

165.15

165.77

169.48

BIDU

102.00

102.62

104.32

IQ

15.92

15.72

16.06

JD

28.19

28.06

28.80

In [22]:

ser

Out[22]:

公司 日期

BABA 2019-10-01 165.15

2019-10-02 165.77

2019-10-03 169.48

BIDU 2019-10-01 102.00

2019-10-02 102.62

2019-10-03 104.32

IQ 2019-10-01 15.92

2019-10-02 15.72

2019-10-03 16.06

JD 2019-10-01 28.19

2019-10-02 28.06

2019-10-03 28.80

Name: 收盘, dtype: float64

In [24]:

# 将两层索引(公司 日期)都变成了columns

ser.reset_index()

Out[24]:

公司

日期

收盘

0

BABA

2019-10-01

165.15

1

BABA

2019-10-02

165.77

2

BABA

2019-10-03

169.48

3

BIDU

2019-10-01

102.00

4

BIDU

2019-10-02

102.62

5

BIDU

2019-10-03

104.32

6

IQ

2019-10-01

15.92

7

IQ

2019-10-02

15.72

8

IQ

2019-10-03

16.06

9

JD

2019-10-01

28.19

10

JD

2019-10-02

28.06

11

JD

2019-10-03

28.80

2、Series有多层索引MultiIndex怎么筛选数据

In [25]:

ser

Out[25]:

公司 日期

BABA 2019-10-01 165.15

2019-10-02 165.77

2019-10-03 169.48

BIDU 2019-10-01 102.00

2019-10-02 102.62

2019-10-03 104.32

IQ 2019-10-01 15.92

2019-10-02 15.72

2019-10-03 16.06

JD 2019-10-01 28.19

2019-10-02 28.06

2019-10-03 28.80

Name: 收盘, dtype: float64

In [27]:

ser.loc[ BIDU ]

Out[27]:

日期

2019-10-01 102.00

2019-10-02 102.62

2019-10-03 104.32

Name: 收盘, dtype: float64

In [ ]:

# 多层索引 可以用元组的形式筛选

In [28]:

ser.loc[( BIDU , 2019-10-02 )]

Out[28]:

102.62

In [29]:

ser.loc[:, 2019-10-02 ]

Out[29]:

公司

BABA 165.77

BIDU 102.62

IQ 15.72

JD 28.06

Name: 收盘, dtype: float64

3、DataFrame的多层索引MultiIndex

In [30]:

stocks.head()

Out[30]:

日期

公司

收盘

开盘

交易量

涨跌幅

0

2019-10-03

BIDU

104.32

102.35

104.73

101.15

2.24

0.02

1

2019-10-02

BIDU

102.62

100.85

103.24

99.50

2.69

0.01

2

2019-10-01

BIDU

102.00

102.80

103.26

101.00

1.78

-0.01

3

2019-10-03

BABA

169.48

166.65

170.18

165.00

10.39

0.02

4

2019-10-02

BABA

165.77

162.82

166.88

161.90

11.60

0.00

In [40]:

stocks.set_index([ 公司 , 日期 ], inplace True)

. . .

In [41]:

stocks.head()

Out[41]:

收盘

开盘

交易量

涨跌幅

公司

日期

BIDU

2019-10-03

104.32

102.35

104.73

101.15

2.24

0.02

2019-10-02

102.62

100.85

103.24

99.50

2.69

0.01

2019-10-01

102.00

102.80

103.26

101.00

1.78

-0.01

BABA

2019-10-03

169.48

166.65

170.18

165.00

10.39

0.02

2019-10-02

165.77

162.82

166.88

161.90

11.60

0.00

In [42]:

stocks.index

Out[42]:

MultiIndex(levels [[ BABA , BIDU , IQ , JD ], [ 2019-10-01 , 2019-10-02 , 2019-10-03 ]],

codes [[1, 1, 1, 0, 0, 0, 2, 2, 2, 3, 3, 3], [2, 1, 0, 2, 1, 0, 2, 1, 0, 2, 1, 0]],

names [ 公司 , 日期 ])

In [43]:

stocks.sort_index(inplace True)

In [44]:

stocks

Out[44]:

收盘

开盘

交易量

涨跌幅

公司

日期

BABA

2019-10-01

165.15

168.01

168.23

163.64

14.19

-0.01

2019-10-02

165.77

162.82

166.88

161.90

11.60

0.00

2019-10-03

169.48

166.65

170.18

165.00

10.39

0.02

BIDU

2019-10-01

102.00

102.80

103.26

101.00

1.78

-0.01

2019-10-02

102.62

100.85

103.24

99.50

2.69

0.01

2019-10-03

104.32

102.35

104.73

101.15

2.24

0.02

IQ

2019-10-01

15.92

16.14

16.22

15.50

11.65

-0.01

2019-10-02

15.72

15.85

15.87

15.12

8.10

-0.01

2019-10-03

16.06

15.71

16.38

15.32

10.08

0.02

JD

2019-10-01

28.19

28.22

28.57

27.97

10.64

0.00

2019-10-02

28.06

28.00

28.22

27.53

9.53

0.00

2019-10-03

28.80

28.11

28.97

27.82

8.77

0.03

4、DataFrame有多层索引MultiIndex怎样筛选

【*重要知识*】在选择数据时

元组(key1,key2)代表筛选多层索引 其中key1是索引第一级 key2是第二级 比如key1 JD, key2 2019-10-02

列表[key1,key2]代表同一层的多个KEY 其中key1和key2是并列的同级索引 比如key1 JD, key2 BIDU

In [45]:

stocks.loc[ BIDU ]

Out[45]:

收盘

开盘

交易量

涨跌幅

日期

2019-10-01

102.00

102.80

103.26

101.00

1.78

-0.01

2019-10-02

102.62

100.85

103.24

99.50

2.69

0.01

2019-10-03

104.32

102.35

104.73

101.15

2.24

0.02

In [46]:

# BIDU, 2019-10-02当天所有的相关数据

stocks.loc[( BIDU , 2019-10-02 ), :]

Out[46]:

收盘 102.62

开盘 100.85

高 103.24

低 99.50

交易量 2.69

涨跌幅 0.01

Name: (BIDU, 2019-10-02), dtype: float64

In [48]:

# 逻辑关系为BIDU的2019-10-02的开盘数据

stocks.loc[( BIDU , 2019-10-02 ), 开盘 ]

Out[48]:

100.85

In [50]:

# 并列筛选 BIDU和JD为同级关系

stocks.loc[[ BIDU , JD ], :]

Out[50]:

收盘

开盘

交易量

涨跌幅

公司

日期

BIDU

2019-10-01

102.00

102.80

103.26

101.00

1.78

-0.01

2019-10-02

102.62

100.85

103.24

99.50

2.69

0.01

2019-10-03

104.32

102.35

104.73

101.15

2.24

0.02

JD

2019-10-01

28.19

28.22

28.57

27.97

10.64

0.00

2019-10-02

28.06

28.00

28.22

27.53

9.53

0.00

2019-10-03

28.80

28.11

28.97

27.82

8.77

0.03

In [51]:

stocks.loc[([ BIDU , JD ], 2019-10-03 ), :]

Out[51]:

收盘

开盘

交易量

涨跌幅

公司

日期

BIDU

2019-10-03

104.32

102.35

104.73

101.15

2.24

0.02

JD

2019-10-03

28.80

28.11

28.97

27.82

8.77

0.03

In [52]:

stocks.loc[([ BIDU , JD ], 2019-10-03 ), 收盘 ]

Out[52]:

公司 日期

BIDU 2019-10-03 104.32

JD 2019-10-03 28.80

Name: 收盘, dtype: float64

In [54]:

stocks.loc[( BIDU ,[ 2019-10-02 , 2019-10-03 ]), 收盘 ]

Out[54]:

公司 日期

BIDU 2019-10-02 102.62

2019-10-03 104.32

Name: 收盘, dtype: float64

In [55]:

# slice(None)代表筛选这一索引的所有内容

stocks.loc[(slice(None), [ 2019-10-02 , 2019-10-03 ]),:]

Out[55]:

收盘

开盘

交易量

涨跌幅

公司

日期

BABA

2019-10-02

165.77

162.82

166.88

161.90

11.60

0.00

2019-10-03

169.48

166.65

170.18

165.00

10.39

0.02

BIDU

2019-10-02

102.62

100.85

103.24

99.50

2.69

0.01

2019-10-03

104.32

102.35

104.73

101.15

2.24

0.02

IQ

2019-10-02

15.72

15.85

15.87

15.12

8.10

-0.01

2019-10-03

16.06

15.71

16.38

15.32

10.08

0.02

JD

2019-10-02

28.06

28.00

28.22

27.53

9.53

0.00

2019-10-03

28.80

28.11

28.97

27.82

8.77

0.03

In [56]:

# 将多层索引恢复成列

stocks.reset_index()

Out[56]:

公司

日期

收盘

开盘

交易量

涨跌幅

0

BABA

2019-10-01

165.15

168.01

168.23

163.64

14.19

-0.01

1

BABA

2019-10-02

165.77

162.82

166.88

161.90

11.60

0.00

2

BABA

2019-10-03

169.48

166.65

170.18

165.00

10.39

0.02

3

BIDU

2019-10-01

102.00

102.80

103.26

101.00

1.78

-0.01

4

BIDU

2019-10-02

102.62

100.85

103.24

99.50

2.69

0.01

5

BIDU

2019-10-03

104.32

102.35

104.73

101.15

2.24

0.02

6

IQ

2019-10-01

15.92

16.14

16.22

15.50

11.65

-0.01

7

IQ

2019-10-02

15.72

15.85

15.87

15.12

8.10

-0.01

8

IQ

2019-10-03

16.06

15.71

16.38

15.32

10.08

0.02

9

JD

2019-10-01

28.19

28.22

28.57

27.97

10.64

0.00

10

JD

2019-10-02

28.06

28.00

28.22

27.53

9.53

0.00

11

JD

2019-10-03

28.80

28.11

28.97

27.82

8.77

0.03

十七、Pandas的数据转换函数map、apply、applymap

数据转换函数对比 map、apply、applymap

map 只用于Series 实现每个值- 值的映射

apply 用于Series实现每个值的处理 用于Dataframe实现某个轴的Series的处理

applymap 只能用于DataFrame 用于处理该DataFrame的每个元素

1. map用于Series值的转换

实例 将股票代码英文转换成中文名字

Series.map(dict) or Series.map(function)均可

In [2]:

import pandas as pd

stocks pd.read_excel(r D:\WinterIsComing\python\New_Wave\pandas_basic\pandas-learn-code\datas\stocks\互联网公司股票.xlsx )

In [3]:

stocks.head()

Out[3]:

日期

公司

收盘

开盘

交易量

涨跌幅

0

2019-10-03

BIDU

104.32

102.35

104.73

101.15

2.24

0.02

1

2019-10-02

BIDU

102.62

100.85

103.24

99.50

2.69

0.01

2

2019-10-01

BIDU

102.00

102.80

103.26

101.00

1.78

-0.01

3

2019-10-03

BABA

169.48

166.65

170.18

165.00

10.39

0.02

4

2019-10-02

BABA

165.77

162.82

166.88

161.90

11.60

0.00

In [7]:

stocks[ 公司 ].unique()

Out[7]:

array([ BIDU , BABA , IQ , JD ], dtype object)

In [8]:

# 公司股票代码到中文的映射 注意这里是小写

dict_company_names {

bidu : 百度 ,

baba : 阿里巴巴 ,

iq : 爱奇艺 ,

jd : 京东

}

方法1 Series.map(dict)

In [9]:

stocks[ 中文公司1 ] stocks[ 公司 ].str.lower().map(dict_company_names)

In [10]:

stocks

Out[10]:

日期

公司

收盘

开盘

交易量

涨跌幅

中文公司1

0

2019-10-03

BIDU

104.32

102.35

104.73

101.15

2.24

0.02

百度

1

2019-10-02

BIDU

102.62

100.85

103.24

99.50

2.69

0.01

百度

2

2019-10-01

BIDU

102.00

102.80

103.26

101.00

1.78

-0.01

百度

3

2019-10-03

BABA

169.48

166.65

170.18

165.00

10.39

0.02

阿里巴巴

4

2019-10-02

BABA

165.77

162.82

166.88

161.90

11.60

0.00

阿里巴巴

5

2019-10-01

BABA

165.15

168.01

168.23

163.64

14.19

-0.01

阿里巴巴

6

2019-10-03

IQ

16.06

15.71

16.38

15.32

10.08

0.02

爱奇艺

7

2019-10-02

IQ

15.72

15.85

15.87

15.12

8.10

-0.01

爱奇艺

8

2019-10-01

IQ

15.92

16.14

16.22

15.50

11.65

-0.01

爱奇艺

9

2019-10-03

JD

28.80

28.11

28.97

27.82

8.77

0.03

京东

10

2019-10-02

JD

28.06

28.00

28.22

27.53

9.53

0.00

京东

11

2019-10-01

JD

28.19

28.22

28.57

27.97

10.64

0.00

京东

方法2 Series.map(function)

function的参数是Series的每个元素的值

In [13]:

# lambda x中的x代表Series的每个值(即stocks[ 公司 ]中的每个值)

stocks[ 公司中文2 ] stocks[ 公司 ].map(lambda x : dict_company_names[x.lower()])

In [12]:

stocks.head()

Out[12]:

日期

公司

收盘

开盘

交易量

涨跌幅

中文公司1

公司中文2

0

2019-10-03

BIDU

104.32

102.35

104.73

101.15

2.24

0.02

百度

百度

1

2019-10-02

BIDU

102.62

100.85

103.24

99.50

2.69

0.01

百度

百度

2

2019-10-01

BIDU

102.00

102.80

103.26

101.00

1.78

-0.01

百度

百度

3

2019-10-03

BABA

169.48

166.65

170.18

165.00

10.39

0.02

阿里巴巴

阿里巴巴

4

2019-10-02

BABA

165.77

162.82

166.88

161.90

11.60

0.00

阿里巴巴

阿里巴巴

2. apply用于Series和DataFrame的转换

Series.apply(function), 函数的参数是每个值

DataFrame.apply(function), 函数的参数是Series

Series.apply(function)

function的参数是Series的每个值

In [14]:

stocks[ 中文公司3 ] stocks[ 公司 ].apply(lambda x : dict_company_names[x.lower()])

In [16]:

stocks.head()

Out[16]:

日期

公司

收盘

开盘

交易量

涨跌幅

中文公司1

公司中文2

中文公司3

0

2019-10-03

BIDU

104.32

102.35

104.73

101.15

2.24

0.02

百度

百度

百度

1

2019-10-02

BIDU

102.62

100.85

103.24

99.50

2.69

0.01

百度

百度

百度

2

2019-10-01

BIDU

102.00

102.80

103.26

101.00

1.78

-0.01

百度

百度

百度

3

2019-10-03

BABA

169.48

166.65

170.18

165.00

10.39

0.02

阿里巴巴

阿里巴巴

阿里巴巴

4

2019-10-02

BABA

165.77

162.82

166.88

161.90

11.60

0.00

阿里巴巴

阿里巴巴

阿里巴巴

DataFrame.apply(function)

function的参数是对应轴的Series

In [18]:

stocks[ 中文公司4 ] stocks.apply(lambda x: dict_company_names[x[ 公司 ].lower()], axis 1)

In [19]:

stocks[ 公司 ]

Out[19]:

0 BIDU

1 BIDU

2 BIDU

3 BABA

4 BABA

5 BABA

6 IQ

7 IQ

8 IQ

9 JD

10 JD

11 JD

Name: 公司, dtype: object

注意这个代码

1、apply是在stocks这个DataFrame上调用

2、lambda x的x是一个Series 因为指定了axis 1所以Seires的key是列名 可以用x[‘公司’]获取

In [20]:

stocks.head()

Out[20]:

日期

公司

收盘

开盘

交易量

涨跌幅

中文公司1

公司中文2

中文公司3

中文公司4

0

2019-10-03

BIDU

104.32

102.35

104.73

101.15

2.24

0.02

百度

百度

百度

百度

1

2019-10-02

BIDU

102.62

100.85

103.24

99.50

2.69

0.01

百度

百度

百度

百度

2

2019-10-01

BIDU

102.00

102.80

103.26

101.00

1.78

-0.01

百度

百度

百度

百度

3

2019-10-03

BABA

169.48

166.65

170.18

165.00

10.39

0.02

阿里巴巴

阿里巴巴

阿里巴巴

阿里巴巴

4

2019-10-02

BABA

165.77

162.82

166.88

161.90

11.60

0.00

阿里巴巴

阿里巴巴

阿里巴巴

阿里巴巴

3. applymap用于DataFrame所有值的转换

In [21]:

sub_df stocks[[ 收盘 , 开盘 , 高 , 低 , 交易量 ]]

In [22]:

sub_df

Out[22]:

收盘

开盘

交易量

0

104.32

102.35

104.73

101.15

2.24

1

102.62

100.85

103.24

99.50

2.69

2

102.00

102.80

103.26

101.00

1.78

3

169.48

166.65

170.18

165.00

10.39

4

165.77

162.82

166.88

161.90

11.60

5

165.15

168.01

168.23

163.64

14.19

6

16.06

15.71

16.38

15.32

10.08

7

15.72

15.85

15.87

15.12

8.10

8

15.92

16.14

16.22

15.50

11.65

9

28.80

28.11

28.97

27.82

8.77

10

28.06

28.00

28.22

27.53

9.53

11

28.19

28.22

28.57

27.97

10.64

In [23]:

# 将这些数字取整数 应用于所有元素(即表格中所有的值)

sub_df.applymap(lambda x: int(x))

Out[23]:

收盘

开盘

交易量

0

104

102

104

101

2

1

102

100

103

99

2

2

102

102

103

101

1

3

169

166

170

165

10

4

165

162

166

161

11

5

165

168

168

163

14

6

16

15

16

15

10

7

15

15

15

15

8

8

15

16

16

15

11

9

28

28

28

27

8

10

28

28

28

27

9

11

28

28

28

27

10

In [25]:

# 直接修改原df的这几列

stocks.loc[:, [ 收盘 , 开盘 , 高 , 低 , 交易量 ]] sub_df.applymap(lambda x: int(x))

In [26]:

stocks.head()

Out[26]:

日期

公司

收盘

开盘

交易量

涨跌幅

中文公司1

公司中文2

中文公司3

中文公司4

0

2019-10-03

BIDU

104

102

104

101

2

0.02

百度

百度

百度

百度

1

2019-10-02

BIDU

102

100

103

99

2

0.01

百度

百度

百度

百度

2

2019-10-01

BIDU

102

102

103

101

1

-0.01

百度

百度

百度

百度

3

2019-10-03

BABA

169

166

170

165

10

0.02

阿里巴巴

阿里巴巴

阿里巴巴

阿里巴巴

4

2019-10-02

BABA

165

162

166

161

11

0.00

阿里巴巴

阿里巴巴

阿里巴巴

阿里巴巴

十八、Pandas怎样对每个分组应用apply函数?

知识 Pandas的GroupBy遵从split、apply、combine模式

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-lUn7YSnp-1597761927713)(http://localhost:8891/notebooks/pandas-learn-code/other_files/pandas-split-apply-combine.png)]

这里的split指的是pandas的groupby 我们自己实现apply函数 apply返回的结果由pandas进行combine得到结果

GroupBy.apply(function)

function的第一个参数是dataframe

function的返回结果 可是dataframe、series、单个值 甚至和输入dataframe完全没关系

本次实例演示

怎样对数值列按分组的归一化

怎样取每个分组的TOPN数据

实例1 怎样对数值列按分组的归一化

将不同范围的数值列进行归一化 映射到[0,1]区间

更容易做数据横向对比 比如价格字段是几百到几千 增幅字段是0到100

机器学习模型学的更快性能更好

归一化的公式

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-CuwTEdIl-1597761927714)(http://localhost:8891/notebooks/pandas-learn-code/other_files/Normalization-Formula.jpg)]

演示 用户对电影评分的归一化

每个用户的评分不同 有的乐观派评分高 有的悲观派评分低 按用户做归一化

In [1]:

import pandas as pd

In [7]:

ratings pd.read_csv(

./pandas-learn-code/datas/movielens-1m/ratings.dat ,

sep :: ,

engine python ,

names UserID::MovieID::Rating::Timestamp .split( :: )

)

In [8]:

ratings.head()

Out[8]:

UserID

MovieID

Rating

Timestamp

0

1

1193

5

978300760

1

1

661

3

978302109

2

1

914

3

978301968

3

1

3408

4

978300275

4

1

2355

5

978824291

In [10]:

# 实现按照用户ID分组 然后对ratings进行归一化

def ratings_norm(df):

# 实际参数是每个用户分组的df(按照UserID分组的DataFrame)

max_value df[ Rating ].max()

min_value df[ Rating ].min()

df[ Rating_norm ] df[ Rating ].apply(lambda x:(x - min_value)/(max_value - min_value))

return df

# 按照用户分组 apply一个函数 给该DataFrame新增了一列 实现了Rating列的归一化

ratings ratings.groupby( UserID ).apply(ratings_norm)

In [12]:

ratings[ Rating ]

. . .

In [16]:

type(ratings)

Out[16]:

pandas.core.frame.DataFrame

In [17]:

ratings[ratings[ UserID ] 1].head()

Out[17]:

UserID

MovieID

Rating

Timestamp

Rating_norm

0

1

1193

5

978300760

1.0

1

1

661

3

978302109

0.0

2

1

914

3

978301968

0.0

3

1

3408

4

978300275

0.5

4

1

2355

5

978824291

1.0

实例2 怎么取每个分组的TOP N数据

获取2018年每个月温度最高的2天数据

In [18]:

fpath ./pandas-learn-code/datas/beijing_tianqi/beijing_tianqi_2018.csv

df pd.read_csv(fpath)

In [19]:

df.head()

Out[19]:

ymd

bWendu

yWendu

tianqi

fengxiang

fengli

aqi

aqiInfo

aqiLevel

0

2018-01-01

3℃

-6℃

晴~多云

东北风

1-2级

59

2

1

2018-01-02

2℃

-5℃

阴~多云

东北风

1-2级

49

1

2

2018-01-03

2℃

-5℃

多云

北风

1-2级

28

1

3

2018-01-04

0℃

-8℃

东北风

1-2级

28

1

4

2018-01-05

3℃

-6℃

多云~晴

西北风

1-2级

50

1

In [21]:

# 替换掉温度后的℃

df.loc[:, bWendu ] df[ bWendu ].str.replace( ℃ , ).astype( int32 )

df.loc[:, yWendu ] df[ yWendu ].str.replace( ℃ , ).astype( int32 )

In [22]:

# 新增一列为月份

df[ month ] df[ ymd ].str[0:7]

df.head()

Out[22]:

ymd

bWendu

yWendu

tianqi

fengxiang

fengli

aqi

aqiInfo

aqiLevel

month

0

2018-01-01

3

-6

晴~多云

东北风

1-2级

59

2

2018-01

1

2018-01-02

2

-5

阴~多云

东北风

1-2级

49

1

2018-01

2

2018-01-03

2

-5

多云

北风

1-2级

28

1

2018-01

3

2018-01-04

0

-8

东北风

1-2级

28

1

2018-01

4

2018-01-05

3

-6

多云~晴

西北风

1-2级

50

1

2018-01

In [24]:

def getWenduTopN(df, topn):

# 这里的df 是每个月份分组group的df

return df.sort_values(by bWendu )[[ ymd , bWendu ]][-topn:]

df.groupby( month ).apply(getWenduTopN, topn 2).head()

Out[24]:

ymd

bWendu

month

2018-01

13

2018-01-14

6

18

2018-01-19

7

2018-02

53

2018-02-23

10

56

2018-02-26

12

2018-03

86

2018-03-28

25

In [25]:

df[[ ymd , bWendu ]]

. . .

我们看到 groupby的apply函数返回的DataFrame 其实和原来的DataFrame其实可以完全不一样

Yu-Dem~~