《Python 数据分析》笔记——pandas

Pandas

pandas是一个流行的开源Python项目,其名称取panel data(面板数据)与Python data analysis(Python 数据分析)之意。

pandas有两个重要的数据结构:DataFrame和Series

pandas数据结构之DataFrame

pandas的DataFrame数据结构是一种带标签的二维对象,与Excel的电子表格或者关系型数据表非常相似。

可以用下列方式来创建DataFrame:

1.从另一个DataFrame创建DataFrame

2.从具有二维形状的Numpy数组或者数组的复合结构来生成DataFrame

3.类似地,可以用pandas的另一种数据结构Series来创建DataFrame.关于Series,后文介绍

4.DataFrame也可以从类似CSV之类的文件来生成

考察pandas的DataFrame及其各种属性

(1)首先,将数据文件载入DataFrame,并显示其内容:

from pandas.io.parsers import read_csv

df=read_csv("WHO_first9cols.csv")
print("Dataframe",df)

(2)DataFrame有一个属性,以元组的形式来存放DataFrame的形状数据,这与ndarray非常相似,我们可以查询一个DataFrame的行数

print("shape",df.shape)
print("Length",len(df))


(3)下面通过其他属性来考察各列的标题与数据类型

print("Column Headers",df.columns)
print("Data types",df.dtypes)


(4)pandas的DataFrame带有一个索引,类似于关系型数据库中数据表的主键(primary key)。对于这个索引,我们既可以手动规定,也可以让pandas自动创建。访问索引时,使用相应的属性即可

print("Index",df.index)


(5)有时我们希望遍历DataFrame的基础数据,如果使用pandas的迭代器,遍历列值的效率可能会很低。更好的解决方案是从基础的Numpy数组中提取这些数值,然后进行相应的处理。不过,pandas的DataFrame的某一个属性可以在这方面为我们提供帮助

print("Values",df.values)


Pandas数据结构之Series

pandas的Series数据结构是由不同类型的元素组成的一维数组,该数据结构也具有标签。可以通过下列方式来创建pandas的Series数据结构。

1.由Python的字典来创建Series

2.由Numpy数组来创建Series

3.由单个标量来创建

创建Series数据结构时,可以向构造函数递交一组轴标签,这些标签通常称为索引,是一个可选参数。默认情况下,如果使用Numpy数组作为输入数据,那么pandas会将索引值从0开始递增。如果传递给构造函数的数据是一个Python字典,那么这个字典的键会经排序后变成相应的索引;如果输入数据是一个标量值,那么就需要由我们来提供相应的索引。索引中的每一个新值都要输入一个标量值。pandas的Series和DataFrame数据类型接口的特征和行为是从Numpy数组和Python字典那里借用来的

(1)首先,选中输入文件中的第一列,即Country列;然后显示这个对象在局部作用域中的类型

country_col=df["Country"]
print("Type df",type(df))
print("Type country col",type(country_col))


(2)pandas的Series数据结构不仅共享了DataFrame的一些属性,还另外提供了与名称有关的一个属性。

print("Series shape",country_col.shape)
print("Series index",country_col.index)
print("Series values”,country_col.values)
print("Series name",country_col.name)


(3)为了演示Series的切片功能,这里以截取Series变量Country中的最后两个国家为例进行说明

print("Last 2 countries",country_col[-2:])
print("Last 2 countries type",type(country_col[-2:]))


(4)Numpy的函数同样适用于pandas的DataFrame和Series数据结构


可以在DataFrame、Series和Numpy数组之间进行各种类型的数值运算。

利用pandas查询数据:

(1)head()和tail()这两个函数的作用类似于UNIX系统中同名的两个命令,即选取DataFrame的前n和后n个数据记录,其中n是一个整型参数:

print("Head 2",sunspots.head(2))
print("Tail 2",sunspots.tail(2))


(3)下面用最近的日期来查询最近一年太阳黑子的相关数据:

last_data=sunspots.index[-1]
print("Last value",sunspots.loc[last_date])


(4)下面介绍如何通过YYYYMMDD格式的日期字符串来查询日期,具体如下所示:

print(“Values slice by date”,sunspots[“20020101”:”20131231”])


(5)索引列表也可用于查询

print("Slice from a list of indices",sunspots.iloc[[2,4,-4,2]])


(6)要想选择标量值,有两种方法,这里给出的是速度明显占优势的第二种方法。它们需要两个整数作为参数,其中第一个整数表示行,第二个整数表示列:

print("Scalar with Iloc",sunspots.iloc[0,0])
print("Scalar with iat",sunspots.iat[1,0])


(7)查询布尔型变量的方法与SQL的Where子句非常接近

print("Boolean selection",sunspots[sunspots>sunspots.mean()])


利用pandas的DataFrame进行统计计算

pandas的DataFrame数据结构为我们提供了若干统计函数。

describe:这个方法将返回描述性统计信息

count:这个方法将返回非NaN数据项的数量

mad:这个方法用于计算平均绝对偏差,即类似于标准差的一个有力统计工具

median:这个方法用于返回中位数

min:这个方法将返回最小值

max:这个方法将返回最大值

mode:这个方法将返回众数

std:这个方法将返回标准差

var:这个方法将返回方差

skew:这个方法用来返回偏态系数,该系数表示的是数据分布的对称程度

kurt:这个方法将返回峰态系数,该系数用来反映数据分布曲线顶端尖峭或扁平程度


利用pandas的DataFrame实现数据聚合

(1)为Numpy的随机数生成器指定种子,以确保重复运行程序时生成的数据不会走样

import pandas as pd
from numpy.random import seed
from numpy.random import rand
from numpy.random import random_integers
import numpy as np
seed(42)

df=pd.DataFrame({'Weather':['cold','hot','cold','hot','cold','hot','cold'],'Food':['soup','soup','icecream','chocolate','icecream','icecream','soup'],'Price':10*rand(7),'Number':random_integers(1,9,size=(7,))})

print(df)


(2)通过Weather 列为数据分组,然后遍历各组数据

weather_group=df.groupby('Weather')
i=0
for name,group in weather_group:
    i=i+1
    print("Group",i,name)
    print(group)


(3)变量Weather_group是一种特殊的pandas对象,可由groupby()生成。这个对象为我们提供了聚合函数,下面展示它的使用方法:

print("Weather group first",weather_group.first())
    print("Weather_group last",weather_group.last())
    print("Weather_group mean",weather_group.mean())


(4)恰如利用数据库的查询操作那样,也可以针对多列进行分组


(5)通过agg()方法,可以对数据组施加一系列的Numpy函数

print("WF Aggregrated
",weather_group.agg([np.mean,np.median]))


DataFrame的串联与附加操作

数据库的数据表有内部连接和外部连接两种连接操作类型。实际上,pandas的DataFrame也有类似的操作,因此我们也可以对数据行进行串联和附加。我们将使用前面章节中的DataFrame来练习数据行的串联和附加操作

函数concat()的作用是串联DataFrame,如可以把一个由3行数据组成的DataFrame与其他数据行串接,以便重建原DataFrame:

print("Concat Back together
",pd.concat([df[:3],df[3:]]))


为了追加数据行,可以使用append()函数:

print("Appending rows
",df[:3].append(df[5:]))


连接DataFrames

pandas提供的merge()函数或DataFrame的join()实例方法都能实现类似数据库的连接操作功能。默认情况下,join()实例方法会按照索引进行连接,不过,有时不符合我们的要求

虽然,pandas支持所有的这些连接类型(内部连接、左外连接、右外连接与完全外部连接等操作)

(1)用merge()函数按照员工编号进行连接处理

print("Merge() on key
",pd.merge(dests,tips,on='EmpNr'))


(2)用join()方法执行连接操作时,需要使用后缀来指示左操作对象和右操作对象:

print("Dests join() tips
",dests.join(tips,lsuffix='Dest',rsuffix='Tips'))

这个方法会连接索引值,因此得到的结果与SQL内部连接会有所不同

(3)用merge()执行内部连接时,更显式的方法如下所示:

print("Inner join with merge()
",pd.merge(dests,tips,how='inner'))

只要稍作修改,就可以变成完全外部连接:

print("Outer join
",pd.merge(dests,tips,how='outer'))


处理缺失数据问题

对于pandas来说,它会把缺失的数值标为NaN,表示None;还有一个类似的符号是NaT,不过它代表的是datetime64型对象。对NaN这个数值进行算数运算时,得到的结果还是NaN。

pandas的isnull()函数可以帮我们检查缺失的数据,使用方法如下。

print("Null values
",pd.isnull(df))


类似地,可以用DataFrame的notnull()方法来考察非缺失数据:

print("Not Null Values
",df.notnull())


通过fillna()方法,可以用一个标量(如0)来替换缺失数据,尽管有时可以用0替换缺失数据,但是事情并不总是如此

print("zero filled
",df.fillna(0))

数据透视表

数据透视表可以从一个平面文件中指定的行和列中聚合数据,这种聚合操作可以是求和、求平均值、求标准差等运算

由于pandas API已经为我们提供了顶级pivot_table()函数以及相应的DataFrame方法,所以,只要设置好aggfunc参数,就可以让这个聚合函数来执行Numpy中诸如sum()之类的函数。参数cols用来告诉pandas要对哪些列进行聚合运算。

print(pd.pivot_table(df,cols=['Food'],aggfunc=np.sum))
原文地址:https://www.cnblogs.com/yifdu25/p/8411673.html