第一章 pandas基础-学习笔记

2023-11-04

第一章 pandas基础

# 首先要导入对应的模块
import pandas as pd
import numpy as np

一、文件的读取和写入

1、常见文件类型读取方法

读取之前先了解常用的对应参数:
1.header=None:表示第一行不作为列名;
2.index_col:表示把某一列或几列作为索引;
3.usecols:表示读取列的集合,默认读取所有的列;
4.parse_dates:表示需要转化为时间的列;
5.nrows:表示读取的数据行数。

以下格式读取都适用,根据你的业务需求读取

①、读取Excel格式

# 引号里面是对应的文件路径,如果路径有中文,必须加上r
# 使用了第一行不作为列名,列明字段就变了,后续对应的字段就不能同时,可看csv、txt读取后续操作
# eg:header=None适用于原表没有表头的情况
df_excel = pd.read_excel('data/my_excel.xlsx',header=None)
df_excel
0 1 2 3 4
0 col1 col2 col3 col4 col5
1 2 a 1.4 apple 2020/1/1
2 3 b 3.4 banana 2020/1/2
3 6 c 2.5 orange 2020/1/5
4 5 d 3.2 lemon 2020/1/7

②、读取csv格式

# 适用于宽表中只取所需的几列形成新的表进行后续操作
df_csv = pd.read_csv('data/my_csv.csv',index_col=['col1', 'col2'],usecols=['col1','col2'])
df_csv
col1 col2
2 a
3 b
6 c
5 d

③、读取txt格式

# 转化成时间列可做时序分析等,nrows作用于看表结构,跟pd_txt.head(2)异曲同工
df_txt = pd.read_table('data/my_table.txt',parse_dates=['col4'],nrows=2)
df_txt
col1 col2 col3 col4
0 2 a 1.4 apple 2020/1/1
1 3 b 3.4 banana 2020/1/2
# 如果碰上txt文件有分隔符的时候,用分割参数sep
#一般文件路径包含中文时,需要设置engine = ‘python’
pd.read_table('data/my_table_special_sep.txt')
col1 |||| col2
0 TS |||| This is an apple.
1 GQ |||| My name is Bob.
2 WT |||| Well done!
3 PT |||| May I help you?
pd.read_table('data/my_table_special_sep.txt',sep='\|\|\|\|',engine='python')
# sep参数使用的是正则表达式,需要转义字符\将|识别
col1 col2
0 TS This is an apple.
1 GQ My name is Bob.
2 WT Well done!
3 PT May I help you?

2、常见数据写入方法

df_excel.to_excel('data/my_excel_saved.xlsx',index = False)
df_csv.to_csv('data/my_csv_saved.csv', index=False)
# index = False 去除不必要的索引值,路径也可以根据自己需要保存在对应的位置
df_csv.to_csv('data/my_csv_saved.txt',sep='\t', index=False)
#txt 存入也是用to_csv,只是需要分隔符,这个可自定义,这里是用制表符分割

为什么要转化markdown语言,主要是为了方便保存,且易于转成其他格式,比如PDF,也能方便出版打印和交流传播
to_markdown: 表格转换为markdown语言
to_latex:可表格转换为to_latex语言
没有安装安装tabulate包,要先pip install tabulate i- https://pypi.tuna.tsinghua.edu.cn/simple

print(df_csv.to_markdown())
|:---------|
| (2, 'a') |
| (3, 'b') |
| (6, 'c') |
| (5, 'd') |
print(df_csv.to_latex())
\begin{tabular}{ll}
\toprule
  &   \\
col1 & col2 \\
\midrule
2 & a \\
3 & b \\
6 & c \\
5 & d \\
\bottomrule
\end{tabular}

二、基本数据结构

pandas有两种基本数据存储结构:

①存储一维values的Series

②存储二维values的DataFrame

这两种结构上定义了很多的属性和方法。

1、Series

Series组成部分:
①序列的值data(默认为空,也可以自定义)
②索引index
③存储类型dtype
④序列的名字 name

# 创建一个series
s = pd.Series(data = [100, 'a', {'dic1':5}],
              index = pd.Index(['id1', 20, 'third'], name='my_idx'),
              dtype = 'object',
              name = 'my_name')
s
my_idx
id1              100
20                 a
third    {'dic1': 5}
Name: my_name, dtype: object

【NOTE】object类型
object代表了一种混合类型,可存储整数、字符串、Python字典数据结构等。
此外,pandas是把纯字符串序列也默认认为是一种object类型的序列,但它也可以用string类型存储。

对于这些属性,可以通过 . 的方式来获取:

s.values
array([100, 'a', {'dic1': 5}], dtype=object)
s.index
Index(['id1', 20, 'third'], dtype='object', name='my_idx')
s.dtype
dtype('O')
s.name
'my_name'
s.shape # 获取序列长度
(3,)

2. DataFrame

DataFrame的结构:在Series的基础上增加了列索引

data = [[1, 'a', 1.2], [2, 'b', 2.2], [3, 'c', 3.2]]
df = pd.DataFrame(data = data,
                  index = ['row_%d'%i for i in range(3)],
                  columns=['col_0', 'col_1', 'col_2'])
df
col_0 col_1 col_2
row_0 1 a 1.2
row_1 2 b 2.2
row_2 3 c 3.2

常用方法一般会从列索引名到数据的映射来构造数据框,同时再加上行索引

df = pd.DataFrame(data = {'col_0': [1,2,3],
                          'col_1':list('abc'),
                          'col_2': [1.2, 2.2, 3.2]},
                  index = ['row_%d'%i for i in range(3)])
df
col_0 col_1 col_2
row_0 1 a 1.2
row_1 2 b 2.2
row_2 3 c 3.2

由于这种映射关系
用[col_name]与[col_list]来取出相应的列→Series
用[col_name]与[col_list]取多个列→DataFrame

df['col_0']
row_0    1
row_1    2
row_2    3
Name: col_0, dtype: int64
df[['col_0','col_1']]
col_0 col_1
row_0 1 a
row_1 2 b
row_2 3 c

与Series类似,在数据框中同样可以取出相应的属性:

df.values
array([[1, 'a', 1.2],
       [2, 'b', 2.2],
       [3, 'c', 3.2]], dtype=object)
df.index
Index(['row_0', 'row_1', 'row_2'], dtype='object')
df.columns
Index(['col_0', 'col_1', 'col_2'], dtype='object')
df.shape
(3, 3)

通过.T可以把DataFrame进行转置:

df.T
row_0 row_1 row_2
col_0 1 2 3
col_1 a b c
col_2 1.2 2.2 3.2

三、常用基本函数

df = pd.read_csv('data/learn_pandas.csv')
df.columns
Index(['School', 'Grade', 'Name', 'Gender', 'Height', 'Weight', 'Transfer',
       'Test_Number', 'Test_Date', 'Time_Record'],
      dtype='object')

上述列名依次代表学校、年级、姓名、性别、身高、体重、是否为转系生、体测场次、测试时间、1000米成绩

# 如果只想要取前7列,可以用切片
df = df[df.columns[:7]]

1、汇总函数

head, tail函数分别表示返回表或者序列的前n行和后n行,其中n默认为5:

df.head(3)
School Grade Name Gender Height Weight Transfer
0 Shanghai Jiao Tong University Freshman Gaopeng Yang Female 158.9 46.0 N
1 Peking University Freshman Changqiang You Male 166.5 70.0 N
2 Shanghai Jiao Tong University Senior Mei Sun Male 188.9 89.0 N
df.tail(3)
School Grade Name Gender Height Weight Transfer
197 Shanghai Jiao Tong University Senior Chengqiang Chu Female 153.9 45.0 N
198 Shanghai Jiao Tong University Senior Chengmei Shen Male 175.3 71.0 N
199 Tsinghua University Sophomore Chunpeng Lv Male 155.7 51.0 N

info, describe分别返回表的信息概况和表中数值列对应的主要统计量 :
如果想要对一份数据集进行全面且有效的观察,特别是在列较多的情况下,推荐使用pandas-profiling包
数据清洗的时候可以看出哪些列是脏数据,需要清洗

df.info()
<class 'pandas.core.frame.DataFrame'>
RangeIndex: 200 entries, 0 to 199
Data columns (total 7 columns):
 #   Column    Non-Null Count  Dtype  
---  ------    --------------  -----  
 0   School    200 non-null    object 
 1   Grade     200 non-null    object 
 2   Name      200 non-null    object 
 3   Gender    200 non-null    object 
 4   Height    183 non-null    float64
 5   Weight    189 non-null    float64
 6   Transfer  188 non-null    object 
dtypes: float64(2), object(5)
memory usage: 11.1+ KB
df.describe()
Height Weight
count 183.000000 189.000000
mean 163.218033 55.015873
std 8.608879 12.824294
min 145.400000 34.000000
25% 157.150000 46.000000
50% 161.900000 51.000000
75% 167.500000 65.000000
max 193.900000 89.000000

2. 特征统计函数

在Series和DataFrame上定义了许多统计函数:
sum, mean, median, var, std, max, min等

df_demo = df[['Height','Weight']]
df_demo.mean()
Height    163.218033
Weight     55.015873
dtype: float64
df_demo.max()
Height    193.9
Weight     89.0
dtype: float64

quantile, count, idxmax这三个函数,它们分别返回的是分位数、非缺失值个数、最大值对应的索引

df_demo.quantile(0.75)# 四分之三分位数
Height    167.5
Weight     65.0
Name: 0.75, dtype: float64
df_demo.count()
Height    183
Weight    189
dtype: int64
df_demo.idxmax()# idxmin是最大值对应的索引
Height    193
Weight      2
dtype: int64

上面这些所有的函数,由于操作后返回的是标量,所以又称为聚合函数,它们有一个公共参数axis,默认为0代表逐列聚合,如果设置为1则表示逐行聚合:

df_demo.mean(axis=1).head()#在这个数据集上体重和身高的均值并没有意义
0    102.45
1    118.25
2    138.95
3     41.00
4    124.00
dtype: float64

3. 唯一值函数

对序列使用unique和nunique可以分别得到其唯一值组成的列表和唯一值的个数:

df['School'].unique()
array(['Shanghai Jiao Tong University', 'Peking University',
       'Fudan University', 'Tsinghua University'], dtype=object)
df['School'].nunique()
4

value_counts可以得到唯一值和其对应出现的频数:

df['School'].value_counts()
Tsinghua University              69
Shanghai Jiao Tong University    57
Fudan University                 40
Peking University                34
Name: School, dtype: int64

如果想要观察多个列组合的唯一值,可以使用drop_duplicates。

其中的关键参数是keep,默认值first表示每个组合保留第一次出现的所在行,last表示保留最后一次出现的所在行,False表示把所有重复组合所在的行剔除。

df_demo = df[['Gender','Transfer','Name']]
df_demo.drop_duplicates(['Gender', 'Transfer'])
Gender Transfer Name
0 Female N Gaopeng Yang
1 Male N Changqiang You
12 Female NaN Peng You
21 Male NaN Xiaopeng Shen
36 Male Y Xiaojuan Qin
43 Female Y Gaoli Feng
df_demo.drop_duplicates(['Gender', 'Transfer'], keep='last')
Gender Transfer Name
147 Male NaN Juan You
150 Male Y Chengpeng You
169 Female Y Chengquan Qin
194 Female NaN Yanmei Qian
197 Female N Chengqiang Chu
199 Male N Chunpeng Lv
df_demo.drop_duplicates(['Name', 'Gender'], keep=False).head() 
# 保留只出现过一次的性别和姓名组合
Gender Transfer Name
0 Female N Gaopeng Yang
1 Male N Changqiang You
2 Male N Mei Sun
4 Male N Gaojuan You
5 Female N Xiaoli Qian
df['School'].drop_duplicates() # 在Series上也可以使用
0    Shanghai Jiao Tong University
1                Peking University
3                 Fudan University
5              Tsinghua University
Name: School, dtype: object

此外,duplicated和drop_duplicates的功能类似
但前者返回了是否为唯一值的布尔列表,其keep参数与后者一致。
其返回的序列,把重复元素设为True,否则为False。
drop_duplicates等价于把duplicated为True的对应行剔除。

df_demo.duplicated(['Gender', 'Transfer']).head()
0    False
1    False
2     True
3     True
4     True
dtype: bool
df['School'].duplicated().head() 
# 在Series上也可以使用
0    False
1    False
2     True
3    False
4     True
Name: School, dtype: bool

4. 替换函数

替换操作是针对某一个列进行的,因此下面的例子都以Series举例。
pandas中的替换函数可以归纳为三类:
映射替换、逻辑替换、数值替换
映射替换包含replace方法,在replace中,可以通过字典构造,或者传入两个列表来进行替换.

# 第一种 ,通过字典构造
df['Gender'].replace({'Female':0,'Male':1}).head()
0    0
1    1
2    1
3    0
4    1
Name: Gender, dtype: int64
# 第二种,传入两个列表来进行替换
df['Gender'].replace(['Female','Male'],[0,1]).head()
0    0
1    1
2    1
3    0
4    1
Name: Gender, dtype: int64

另外,replace还有一种特殊的方向替换,指定method参数为ffill则为用前面一个最近的未被替换的值进行替换,bfill则使用后面最近的未被替换的值进行替换。

s = pd.Series(['a', 1, 'b', 2, 1, 1, 'a'])
s
0    a
1    1
2    b
3    2
4    1
5    1
6    a
dtype: object
s.replace([1,2],method='ffill')
# 用前面一个值替换,识别到对应需要替换的值,就会取它前一个值作为替换值
0    a
1    a
2    b
3    b
4    b
5    b
6    a
dtype: object
s.replace([1, 2], method='bfill')# 同理,取后面的值作为替换值
0    a
1    b
2    b
3    a
4    a
5    a
6    a
dtype: object

【WARNING】正则替换请使用str.replace

虽然对于replace而言可以使用正则替换,但是当前版本下对于string类型的正则替换还存在bug,因此如有此需求,请选择str.replace进行替换操作。

逻辑替换也频繁被用到,常见函数:
where和mask
where函数在传入条件为False的对应行进行替换
mask在传入条件为True的对应行进行替换,当不指定替换值时,替换为缺失值。

s = pd.Series([-1, 1.2345, 100, -50])
s
0     -1.0000
1      1.2345
2    100.0000
3    -50.0000
dtype: float64
# s>0就替换为缺失值
s.where(s<0)
0    -1.0
1     NaN
2     NaN
3   -50.0
dtype: float64
# s<0就替换为缺失值
s.mask(s<0)
0         NaN
1      1.2345
2    100.0000
3         NaN
dtype: float64
# s>0,就替换成100
s.where(s<0,100)
0     -1.0
1    100.0
2    100.0
3    -50.0
dtype: float64
# s<0,就替换成-50
s.mask(s<0,-50)
0    -50.0000
1      1.2345
2    100.0000
3    -50.0000
dtype: float64

需要注意的是,mask传入的条件只需是与被调用的Series索引一致的布尔序列即可:

s_condition= pd.Series([True,False,False,True],index=s.index)
s.mask(s_condition, -50)
0    -50.0000
1      1.2345
2    100.0000
3    -50.0000
dtype: float64

数值替换包含了round, abs, clip方法
round→取整
abs→取绝对值
clip→截断

s = pd.Series([-1, 1.2345, 100, -50])
s
0     -1.0000
1      1.2345
2    100.0000
3    -50.0000
dtype: float64
s.round(2)#取整
0     -1.00
1      1.23
2    100.00
3    -50.00
dtype: float64
s.abs()#取绝对值
0      1.0000
1      1.2345
2    100.0000
3     50.0000
dtype: float64
s.clip(0, 2) 
# 前两个数分别表示上下截断边界
0    0.0000
1    1.2345
2    2.0000
3    0.0000
dtype: float64

s.clip(lower=None, upper=None, axis=None, inplace=False, *args, **kwargs)
lower : float或array_like,默认为None 最小阈值。低于此阈值的所有值都将设置为它。
upper : float或array_like,默认为None 最大阈值。高于此阈值的所有值都将设置为它。
axis : int或string轴名称,可选沿给定轴将对象与下部和上部对齐。
inplace : 布尔值,默认为False是否对数据执行操作。

【练一练】
在 clip 中,超过边界的只能截断为边界值,如果要把超出边界的替换为自定义的值,应当如何做?

s.clip(0, 2).replace({0:5,2:8})
0    5.0000
1    1.2345
2    8.0000
3    5.0000
dtype: float64

5. 排序函数

一为值排序:sort_values
二为索引排序:sort_index
为了演示排序函数,先利用set_index方法把年级和姓名两列作为索引

df_demo = df[['Grade', 'Name', 'Height', 'Weight']].set_index(['Grade','Name'])
df_demo.head()
Height Weight
Grade Name
Freshman Gaopeng Yang 158.9 46.0
Changqiang You 166.5 70.0
Senior Mei Sun 188.9 89.0
Sophomore Xiaojuan Sun NaN 41.0
Gaojuan You 174.0 74.0
# 对身高进行排序,默认参数ascending=True为升序
df_demo.sort_values('Height').head()
Height Weight
Grade Name
Junior Xiaoli Chu 145.4 34.0
Senior Gaomei Lv 147.3 34.0
Sophomore Peng Han 147.8 34.0
Senior Changli Lv 148.7 41.0
Sophomore Changjuan You 150.5 40.0
# 从高到底,降序排列
df_demo.sort_values('Height',ascending=False).head()
Height Weight
Grade Name
Senior Xiaoqiang Qin 193.9 79.0
Mei Sun 188.9 89.0
Gaoli Zhao 186.5 83.0
Freshman Qiang Han 185.3 87.0
Senior Qiang Zheng 183.9 87.0
#在排序中,可能会遇到多列排序的问题
#比如在体重相同的情况下,对身高进行排序,并且保持身高降序排列,体重升序排列:
df_demo.sort_values(['Weight','Height'],ascending=[True,False]).head()
Height Weight
Grade Name
Sophomore Peng Han 147.8 34.0
Senior Gaomei Lv 147.3 34.0
Junior Xiaoli Chu 145.4 34.0
Sophomore Qiang Zhou 150.5 36.0
Freshman Yanqiang Xu 152.4 38.0

索引排序的用法和值排序完全一致,只不过元素的值在索引中,此时需要指定索引层的名字或者层号,用参数level表示。另外,需要注意的是字符串的排列顺序由字母顺序决定。

df_demo.sort_index(level=['Grade','Name'],ascending=[True,False]).head()
Height Weight
Grade Name
Freshman Yanquan Wang 163.5 55.0
Yanqiang Xu 152.4 38.0
Yanqiang Feng 162.3 51.0
Yanpeng Lv NaN 65.0
Yanli Zhang 165.1 52.0

6. apply方法

apply方法常用于DataFrame的行迭代或者列迭代。
apply的参数往往是一个以序列为输入的函数。
例如对于.mean(),使用apply可以如下地写出:

# 常见用法一
df_demo = df[['Height', 'Weight']]
def my_mean(x):
    res = x.mean()
    return res
df_demo.apply(my_mean)
Height    163.218033
Weight     55.015873
dtype: float64
# 匿名函数用法, x就指代被调用的df_demo表中逐个输入的序列
df_demo.apply(lambda x:x.mean())
Height    163.218033
Weight     55.015873
dtype: float64

若指定axis=1,那么每次传入函数的就是行元素组成的Series,其结果与之前的逐行均值结果一致。

df_demo.apply(lambda x:x.mean(),axis=1).head()# 逐行均值,有无意义看业务情景
0    102.45
1    118.25
2    138.95
3     41.00
4    124.00
dtype: float64

这里再举一个例子:mad函数返回的是一个序列中偏离该序列均值的绝对值大小的均值
例如序列1,3,7,10中,均值为5.25,每一个元素偏离的绝对值为4.25,2.25,1.75,4.75,这个偏离序列的均值为3.25。现在利用apply计算升高和体重的mad指标:

# 方法一:用apply实现mad函数,需要知道映射关系
df_demo.apply(lambda x:(x-x.mean()).abs().mean())
Height     6.707229
Weight    10.391870
dtype: float64
# 等同于直接mad函数
df_demo.mad()
Height     6.707229
Weight    10.391870
dtype: float64

【WARNING】谨慎使用apply
得益于传入自定义函数的处理,apply的自由度很高,但这是以性能为代价的。
一般而言,使用pandas的内置函数处理和apply来处理同一个任务,其速度会相差较多,因此只有在确实存在自定义需求的情境下才考虑使用apply。

四、窗口对象

pandas中有3类窗口:
滑动窗口rolling、扩张窗口expanding、指数加权窗口ewm
先讲指数加权窗口

1. 滑窗对象

要使用滑窗函数,就必须先要对一个序列使用.rolling得到滑窗对象,其最重要的参数为窗口大小window(顾名思义就是多少为一周期计算,比如7天移动平均数,windows = 7)。

# 必要步骤先roling,还需设置窗口大小,
s = pd.Series([1,2,3,4,5])
roller = s.rolling(window = 3)
roller
Rolling [window=3,center=False,axis=0]

在得到了滑窗对象后,能够使用相应的聚合函数进行计算,需要注意的是窗口包含当前行所在的元素,例如在第四个位置进行均值运算时,应当计算(2+3+4)/3,而不是(1+2+3)/3:

roller.mean()
0    NaN
1    NaN
2    2.0
3    3.0
4    4.0
dtype: float64
roller.sum()
0     NaN
1     NaN
2     6.0
3     9.0
4    12.0
dtype: float64

对于滑动相关系数或滑动协方差的计算,可以如下写出:

s2 = pd.Series([1,2,6,16,30])
roller.cov(s2)# 相关系数
0     NaN
1     NaN
2     2.5
3     7.0
4    12.0
dtype: float64
roller.corr(s2)# 协方差
0         NaN
1         NaN
2    0.944911
3    0.970725
4    0.995402
dtype: float64

此外,还支持使用apply传入自定义函数,其传入值是对应窗口的Series,例如上述的均值函数可以等效表示:

roller.apply(lambda x:x.mean())
0    NaN
1    NaN
2    2.0
3    3.0
4    4.0
dtype: float64

shift, diff, pct_change是一组类滑窗函数
它们的公共参数为periods=n,默认为1
shift→表示取向前第n个元素的值
diff→与向前第n个元素做差(与Numpy中不同,后者表示n阶差分)
pct_change→与向前第n个元素相比计算增长率。
这里的n可以为负,表示反方向的类似操作。

s = pd.Series([1,3,6,10,15])
s.shift(2)# 取向前第n个元素的值
0    NaN
1    NaN
2    1.0
3    3.0
4    6.0
dtype: float64
s.diff(3)#向前第n个元素做差
0     NaN
1     NaN
2     NaN
3     9.0
4    12.0
dtype: float64
s.pct_change()# 与向前第n个元素相比计算增长率
0         NaN
1    2.000000
2    1.000000
3    0.666667
4    0.500000
dtype: float64
s.shift(-1) # 表示反方向的类似操作
0     3.0
1     6.0
2    10.0
3    15.0
4     NaN
dtype: float64
s.diff(-2)
0   -5.0
1   -7.0
2   -9.0
3    NaN
4    NaN
dtype: float64

将其视作类滑窗函数的原因是,它们的功能可以用窗口大小为n+1的rolling方法等价代替:

# s.shift(2) 等价于下面的方法
s.rolling(3).apply(lambda x:list(x)[0]) 
0    NaN
1    NaN
2    1.0
3    3.0
4    6.0
dtype: float64
# s.diff(3)
s.rolling(4).apply(lambda x:list(x)[-1]-list(x)[0]) 
0     NaN
1     NaN
2     NaN
3     9.0
4    12.0
dtype: float64
# s.pct_change()
def my_pct(x):
     L = list(x)
     return L[-1]/L[0]-1
s.rolling(2).apply(my_pct) 
0         NaN
1    2.000000
2    1.000000
3    0.666667
4    0.500000
dtype: float64

【练一练】
rolling对象的默认窗口方向都是向前的,某些情况下用户需要向后的窗口,例如对1,2,3设定向后窗口为2的sum操作,结果为3,5,NaN,此时应该如何实现向后的滑窗操作?(提示:使用shift)

# 必要步骤先roling,还需设置窗口大小,再sum操作,再向后滑窗n为负数
s = pd.Series([1,2,3])
roller= s.rolling(window = 2)
roller.sum().shift(-1)
0    3.0
1    5.0
2    NaN
dtype: float64

2. 扩张窗口

扩张窗口又称累计窗口,可以理解为一个动态长度的窗口,其窗口的大小就是从序列开始处到具体操作的对应位置,其使用的聚合函数会作用于这些逐步扩张的窗口上。
具体地说,设序列为a1, a2, a3, a4,则其每个位置对应的窗口即[a1]、[a1, a2]、[a1, a2, a3]、[a1, a2, a3, a4]。
适用于:销售累计值,成本花费累计……

s = pd.Series([1, 3, 6, 10])
s.expanding().mean()
0    1.000000
1    2.000000
2    3.333333
3    5.000000
dtype: float64

【练一练】
cummax(前n个数依次求最大值), cumsum(累积连加), cumprod函数(累积连乘)是典型的类扩张窗口函数,请使用expanding对象依次实现它们。

s.cumsum()#累积连加
#  用expandding对象实现
# s.expanding().sum()
0     1
1     4
2    10
3    20
dtype: int64
s.cummax() #前n个数依次求最大值
#  用expandding对象实现
# s.expanding().max()
<bound method Series.cummax of 
0     1
1     3
2     6
3    10
dtype: int64>
s.cumprod()# 累积连乘
#  用expandding对象实现
# s.expanding().prod(),这里报错了('Expanding' object has no attribute 'prod'),因此不适用这个。
# 另解,我用apply方法
s.expanding().apply(lambda x:x.prod()).astype(np.int64)
# 一定转成float型,不然会报错"Cannot convert the series to class float"
<bound method Series.cumprod of
0     1
1     3
2     18
3    180
dtype: int64>
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

第一章 pandas基础-学习笔记 的相关文章

随机推荐

  • 优化struts 2

    优化struts 2 1 关闭logging和devMode struts property struts devModel false 2 用freemarker tags 代替 struts2 tag
  • 硬件复习

    大家随便看看就好
  • Home Work--计蒜客

    临近开学了 大家都忙着收拾行李准备返校 但 I Love C 却不为此担心 因为他的心思全在暑假作业上 目前为止还未开动 暑假作业是很多张试卷 我们这些从试卷里爬出来的人都知道 卷子上的题目有选择题 填空题 简答题 证明题等 而做选择题的好
  • LeetCode-Python-54. 螺旋矩阵

    给定一个包含 m x n 个元素的矩阵 m 行 n 列 请按照顺时针螺旋顺序 返回矩阵中的所有元素 示例 1 输入 1 2 3 4 5 6 7 8 9 输出 1 2 3 6 9 8 7 4 5 示例 2 输入 1 2 3 4 5 6 7 8
  • 广州站

    12月2日 由阿里云 Serverless 团队主办的 云原生 Serverless 技术实践营 在广州顺利举行 本次活动面向所有企业技术人员 主打 沉浸式沙龙体验 6 小时搞定 Serverless 企业落地 活动当天 5 位阿里云技术讲
  • 80%白领危了!OpenAI发布GPT时代就业秘笈:34大铁饭碗保命

    导读 GPT 4发布没几天 OpenAI直接告诉所有人 GPTs是通用技术 80 的美国人的工作受到影响 想要保命 且看这34大 铁饭碗 前脚刚推出GPT 4 OpenAI后脚就发布了35页论文官宣 80 的美国人 都会受到AI的影响 研究
  • STM32“隐藏的定时器”-DWT

    01 前言 在之前的文章在 STM32延时函数的四种方法 使用定时器延时 在 如何测量代码运行时间 中提到使用定时器外设计算代码运行时间 文中提到这种方法的明显缺点就是需要占用一个定时器 一些MCU在特定应用场景下定时器外设资源是十分稀缺的
  • 信息安全大赛出的题目

    今天是信息安全大赛决赛的日期 可惜还要去市里培训 不能去现场观看 听说的做的一塌糊涂 也许是第一次举办这样的比赛 在校内还没有这样的氛围的缘故吧 中午打了电话 得知总分150左右的 最高的得了68分 我在反思 是我们把题目的难度没控制好 还
  • 华为OD机试 C++【最少步数】

    题目 你在一个一维的数轴上 起始位置为0 你每次只能走2步或3步 无论是向左还是向右 有时你可能需要走到负坐标上去 才能最终到达你的目标位置 任务 给定一个坐标点 找出到达那里的最小步数 输入 一个整数 n 表示目标坐标位置 1 lt n
  • Matter Project 入门 – Chip-tool 调试终端设备

    注意 本指南是对 Matter TE7 5 的投诉 请查看芯片工具 GitHub 页面 以获取任何最新更改 如果您没有遵循Matter 构建指南 您应该首先在您的 Raspberry Pi 4 上准备 Matter 环境 然后导航到 con
  • 二货小易有一个W*H的网格盒子,网格的行编号为0~H-1,网格的列编号为0~W-1。每个格子至多可以放一块蛋糕,任意两块蛋糕的欧几里得距离不能等于2。

    二货小易有一个W H的网格盒子 网格的行编号为 0到H 1 网格的列编号为 0到W 1 每个格子至多可以放一块蛋糕 任意两块蛋糕的欧几里得距离不能等于2 对于两个格子坐标 x1 y1 x2 y2 的欧几里得距离为 x1 x2 x1 x2 y
  • Idea: debug 跳出循环

    点击循环下面的某行代码 点击run to cusor按钮
  • RedHat Linux各版本汇总

    Linux的发行版本可以大体分为两类 一类是商业公司维护的发行版本 一类是社区组织维护的发行版本 前者以著名的Redhat RHEL 为代表 后者以Debian为代表 Redhat有两大 Linux产品系列 其一是免费的Fedora Cor
  • 关于tomcat7-maven-plugin插件的使用

    最近在学习黑马的淘淘项目 第一步是使用maven依赖进行环境搭建 其中使用到了tomcat7 maven plugin这个插件 视频中老师给的依赖大致是这样的
  • Java并发编程:Synchronized底层优化(偏向锁、轻量级锁)

    Java并发编程系列 Java 并发编程 核心理论 Java并发编程 Synchronized及其实现原理 Java并发编程 Synchronized底层优化 轻量级锁 偏向锁 Java 并发编程 线程间的协作 wait notify sl
  • sql中的排序函数dense_rank(),RANK()和row_number()

    dense rank RANK 和row number 是SQL中的排序函数 为方便后面的函数差异比对清晰直观 准备数据表如下 1 dense rank 函数语法 dense rank over order by 列名 desc asc D
  • requests 和flask豆瓣安装方法

    pip3 install requests i http pypi douban com simple trusted host pypi douban com pip3 install flask i http pypi douban c
  • SQL中的case when then else end语句的用法示例

    case具有两种格式 简单case函数和case搜索函数 简单case函数 case sex when 1 then 男 when 2 then 女 else 其他 end case搜索函数 case when sex 1 then 男 w
  • 【nginx】配置proxy_pass之后,响应变慢的问题

    背景 netstub项目中 使用openresty作为网关 proxy pass处理 配置如下 access lua中进行一些预处理 然后代理到目标服务 location access by lua file etc nginx conf
  • 第一章 pandas基础-学习笔记

    第一章 pandas基础 首先要导入对应的模块 import pandas as pd import numpy as np 一 文件的读取和写入 1 常见文件类型读取方法 读取之前先了解常用的对应参数 1 header None 表示第一