时间序列(time series)数据是一种重要的结构化数据形式,应用于多个领域,包括金融学、经济学、生态学、神经科学、物理学等。在多个时间点观察或测量到的任何事物都可以形成一段时间序列。很多时间序列是固定频率的,也就是说,数据点是根据某种规律定期出现的(比如每15秒、每5分钟、每月出现一次)。时间序列也可以是不定期的,没有固定的时间单位或单位之间的偏移量。时间序列数据的意义取决于具体的应用场景,主要有以下几种:
- 时间戳(timestamp),特定的时刻。
- 固定时期(period),如2007年1月或2010年全年。
- 时间间隔(interval),由起始和结束时间戳表示。时期(period)可以被看做间隔(interval)的特例。
- 实验或过程时间,每个时间点都是相对于特定起始时间的一个度量。例如,从放入烤箱时起,每秒钟饼干的直径。
本章主要讲解前3种时间序列。许多技术都可用于处理实验型时间序列,其索引可能是一个整数或浮点数(表示从实验开始算起已经过去的时间)。最简单也最常见的时间序列都是用时间戳进行索引的。
提示:pandas也支持基于timedeltas的指数,它可以有效代表实验或经过的时间。这本书不涉及timedelta指数,但你可以学习pandas的文档(http://pandas.pydata.org/)。
pandas提供了许多内置的时间序列处理工具和数据算法。因此,你可以高效处理非常大的时间序列,轻松地进行切片/切块、聚合、对定期/不定期的时间序列进行重采样等。有些工具特别适合金融和经济应用,你当然也可以用它们来分析服务器日志数据。
1
日期和时间数据类型及工具
Python标准库包含用于日期(date)和时间(time)数据的数据类型,而且还有日历方面的功能。我们主要会用到datetime、time以及calendar模块。datetime.datetime(也可以简写为datetime)是用得最多的数据类型:
import pandas as pd
from datetime import datetime
now = datetime.now()
now
datetime.datetime(2019, 3, 19, 22, 1, 56, 406804)
now.year, now.month, now.day
(2019, 3, 19)
datetime以毫秒形式存储日期和时间。timedelta表示两个datetime对象之间的时间差:
delta = datetime(2011, 1, 7) - datetime(2008, 6, 24, 8, 15)
delta
datetime.timedelta(926, 56700)
delta.days
926
delta.seconds
56700
可以给datetime对象加上(或减去)一个或多个timedelta,这样会产生一个新对象:
from datetime import timedelta
start = datetime(2011, 1, 7)
start + timedelta(12)
datetime.datetime(2011, 1, 19, 0, 0)
start - 2 * timedelta(12)
datetime.datetime(2010, 12, 14, 0, 0)
datetime模块中的数据类型参见表11-1。虽然本章主要讲的是pandas数据类型和高级时间序列处理,但你肯定会在Python的其他地方遇到有关datetime的数据类型
类型 | 说明 |
---|---|
date | 以公历形式存储日历日期(年,月,日) |
time | 将时间存储为时,分,秒,毫秒 |
datetime | 存储日期和时间 |
timedelta | 表示两个datetime值之间的差(日,秒,毫秒) |
字符串和datetime的相互转换
利用str或strftime方法(传入一个格式化字符串),datetime对象和pandas的Timestamp对象(稍后就会介绍)可以被格式化为字符串:
stamp = datetime(2011, 1, 3)
str(stamp)
'2011-01-03 00:00:00'
stamp.strftime('%Y-%m-%d')
'2011-01-03'
表11-2列出了全部的格式化编码。
类型 | 说明 |
---|---|
%Y | 4位数的年 |
%y | 2位数的年 |
%m | 2位数的月[01,12] |
%d | 2位数的日[01,31] |
%H | 时(24小时制)[00, 23] |
%I | 时(12小时制)[00, 12] |
%M | 2位数的分[00, 59] |
%S | 秒[00, 61]秒60和61用于闰秒 |
%w | 用整数表示的星期几[0(星期天),6] |
%U | 每年的第几周[00,53].星期天被认为是每周的第一天,每年第一个星期天之前的那几天被认为是‘第0周’ |
%W | 每年的第几周[00,53].星期一被认为是每周的第一天,每年第一个星期一之前的那几天被认为是‘第0周’ |
%z | 以+HHMM或-HHMM表示的UTC时区偏移量,如果时区为native,则返回空字符串 |
%F | %Y-%m-%d简写形式 |
%D | %m/%d/%y简写形式 |
datetime.strptime可以用这些格式化编码将字符串转换为日期:
value = '2011-01-03'
datetime.strptime(value, '%Y-%m-%d')
datetime.datetime(2011, 1, 3, 0, 0)
datestrs = ['7/6/2011', '8/6/2011']
[datetime.strptime(x, '%m/%d/%Y') for x in datestrs]
[datetime.datetime(2011, 7, 6, 0, 0), datetime.datetime(2011, 8, 6, 0, 0)]
datetime.strptime是通过已知格式进行日期解析的最佳方式。但是每次都要编写格式定义是很麻烦的事情,尤其是对于一些常见的日期格式。这种情况下,你可以用dateutil这个第三方包中的parser.parse方法(pandas中已经自动安装好了):
from dateutil.parser import parse
parse('2011-01-03')
datetime.datetime(2011, 1, 3, 0, 0)
dateutil可以解析几乎所有人类能够理解的日期表示形式:
parse('Jan 31, 1997 10:45 PM')
datetime.datetime(1997, 1, 31, 22, 45)
在国际通用的格式中,日出现在月的前面很普遍,传入dayfirst=True即可解决这个问题:
parse('6/12/2011', dayfirst=True)
datetime.datetime(2011, 12, 6, 0, 0)
pandas通常是用于处理成组日期的,不管这些日期是DataFrame的轴索引还是列。to_datetime方法可以解析多种不同的日期表示形式。对标准日期格式(如ISO8601)的解析非常快:
datestrs = ['2011-07-06 12:00:00', '2011-08-06 00:00:00']
pd.to_datetime(datestrs)
DatetimeIndex(['2011-07-06 12:00:00', '2011-08-06 00:00:00'], dtype='datetime64[ns]', freq=None)
它还可以处理缺失值(None、空字符串等):
idx = pd.to_datetime(datestrs + [None])
idx
DatetimeIndex(['2011-07-06 12:00:00', '2011-08-06 00:00:00', 'NaT'], dtype='datetime64[ns]', freq=None)
idx[2]
NaT
pd.isnull(idx)
array([False, False, True])
NaT(Not a Time)是pandas中时间戳数据的null值。
注意:dateutil.parser是一个实用但不完美的工具。比如说,它会把一些原本不是日期的字符串认作是日期(比如"42"会被解析为2042年的今天)。
datetime对象还有一些特定于当前环境(位于不同国家或使用不同语言的系统)的格式化选项。例如,德语或法语系统所用的月份简写就与英语系统所用的不同。表11-3进行了总结。
表11-3 特定于当前环境的日期格式
类型 | 说明 |
---|---|
%a | 星期几的简写 |
%A | 星期几的全称 |
%b | 月份的简写 |
%B | 月份的全称 |
%c | 完整的日期和时间,例如“Tue 01 May 2012 04:20:57 PM” |
%p | 不同环境中的AM或PM |
%x | 适合于当前环境的日期格式,例如,在美国,“May 1, 2012”会产生“05/01/2012” |
%X | 适合于当前环境的时间格式,例如“04:24:12 PM” |
时间序列基础
pandas最基本的时间序列类型就是以时间戳(通常以Python字符串或datatime对象表示)为索引的Series:
from datetime import datetime
dates = [datetime(2011, 1, 2), datetime(2011, 1, 5),
datetime(2011, 1, 7), datetime(2011, 1, 8),
datetime(2011, 1, 10), datetime(2011, 1, 12)]
ts = pd.Series(np.random.randn(6), index=dates)
ts
2011-01-02 1.584305
2011-01-05 1.126032
2011-01-07 0.089850
2011-01-08 -0.435934
2011-01-10 0.007460
2011-01-12 -1.016462
dtype: float64
这些datetime对象实际上是被放在一个DatetimeIndex中的:
ts.index
DatetimeIndex(['2011-01-02', '2011-01-05', '2011-01-07', '2011-01-08',
'2011-01-10', '2011-01-12'],
dtype='datetime64[ns]', freq=None)
跟其他Series一样,不同索引的时间序列之间的算术运算会自动按日期对齐:
ts + ts[::2]
2011-01-02 3.168610
2011-01-05 NaN
2011-01-07 0.179701
2011-01-08 NaN
2011-01-10 0.014920
2011-01-12 NaN
dtype: float64
ts[::2] 是每隔两个取一个。
pandas用NumPy的datetime64数据类型以纳秒形式存储时间戳
ts.index.dtype
dtype('<M8[ns]')
DatetimeIndex中的各个标量值是pandas的Timestamp对象:
stamp = ts.index[0]
stamp
Timestamp('2011-01-02 00:00:00')
只要有需要,TimeStamp可以随时自动转换为datetime对象。此外,它还可以存储频率信息(如果有的话),且知道如何执行时区转换以及其他操作。稍后将对此进行详细讲解。
索引、选取、子集构造
当你根据标签索引选取数据时,时间序列和其它的pandas.Series很像:
stamp = ts.index[2]
ts[stamp]
0.08985028255497494
还有一种更为方便的用法:传入一个可以被解释为日期的字符串:
ts['1/10/2011']
0.0074598247835368815
ts['1/10/2011']
0.0074598247835368815
对于较长的时间序列,只需传入“年”或“年月”即可轻松选取数据的切片:
longer_ts = pd.Series(np.random.randn(1000),
index=pd.date_range('1/1/2000', periods=1000))
len(longer_ts)
1000
longer_ts.head()
2000-01-01 -0.069592
2000-01-02 -0.354321
2000-01-03 -0.044123
2000-01-04 -1.251155
2000-01-05 -0.149113
Freq: D, dtype: float64
longer_ts['2001'].tail()
2001-12-27 0.647617
2001-12-28 -1.062075
2001-12-29 -1.560355
2001-12-30 0.028578
2001-12-31 -0.564147
Freq: D, dtype: float64
这里,字符串“2001”被解释成年,并根据它选取时间区间。指定月也同样奏效:
longer_ts['2001-05'].head()
2001-05-01 1.007766
2001-05-02 -1.049496
2001-05-03 0.179904
2001-05-04 0.128080
2001-05-05 -0.428544
Freq: D, dtype: float64
datetime对象也可以进行切片:
ts[datetime(2011, 1, 7):]
2011-01-07 0.089850
2011-01-08 -0.435934
2011-01-10 0.007460
2011-01-12 -1.016462
dtype: float64
由于大部分时间序列数据都是按照时间先后排序的,因此你也可以用不存在于该时间序列中的时间戳对其进行切片(即范围查询):
ts
2011-01-02 1.584305
2011-01-05 1.126032
2011-01-07 0.089850
2011-01-08 -0.435934
2011-01-10 0.007460
2011-01-12 -1.016462
dtype: float64
ts['1/6/2011':'1/11/2011']
2011-01-07 0.089850
2011-01-08 -0.435934
2011-01-10 0.007460
dtype: float64
跟之前一样,你可以传入字符串日期、datetime或Timestamp。注意,这样切片所产生的是原时间序列的视图,跟NumPy数组的切片运算是一样的。
这意味着,没有数据被复制,对切片进行修改会反映到原始数据上。
此外,还有一个等价的实例方法也可以截取两个日期之间TimeSeries:
ts.truncate(after='1/9/2011')
2011-01-02 1.584305
2011-01-05 1.126032
2011-01-07 0.089850
2011-01-08 -0.435934
dtype: float64
ts.truncate(before='1/5/2011',after='1/9/2011')
2011-01-05 1.126032
2011-01-07 0.089850
2011-01-08 -0.435934
dtype: float64
面这些操作对DataFrame也有效。例如,对DataFrame的行进行索引:
dates = pd.date_range('1/1/2000', periods=100, freq='W-WED')
long_df = pd.DataFrame(np.random.randn(100, 4),
index=dates,
columns=['Colorado', 'Texas',
'New York', 'Ohio'])
long_df.loc['5-2001']
Colorado | Texas | New York | Ohio | |
---|---|---|---|---|
2001-05-02 | 0.436372 | -0.293713 | 0.010696 | 0.540794 |
2001-05-09 | 0.790312 | -2.885652 | -1.026365 | -0.533633 |
2001-05-16 | -0.545950 | 0.620089 | -1.127443 | 2.079158 |
2001-05-23 | -0.054685 | 0.697927 | 1.142663 | 0.176191 |
2001-05-30 | -0.128105 | 1.702098 | 1.034434 | 0.963556 |
带有重复索引的时间序列
在某些应用场景中,可能会存在多个观测数据落在同一个时间点上的情况。下面就是一个例子:
dates = pd.DatetimeIndex(['1/1/2000', '1/2/2000', '1/2/2000',
'1/2/2000', '1/3/2000'])
dup_ts = pd.Series(np.arange(5), index=dates)
dup_ts
2000-01-01 0
2000-01-02 1
2000-01-02 2
2000-01-02 3
2000-01-03 4
dtype: int64
通过检查索引的is_unique属性,我们就可以知道它是不是唯一的:
dup_ts.index.is_unique
False
对这个时间序列进行索引,要么产生标量值,要么产生切片,具体要看所选的时间点是否重复:
dup_ts['1/3/2000']
4
dup_ts['1/2/2000'] # duplicated
2000-01-02 1
2000-01-02 2
2000-01-02 3
dtype: int64
假设你想要对具有非唯一时间戳的数据进行聚合。一个办法是使用groupby,并传入level=0:
grouped = dup_ts.groupby(level=0)
grouped.mean()
2000-01-01 0
2000-01-02 2
2000-01-03 4
dtype: int64
grouped.count()
2000-01-01 1
2000-01-02 3
2000-01-03 1
dtype: int64
日期的范围、频率以及移动
pandas中的原生时间序列一般被认为是不规则的,也就是说,它们没有固定的频率。对于大部分应用程序而言,这是无所谓的。但是,它常常需要以某种相对固定的频率进行分析,比如每日、每月、每15分钟等(这样自然会在时间序列中引入缺失值)。幸运的是,pandas有一整套标准时间序列频率以及用于重采样、频率推断、生成固定频率日期范围的工具。例如,我们可以将之前那个时间序列转换为一个具有固定频率(每日)的时间序列,只需调用resample即可:
ts
2011-01-02 1.584305
2011-01-05 1.126032
2011-01-07 0.089850
2011-01-08 -0.435934
2011-01-10 0.007460
2011-01-12 -1.016462
dtype: float64
resampler = ts.resample('D')
resampler
DatetimeIndexResampler [freq=<Day>, axis=0, closed=left, label=left, convention=start, base=0]
字符串“D”是每天的意思。
频率的转换(或重采样)是一个比较大的主题,稍后将专门用一节来进行讨论(11.6小节)。这里,我将告诉你如何使用基本的频率和它的倍数。
生成日期范围
虽然我之前用的时候没有明说,但你可能已经猜到pandas.date_range可用于根据指定的频率生成指定长度的DatetimeIndex:
index = pd.date_range('2012-04-01', '2012-06-01')
index
DatetimeIndex(['2012-04-01', '2012-04-02', '2012-04-03', '2012-04-04',
'2012-04-05', '2012-04-06', '2012-04-07', '2012-04-08',
'2012-04-09', '2012-04-10', '2012-04-11', '2012-04-12',
'2012-04-13', '2012-04-14', '2012-04-15', '2012-04-16',
'2012-04-17', '2012-04-18', '2012-04-19', '2012-04-20',
'2012-04-21', '2012-04-22', '2012-04-23', '2012-04-24',
'2012-04-25', '2012-04-26', '2012-04-27', '2012-04-28',
'2012-04-29', '2012-04-30', '2012-05-01', '2012-05-02',
'2012-05-03', '2012-05-04', '2012-05-05', '2012-05-06',
'2012-05-07', '2012-05-08', '2012-05-09', '2012-05-10',
'2012-05-11', '2012-05-12', '2012-05-13', '2012-05-14',
'2012-05-15', '2012-05-16', '2012-05-17', '2012-05-18',
'2012-05-19', '2012-05-20', '2012-05-21', '2012-05-22',
'2012-05-23', '2012-05-24', '2012-05-25', '2012-05-26',
'2012-05-27', '2012-05-28', '2012-05-29', '2012-05-30',
'2012-05-31', '2012-06-01'],
dtype='datetime64[ns]', freq='D')
默认情况下,date_range会产生按天计算的时间点。如果只传入起始或结束日期,那就还得传入一个表示一段时间的数字:
pd.date_range(start='2012-04-01', periods=20)
DatetimeIndex(['2012-04-01', '2012-04-02', '2012-04-03', '2012-04-04',
'2012-04-05', '2012-04-06', '2012-04-07', '2012-04-08',
'2012-04-09', '2012-04-10', '2012-04-11', '2012-04-12',
'2012-04-13', '2012-04-14', '2012-04-15', '2012-04-16',
'2012-04-17', '2012-04-18', '2012-04-19', '2012-04-20'],
dtype='datetime64[ns]', freq='D')
pd.date_range(end='2012-06-01', periods=20)
DatetimeIndex(['2012-05-13', '2012-05-14', '2012-05-15', '2012-05-16',
'2012-05-17', '2012-05-18', '2012-05-19', '2012-05-20',
'2012-05-21', '2012-05-22', '2012-05-23', '2012-05-24',
'2012-05-25', '2012-05-26', '2012-05-27', '2012-05-28',
'2012-05-29', '2012-05-30', '2012-05-31', '2012-06-01'],
dtype='datetime64[ns]', freq='D')
起始和结束日期定义了日期索引的严格边界。例如,如果你想要生成一个由每月最后一个工作日组成的日期索引,可以传入"BM"频率(表示business end of month,表11-4是频率列表),这样就只会包含时间间隔内(或刚好在边界上的)符合频率要求的日期
pd.date_range('2000-01-01', '2000-12-01', freq='BM')
DatetimeIndex(['2000-01-31', '2000-02-29', '2000-03-31', '2000-04-28',
'2000-05-31', '2000-06-30', '2000-07-31', '2000-08-31',
'2000-09-29', '2000-10-31', '2000-11-30'],
dtype='datetime64[ns]', freq='BM')
基本的时间序列频率(待补充)
别名 | 偏移量类型 | 说明 |
---|---|---|
D | Day | 每日 |
B | BusinessDay | 每工作日 |
H | Hour | 每小时 |
T或min | Minute | 每分 |
S | Second | 每秒 |
L或ms | Milli | 每毫秒(即每千分之一秒) |
U | Micro | 每微秒(即每百万分之一秒) |
M | MonthEnd | 每月最后一个日历日 |
BM | BusinessMonthEnd | 每月最后一个工作日 |
BMS | BusinessMonthBegin | 每月第一个工作日 |
W-MON,W-TUE | Week | 从指定的星期几(MON,TUE,WED,THU,FRI,SAT,SUN)开始算起,每周 |
WOM-1MON,WOM-2MON… | WeekOfMonth | 产生每月第一,第二,第三或第四周的星期几,例如,WON-3FRI表示每月第3个星期五 |
Q-JAN,Q-FEB | QuarterEnd | 对于指定月份(JAN,FEB,MAR,APR,MAY,JUN,JUL,AUG,SEP,OCT,NOV,DEC)结束的年度,每季度最后一月的最后一个日历日 |
date_range默认会保留起始和结束时间戳的时间信息(如果有的话):
pd.date_range('2012-05-02 12:56:31', periods=5)
DatetimeIndex(['2012-05-02 12:56:31', '2012-05-03 12:56:31',
'2012-05-04 12:56:31', '2012-05-05 12:56:31',
'2012-05-06 12:56:31'],
dtype='datetime64[ns]', freq='D')
有时,虽然起始和结束日期带有时间信息,但你希望产生一组被规范化(normalize)到午夜的时间戳。normalize选项即可实现该功能:
pd.date_range('2012-05-02 12:56:31', periods=5, normalize=True)
DatetimeIndex(['2012-05-02', '2012-05-03', '2012-05-04', '2012-05-05',
'2012-05-06'],
dtype='datetime64[ns]', freq='D')
频率和日期偏移量
pandas中的频率是由一个基础频率(base frequency)和一个乘数组成的。基础频率通常以一个字符串别名表示,比如"M"表示每月,"H"表示每小时。对于每个基础频率,都有一个被称为日期偏移量(date offset)的对象与之对应。例如,按小时计算的频率可以用Hour类表示:
from pandas.tseries.offsets import Hour, Minute
hour = Hour()
hour
<Hour>
传入一个整数即可定义偏移量的倍数:
four_hours = Hour(4)
four_hours
<4 * Hours>
一般来说,无需明确创建这样的对象,只需使用诸如"H"或"4H"这样的字符串别名即可。在基础频率前面放上一个整数即可创建倍数:
pd.date_range('2000-01-01', '2000-01-02 23:59', freq='4h')
DatetimeIndex(['2000-01-01 00:00:00', '2000-01-01 04:00:00',
'2000-01-01 08:00:00', '2000-01-01 12:00:00',
'2000-01-01 16:00:00', '2000-01-01 20:00:00',
'2000-01-02 00:00:00', '2000-01-02 04:00:00',
'2000-01-02 08:00:00', '2000-01-02 12:00:00',
'2000-01-02 16:00:00', '2000-01-02 20:00:00'],
dtype='datetime64[ns]', freq='4H')
大部分偏移量对象都可通过加法进行连接:
Hour(2) + Minute(30)
<150 * Minutes>
同理,你也可以传入频率字符串(如"2h30min"),这种字符串可以被高效地解析为等效的表达式:
pd.date_range('2000-01-01', periods=10, freq='1h30min')
DatetimeIndex(['2000-01-01 00:00:00', '2000-01-01 01:30:00',
'2000-01-01 03:00:00', '2000-01-01 04:30:00',
'2000-01-01 06:00:00', '2000-01-01 07:30:00',
'2000-01-01 09:00:00', '2000-01-01 10:30:00',
'2000-01-01 12:00:00', '2000-01-01 13:30:00'],
dtype='datetime64[ns]', freq='90T')
有些频率所描述的时间点并不是均匀分隔的。例如,“M”(日历月末)和"BM"(每月最后一个工作日)就取决于每月的天数,对于后者,还要考虑月末是不是周末。由于没有更好的术语,我将这些称为锚点偏移量(anchored offset)。
表11-4列出了pandas中的频率代码和日期偏移量类。
笔记:用户可以根据实际需求自定义一些频率类以便提供pandas所没有的日期逻辑,但具体的细节超出了本书的范围。
WOM日期
WOM(Week Of Month)是一种非常实用的频率类,它以WOM开头。它使你能获得诸如“每月第3个星期五”之类的日期:
rng = pd.date_range('2012-01-01', '2012-09-01', freq='WOM-3FRI')
list(rng)
[Timestamp('2012-01-20 00:00:00', freq='WOM-3FRI'),
Timestamp('2012-02-17 00:00:00', freq='WOM-3FRI'),
Timestamp('2012-03-16 00:00:00', freq='WOM-3FRI'),
Timestamp('2012-04-20 00:00:00', freq='WOM-3FRI'),
Timestamp('2012-05-18 00:00:00', freq='WOM-3FRI'),
Timestamp('2012-06-15 00:00:00', freq='WOM-3FRI'),
Timestamp('2012-07-20 00:00:00', freq='WOM-3FRI'),
Timestamp('2012-08-17 00:00:00', freq='WOM-3FRI')]
移动(超前和滞后)数据
移动(shifting)指的是沿着时间轴将数据前移或后移。Series和DataFrame都有一个shift方法用于执行单纯的前移或后移操作,保持索引不变:
ts = pd.Series(np.random.randn(4),
index=pd.date_range('1/1/2000', periods=4, freq='M'))
ts
2000-01-31 -0.287385
2000-02-29 1.622551
2000-03-31 1.491420
2000-04-30 -1.574550
Freq: M, dtype: float64
ts.shift(1)
2000-01-31 NaN
2000-02-29 -0.287385
2000-03-31 1.622551
2000-04-30 1.491420
Freq: M, dtype: float64
ts.shift(-2)
2000-01-31 1.49142
2000-02-29 -1.57455
2000-03-31 NaN
2000-04-30 NaN
Freq: M, dtype: float64
当我们这样进行移动时,就会在时间序列的前面或后面产生缺失数据。
shift通常用于计算一个时间序列或多个时间序列(如DataFrame的列)中的百分比变化。可以这样表达:
ts / ts.shift(1) - 1
2000-01-31 NaN
2000-02-29 -6.645906
2000-03-31 -0.080818
2000-04-30 -2.055739
Freq: M, dtype: float64
由于单纯的移位操作不会修改索引,所以部分数据会被丢弃。因此,如果频率已知,则可以将其传给shift以便实现对时间戳进行位移而不是对数据进行简单位移:
ts.shift(2, freq='M')
2000-03-31 -0.287385
2000-04-30 1.622551
2000-05-31 1.491420
2000-06-30 -1.574550
Freq: M, dtype: float64
这里还可以使用其他频率,于是你就能非常灵活地对数据进行超前和滞后处理了:
ts.shift(3, freq='D')
2000-02-03 -0.287385
2000-03-03 1.622551
2000-04-03 1.491420
2000-05-03 -1.574550
dtype: float64
ts.shift(1, freq='90T')
2000-01-31 01:30:00 -0.287385
2000-02-29 01:30:00 1.622551
2000-03-31 01:30:00 1.491420
2000-04-30 01:30:00 -1.574550
Freq: M, dtype: float64
通过偏移量对日期进行位移
pandas的日期偏移量还可以用在datetime或Timestamp对象上:
from pandas.tseries.offsets import Day, MonthEnd
now = datetime(2011, 11, 17)
now + 3 * Day()
Timestamp('2011-11-20 00:00:00')
如果加的是锚点偏移量(比如MonthEnd),第一次增量会将原日期向前滚动到符合频率规则的下一个日期:
now + MonthEnd()
Timestamp('2011-11-30 00:00:00')
now + MonthEnd(2)
Timestamp('2011-12-31 00:00:00')
通过锚点偏移量的rollforward和rollback方法,可明确地将日期向前或向后“滚动”:
offset = MonthEnd()
offset.rollforward(now)
Timestamp('2011-11-30 00:00:00')
offset.rollback(now)
Timestamp('2011-10-31 00:00:00')
日期偏移量还有一个巧妙的用法,即结合groupby使用这两个“滚动”方法:
ts = pd.Series(np.random.randn(20),
index=pd.date_range('1/15/2000', periods=20, freq='4d'))
ts
2000-01-15 0.279519
2000-01-19 1.309442
2000-01-23 -2.011374
2000-01-27 0.975700
2000-01-31 0.409972
2000-02-04 0.138767
2000-02-08 -0.136701
2000-02-12 -1.955546
2000-02-16 1.302017
2000-02-20 -0.580429
2000-02-24 1.347692
2000-02-28 1.006742
2000-03-03 -0.799835
2000-03-07 1.166547
2000-03-11 1.628751
2000-03-15 -0.637986
2000-03-19 -0.513706
2000-03-23 -0.189707
2000-03-27 1.415644
2000-03-31 0.729478
Freq: 4D, dtype: float64
ts.groupby(offset.rollforward).mean()
2000-01-31 0.192652
2000-02-29 0.160363
2000-03-31 0.349898
dtype: float64
当然,更简单、更快速地实现该功能的办法是使用resample(11.6小节将对此进行详细介绍):
ts.resample('M').mean()
2000-01-31 0.192652
2000-02-29 0.160363
2000-03-31 0.349898
Freq: M, dtype: float64
时区处理
时间序列处理工作中最让人不爽的就是对时区的处理。许多人都选择以协调世界时(UTC,它是格林尼治标准时间(Greenwich Mean Time)的接替者,目前已经是国际标准了)来处理时间序列。时区是以UTC偏移量的形式表示的。例如,夏令时期间,纽约比UTC慢4小时,而在全年其他时间则比UTC慢5小时。
在Python中,时区信息来自第三方库pytz,它使Python可以使用Olson数据库(汇编了世界时区信息)。这对历史数据非常重要,这是因为由于各地政府的各种突发奇想,夏令时转变日期(甚至UTC偏移量)已经发生过多次改变了。就拿美国来说,DST转变时间自1900年以来就改变过多次!
有关pytz库的更多信息,请查阅其文档。就本书而言,由于pandas包装了pytz的功能,因此你可以不用记忆其API,只要记得时区的名称即可。时区名可以在shell中看到,也可以通过文档查看:
import pytz
pytz.common_timezones[-5:]
['US/Eastern', 'US/Hawaii', 'US/Mountain', 'US/Pacific', 'UTC']
要从pytz中获取时区对象,使用pytz.timezone即可:
tz = pytz.timezone('America/New_York')
tz
<DstTzInfo 'America/New_York' LMT-1 day, 19:04:00 STD>
pandas中的方法既可以接受时区名也可以接受这些对象。
时区本地化和转换
默认情况下,pandas中的时间序列是单纯(naive)的时区。看看下面这个时间序列:
rng = pd.date_range('3/9/2012 9:30', periods=6, freq='D')
ts = pd.Series(np.random.randn(len(rng)), index=rng)
ts
2012-03-09 09:30:00 0.524571
2012-03-10 09:30:00 0.091110
2012-03-11 09:30:00 0.924881
2012-03-12 09:30:00 -1.313322
2012-03-13 09:30:00 0.487484
2012-03-14 09:30:00 -1.706168
Freq: D, dtype: float64
ts.index
DatetimeIndex(['2012-03-09 09:30:00', '2012-03-10 09:30:00',
'2012-03-11 09:30:00', '2012-03-12 09:30:00',
'2012-03-13 09:30:00', '2012-03-14 09:30:00'],
dtype='datetime64[ns]', freq='D')
其索引的tz字段为None:
print(ts.index.tz)
None
可以用时区集生成日期范围:
pd.date_range('3/9/2012 9:30', periods=10, freq='D', tz='UTC')
DatetimeIndex(['2012-03-09 09:30:00+00:00', '2012-03-10 09:30:00+00:00',
'2012-03-11 09:30:00+00:00', '2012-03-12 09:30:00+00:00',
'2012-03-13 09:30:00+00:00', '2012-03-14 09:30:00+00:00',
'2012-03-15 09:30:00+00:00', '2012-03-16 09:30:00+00:00',
'2012-03-17 09:30:00+00:00', '2012-03-18 09:30:00+00:00'],
dtype='datetime64[ns, UTC]', freq='D')
从单纯到本地化的转换是通过tz_localize方法处理的:
ts
2012-03-09 09:30:00 0.524571
2012-03-10 09:30:00 0.091110
2012-03-11 09:30:00 0.924881
2012-03-12 09:30:00 -1.313322
2012-03-13 09:30:00 0.487484
2012-03-14 09:30:00 -1.706168
Freq: D, dtype: float64
ts_utc = ts.tz_localize('UTC')
ts_utc
2012-03-09 09:30:00+00:00 0.524571
2012-03-10 09:30:00+00:00 0.091110
2012-03-11 09:30:00+00:00 0.924881
2012-03-12 09:30:00+00:00 -1.313322
2012-03-13 09:30:00+00:00 0.487484
2012-03-14 09:30:00+00:00 -1.706168
Freq: D, dtype: float64
ts_utc.index
DatetimeIndex(['2012-03-09 09:30:00+00:00', '2012-03-10 09:30:00+00:00',
'2012-03-11 09:30:00+00:00', '2012-03-12 09:30:00+00:00',
'2012-03-13 09:30:00+00:00', '2012-03-14 09:30:00+00:00'],
dtype='datetime64[ns, UTC]', freq='D')
一旦时间序列被本地化到某个特定时区,就可以用tz_convert将其转换到别的时区了:
ts_utc.tz_convert('America/New_York')
2012-03-09 04:30:00-05:00 0.524571
2012-03-10 04:30:00-05:00 0.091110
2012-03-11 05:30:00-04:00 0.924881
2012-03-12 05:30:00-04:00 -1.313322
2012-03-13 05:30:00-04:00 0.487484
2012-03-14 05:30:00-04:00 -1.706168
Freq: D, dtype: float64
对于上面这种时间序列(它跨越了美国东部时区的夏令时转变期),我们可以将其本地化到EST,然后转换为UTC或柏林时间:
ts_eastern = ts.tz_localize('America/New_York')
ts_eastern.tz_convert('UTC')
2012-03-09 14:30:00+00:00 0.524571
2012-03-10 14:30:00+00:00 0.091110
2012-03-11 13:30:00+00:00 0.924881
2012-03-12 13:30:00+00:00 -1.313322
2012-03-13 13:30:00+00:00 0.487484
2012-03-14 13:30:00+00:00 -1.706168
Freq: D, dtype: float64
ts_eastern.tz_convert('Europe/Berlin')
2012-03-09 15:30:00+01:00 0.524571
2012-03-10 15:30:00+01:00 0.091110
2012-03-11 14:30:00+01:00 0.924881
2012-03-12 14:30:00+01:00 -1.313322
2012-03-13 14:30:00+01:00 0.487484
2012-03-14 14:30:00+01:00 -1.706168
Freq: D, dtype: float64
tz_localize和tz_convert也是DatetimeIndex的实例方法:
ts.index.tz_localize('Asia/Shanghai')
DatetimeIndex(['2012-03-09 09:30:00+08:00', '2012-03-10 09:30:00+08:00',
'2012-03-11 09:30:00+08:00', '2012-03-12 09:30:00+08:00',
'2012-03-13 09:30:00+08:00', '2012-03-14 09:30:00+08:00'],
dtype='datetime64[ns, Asia/Shanghai]', freq='D')
注意:对单纯时间戳的本地化操作还会检查夏令时转变期附近容易混淆或不存在的时间。
操作时区意识型Timestamp对象
跟时间序列和日期范围差不多,独立的Timestamp对象也能被从单纯型(naive)本地化为时区意识型(time zone-aware),并从一个时区转换到另一个时区:
stamp = pd.Timestamp('2011-03-12 04:00')
stamp_utc = stamp.tz_localize('utc')
stamp_utc.tz_convert('America/New_York')
Timestamp('2011-03-11 23:00:00-0500', tz='America/New_York')
在创建Timestamp时,还可以传入一个时区信息:
stamp_moscow = pd.Timestamp('2011-03-12 04:00', tz='Europe/Moscow')
stamp_moscow
Timestamp('2011-03-12 04:00:00+0300', tz='Europe/Moscow')
时区意识型Timestamp对象在内部保存了一个UTC时间戳值(自UNIX纪元(1970年1月1日)算起的纳秒数)。这个UTC值在时区转换过程中是不会发生变化的:
stamp_utc.value
1299902400000000000
stamp_utc.tz_convert('America/New_York').value
1299902400000000000
当使用pandas的DateOffset对象执行时间算术运算时,运算过程会自动关注是否存在夏令时转变期。这里,我们创建了在DST转变之前的时间戳。首先,来看夏令时转变前的30分钟:
from pandas.tseries.offsets import Hour
stamp = pd.Timestamp('2012-03-12 01:30', tz='US/Eastern')
stamp
Timestamp('2012-03-12 01:30:00-0400', tz='US/Eastern')
stamp + Hour()
Timestamp('2012-03-12 02:30:00-0400', tz='US/Eastern')
然后,夏令时转变前90分钟:
stamp = pd.Timestamp('2012-11-04 00:30', tz='US/Eastern')
stamp
Timestamp('2012-11-04 00:30:00-0400', tz='US/Eastern')
stamp + 2 * Hour()
Timestamp('2012-11-04 01:30:00-0500', tz='US/Eastern')
不同时区之间的运算
如果两个时间序列的时区不同,在将它们合并到一起时,最终结果就会是UTC。由于时间戳其实是以UTC存储的,所以这是一个很简单的运算,并不需要发生任何转换:
rng = pd.date_range('3/7/2012 9:30', periods=10, freq='B')
ts = pd.Series(np.random.randn(len(rng)), index=rng)
ts
2012-03-07 09:30:00 1.074193
2012-03-08 09:30:00 0.870584
2012-03-09 09:30:00 -0.221292
2012-03-12 09:30:00 -0.424824
2012-03-13 09:30:00 -2.647929
2012-03-14 09:30:00 -0.141948
2012-03-15 09:30:00 1.255836
2012-03-16 09:30:00 -1.250273
2012-03-19 09:30:00 -0.519711
2012-03-20 09:30:00 0.833019
Freq: B, dtype: float64
ts1 = ts[:7].tz_localize('Europe/London')
ts2 = ts1[2:].tz_convert('Europe/Moscow')
result = ts1 + ts2
result.index
DatetimeIndex(['2012-03-07 09:30:00+00:00', '2012-03-08 09:30:00+00:00',
'2012-03-09 09:30:00+00:00', '2012-03-12 09:30:00+00:00',
'2012-03-13 09:30:00+00:00', '2012-03-14 09:30:00+00:00',
'2012-03-15 09:30:00+00:00'],
dtype='datetime64[ns, UTC]', freq='B')
时期及其算术运算
时期(period)表示的是时间区间,比如数日、数月、数季、数年等。Period类所表示的就是这种数据类型,其构造函数需要用到一个字符串或整数,以及表11-4中的频率:
p = pd.Period(2007, freq='A-DEC')
p
Period('2007', 'A-DEC')
这里,这个Period对象表示的是从2007年1月1日到2007年12月31日之间的整段时间。只需对Period对象加上或减去一个整数即可达到根据其频率进行位移的效果:
p + 5
Period('2012', 'A-DEC')
p - 2
Period('2005', 'A-DEC')
如果两个Period对象拥有相同的频率,则它们的差就是它们之间的单位数量:
pd.Period('2014', freq='A-DEC') - p
7
period_range函数可用于创建规则的时期范围:
rng = pd.period_range('2000-01-01', '2000-06-30', freq='M')
rng
PeriodIndex(['2000-01', '2000-02', '2000-03', '2000-04', '2000-05', '2000-06'], dtype='period[M]', freq='M')
PeriodIndex类保存了一组Period,它可以在任何pandas数据结构中被用作轴索引:
pd.Series(np.random.randn(6), index=rng)
2000-01 0.047430
2000-02 -0.499139
2000-03 0.647101
2000-04 0.073256
2000-05 -0.287499
2000-06 -0.557552
Freq: M, dtype: float64
如果你有一个字符串数组,你也可以使用PeriodIndex类:
values = ['2001Q3', '2002Q2', '2003Q1']
index = pd.PeriodIndex(values, freq='Q-DEC')
index
PeriodIndex(['2001Q3', '2002Q2', '2003Q1'], dtype='period[Q-DEC]', freq='Q-DEC')
时期的频率转换
Period和PeriodIndex对象都可以通过其asfreq方法被转换成别的频率。假设我们有一个年度时期,希望将其转换为当年年初或年末的一个月度时期。该任务非常简单:
p = pd.Period('2007', freq='A-DEC')
p
Period('2007', 'A-DEC')
p.asfreq('M', how='start')
Period('2007-01', 'M')
p.asfreq('M', how='end')
Period('2007-12', 'M')
你可以将Period(‘2007’,‘A-DEC’)看做一个被划分为多个月度时期的时间段中的游标。图11-1对此进行了说明。对于一个不以12月结束的财政年度,月度子时期的归属情况就不一样了:
p = pd.Period('2007', freq='A-JUN')
p
Period('2007', 'A-JUN')
p.asfreq('M', 'start')
Period('2006-07', 'M')
p.asfreq('M', 'end')
Period('2007-06', 'M')
在将高频率转换为低频率时,超时期(superperiod)是由子时期(subperiod)所属的位置决定的。例如,在A-JUN频率中,月份“2007年8月”实际上是属于周期“2008年”的:
p = pd.Period('Aug-2007', 'M')
p.asfreq('A-JUN')
Period('2008', 'A-JUN')
完整的PeriodIndex或TimeSeries的频率转换方式也是如此:
rng = pd.period_range('2006', '2009', freq='A-DEC')
ts = pd.Series(np.random.randn(len(rng)), index=rng)
ts
2006 1.084452
2007 0.070688
2008 1.366524
2009 1.141092
Freq: A-DEC, dtype: float64
ts.asfreq('M', how='start')
2006-01 1.084452
2007-01 0.070688
2008-01 1.366524
2009-01 1.141092
Freq: M, dtype: float64
这里,根据年度时期的第一个月,每年的时期被取代为每月的时期。如果我们想要每年的最后一个工作日,我们可以使用“B”频率,并指明想要该时期的末尾:
ts.asfreq('B', how='end')
2006-12-29 1.084452
2007-12-31 0.070688
2008-12-31 1.366524
2009-12-31 1.141092
Freq: B, dtype: float64
按季度计算的时期频率
季度型数据在会计、金融等领域中很常见。许多季度型数据都会涉及“财年末”的概念,通常是一年12个月中某月的最后一个日历日或工作日。就这一点来说,时期"2012Q4"根据财年末的不同会有不同的含义。pandas支持12种可能的季度型频率,即Q-JAN到Q-DEC:
p = pd.Period('2012Q4', freq='Q-JAN')
p
Period('2012Q4', 'Q-JAN')
在以1月结束的财年中,2012Q4是从11月到1月(将其转换为日型频率就明白了)。图11-2对此进行了说明:
p.asfreq('D', 'start')
Period('2011-11-01', 'D')
p.asfreq('D', 'end')
Period('2012-01-31', 'D')
因此,Period之间的算术运算会非常简单。例如,要获取该季度倒数第二个工作日下午4点的时间戳,你可以这样:
p4pm = (p.asfreq('B', 'e') - 1).asfreq('T', 's') + 16 * 60
p4pm
Period('2012-01-30 16:00', 'T')
period_range可用于生成季度型范围。季度型范围的算术运算也跟上面是一样的:
rng = pd.period_range('2011Q3', '2012Q4', freq='Q-JAN')
ts = pd.Series(np.arange(len(rng)), index=rng)
ts
2011Q3 0
2011Q4 1
2012Q1 2
2012Q2 3
2012Q3 4
2012Q4 5
Freq: Q-JAN, dtype: int64
new_rng = (rng.asfreq('B', 'e') - 1).asfreq('T', 's') + 16 * 60
ts.index = new_rng.to_timestamp()
ts
2010-10-28 16:00:00 0
2011-01-28 16:00:00 1
2011-04-28 16:00:00 2
2011-07-28 16:00:00 3
2011-10-28 16:00:00 4
2012-01-30 16:00:00 5
dtype: int64
将Timestamp转换为Period(及其反向过程)
通过使用to_period方法,可以将由时间戳索引的Series和DataFrame对象转换为以时期索引:
rng = pd.date_range('2000-01-01', periods=3, freq='M')
ts = pd.Series(np.random.randn(3), index=rng)
ts
2000-01-31 0.711251
2000-02-29 -0.583942
2000-03-31 -0.374504
Freq: M, dtype: float64
pts = ts.to_period()
pts
2000-01 0.711251
2000-02 -0.583942
2000-03 -0.374504
Freq: M, dtype: float64
由于时期指的是非重叠时间区间,因此对于给定的频率,一个时间戳只能属于一个时期。新PeriodIndex的频率默认是从时间戳推断而来的,你也可以指定任何别的频率。结果中允许存在重复时期:
rng = pd.date_range('1/29/2000', periods=6, freq='D')
ts2 = pd.Series(np.random.randn(6), index=rng)
ts2
2000-01-29 0.452325
2000-01-30 -0.796592
2000-01-31 -1.288143
2000-02-01 -0.342011
2000-02-02 -0.724164
2000-02-03 1.225062
Freq: D, dtype: float64
ts2.to_period('M')
2000-01 0.452325
2000-01 -0.796592
2000-01 -1.288143
2000-02 -0.342011
2000-02 -0.724164
2000-02 1.225062
Freq: M, dtype: float64
要转换回时间戳,使用to_timestamp即可:
pts = ts2.to_period()
pts
2000-01-29 0.452325
2000-01-30 -0.796592
2000-01-31 -1.288143
2000-02-01 -0.342011
2000-02-02 -0.724164
2000-02-03 1.225062
Freq: D, dtype: float64
pts.to_timestamp(how='end')
2000-01-29 0.452325
2000-01-30 -0.796592
2000-01-31 -1.288143
2000-02-01 -0.342011
2000-02-02 -0.724164
2000-02-03 1.225062
Freq: D, dtype: float64
通过数组创建PeriodIndex
固定频率的数据集通常会将时间信息分开存放在多个列中。例如,在下面这个宏观经济数据集中,年度和季度就分别存放在不同的列中:
data = pd.read_csv('examples/macrodata.csv')
data.head()
year | quarter | realgdp | realcons | realinv | realgovt | realdpi | cpi | m1 | tbilrate | unemp | pop | infl | realint | |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
0 | 1959.0 | 1.0 | 2710.349 | 1707.4 | 286.898 | 470.045 | 1886.9 | 28.98 | 139.7 | 2.82 | 5.8 | 177.146 | 0.00 | 0.00 |
1 | 1959.0 | 2.0 | 2778.801 | 1733.7 | 310.859 | 481.301 | 1919.7 | 29.15 | 141.7 | 3.08 | 5.1 | 177.830 | 2.34 | 0.74 |
2 | 1959.0 | 3.0 | 2775.488 | 1751.8 | 289.226 | 491.260 | 1916.4 | 29.35 | 140.5 | 3.82 | 5.3 | 178.657 | 2.74 | 1.09 |
3 | 1959.0 | 4.0 | 2785.204 | 1753.7 | 299.356 | 484.052 | 1931.3 | 29.37 | 140.0 | 4.33 | 5.6 | 179.386 | 0.27 | 4.06 |
4 | 1960.0 | 1.0 | 2847.699 | 1770.5 | 331.722 | 462.199 | 1955.5 | 29.54 | 139.6 | 3.50 | 5.2 | 180.007 | 2.31 | 1.19 |
data.year.head()
0 1959.0
1 1959.0
2 1959.0
3 1959.0
4 1960.0
Name: year, dtype: float64
data.quarter.head()
0 1.0
1 2.0
2 3.0
3 4.0
4 1.0
Name: quarter, dtype: float64
通过将这些数组以及一个频率传入PeriodIndex,就可以将它们合并成DataFrame的一个索引:
index = pd.PeriodIndex(year=data.year, quarter=data.quarter, freq='Q-DEC')
index
PeriodIndex(['1959Q1', '1959Q2', '1959Q3', '1959Q4', '1960Q1', '1960Q2',
'1960Q3', '1960Q4', '1961Q1', '1961Q2',
...
'2007Q2', '2007Q3', '2007Q4', '2008Q1', '2008Q2', '2008Q3',
'2008Q4', '2009Q1', '2009Q2', '2009Q3'],
dtype='period[Q-DEC]', length=203, freq='Q-DEC')
data.index = index
data.infl.head()
1959Q1 0.00
1959Q2 2.34
1959Q3 2.74
1959Q4 0.27
1960Q1 2.31
Freq: Q-DEC, Name: infl, dtype: float64
重采样及频率转换
重采样(resampling)指的是将时间序列从一个频率转换到另一个频率的处理过程。将高频率数据聚合到低频率称为降采样(downsampling),而将低频率数据转换到高频率则称为升采样(upsampling)。并不是所有的重采样都能被划分到这两个大类中。例如,将W-WED(每周三)转换为W-FRI既不是降采样也不是升采样。
pandas对象都带有一个resample方法,它是各种频率转换工作的主力函数。resample有一个类似于groupby的API,调用resample可以分组数据,然后会调用一个聚合函数:
rng = pd.date_range('2000-01-01', periods=100, freq='D')
ts = pd.Series(np.random.randn(len(rng)), index=rng)
ts.sample(5)
2000-02-14 -0.168019
2000-02-05 -1.568326
2000-04-05 2.108838
2000-01-02 -0.302924
2000-02-20 0.681909
dtype: float64
ts.resample('M').mean()
2000-01-31 0.149947
2000-02-29 -0.241514
2000-03-31 0.109753
2000-04-30 0.860072
Freq: M, dtype: float64
ts.resample('M', kind='period').mean()
2000-01 0.149947
2000-02 -0.241514
2000-03 0.109753
2000-04 0.860072
Freq: M, dtype: float64
resample是一个灵活高效的方法,可用于处理非常大的时间序列。我将通过一系列的示例说明其用法。表11-5总结它的一些选项。
|参数|说明|
|freq|表示重采样的字符串或DeteOffset,例如‘M’,‘5min’或Second|
|axis|重采样的轴,默认为axis=0|
|fill_method|升采样如何插值,比如ffill,bfill。默认不插值|
|closed|在降采样中,各时间段的哪一端是闭合(即包含)的,right或left。默认是right|
|lable|在降采样中,如何设置聚合值得标签,right或left(面元的右边界或左边界)。例如,9:30到9:35之间的这5分钟会被标记为9:30或9:35。默认为right|
|loffset|面元标签的时间矫正值,比如‘-1s’/Second(-1)用于将聚合标签调早1秒|
|limit|在前向或后向填充时,允许填充的最大时期数|
|kind|聚合到周期(period)或时间戳(timestamp),默认聚合到时间序列的索引类型|
|convention|当对周期进行重采样,将低频周期转换为高频的惯用法(start或end),默认是end|
降采样
将数据聚合到规律的低频率是一件非常普通的时间序列处理任务。待聚合的数据不必拥有固定的频率,期望的频率会自动定义聚合的面元边界,这些面元用于将时间序列拆分为多个片段。例如,要转换到月度频率(‘M’或’BM’),数据需要被划分到多个单月时间段中。各时间段都是半开放的。一个数据点只能属于一个时间段,所有时间段的并集必须能组成整个时间帧。在用resample对数据进行降采样时,需要考虑两样东西:
- 各区间哪边是闭合的。
- 如何标记各个聚合面元,用区间的开头还是末尾。
为了说明,我们来看一些“1分钟”数据:
rng = pd.date_range('2000-01-01', periods=12, freq='T')
ts = pd.Series(np.arange(12), index=rng)
ts
2000-01-01 00:00:00 0
2000-01-01 00:01:00 1
2000-01-01 00:02:00 2
2000-01-01 00:03:00 3
2000-01-01 00:04:00 4
2000-01-01 00:05:00 5
2000-01-01 00:06:00 6
2000-01-01 00:07:00 7
2000-01-01 00:08:00 8
2000-01-01 00:09:00 9
2000-01-01 00:10:00 10
2000-01-01 00:11:00 11
Freq: T, dtype: int64
假设你想要通过求和的方式将这些数据聚合到“5分钟”块中:
ts.resample('5min', closed='right').sum()
1999-12-31 23:55:00 0
2000-01-01 00:00:00 15
2000-01-01 00:05:00 40
2000-01-01 00:10:00 11
Freq: 5T, dtype: int64
传入的频率将会以“5分钟”的增量定义面元边界。默认情况下,面元的右边界是包含的,因此00:00到00:05的区间中是包含00:05的。传入closed='left’会让区间以左边界闭合:
ts.resample('5min', closed='left').sum()
2000-01-01 00:00:00 10
2000-01-01 00:05:00 35
2000-01-01 00:10:00 21
Freq: 5T, dtype: int64
图11-3说明了“1分钟”数据被转换为“5分钟”数据的处理过程。
最后,你可能希望对结果索引做一些位移,比如从右边界减去一秒以便更容易明白该时间戳到底表示的是哪个区间。只需通过loffset设置一个字符串或日期偏移量即可实现这个目的:
ts.resample('5min', closed='right',
label='right', loffset='-1s').sum()
1999-12-31 23:59:59 0
2000-01-01 00:04:59 15
2000-01-01 00:09:59 40
2000-01-01 00:14:59 11
Freq: 5T, dtype: int64
此外,也可以通过调用结果对象的shift方法来实现该目的,这样就不需要设置loffset了。
OHLC重采样
金融领域中有一种无所不在的时间序列聚合方式,即计算各面元的四个值:第一个值(open,开盘)、最后一个值(close,收盘)、最大值(high,最高)以及最小值(low,最低)。传入how='ohlc’即可得到一个含有这四种聚合值的DataFrame。整个过程很高效,只需一次扫描即可计算出结果:
ts.resample('5min').ohlc()
open | high | low | close | |
---|---|---|---|---|
2000-01-01 00:00:00 | 0 | 4 | 0 | 4 |
2000-01-01 00:05:00 | 5 | 9 | 5 | 9 |
2000-01-01 00:10:00 | 10 | 11 | 10 | 11 |
升采样和插值
在将数据从低频率转换到高频率时,就不需要聚合了。我们来看一个带有一些周型数据的DataFrame:
frame = pd.DataFrame(np.random.randn(2, 4),
index=pd.date_range('1/1/2000', periods=2,
freq='W-WED'),
columns=['Colorado', 'Texas', 'New York', 'Ohio'])
frame
Colorado | Texas | New York | Ohio | |
---|---|---|---|---|
2000-01-05 | -0.189962 | 0.027335 | 1.789346 | 0.064401 |
2000-01-12 | -1.473663 | 0.720343 | -0.301249 | -0.062475 |
当你对这个数据进行聚合,每组只有一个值,这样就会引入缺失值。我们使用asfreq方法转换成高频,不经过聚合:
df_daily = frame.resample('D').asfreq()
df_daily
Colorado | Texas | New York | Ohio | |
---|---|---|---|---|
2000-01-05 | -0.189962 | 0.027335 | 1.789346 | 0.064401 |
2000-01-06 | NaN | NaN | NaN | NaN |
2000-01-07 | NaN | NaN | NaN | NaN |
2000-01-08 | NaN | NaN | NaN | NaN |
2000-01-09 | NaN | NaN | NaN | NaN |
2000-01-10 | NaN | NaN | NaN | NaN |
2000-01-11 | NaN | NaN | NaN | NaN |
2000-01-12 | -1.473663 | 0.720343 | -0.301249 | -0.062475 |
假设你想要用前面的周型值填充“非星期三”。resampling的填充和插值方式跟fillna和reindex的一样:
frame.resample('D').ffill()
Colorado | Texas | New York | Ohio | |
---|---|---|---|---|
2000-01-05 | -0.189962 | 0.027335 | 1.789346 | 0.064401 |
2000-01-06 | -0.189962 | 0.027335 | 1.789346 | 0.064401 |
2000-01-07 | -0.189962 | 0.027335 | 1.789346 | 0.064401 |
2000-01-08 | -0.189962 | 0.027335 | 1.789346 | 0.064401 |
2000-01-09 | -0.189962 | 0.027335 | 1.789346 | 0.064401 |
2000-01-10 | -0.189962 | 0.027335 | 1.789346 | 0.064401 |
2000-01-11 | -0.189962 | 0.027335 | 1.789346 | 0.064401 |
2000-01-12 | -1.473663 | 0.720343 | -0.301249 | -0.062475 |
同样,这里也可以只填充指定的时期数(目的是限制前面的观测值的持续使用距离):
frame.resample('D').ffill(limit=2)
Colorado | Texas | New York | Ohio | |
---|---|---|---|---|
2000-01-05 | -0.189962 | 0.027335 | 1.789346 | 0.064401 |
2000-01-06 | -0.189962 | 0.027335 | 1.789346 | 0.064401 |
2000-01-07 | -0.189962 | 0.027335 | 1.789346 | 0.064401 |
2000-01-08 | NaN | NaN | NaN | NaN |
2000-01-09 | NaN | NaN | NaN | NaN |
2000-01-10 | NaN | NaN | NaN | NaN |
2000-01-11 | NaN | NaN | NaN | NaN |
2000-01-12 | -1.473663 | 0.720343 | -0.301249 | -0.062475 |
注意,新的日期索引完全没必要跟旧的重叠:
frame.resample('W-THU').ffill()
Colorado | Texas | New York | Ohio | |
---|---|---|---|---|
2000-01-06 | -0.189962 | 0.027335 | 1.789346 | 0.064401 |
2000-01-13 | -1.473663 | 0.720343 | -0.301249 | -0.062475 |
通过时期进行重采样
对那些使用时期索引的数据进行重采样与时间戳很像:
frame = pd.DataFrame(np.random.randn(24, 4),
index=pd.period_range('1-2000', '12-2001',
freq='M'),
columns=['Colorado', 'Texas', 'New York', 'Ohio'])
frame[:5]
Colorado | Texas | New York | Ohio | |
---|---|---|---|---|
2000-01 | -0.913858 | 0.940064 | -0.979250 | -0.373118 |
2000-02 | 1.153720 | 1.009668 | -1.412601 | -2.252794 |
2000-03 | -1.811461 | 1.077497 | -0.012584 | 0.978731 |
2000-04 | 0.236256 | 0.747518 | -0.579942 | 0.508246 |
2000-05 | -0.913383 | 0.578177 | -0.274615 | 0.985622 |
annual_frame = frame.resample('A-DEC').mean()
annual_frame
Colorado | Texas | New York | Ohio | |
---|---|---|---|---|
2000 | 0.192190 | 0.17422 | -0.231415 | 0.167097 |
2001 | 0.028655 | -0.06748 | -0.239070 | 0.012785 |
升采样要稍微麻烦一些,因为你必须决定在新频率中各区间的哪端用于放置原来的值,就像asfreq方法那样。convention参数默认为’start’,也可设置为’end’:
annual_frame.resample('Q-DEC').ffill()
Colorado | Texas | New York | Ohio | |
---|---|---|---|---|
2000Q1 | 0.192190 | 0.17422 | -0.231415 | 0.167097 |
2000Q2 | 0.192190 | 0.17422 | -0.231415 | 0.167097 |
2000Q3 | 0.192190 | 0.17422 | -0.231415 | 0.167097 |
2000Q4 | 0.192190 | 0.17422 | -0.231415 | 0.167097 |
2001Q1 | 0.028655 | -0.06748 | -0.239070 | 0.012785 |
2001Q2 | 0.028655 | -0.06748 | -0.239070 | 0.012785 |
2001Q3 | 0.028655 | -0.06748 | -0.239070 | 0.012785 |
2001Q4 | 0.028655 | -0.06748 | -0.239070 | 0.012785 |
annual_frame.resample('Q-DEC', convention='end').ffill()
Colorado | Texas | New York | Ohio | |
---|---|---|---|---|
2000Q4 | 0.192190 | 0.17422 | -0.231415 | 0.167097 |
2001Q1 | 0.192190 | 0.17422 | -0.231415 | 0.167097 |
2001Q2 | 0.192190 | 0.17422 | -0.231415 | 0.167097 |
2001Q3 | 0.192190 | 0.17422 | -0.231415 | 0.167097 |
2001Q4 | 0.028655 | -0.06748 | -0.239070 | 0.012785 |
由于时期指的是时间区间,所以升采样和降采样的规则就比较严格:
- 在降采样中,目标频率必须是源频率的子时期(subperiod)。
- 在升采样中,目标频率必须是源频率的超时期(superperiod)。
如果不满足这些条件,就会引发异常。这主要影响的是按季、年、周计算的频率。例如,由Q-MAR定义的时间区间只能升采样为A-MAR、A-JUN、A-SEP、A-DEC等:
annual_frame.resample('Q-MAR').ffill()
Colorado | Texas | New York | Ohio | |
---|---|---|---|---|
2000Q4 | 0.192190 | 0.17422 | -0.231415 | 0.167097 |
2001Q1 | 0.192190 | 0.17422 | -0.231415 | 0.167097 |
2001Q2 | 0.192190 | 0.17422 | -0.231415 | 0.167097 |
2001Q3 | 0.192190 | 0.17422 | -0.231415 | 0.167097 |
2001Q4 | 0.028655 | -0.06748 | -0.239070 | 0.012785 |
2002Q1 | 0.028655 | -0.06748 | -0.239070 | 0.012785 |
2002Q2 | 0.028655 | -0.06748 | -0.239070 | 0.012785 |
2002Q3 | 0.028655 | -0.06748 | -0.239070 | 0.012785 |
移动窗口函数
在移动窗口(可以带有指数衰减权数)上计算的各种统计函数也是一类常见于时间序列的数组变换。这样可以圆滑噪音数据或断裂数据。我将它们称为移动窗口函数(moving window function),其中还包括那些窗口不定长的函数(如指数加权移动平均)。跟其他统计函数一样,移动窗口函数也会自动排除缺失值。
开始之前,我们加载一些时间序列数据,将其重采样为工作日频率:
close_px_all = pd.read_csv('examples/stock_px_2.csv',
parse_dates=True, index_col=0)
close_px_all[:9]
AAPL | MSFT | XOM | SPX | |
---|---|---|---|---|
2003-01-02 | 7.40 | 21.11 | 29.22 | 909.03 |
2003-01-03 | 7.45 | 21.14 | 29.24 | 908.59 |
2003-01-06 | 7.45 | 21.52 | 29.96 | 929.01 |
2003-01-07 | 7.43 | 21.93 | 28.95 | 922.93 |
2003-01-08 | 7.28 | 21.31 | 28.83 | 909.93 |
2003-01-09 | 7.34 | 21.93 | 29.44 | 927.57 |
2003-01-10 | 7.36 | 21.97 | 29.03 | 927.57 |
2003-01-13 | 7.32 | 22.16 | 28.91 | 926.26 |
2003-01-14 | 7.30 | 22.39 | 29.17 | 931.66 |
close_px = close_px_all[['AAPL', 'MSFT', 'XOM']]
close_px = close_px.resample('B').ffill()
close_px[:9]
AAPL | MSFT | XOM | |
---|---|---|---|
2003-01-02 | 7.40 | 21.11 | 29.22 |
2003-01-03 | 7.45 | 21.14 | 29.24 |
2003-01-06 | 7.45 | 21.52 | 29.96 |
2003-01-07 | 7.43 | 21.93 | 28.95 |
2003-01-08 | 7.28 | 21.31 | 28.83 |
2003-01-09 | 7.34 | 21.93 | 29.44 |
2003-01-10 | 7.36 | 21.97 | 29.03 |
2003-01-13 | 7.32 | 22.16 | 28.91 |
2003-01-14 | 7.30 | 22.39 | 29.17 |
现在引入rolling运算符,它与resample和groupby很像。可以在TimeSeries或DataFrame以及一个window(表示期数,见图11-4)上调用它:
# 苹果公司股价的250日均线
close_px.AAPL.plot()
close_px.AAPL.rolling(250).mean().plot()
<matplotlib.axes._subplots.AxesSubplot at 0x7f12a3c3fc50>
表达式rolling(250)与groupby很像,但不是对其进行分组,而是创建一个按照250天分组的滑动窗口对象。然后,我们就得到了苹果公司股价的250天的移动窗口。
默认情况下,rolling函数需要窗口中所有的值为非NA值。可以修改该行为以解决缺失数据的问题。其实,在时间序列开始处尚不足窗口期的那些数据就是个特例(见图11-5):
appl_std250 = close_px.AAPL.rolling(250, min_periods=10).std()
appl_std250[5:12]
2003-01-09 NaN
2003-01-10 NaN
2003-01-13 NaN
2003-01-14 NaN
2003-01-15 0.077496
2003-01-16 0.074760
2003-01-17 0.112368
Freq: B, Name: AAPL, dtype: float64
appl_std250.plot()
<matplotlib.axes._subplots.AxesSubplot at 0x7f12a3b98320>
要计算扩展窗口平均(expanding window mean),可以使用expanding而不是rolling。“扩展”意味着,从时间序列的起始处开始窗口,增加窗口直到它超过所有的序列。apple_std250时间序列的扩展窗口平均如下所示:
expanding_mean = appl_std250.expanding().mean()
对DataFrame调用rolling_mean(以及与之类似的函数)会将转换应用到所有的列上(见图11-6):
close_px.rolling(60).mean().plot(logy=True)
<matplotlib.axes._subplots.AxesSubplot at 0x7f12a3aaecc0>
rolling函数也可以接受一个指定固定大小时间补偿字符串,而不是一组时期。这样可以方便处理不规律的时间序列。这些字符串也可以传递给resample。例如,我们可以计算20天的滚动均值,如下所示
close_px.rolling('20D').mean()
AAPL | MSFT | XOM | |
---|---|---|---|
2003-01-02 | 7.400000 | 21.110000 | 29.220000 |
2003-01-03 | 7.425000 | 21.125000 | 29.230000 |
2003-01-06 | 7.433333 | 21.256667 | 29.473333 |
2003-01-07 | 7.432500 | 21.425000 | 29.342500 |
2003-01-08 | 7.402000 | 21.402000 | 29.240000 |
2003-01-09 | 7.391667 | 21.490000 | 29.273333 |
2003-01-10 | 7.387143 | 21.558571 | 29.238571 |
2003-01-13 | 7.378750 | 21.633750 | 29.197500 |
2003-01-14 | 7.370000 | 21.717778 | 29.194444 |
2003-01-15 | 7.355000 | 21.757000 | 29.152000 |
2003-01-16 | 7.350909 | 21.756364 | 29.129091 |
2003-01-17 | 7.325833 | 21.628333 | 29.085000 |
2003-01-20 | 7.304615 | 21.520000 | 29.047692 |
2003-01-21 | 7.283571 | 21.423571 | 28.968571 |
2003-01-22 | 7.250714 | 21.347143 | 28.851429 |
2003-01-23 | 7.225000 | 21.304286 | 28.728571 |
2003-01-24 | 7.203333 | 21.190000 | 28.608667 |
2003-01-27 | 7.160000 | 20.980000 | 28.316429 |
2003-01-28 | 7.160714 | 20.827857 | 28.178571 |
2003-01-29 | 7.170000 | 20.662143 | 28.067143 |
2003-01-30 | 7.155714 | 20.446429 | 27.948571 |
2003-01-31 | 7.157333 | 20.326667 | 27.960667 |
2003-02-03 | 7.147857 | 19.959286 | 27.846429 |
2003-02-04 | 7.153571 | 19.707857 | 27.828571 |
2003-02-05 | 7.147143 | 19.472143 | 27.772143 |
2003-02-06 | 7.159286 | 19.358571 | 27.720000 |
2003-02-07 | 7.153333 | 19.288000 | 27.716000 |
2003-02-10 | 7.172857 | 19.110714 | 27.647857 |
2003-02-11 | 7.190000 | 18.982857 | 27.654286 |
2003-02-12 | 7.197857 | 18.819286 | 27.625714 |
... | ... | ... | ... |
2011-09-05 | 375.711429 | 25.276429 | 72.607857 |
2011-09-06 | 375.661429 | 25.295000 | 72.392857 |
2011-09-07 | 376.938571 | 25.390000 | 72.586429 |
2011-09-08 | 378.946429 | 25.545000 | 72.802143 |
2011-09-09 | 378.848667 | 25.558000 | 72.682667 |
2011-09-12 | 380.902143 | 25.754286 | 72.731429 |
2011-09-13 | 381.505000 | 25.835714 | 72.596429 |
2011-09-14 | 382.617857 | 25.973571 | 72.658571 |
2011-09-15 | 383.287857 | 26.097857 | 72.756429 |
2011-09-16 | 384.435333 | 26.166000 | 72.876000 |
2011-09-19 | 385.585714 | 26.259286 | 72.772143 |
2011-09-20 | 387.630000 | 26.286429 | 72.771429 |
2011-09-21 | 389.852143 | 26.270714 | 72.662857 |
2011-09-22 | 391.835714 | 26.217857 | 72.455714 |
2011-09-23 | 392.666667 | 26.140667 | 72.246000 |
2011-09-26 | 395.670000 | 26.160000 | 72.294286 |
2011-09-27 | 396.765000 | 26.136429 | 72.241429 |
2011-09-28 | 397.684286 | 26.090714 | 72.187857 |
2011-09-29 | 398.619286 | 26.070000 | 72.392857 |
2011-09-30 | 397.466000 | 25.991333 | 72.408667 |
2011-10-03 | 398.002143 | 25.890714 | 72.413571 |
2011-10-04 | 396.802143 | 25.807857 | 72.427143 |
2011-10-05 | 395.751429 | 25.729286 | 72.422857 |
2011-10-06 | 394.099286 | 25.673571 | 72.375714 |
2011-10-07 | 392.479333 | 25.712000 | 72.454667 |
2011-10-10 | 389.351429 | 25.602143 | 72.527857 |
2011-10-11 | 388.505000 | 25.674286 | 72.835000 |
2011-10-12 | 388.531429 | 25.810000 | 73.400714 |
2011-10-13 | 388.826429 | 25.961429 | 73.905000 |
2011-10-14 | 391.038000 | 26.048667 | 74.185333 |
2292 rows × 3 columns
指数加权函数
另一种使用固定大小窗口及相等权数观测值的办法是,定义一个衰减因子(decay factor)常量,以便使近期的观测值拥有更大的权数。衰减因子的定义方式有很多,比较流行的是使用时间间隔(span),它可以使结果兼容于窗口大小等于时间间隔的简单移动窗口(simple moving window)函数。
由于指数加权统计会赋予近期的观测值更大的权数,因此相对于等权统计,它能“适应”更快的变化。
除了rolling和expanding,pandas还有ewm运算符。下面这个例子对比了苹果公司股价的30日移动平均和span=30的指数加权移动平均(如图11-7所示)
aapl_px = close_px.AAPL['2006':'2007']
ma60 = aapl_px.rolling(30, min_periods=20).mean()
ewma60 = aapl_px.ewm(span=30).mean()
import matplotlib.pyplot as plt
ma60.plot(style='k--', label='Simple MA')
ewma60.plot(style='k-', label='EW MA')
plt.legend()
<matplotlib.legend.Legend at 0x7f12a388a860>
二元移动窗口函数
有些统计运算(如相关系数和协方差)需要在两个时间序列上执行。例如,金融分析师常常对某只股票对某个参考指数(如标准普尔500指数)的相关系数感兴趣。要进行说明,我们先计算我们感兴趣的时间序列的百分数变化:
spx_px = close_px_all['SPX']
spx_rets = spx_px.pct_change()
returns = close_px.pct_change()
调用rolling之后,corr聚合函数开始计算与spx_rets滚动相关系数(结果见图11-8):
corr = returns.AAPL.rolling(125, min_periods=100).corr(spx_rets)
corr.plot()
<matplotlib.axes._subplots.AxesSubplot at 0x7f12a350a6d8>
假设你想要一次性计算多只股票与标准普尔500指数的相关系数。虽然编写一个循环并新建一个DataFrame不是什么难事,但比较啰嗦。其实,只需传入一个TimeSeries和一个DataFrame,rolling_corr就会自动计算TimeSeries(本例中就是spx_rets)与DataFrame各列的相关系数。结果如图11-9所示:
corr = returns.rolling(125, min_periods=100).corr(spx_rets)
corr.plot()
<matplotlib.axes._subplots.AxesSubplot at 0x7f12a3839b38>
用户定义的移动窗口函数
rolling_apply函数使你能够在移动窗口上应用自己设计的数组函数。唯一要求的就是:该函数要能从数组的各个片段中产生单个值(即约简)。比如说,当我们用rolling(…).quantile(q)计算样本分位数时,可能对样本中特定值的百分等级感兴趣。scipy.stats.percentileofscore函数就能达到这个目的(结果见图11-10):
from scipy.stats import percentileofscore
score_at_2percent = lambda x: percentileofscore(x, 0.02)
#AAPL 2%回报率的百分等级(一年窗口期)
result = returns.AAPL.rolling(250).apply(score_at_2percent)
result.plot()
/root/miniconda3/lib/python3.6/site-packages/ipykernel_launcher.py:1: FutureWarning: Currently, 'apply' passes the values as ndarrays to the applied function. In the future, this will change to passing it as Series objects. You need to specify 'raw=True' to keep the current behaviour, and you can pass 'raw=False' to silence this warning
"""Entry point for launching an IPython kernel.
<matplotlib.axes._subplots.AxesSubplot at 0x7f12a11c8dd8>
如果你没安装SciPy,可以使用conda或pip安装。
总结
与前面章节接触的数据相比,时间序列数据要求不同类型的分析和数据转换工具。
在接下来的章节中,我们将学习一些高级的pandas方法和如何开始使用建模库statsmodels和scikit-learn。