apply函数在处理大数据帧(大约100万到300万行)时似乎工作得很慢。
我在这里检查了相关问题,比如Speed up Pandas apply function,和Counting within pandas apply() function,似乎加速的最好方法是不要使用apply函数:)
对于我的情况,我有两种任务要处理apply函数。
第一个:应用查找dict查询
f(p_id, p_dict):
return p_dict[p_dict['ID'] == p_id]['value']
p_dict = DataFrame(...) # it's another dict works like lookup table
df = df.apply(f, args=(p_dict,))
第二:申请Groupby
f(week_id, min_week_num, p_dict):
return p_dict[(week_id - min_week_num < p_dict['WEEK']) & (p_dict['WEEK'] < week_id)].ix[:,2].mean()
f_partial = partial(f, min_week_num=min_week_num, p_dict=p_dict)
df = map(f, df['WEEK'])
我想对于第一种情况,可以使用dataframe连接来完成,但我不确定在大型数据集上进行这种连接的资源成本。
我的问题是:
在上述两种情况下,有没有办法代替申请?
为什么申请这么慢?对于dict查找,我认为应该是o(n),即使n是100万,也不应该花费那么多。
最佳答案
关于你的第一个问题,我不能确切地说为什么这个例子是缓慢的。但一般来说,apply
没有利用矢量化。此外,apply
返回一个新的系列或DATAFRAME对象,所以对于一个非常大的DataFrame,您有相当大的IO开销(我不能保证这是100%的时间,因为熊猫有大量的内部实现优化)。
对于第一种方法,我假设您正试图使用df
作为查找表填充p_dict
中的“value”列。使用pd.merge
大约快1000倍:
import string, sys
import numpy as np
import pandas as pd
##
# Part 1 - filling a column by a lookup table
##
def f1(col, p_dict):
return [p_dict[p_dict['ID'] == s]['value'].values[0] for s in col]
# Testing
n_size = 1000
np.random.seed(997)
p_dict = pd.DataFrame({'ID': [s for s in string.ascii_uppercase], 'value': np.random.randint(0,n_size, 26)})
df = pd.DataFrame({'p_id': [string.ascii_uppercase[i] for i in np.random.randint(0,26, n_size)]})
# Apply the f1 method as posted
%timeit -n1 -r5 temp = df.apply(f1, args=(p_dict,))
>>> 1 loops, best of 5: 832 ms per loop
# Using merge
np.random.seed(997)
df = pd.DataFrame({'p_id': [string.ascii_uppercase[i] for i in np.random.randint(0,26, n_size)]})
%timeit -n1 -r5 temp = pd.merge(df, p_dict, how='inner', left_on='p_id', right_on='ID', copy=False)
>>> 1000 loops, best of 5: 826 µs per loop
关于第二个任务,我们可以快速添加一个新列到
p_dict
,它计算时间窗口在min_week_num
开始的时间,并结束在p_dict
中该行的一周。这要求p_dict
按照WEEK
列的升序排序。然后您可以再次使用pd.merge
。在下面的例子中,我假设
min_week_num
是0。但您可以很容易地修改rolling_growing_mean
以获取不同的值。rolling_growing_mean
方法将在o(n)中运行,因为它每次迭代执行固定数量的操作。n_size = 1000
np.random.seed(997)
p_dict = pd.DataFrame({'WEEK': range(52), 'value': np.random.randint(0, 1000, 52)})
df = pd.DataFrame({'WEEK': np.random.randint(0, 52, n_size)})
def rolling_growing_mean(values):
out = np.empty(len(values))
out[0] = values[0]
# Time window for taking mean grows each step
for i, v in enumerate(values[1:]):
out[i+1] = np.true_divide(out[i]*(i+1) + v, i+2)
return out
p_dict['Means'] = rolling_growing_mean(p_dict['value'])
df_merged = pd.merge(df, p_dict, how='inner', left_on='WEEK', right_on='WEEK')