我有一个数据框的形式:
我想实现的是一个数据帧,它有唯一的组,并且每列1-9都有非零的计数。它看起来像下面这样。
在这件事上我几乎不知所措我看到问题here,但这并没有涉及分组方面我如何使用熊猫来实现这个目标?
最佳答案
假设您有以下df:
In [82]: df
Out[82]:
Group 1 2 3 4 5
0 Group1 0 1 4 0 1
1 Group1 3 0 4 1 5
2 Group2 0 1 4 3 6
3 Group2 5 1 4 0 7
4 Group3 0 0 4 7 8
5 Group3 7 1 4 7 9
解决方案:
In [83]: df.set_index('Group').ne(0).groupby(level=0).sum().reset_index()
Out[83]:
Group 1 2 3 4 5
0 Group1 1.0 1.0 2.0 1.0 2.0
1 Group2 1.0 2.0 2.0 1.0 2.0
2 Group3 1.0 1.0 2.0 2.0 2.0
作为整数:
In [84]: df.set_index('Group').ne(0).groupby(level=0).sum().astype(int).reset_index()
Out[84]:
Group 1 2 3 4 5
0 Group1 1 1 2 1 2
1 Group2 1 2 2 1 2
2 Group3 1 1 2 2 2
更新:
In [92]: df
Out[92]:
Group 1 2 3 4 5
0 Group1 0 1 4 0 0
1 Group1 3 0 4 1 0
2 Group2 0 1 4 3 0
3 Group2 5 1 4 0 0
4 Group3 0 0 4 7 0
5 Group3 7 1 4 7 0
In [93]: df.set_index('Group').ne(0).groupby(level=0).sum().astype(int).reset_index()
Out[93]:
Group 1 2 3 4 5
0 Group1 1 1 2 1 0
1 Group2 1 2 2 1 0
2 Group3 1 1 2 2 0
时间安排:
In [37]: %timeit df.set_index('Group').ne(0).groupby(level=0).sum().astype(int).reset_index()
100 loops, best of 3: 6.24 ms per loop
In [38]: %timeit df.pivot_table(index='Group', aggfunc=np.count_nonzero)
100 loops, best of 3: 19.2 ms per loop
让我们用一个更大的(60000行)df来测试它:
In [39]: df = pd.concat([df] * 10**4, ignore_index=True)
In [40]: df.shape
Out[40]: (60000, 6)
In [42]: %timeit df.set_index('Group').ne(0).groupby(level=0).sum().astype(int).reset_index()
10 loops, best of 3: 22.4 ms per loop
In [43]: %timeit df.pivot_table(index='Group', aggfunc=np.count_nonzero)
10 loops, best of 3: 43 ms per loop
结论:
IMO高级函数由于额外的开销而变慢,但是对于更大的数据集来说差别并不是很大。。。
关于python - 在多个条件下在 Pandas 中复制Countifs(),我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/43079057/