我想迭代地构建稀疏矩阵,并注意到根据 SciPy 文档有两个合适的选项:
LiL matrix:
DoK matrix:
但是,当我运行基准测试与构建值字典(稍后可以轻松转换为稀疏矩阵)相比时,后者比使用任何稀疏矩阵模型快 10-20 倍:
from scipy.sparse import dok_matrix, lil_matrix
from timeit import timeit
from collections import defaultdict
def common_dict(rows, cols):
freqs = defaultdict(lambda: defaultdict(int))
for row, col in zip(rows, cols):
freqs[row][col] += 1
return freqs
def dok(rows, cols):
freqs = dok_matrix((1000,1000))
for row, col in zip(rows, cols):
freqs[row,col] += 1
return freqs
def lil(rows, cols):
freqs = lil_matrix((1000,1000))
for row, col in zip(rows, cols):
freqs[row,col] += 1
return freqs
def benchmark():
cols = range(1000)
rows = range(1000)
res = timeit("common_dict({},{})".format(rows, cols),
"from __main__ import common_dict",
number=100)
print("common_dict: {}".format(res))
res = timeit("dok({},{})".format(rows, cols),
"from __main__ import dok",
number=100)
print("dok: {}".format(res))
res = timeit("lil({},{})".format(rows, cols),
"from __main__ import lil",
number=100)
print("lil: {}".format(res))
结果:
benchmark()
common_dict: 0.11778324202168733
dok: 2.2927695910912007
lil: 1.3541790939634666
是什么导致了矩阵模型的这种开销,有什么方法可以加速它?是否有使用 dok 或 lil 优先于通用 dicts 的用例?
最佳答案
当我将您的 +=
更改为 =
时,您的 2 个稀疏数组:
for row, col in zip(rows, cols):
#freqs[row,col] += 1
freqs[row,col] = 1
他们各自的时间减半。消耗最多时间的是索引。对于
+=
,它必须同时执行 __getitem__
和 __setitem__
。当文档说
dok
和 lil
更适合迭代构造时,它们意味着扩展其底层数据结构比其他格式更容易。当我尝试用你的代码制作一个
csr
矩阵时,我得到一个:和 30 倍慢的速度。
因此,速度声明与
csr
等格式有关,与纯 Python 或 numpy
结构无关。您可能想查看
dok_matrix.__get_item__
和 dok_matrix.__set_item__
的 Python 代码,看看当您执行 freq[r,c]
时会发生什么。构建
dok
的更快方法是:freqs = dok_matrix((1000,1000))
d = dict()
for row, col in zip(rows, cols):
d[(row, col)] = 1
freqs.update(d)
利用
dok
是子类字典这一事实。请注意, dok
矩阵不是字典字典。它的键是像 (50,50)
这样的元组。构造相同稀疏数组的另一种快速方法是:
freqs = sparse.coo_matrix((np.ones(1000,int),(rows,cols)))
换句话说,由于您已经拥有
rows
和 cols
数组(或范围),计算相应的 data
数组,然后构建稀疏数组。但是,如果您必须在增量增长步骤之间对矩阵执行稀疏操作,那么
dok
或 lil
可能是您的最佳选择。稀疏矩阵是为线性代数问题开发的,例如求解具有大型稀疏矩阵的线性方程。我多年前在 MATLAB 中使用它们来解决有限差分问题。对于这项工作,计算友好的
csr
格式是最终目标,coo
格式是一种方便的初始化格式。现在很多SO scipy sparse问题都来自
scikit-learn
和文本分析问题。它们也用于生物数据库文件。但仍然 (data),(row,col)
定义方法效果最好。所以稀疏矩阵从来就不是为了快速增量创建。像字典和列表这样的传统 Python 结构在这方面要好得多。
这是一个更快的
dok
迭代,它利用了它的字典方法。 update
似乎和普通字典一样快。 get
比等效索引( freq[row,col]
)快大约 3 倍。索引可能使用 get
,但必须有很多开销。def fast_dok(rows, cols):
freqs = dok_matrix((1000,1000))
for row, col in zip(rows,cols):
i = freqs.get((row,col),0)
freqs.update({(row,col):i+1})
return freqs
跳过
get
,只是做 freqs.update({(row,col): 1)
甚至更快 - 比 defaultdict 示例的 defaultdict 更快,几乎和简单的字典初始化一样快(
{(r, c):1 for r,c in zip(rows, cols)}
)关于python - 为什么 lil_matrix 和 dok_matrix 与普通的 dicts 相比如此慢?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/27770906/