比较OpenBLAS,Intel MKL和Eigen的矩阵相乘性能


对于机器学习的很多问题来说,计算的瓶颈往往在于大规模以及频繁的矩阵运算,主要在于以下两方面:

  • (Dense/Sparse) Matrix – Vector product
  • (Dense/Sparse) Matrix – Dense Matrix product

如何使机器学习算法运行更高效摆在我们面前,很多人都会在代码中直接采用一个比较成熟的矩阵运算数学库,面对繁多的数学库,选择一个合适的库往往会令人头疼,这既跟你的运算环境有关,也跟你的运算需求有关,不是每个库都能完胜的。

这篇文章的主要目的就是比较几个常见的BLAS库的矩阵运算性能,分别是

  1. EIGEN: 是一个线性算术的C++模板库。功能强大、快速、优雅以及支持多平台,可以使用该库来方便处理一些矩阵的操作,达到类似matlab那样的快捷。 需要定义 EIGEN_NO_DEBUG 阻止运行时assertion。编译单线程版本需要开启
    -DEIGEN_DONT_PARALLELIZE. 在试验中,我们采用 EIGEN 原生 BLAS 实现。
  2. Intel MKL: 英特尔数学核心函数库是一套经过高度优化和广泛线程化的数学例程,专为需要极致性能的科学、工程及金融等领域的应用而设计。它可以为当前及下一代英特尔处理器提供性能优化,包括更出色地与 Microsoft Visual Studio、Eclipse和XCode相集成。英特尔
    MKL 支持完全集成英特尔兼容性 OpenMP 运行时库,以实现更出色的 Windows/Linux 跨平台兼容性。在试验中的多线程版本需要链接到 mkl_gnu_thread,而不是 mkl_intel_thread,单线程版本需要链接到 mkl_sequential_thread。
  3. OpenBLAS: 是一个高性能多核 BLAS 库,是 GotoBLAS2 1.13 BSD 版本的衍生版。OpenBLAS 的编译依赖系统环境,并且没有原生单线程版本,在实验这哦那个,通过设置 OMP_NUM_THREADS=1 来模拟单线程版本,可能会带来一点点的性能下降。

每个测试程序的编译都采用 “-O4 -msse2 -msse3 -msse4” 优化, 通过设置 OMP_NUM_THREADS 来控制使用的线程数量. 除了 OpenBLAS,其他两个库的测试程序都分别有单线程和多线程的编译版本。

如果MKL编译出现问题,建议参考Intel
Math Kernel Library Link Line Advisor

  • 单线程版本

我在实验中进行了一系列的非稀疏矩阵相乘运算,矩阵规模也逐渐增大,单线程的运行时间如下表所示,其中采用的测试轮数为5轮,其中红色表示性能最好的一组实验结果。

Matrix-DimensionEigenMKLOpenBLAS
5000.041590.031220.03058
10000.317890.243390.23730
15001.045890.814450.79869
20002.375671.920361.87102
25004.682663.785693.64548
30008.280736.426306.29797
350013.0747010.250969.98417
400019.3455015.2193114.87500
450027.5276721.4502421.18227
500037.67552 29.3163129.07229

【神经网络与深度学习】【C/C++】比较OpenBLAS,Intel MKL和Eigen的矩阵相乘性能-LMLPHP

从图中可以看出,OpenBLAS的性能最好,MKL的表现也很不错,而EIGEN的表现却很糟糕。

  • 多线程版本

在多线程的测试中,我们采用多个CPU核心来做矩阵乘法运算,所有的结果也同样采用5轮训练,我们采用的CPU核数分别是8,16,32,48。

  • Cores = 8
Matrix-DimensionEigenMKLOpenBLAS
10000.056580.039550.06468
20000.349810.262000.23879
30001.207810.854490.80737
40002.654901.902731.88366
50005.033043.730053.67966
60008.786546.527666.31980
700013.5561110.1375810.07120
800019.8163415.0353014.89440
900029.1132921.5435921.26992
1000039.0156329.9307529.22034

【神经网络与深度学习】【C/C++】比较OpenBLAS,Intel MKL和Eigen的矩阵相乘性能-LMLPHP

  • Cores = 16
Matrix-DimensionEigenMKLOpenBLAS
10000.057080.021850.03897
20000.266940.138070.30461
30000.706860.436920.93511
40001.451290.977202.06761
50002.594771.906652.49280
60005.434383.309457.01299
70008.011245.178966.84496
800011.222807.8143912.99240
900015.1562511.0890621.82488
1000019.9115115.2203930.86908

【神经网络与深度学习】【C/C++】比较OpenBLAS,Intel MKL和Eigen的矩阵相乘性能-LMLPHP

  • Cores = 32
Matrix-DimensionEigenMKLOpenBLAS
10000.040030.027920.02244
20000.512130.143630.16990
30001.136470.511050.54635
40001.587931.102191.26401
50002.883412.079232.48735
60005.927793.427854.26794
70007.916505.321766.69391
800011.964677.653959.98951
900017.4542010.2832814.14108
1000023.3131415.1007719.34171

【神经网络与深度学习】【C/C++】比较OpenBLAS,Intel MKL和Eigen的矩阵相乘性能-LMLPHP

  • Cores = 40
Matrix-DimensionEigenMKLOpenBLAS
10000.036910.028770.01779
20000.377390.140370.13655
30000.611830.410570.44113
40002.436701.026251.01414
50003.180991.910921.97898
60008.240022.961573.40685
700011.598894.683125.38634
80009.506136.984347.95971
900014.830669.6089111.37585
1000023.6718715.5215115.52680

【神经网络与深度学习】【C/C++】比较OpenBLAS,Intel MKL和Eigen的矩阵相乘性能-LMLPHP

  • Cores = 48
Matrix-DimensionEigenMKLOpenBLAS
10000.036350.023980.01548
20000.364170.134080.11496
30002.323880.392910.36669
40002.320301.132440.85790
50002.082691.758121.66785
60008.707662.986942.85609
70008.235434.623404.53257
800021.186036.688866.72820
900019.865049.596359.50597
1000016.1092013.1303813.04432

【神经网络与深度学习】【C/C++】比较OpenBLAS,Intel MKL和Eigen的矩阵相乘性能-LMLPHP

可以看出,MKL和OpenBLAS都提供了比较好的性能,MKL性能还更好一点,在各别多线程条件下了,可能某些原因或者我机器设置的问题,出现了各别性能异常,比如小矩阵运算时间反倒比大矩阵运算长,或者更多的线程却不能提供更好的性能。这些情况后面可能还需要查一查。

  • 伸缩性

另外,我也测试了使用不同的cpu核数对性能的影响,下面两个图描述了把cpu从1增加到20的条件下,5000×5000的矩阵相乘的时间开销和加速比。

  • 结论

就我的测试环境而言,Intel MKL 和 OpenBLAS 似乎是矩阵相乘运算方面性能最佳的 BLAS 库,在多核以及不同规模的矩阵方面都具有较好的伸展性和稳定性,而对于单线程情况,OpenBLAS相比 MKL 在性能上有一定提升。

本文参考gcdart的文章,代码可以下载。

05-11 18:21