我正在研究依赖张量收缩的C++库。我不会在此处发布完整的应用程序,但将其简化为以下内容。

我们定义了一个玩具等级4张量,除了(0,1,...,15)重塑之外,别无其他:

Eigen::Tensor<double, 4> T (2, 2, 2, 2);
for (size_t i = 0; i < 2; i++) {
    for (size_t j = 0; j < 2; j++) {
        for (size_t k = 0; k < 2; k++) {
            for (size_t l = 0; l < 2; l++) {
                T(i, j, k, l) = l + 2 * k + 4 * j + 8 * i;
            }
        }
    }
}

和一个与之收缩的2级张量,重塑为(1、2、3、4):
Eigen::Tensor<double, 2> A (2, 2);
for (size_t i = 0; i < 2; i++) {
    for (size_t j = 0; j < 2; j++) {
        A(i, j) = 1 + j + 2 * i;
    }
}

为了在本征中收缩两个张量,我们必须指定一个收缩对。我们的目标是收缩张量的前两个索引,如T(ijkl)*A(ib)=M(bjkl)所示。根据我目前对Eigen中的Tensor模块的了解,我们将收缩对写为
Eigen::array<Eigen::IndexPair<int>, 1> contraction_pair = {Eigen::IndexPair<int>(0, 0)};

但是,我认为应该可以使用完全相同的收缩对来执行A(ib)*T(ijkl)=N(bjkl)收缩。不幸的是,事实并非如此,M的元素是
0 0 0 0  24
0 0 0 1  32
0 0 1 0  28
0 0 1 1  38
0 1 0 0  32
0 1 0 1  44
0 1 1 0  36
0 1 1 1  50
1 0 0 0  40
1 0 0 1  56
1 0 1 0  44
1 0 1 1  62
1 1 0 0  48
1 1 0 1  68
1 1 1 0  52
1 1 1 1  74

N的这些是
0 0 0 0  24
0 0 0 1  28
0 0 1 0  32
0 0 1 1  36
0 1 0 0  40
0 1 0 1  44
0 1 1 0  48
0 1 1 1  52
1 0 0 0  32
1 0 0 1  38
1 0 1 0  44
1 0 1 1  50
1 1 0 0  56
1 1 0 1  62
1 1 1 0  68
1 1 1 1  74

我已经使用einsum在numpy中测试了相同的玩具张量:
T = np.arange(16).reshape(2, 2, 2, 2)
A = np.arange(1, 5).reshape(2, 2)

contraction1 = np.einsum('ijkl,ia->ajkl', integrals, C)
contraction2 = np.einsum('ia,ijkl->ajkl', C, integrals)

并且contraction1contraction2都是
0   0   0   0   24
0   0   0   1   28
0   0   1   0   32
0   0   1   1   36
0   1   0   0   40
0   1   0   1   44
0   1   1   0   48
0   1   1   1   52
1   0   0   0   32
1   0   0   1   38
1   0   1   0   44
1   0   1   1   50
1   1   0   0   56
1   1   0   1   62
1   1   1   0   68
1   1   1   1   74

与Eigen中的A(ib)*T(ijkl)=N(bjkl)大小写一致。是什么原因导致本征在两种情况下均未给出相同的结果?

最佳答案

Eigen接口(interface)似乎仅采用收缩轴进行规范。因此,它必须自行决定如何布置未收缩的轴。最明显的方法是保持原始轴的顺序,首先是第一个参数,然后是第二个参数。

为了确认这一点,我们可以

  • 使用np.einsum指定不同的输出布局,并与Eigen的输出进行比较:


  • import numpy as np
    
    T = np.arange(16).reshape(2, 2, 2, 2)
    A = np.arange(1, 5).reshape(2, 2)
    
    print(np.einsum('ijkl,ia->ajkl', T, A))
    # [[[[24 28]
    #    [32 36]]
    
    #   [[40 44]
    #    [48 52]]]
    
    
    #  [[[32 38]
    #    [44 50]]
    
    #   [[56 62]
    #    [68 74]]]]
    
    print(np.einsum('ijkl,ia->jkla', T, A))
    # [[[[24 32]
    #    [28 38]]
    
    #   [[32 44]
    #    [36 50]]]
    
    
    #  [[[40 56]
    #    [44 62]]
    
    #   [[48 68]
    #    [52 74]]]]
    
  • 或直接在Eigen中洗牌(感谢@lelemmen):


  • M.shuffle(Eigen::array<int, 4> {3, 0, 1, 2})
    (M_shuffled == N).all()
    
    # 1
    

    关于python - 是什么通过在Eigen::Tensor收缩中交换张量而导致不同的结果?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/47556726/

    10-11 21:49