旧浮点数的一个技巧是永远不要乘以 2,而是将操作数与自身相加,如 2*a = a + a。今天,旧的技巧是否仍然适用于 SSE/SSE2/SSSE3/NEON/... 指令集等?我的操作数将是一个 vector (比如,4 个浮点数,我想乘以 2)。乘以 3、4 怎么样...?

最佳答案

我仍在努力寻找一个例子来说明这会产生什么影响。我的直觉是,如果延迟是一个问题,那么在某些情况下 x+x 会更好,但如果延迟不是问题并且只有吞吐量很重要,那么情况可能会更糟。但首先让我们讨论一些硬件。

让我坚持使用 Intel x86 处理器,因为这是我最了解的。让我们考虑以下几代硬件: Core2/Nehalem、SandyBridge/IvyBridge 和 Haswell/Broadwell

SIMD 浮点算术运算的延迟和吞吐量:

  • 加法延迟为 3。
  • 除 Broadwell 外,乘法延迟为 5。
  • Broadwell 乘法的延迟为 3。
  • 加法的吞吐量为 1。
  • 除 Haswell 和 Broadwell 外,乘法的吞吐量为 1。
  • 在 Haswell 和 Broadwell 上,multiplicatin 的吞吐量为 2。
  • 没有 FMA 的加法和乘法的吞吐量是 2。
  • FMA 的延迟为 5
  • FMA 的吞吐量为 2。这相当于加法和乘法的吞吐量为 4。

  • 这是我实际用于生成因子为 2 的 Mandelbrot 集的案例。在主循环中,最关键的两行代码是:
    x = x*x - y*y + x0;
    y = 2*xtemp*y + y0;
    

    这里的所有变量都是 SIMD(SSE 或 AVX)寄存器,所以我同时处理多个像素(4 个带有 SSE,8 个带有 AVX 用于单个浮点)。为此,我正在使用围绕内在函数的 SIMD 类。对于 y 我可以做
    y = xtemp*y + xtemp*y + y0
    

    FMA呢?
    y = fma(2*xtemp, y, y0)
    

    或者
    y = xtemp*y + fma(xtemp, y, y0);
    

    有许多变体可以尝试。我没有尝试过 y=xtemp*y + xtemp*y + y0 但我认为它会更糟。顺便说一下,FMA 的结果是,到目前为止,我在 Haswell 系统上实现它的方式并没有太大帮助。我的帧率使用 FMA 仅增加了 15% 左右,而当我从使用 SSE 的 4 个像素变为使用 AVX 的 8 个像素时,它几乎翻了一番。

    编辑:这里有一些情况,我虽然会有所作为,但要么在实践中没有,要么没有意义。

    考虑这个案例
    for(int i=0; i<n; i++) y[i] = 2*x[i];
    

    在这种情况下,延迟并不重要,吞吐量很重要。在 Haswell 和 Broadwell 上,乘法的吞吐量是加法的两倍,因此在这种情况下,执行 x+x 似乎更糟,但由于 Haswell/Broadwell 每个时钟周期只能写入 32 字节,因此没有任何区别。

    这是使用 x+x 似乎更好的情况。
    for(int i=0; i<n; i++) prod = prod * (2*x[i]);
    

    相反,您可以这样做:
    for(int i=0; i<n; i++) prod = prod * (x[i]+x[i]);
    

    在这两种情况下都没有区别,因为它们由 prod 乘法的延迟决定。但是,如果您将循环展开足够多的时间以便延迟无关紧要,那么 第二种情况通常会更好,因为所有处理器至少可以在每个时钟周期进行加法和乘法。 虽然 Haswell 和 Broadwell 可以在每个时钟周期进行两次乘法运算,但它们也可以使用 FMA 在每个时钟周期进行两次乘法和加法运算,因此即使在它们上面也会更好。

    但是,在这种情况下,明智的做法是
    for(int i=0; i<n; i++) prod *= x[i];
    prod *= pow(2,n);
    

    所以没有必要用 x+x 而不是 2*x

    关于c++ - 有没有更快的方法在 SIMS 上乘以 2(不使用乘法)?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/25556683/

    10-13 02:53