旧浮点数的一个技巧是永远不要乘以 2,而是将操作数与自身相加,如 2*a = a + a。今天,旧的技巧是否仍然适用于 SSE/SSE2/SSSE3/NEON/... 指令集等?我的操作数将是一个 vector (比如,4 个浮点数,我想乘以 2)。乘以 3、4 怎么样...?
最佳答案
我仍在努力寻找一个例子来说明这会产生什么影响。我的直觉是,如果延迟是一个问题,那么在某些情况下 x+x
会更好,但如果延迟不是问题并且只有吞吐量很重要,那么情况可能会更糟。但首先让我们讨论一些硬件。
让我坚持使用 Intel x86 处理器,因为这是我最了解的。让我们考虑以下几代硬件: Core2/Nehalem、SandyBridge/IvyBridge 和 Haswell/Broadwell 。
SIMD 浮点算术运算的延迟和吞吐量:
这是我实际用于生成因子为 2 的 Mandelbrot 集的案例。在主循环中,最关键的两行代码是:
x = x*x - y*y + x0;
y = 2*xtemp*y + y0;
这里的所有变量都是 SIMD(SSE 或 AVX)寄存器,所以我同时处理多个像素(4 个带有 SSE,8 个带有 AVX 用于单个浮点)。为此,我正在使用围绕内在函数的 SIMD 类。对于
y
我可以做y = xtemp*y + xtemp*y + y0
FMA呢?
y = fma(2*xtemp, y, y0)
或者
y = xtemp*y + fma(xtemp, y, y0);
有许多变体可以尝试。我没有尝试过
y=xtemp*y + xtemp*y + y0
但我认为它会更糟。顺便说一下,FMA 的结果是,到目前为止,我在 Haswell 系统上实现它的方式并没有太大帮助。我的帧率使用 FMA 仅增加了 15% 左右,而当我从使用 SSE 的 4 个像素变为使用 AVX 的 8 个像素时,它几乎翻了一番。编辑:这里有一些情况,我虽然会有所作为,但要么在实践中没有,要么没有意义。
考虑这个案例
for(int i=0; i<n; i++) y[i] = 2*x[i];
在这种情况下,延迟并不重要,吞吐量很重要。在 Haswell 和 Broadwell 上,乘法的吞吐量是加法的两倍,因此在这种情况下,执行
x+x
似乎更糟,但由于 Haswell/Broadwell 每个时钟周期只能写入 32 字节,因此没有任何区别。这是使用
x+x
似乎更好的情况。for(int i=0; i<n; i++) prod = prod * (2*x[i]);
相反,您可以这样做:
for(int i=0; i<n; i++) prod = prod * (x[i]+x[i]);
在这两种情况下都没有区别,因为它们由
prod
乘法的延迟决定。但是,如果您将循环展开足够多的时间以便延迟无关紧要,那么 第二种情况通常会更好,因为所有处理器至少可以在每个时钟周期进行加法和乘法。 虽然 Haswell 和 Broadwell 可以在每个时钟周期进行两次乘法运算,但它们也可以使用 FMA 在每个时钟周期进行两次乘法和加法运算,因此即使在它们上面也会更好。但是,在这种情况下,明智的做法是
for(int i=0; i<n; i++) prod *= x[i];
prod *= pow(2,n);
所以没有必要用
x+x
而不是 2*x
。关于c++ - 有没有更快的方法在 SIMS 上乘以 2(不使用乘法)?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/25556683/