我知道我可以在EngineBuilder中设置mcpu和mattr来生成矢量化代码。
但是我发现使用-mavx的AVX必须涉及到前端。否则,生成的程序集仅使用xmm寄存器。
有没有办法让LLVM知道可以在不涉及前端的情况下将8个浮点数放入AVX寄存器中?
我的测试代码只是 vector 添加:
float a[N], b[N];
float c[N];
// initialize a and b
for (int i = 0; i < N; ++i)
c[i] = a[i] + b[i];
最佳答案
TL;博士:是。您只需要调用opt
并告诉它向量化您的代码即可。
您绝对可以不使用lang门。矢量化器都是关于LLVM IR的,它们不是用 clang 表示的。
我通过使用不带优化的clang从您的示例中获得了此IR(是的,我作弊,然后加上了一两点注释):(数据布局和三元组很重要!
target datalayout = "e-m:o-i64:64-f80:128-n8:16:32:64-S128"
target triple = "x86_64-apple-macosx10.9.0"
define float* @f(i32 %N, float* nocapture readonly %a, float* nocapture readonly %b, float* %c) {
entry:
%cmp10 = icmp sgt i32 %N, 0 ; check for early exit
br i1 %cmp10, label %for.body, label %for.end
for.body: ; preds = %entry, %for.body
%indvars.iv = phi i64 [ %indvars.iv.next, %for.body ], [ 0, %entry ]
%arrayidx = getelementptr inbounds float* %a, i64 %indvars.iv
%0 = load float* %arrayidx, align 4 ; %0 = a[i]
%arrayidx2 = getelementptr inbounds float* %b, i64 %indvars.iv
%1 = load float* %arrayidx2, align 4 ; %1 = a[i]
%add = fadd float %0, %1 ; %add = %0 + %1
%arrayidx4 = getelementptr inbounds float* %c, i64 %indvars.iv
store float %add, float* %arrayidx4, align 4 ; c[i] = %add
%indvars.iv.next = add nuw nsw i64 %indvars.iv, 1
%lftr.wideiv = trunc i64 %indvars.iv.next to i32
%exitcond = icmp eq i32 %lftr.wideiv, %N ; test for loop exit
br i1 %exitcond, label %for.end, label %for.body
for.end: ; preds = %for.body, %entry
ret float* %c
}
现在您要向量化代码。然后,让我们通过循环矢量化器运行它。
opt a.ll -S -march=x86-64 -mcpu=btver2 -loop-vectorize
(我使用
-S
运行它以在控制台上获得输出)现在,我们使用巨大的
vector.body
以及一些支票,预标题和其他簿记代码对IR进行了矢量化处理。您将在文件中间看到以下内容: %171 = getelementptr inbounds float* %b, i64 %98
%172 = insertelement <8 x float*> %170, float* %171, i32 7
%173 = getelementptr float* %109, i32 0
%174 = bitcast float* %173 to <8 x float>*
%wide.load18 = load <8 x float>* %174, align 4
%175 = getelementptr float* %109, i32 8
%176 = bitcast float* %175 to <8 x float>*
%wide.load19 = load <8 x float>* %176, align 4
%177 = getelementptr float* %109, i32 16
%178 = bitcast float* %177 to <8 x float>*
%wide.load20 = load <8 x float>* %178, align 4
%179 = getelementptr float* %109, i32 24
%180 = bitcast float* %179 to <8 x float>*
%wide.load21 = load <8 x float>* %180, align 4
%181 = fadd <8 x float> %wide.load, %wide.load18
%182 = fadd <8 x float> %wide.load15, %wide.load19
%183 = fadd <8 x float> %wide.load16, %wide.load20
%184 = fadd <8 x float> %wide.load17, %wide.load21
%185 = getelementptr inbounds float* %c, i64 %5
%186 = insertelement <8 x float*> undef, float* %185, i32 0
这有点复杂,但是大多数浮点加法(
fadd
)都在那儿,并且仅在 vector 上完成。让我们变得更简单,并使用-O2
或-O3
运行其他优化。通过删除和/或折叠不需要或无法盈利的部分,可以使IR变得更小,更简单。opt a.ll -S -march=x86-64 -mcpu=btver2 -loop-vectorize -O3
好吧……由于我们现在已经具有可用于 vector 的IR,因此我们只需要发射它即可。让我们迈出最后一步,并调用
llc
:opt a.ll -S -march=x86-64 -mcpu=core-avx2 -loop-vectorize -O3 | llc -mcpu=core-avx2
查看反汇编,您会遇到一个紧密的内部循环(如果您的名字与我相同,则应使用
LBB0_5
标签)和一堆簿记代码。您的代码现已向量化。