我知道我可以在EngineBuilder中设置mcpu和mattr来生成矢量化代码。
但是我发现使用-mavx的AVX必须涉及到前端。否则,生成的程序集仅使用xmm寄存器。

有没有办法让LLVM知道可以在不涉及前端的情况下将8个浮点数放入AVX寄存器中?

我的测试代码只是 vector 添加:

float a[N], b[N];
float c[N];
// initialize a and b
for (int i = 0; i < N; ++i)
    c[i] = a[i] + b[i];

最佳答案

TL;博士:是。您只需要调用opt并告诉它向量化您的代码即可。

您绝对可以不使用lang门。矢量化器都是关于LLVM IR的,它们不是用 clang 表示的。

我通过使用不带优化的clang从您的示例中获得了此IR(是的,我作弊,然后加上了一两点注释):(数据布局和三元组很重要!

target datalayout = "e-m:o-i64:64-f80:128-n8:16:32:64-S128"
target triple = "x86_64-apple-macosx10.9.0"

define float* @f(i32 %N, float* nocapture readonly %a, float* nocapture readonly %b, float* %c) {
entry:
  %cmp10 = icmp sgt i32 %N, 0   ; check for early exit
  br i1 %cmp10, label %for.body, label %for.end

for.body:                                         ; preds = %entry, %for.body
  %indvars.iv = phi i64 [ %indvars.iv.next, %for.body ], [ 0, %entry ]

  %arrayidx = getelementptr inbounds float* %a, i64 %indvars.iv
  %0 = load float* %arrayidx, align 4     ; %0 = a[i]
  %arrayidx2 = getelementptr inbounds float* %b, i64 %indvars.iv
  %1 = load float* %arrayidx2, align 4    ; %1 = a[i]

  %add = fadd float %0, %1                ; %add = %0 + %1

  %arrayidx4 = getelementptr inbounds float* %c, i64 %indvars.iv
  store float %add, float* %arrayidx4, align 4   ; c[i] = %add

  %indvars.iv.next = add nuw nsw i64 %indvars.iv, 1
  %lftr.wideiv = trunc i64 %indvars.iv.next to i32
  %exitcond = icmp eq i32 %lftr.wideiv, %N       ; test for loop exit
  br i1 %exitcond, label %for.end, label %for.body

for.end:                                          ; preds = %for.body, %entry
  ret float* %c
}

现在您要向量化代码。然后,让我们通过循环矢量化器运行它。
opt a.ll -S -march=x86-64 -mcpu=btver2 -loop-vectorize

(我使用-S运行它以在控制台上获得输出)

现在,我们使用巨大的vector.body以及一些支票,预标题和其他簿记代码对IR进行了矢量化处理。您将在文件中间看到以下内容:
  %171 = getelementptr inbounds float* %b, i64 %98
  %172 = insertelement <8 x float*> %170, float* %171, i32 7
  %173 = getelementptr float* %109, i32 0
  %174 = bitcast float* %173 to <8 x float>*
  %wide.load18 = load <8 x float>* %174, align 4
  %175 = getelementptr float* %109, i32 8
  %176 = bitcast float* %175 to <8 x float>*
  %wide.load19 = load <8 x float>* %176, align 4
  %177 = getelementptr float* %109, i32 16
  %178 = bitcast float* %177 to <8 x float>*
  %wide.load20 = load <8 x float>* %178, align 4
  %179 = getelementptr float* %109, i32 24
  %180 = bitcast float* %179 to <8 x float>*
  %wide.load21 = load <8 x float>* %180, align 4
  %181 = fadd <8 x float> %wide.load, %wide.load18
  %182 = fadd <8 x float> %wide.load15, %wide.load19
  %183 = fadd <8 x float> %wide.load16, %wide.load20
  %184 = fadd <8 x float> %wide.load17, %wide.load21
  %185 = getelementptr inbounds float* %c, i64 %5
  %186 = insertelement <8 x float*> undef, float* %185, i32 0

这有点复杂,但是大多数浮点加法(fadd)都在那儿,并且仅在 vector 上完成。让我们变得更简单,并使用-O2-O3运行其他优化。通过删除和/或折叠不需要或无法盈利的部分,可以使IR变得更小,更简单。
opt a.ll -S -march=x86-64 -mcpu=btver2 -loop-vectorize -O3

好吧……由于我们现在已经具有可用于 vector 的IR,因此我们只需要发射它即可。让我们迈出最后一步,并调用llc:
opt a.ll -S -march=x86-64 -mcpu=core-avx2 -loop-vectorize -O3 | llc -mcpu=core-avx2

查看反汇编,您会遇到一个紧密的内部循环(如果您的名字与我相同,则应使用LBB0_5标签)和一堆簿记代码。

您的代码现已向量化。

07-24 09:45
查看更多