[InstCombine] Signed saturation patterns
[llvm-complete.git] / test / CodeGen / AMDGPU / uniform-loop-inside-nonuniform.ll
bloba1cf6cf630048ee03c0b8c1dd66d05d51d0add49
1 ; RUN: llc -march=amdgcn -mcpu=verde < %s | FileCheck %s
3 ; Test a simple uniform loop that lives inside non-uniform control flow.
5 ; CHECK-LABEL: {{^}}test1:
6 ; CHECK: v_cmp_ne_u32_e32 vcc, 0
7 ; CHECK: s_and_saveexec_b64
8 ; CHECK-NEXT: ; mask branch
9 ; CHECK-NEXT: s_cbranch_execz BB{{[0-9]+_[0-9]+}}
11 ; CHECK: [[LOOP_BODY_LABEL:BB[0-9]+_[0-9]+]]: ; %loop_body
12 ; CHECK: s_cbranch_scc0 [[LOOP_BODY_LABEL]]
14 ; CHECK: s_endpgm
15 define amdgpu_ps void @test1(<8 x i32> inreg %rsrc, <2 x i32> %addr.base, i32 %y, i32 %p) {
16 main_body:
17   %cc = icmp eq i32 %p, 0
18   br i1 %cc, label %out, label %loop_body
20 loop_body:
21   %counter = phi i32 [ 0, %main_body ], [ %incr, %loop_body ]
23   ; Prevent the loop from being optimized out
24   call void asm sideeffect "", "" ()
26   %incr = add i32 %counter, 1
27   %lc = icmp sge i32 %incr, 1000
28   br i1 %lc, label %out, label %loop_body
30 out:
31   ret void
34 ; CHECK-LABEL: {{^}}test2:
35 ; CHECK: s_and_saveexec_b64
36 ; CHECK-NEXT: ; mask branch
37 ; CHECK-NEXT: s_cbranch_execz
38 define amdgpu_kernel void @test2(i32 addrspace(1)* %out, i32 %a, i32 %b) {
39 main_body:
40   %tid = call i32 @llvm.amdgcn.workitem.id.x() #1
41   %cc = icmp eq i32 %tid, 0
42   br i1 %cc, label %done1, label %if
44 if:
45   %cmp = icmp eq i32 %a, 0
46   br i1 %cmp, label %done0, label %loop_body
48 loop_body:
49   %counter = phi i32 [ 0, %if ], [0, %done0], [ %incr, %loop_body ]
51   ; Prevent the loop from being optimized out
52   call void asm sideeffect "", "" ()
54   %incr = add i32 %counter, 1
55   %lc = icmp sge i32 %incr, 1000
56   br i1 %lc, label %done1, label %loop_body
58 done0:
59   %cmp0 = icmp eq i32 %b, 0
60   br i1 %cmp0, label %done1, label %loop_body
62 done1:
63   ret void
66 declare i32 @llvm.amdgcn.workitem.id.x() #1
68 attributes #1 = { nounwind readonly }