[sanitizer] Improve FreeBSD ASLR detection
[llvm-project.git] / llvm / test / Analysis / DivergenceAnalysis / AMDGPU / control-flow-intrinsics.ll
blob25f2a768ed4bddbef4a6972adb43c633b35418e9
1 ; RUN: opt -mtriple amdgcn-mesa-mesa3d -passes='print<divergence>' -disable-output %s 2>&1 | FileCheck %s
3 ; Tests control flow intrinsics that should be treated as uniform
5 ; CHECK: Divergence Analysis' for function 'test_if_break':
6 ; CHECK: DIVERGENT: %cond = icmp eq i32 %arg0, 0
7 ; CHECK-NOT: DIVERGENT
8 ; CHECK: ret void
9 define amdgpu_ps void @test_if_break(i32 %arg0, i64 inreg %saved) {
10 entry:
11   %cond = icmp eq i32 %arg0, 0
12   %break = call i64 @llvm.amdgcn.if.break.i64.i64(i1 %cond, i64 %saved)
13   store volatile i64 %break, i64 addrspace(1)* undef
14   ret void
17 ; CHECK: Divergence Analysis' for function 'test_if':
18 ; CHECK: DIVERGENT: %cond = icmp eq i32 %arg0, 0
19 ; CHECK-NEXT: DIVERGENT: %if = call { i1, i64 } @llvm.amdgcn.if.i64(i1 %cond)
20 ; CHECK-NEXT: DIVERGENT: %if.bool = extractvalue { i1, i64 } %if, 0
21 ; CHECK-NOT: DIVERGENT
22 ; CHECK: DIVERGENT: %if.bool.ext = zext i1 %if.bool to i32
23 define void @test_if(i32 %arg0) {
24 entry:
25   %cond = icmp eq i32 %arg0, 0
26   %if = call { i1, i64 } @llvm.amdgcn.if.i64(i1 %cond)
27   %if.bool = extractvalue { i1, i64 } %if, 0
28   %if.mask = extractvalue { i1, i64 } %if, 1
29   %if.bool.ext = zext i1 %if.bool to i32
30   store volatile i32 %if.bool.ext, i32 addrspace(1)* undef
31   store volatile i64 %if.mask, i64 addrspace(1)* undef
32   ret void
35 ; The result should still be treated as divergent, even with a uniform source.
36 ; CHECK: Divergence Analysis' for function 'test_if_uniform':
37 ; CHECK-NOT: DIVERGENT
38 ; CHECK: DIVERGENT: %if = call { i1, i64 } @llvm.amdgcn.if.i64(i1 %cond)
39 ; CHECK-NEXT: DIVERGENT: %if.bool = extractvalue { i1, i64 } %if, 0
40 ; CHECK-NOT: DIVERGENT
41 ; CHECK: DIVERGENT: %if.bool.ext = zext i1 %if.bool to i32
42 define amdgpu_ps void @test_if_uniform(i32 inreg %arg0) {
43 entry:
44   %cond = icmp eq i32 %arg0, 0
45   %if = call { i1, i64 } @llvm.amdgcn.if.i64(i1 %cond)
46   %if.bool = extractvalue { i1, i64 } %if, 0
47   %if.mask = extractvalue { i1, i64 } %if, 1
48   %if.bool.ext = zext i1 %if.bool to i32
49   store volatile i32 %if.bool.ext, i32 addrspace(1)* undef
50   store volatile i64 %if.mask, i64 addrspace(1)* undef
51   ret void
54 ; CHECK: Divergence Analysis' for function 'test_loop_uniform':
55 ; CHECK: DIVERGENT: %loop = call i1 @llvm.amdgcn.loop.i64(i64 %mask)
56 define amdgpu_ps void @test_loop_uniform(i64 inreg %mask) {
57 entry:
58   %loop = call i1 @llvm.amdgcn.loop.i64(i64 %mask)
59   %loop.ext = zext i1 %loop to i32
60   store volatile i32 %loop.ext, i32 addrspace(1)* undef
61   ret void
64 ; CHECK: Divergence Analysis' for function 'test_else':
65 ; CHECK: DIVERGENT: %else = call { i1, i64 } @llvm.amdgcn.else.i64.i64(i64 %mask)
66 ; CHECK: DIVERGENT:       %else.bool = extractvalue { i1, i64 } %else, 0
67 ; CHECK: {{^[ \t]+}}%else.mask = extractvalue { i1, i64 } %else, 1
68 define amdgpu_ps void @test_else(i64 inreg %mask) {
69 entry:
70   %else = call { i1, i64 } @llvm.amdgcn.else.i64.i64(i64 %mask)
71   %else.bool = extractvalue { i1, i64 } %else, 0
72   %else.mask = extractvalue { i1, i64 } %else, 1
73   %else.bool.ext = zext i1 %else.bool to i32
74   store volatile i32 %else.bool.ext, i32 addrspace(1)* undef
75   store volatile i64 %else.mask, i64 addrspace(1)* undef
76   ret void
79 ; This case is probably always broken
80 ; CHECK: Divergence Analysis' for function 'test_else_divergent_mask':
81 ; CHECK: DIVERGENT: %if = call { i1, i64 } @llvm.amdgcn.else.i64.i64(i64 %mask)
82 ; CHECK-NEXT: DIVERGENT: %if.bool = extractvalue { i1, i64 } %if, 0
83 ; CHECK-NOT: DIVERGENT
84 ; CHECK: DIVERGENT: %if.bool.ext = zext i1 %if.bool to i32
85 define void @test_else_divergent_mask(i64 %mask) {
86 entry:
87   %if = call { i1, i64 } @llvm.amdgcn.else.i64.i64(i64 %mask)
88   %if.bool = extractvalue { i1, i64 } %if, 0
89   %if.mask = extractvalue { i1, i64 } %if, 1
90   %if.bool.ext = zext i1 %if.bool to i32
91   store volatile i32 %if.bool.ext, i32 addrspace(1)* undef
92   store volatile i64 %if.mask, i64 addrspace(1)* undef
93   ret void
96 declare { i1, i64 } @llvm.amdgcn.if.i64(i1) #0
97 declare { i1, i64 } @llvm.amdgcn.else.i64.i64(i64) #0
98 declare i64 @llvm.amdgcn.if.break.i64.i64(i1, i64) #1
99 declare i1 @llvm.amdgcn.loop.i64(i64) #1
101 attributes #0 = { convergent nounwind }
102 attributes #1 = { convergent nounwind readnone }