Bump version to 19.1.0-rc3
[llvm-project.git] / llvm / test / CodeGen / AArch64 / fast-isel-branch-cond-split.ll
blob49e31447c1c0d14976c8812760a95ff40b399cbe
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc -mtriple=aarch64-apple-darwin -fast-isel -fast-isel-abort=1 -verify-machineinstrs < %s | FileCheck %s
4 define i64 @test_or(i32 %a, i32 %b) {
5 ; CHECK-LABEL: test_or:
6 ; CHECK:       ; %bb.0: ; %bb1
7 ; CHECK-NEXT:    cbnz w0, LBB0_2
8 ; CHECK-NEXT:  LBB0_1:
9 ; CHECK-NEXT:    mov x0, xzr
10 ; CHECK-NEXT:    ret
11 ; CHECK-NEXT:  LBB0_2: ; %bb1.cond.split
12 ; CHECK-NEXT:    cbz w1, LBB0_1
13 ; CHECK-NEXT:  ; %bb.3: ; %bb4
14 ; CHECK-NEXT:    stp x29, x30, [sp, #-16]! ; 16-byte Folded Spill
15 ; CHECK-NEXT:    .cfi_def_cfa_offset 16
16 ; CHECK-NEXT:    .cfi_offset w30, -8
17 ; CHECK-NEXT:    .cfi_offset w29, -16
18 ; CHECK-NEXT:    bl _bar
19 ; CHECK-NEXT:    ldp x29, x30, [sp], #16 ; 16-byte Folded Reload
20 ; CHECK-NEXT:    ret
21 bb1:
22   %0 = icmp eq i32 %a, 0
23   %1 = icmp eq i32 %b, 0
24   %or.cond = or i1 %0, %1
25   br i1 %or.cond, label %bb3, label %bb4, !prof !0
27 bb3:
28   ret i64 0
30 bb4:
31   %2 = call i64 @bar()
32   ret i64 %2
35 define i64 @test_or_select(i32 %a, i32 %b) {
36 ; CHECK-LABEL: test_or_select:
37 ; CHECK:       ; %bb.0: ; %bb1
38 ; CHECK-NEXT:    cbnz w0, LBB1_2
39 ; CHECK-NEXT:  LBB1_1:
40 ; CHECK-NEXT:    mov x0, xzr
41 ; CHECK-NEXT:    ret
42 ; CHECK-NEXT:  LBB1_2: ; %bb1.cond.split
43 ; CHECK-NEXT:    cbz w1, LBB1_1
44 ; CHECK-NEXT:  ; %bb.3: ; %bb4
45 ; CHECK-NEXT:    stp x29, x30, [sp, #-16]! ; 16-byte Folded Spill
46 ; CHECK-NEXT:    .cfi_def_cfa_offset 16
47 ; CHECK-NEXT:    .cfi_offset w30, -8
48 ; CHECK-NEXT:    .cfi_offset w29, -16
49 ; CHECK-NEXT:    bl _bar
50 ; CHECK-NEXT:    ldp x29, x30, [sp], #16 ; 16-byte Folded Reload
51 ; CHECK-NEXT:    ret
52 bb1:
53   %0 = icmp eq i32 %a, 0
54   %1 = icmp eq i32 %b, 0
55   %or.cond = select i1 %0, i1 true, i1 %1
56   br i1 %or.cond, label %bb3, label %bb4, !prof !0
58 bb3:
59   ret i64 0
61 bb4:
62   %2 = call i64 @bar()
63   ret i64 %2
66 define i64 @test_and(i32 %a, i32 %b) {
67 ; CHECK-LABEL: test_and:
68 ; CHECK:       ; %bb.0: ; %bb1
69 ; CHECK-NEXT:    cbnz w0, LBB2_2
70 ; CHECK-NEXT:  LBB2_1:
71 ; CHECK-NEXT:    mov x0, xzr
72 ; CHECK-NEXT:    ret
73 ; CHECK-NEXT:  LBB2_2: ; %bb1.cond.split
74 ; CHECK-NEXT:    cbz w1, LBB2_1
75 ; CHECK-NEXT:  ; %bb.3: ; %bb4
76 ; CHECK-NEXT:    stp x29, x30, [sp, #-16]! ; 16-byte Folded Spill
77 ; CHECK-NEXT:    .cfi_def_cfa_offset 16
78 ; CHECK-NEXT:    .cfi_offset w30, -8
79 ; CHECK-NEXT:    .cfi_offset w29, -16
80 ; CHECK-NEXT:    bl _bar
81 ; CHECK-NEXT:    ldp x29, x30, [sp], #16 ; 16-byte Folded Reload
82 ; CHECK-NEXT:    ret
83 bb1:
84   %0 = icmp ne i32 %a, 0
85   %1 = icmp ne i32 %b, 0
86   %or.cond = and i1 %0, %1
87   br i1 %or.cond, label %bb4, label %bb3, !prof !1
89 bb3:
90   ret i64 0
92 bb4:
93   %2 = call i64 @bar()
94   ret i64 %2
97 define i64 @test_and_select(i32 %a, i32 %b) {
98 ; CHECK-LABEL: test_and_select:
99 ; CHECK:       ; %bb.0: ; %bb1
100 ; CHECK-NEXT:    cbnz w0, LBB3_2
101 ; CHECK-NEXT:  LBB3_1:
102 ; CHECK-NEXT:    mov x0, xzr
103 ; CHECK-NEXT:    ret
104 ; CHECK-NEXT:  LBB3_2: ; %bb1.cond.split
105 ; CHECK-NEXT:    cbz w1, LBB3_1
106 ; CHECK-NEXT:  ; %bb.3: ; %bb4
107 ; CHECK-NEXT:    stp x29, x30, [sp, #-16]! ; 16-byte Folded Spill
108 ; CHECK-NEXT:    .cfi_def_cfa_offset 16
109 ; CHECK-NEXT:    .cfi_offset w30, -8
110 ; CHECK-NEXT:    .cfi_offset w29, -16
111 ; CHECK-NEXT:    bl _bar
112 ; CHECK-NEXT:    ldp x29, x30, [sp], #16 ; 16-byte Folded Reload
113 ; CHECK-NEXT:    ret
114 bb1:
115   %0 = icmp ne i32 %a, 0
116   %1 = icmp ne i32 %b, 0
117   %or.cond = select i1 %0, i1 %1, i1 false
118   br i1 %or.cond, label %bb4, label %bb3, !prof !1
120 bb3:
121   ret i64 0
123 bb4:
124   %2 = call i64 @bar()
125   ret i64 %2
128 ; If the branch is unpredictable, don't add another branch.
130 define i64 @test_or_unpredictable(i32 %a, i32 %b) {
131 ; CHECK-LABEL: test_or_unpredictable:
132 ; CHECK:       ; %bb.0: ; %bb1
133 ; CHECK-NEXT:    cmp w0, #0
134 ; CHECK-NEXT:    mov x0, xzr
135 ; CHECK-NEXT:    cset w8, eq
136 ; CHECK-NEXT:    cmp w1, #0
137 ; CHECK-NEXT:    cset w9, eq
138 ; CHECK-NEXT:    orr w8, w8, w9
139 ; CHECK-NEXT:    tbnz w8, #0, LBB4_2
140 ; CHECK-NEXT:  ; %bb.1: ; %bb4
141 ; CHECK-NEXT:    stp x29, x30, [sp, #-16]! ; 16-byte Folded Spill
142 ; CHECK-NEXT:    .cfi_def_cfa_offset 16
143 ; CHECK-NEXT:    .cfi_offset w30, -8
144 ; CHECK-NEXT:    .cfi_offset w29, -16
145 ; CHECK-NEXT:    bl _bar
146 ; CHECK-NEXT:    ldp x29, x30, [sp], #16 ; 16-byte Folded Reload
147 ; CHECK-NEXT:  LBB4_2: ; %common.ret
148 ; CHECK-NEXT:    ret
149 bb1:
150   %0 = icmp eq i32 %a, 0
151   %1 = icmp eq i32 %b, 0
152   %or.cond = or i1 %0, %1
153   br i1 %or.cond, label %bb3, label %bb4, !unpredictable !2
155 bb3:
156   ret i64 0
158 bb4:
159   %2 = call i64 @bar()
160   ret i64 %2
163 define i64 @test_and_unpredictable(i32 %a, i32 %b) {
164 ; CHECK-LABEL: test_and_unpredictable:
165 ; CHECK:       ; %bb.0: ; %bb1
166 ; CHECK-NEXT:    cmp w0, #0
167 ; CHECK-NEXT:    mov x0, xzr
168 ; CHECK-NEXT:    cset w8, ne
169 ; CHECK-NEXT:    cmp w1, #0
170 ; CHECK-NEXT:    cset w9, ne
171 ; CHECK-NEXT:    and w8, w8, w9
172 ; CHECK-NEXT:    tbz w8, #0, LBB5_2
173 ; CHECK-NEXT:  ; %bb.1: ; %bb4
174 ; CHECK-NEXT:    stp x29, x30, [sp, #-16]! ; 16-byte Folded Spill
175 ; CHECK-NEXT:    .cfi_def_cfa_offset 16
176 ; CHECK-NEXT:    .cfi_offset w30, -8
177 ; CHECK-NEXT:    .cfi_offset w29, -16
178 ; CHECK-NEXT:    bl _bar
179 ; CHECK-NEXT:    ldp x29, x30, [sp], #16 ; 16-byte Folded Reload
180 ; CHECK-NEXT:  LBB5_2: ; %common.ret
181 ; CHECK-NEXT:    ret
182 bb1:
183   %0 = icmp ne i32 %a, 0
184   %1 = icmp ne i32 %b, 0
185   %or.cond = and i1 %0, %1
186   br i1 %or.cond, label %bb4, label %bb3, !unpredictable !2
188 bb3:
189   ret i64 0
191 bb4:
192   %2 = call i64 @bar()
193   ret i64 %2
196 declare i64 @bar()
198 !0 = !{!"branch_weights", i32 5128, i32 32}
199 !1 = !{!"branch_weights", i32 1024, i32 4136}
200 !2 = !{}