[clang][modules] Don't prevent translation of FW_Private includes when explicitly...
[llvm-project.git] / llvm / test / CodeGen / AMDGPU / GlobalISel / artifact-combiner-zext.mir
blob6f866ea47856968a55fa846828a9da8725dc3edd
1 # NOTE: Assertions have been autogenerated by utils/update_mir_test_checks.py
2 # RUN: llc -O0 -mtriple=amdgcn-mesa-mesa3d -mcpu=tahiti -run-pass=legalizer %s -o - | FileCheck %s
4 ---
5 name: test_zext_trunc_v2s32_to_v2s16_to_v2s32
6 body: |
7   bb.0:
8     liveins: $vgpr0_vgpr1
10     ; CHECK-LABEL: name: test_zext_trunc_v2s32_to_v2s16_to_v2s32
11     ; CHECK: liveins: $vgpr0_vgpr1
12     ; CHECK-NEXT: {{  $}}
13     ; CHECK-NEXT: [[COPY:%[0-9]+]]:_(<2 x s32>) = COPY $vgpr0_vgpr1
14     ; CHECK-NEXT: [[C:%[0-9]+]]:_(s32) = G_CONSTANT i32 65535
15     ; CHECK-NEXT: [[BUILD_VECTOR:%[0-9]+]]:_(<2 x s32>) = G_BUILD_VECTOR [[C]](s32), [[C]](s32)
16     ; CHECK-NEXT: [[AND:%[0-9]+]]:_(<2 x s32>) = G_AND [[COPY]], [[BUILD_VECTOR]]
17     ; CHECK-NEXT: $vgpr0_vgpr1 = COPY [[AND]](<2 x s32>)
18     %0:_(<2 x s32>) = COPY $vgpr0_vgpr1
19     %1:_(<2 x s16>) = G_TRUNC %0
20     %2:_(<2 x s32>) = G_ZEXT %1
21     $vgpr0_vgpr1 = COPY %2
22 ...
24 ---
25 name: test_zext_trunc_v2s32_to_v2s16_to_v2s64
26 body: |
27   bb.0:
28     liveins: $vgpr0_vgpr1
30     ; CHECK-LABEL: name: test_zext_trunc_v2s32_to_v2s16_to_v2s64
31     ; CHECK: liveins: $vgpr0_vgpr1
32     ; CHECK-NEXT: {{  $}}
33     ; CHECK-NEXT: [[COPY:%[0-9]+]]:_(<2 x s32>) = COPY $vgpr0_vgpr1
34     ; CHECK-NEXT: [[C:%[0-9]+]]:_(s64) = G_CONSTANT i64 65535
35     ; CHECK-NEXT: [[UV:%[0-9]+]]:_(s32), [[UV1:%[0-9]+]]:_(s32) = G_UNMERGE_VALUES [[COPY]](<2 x s32>)
36     ; CHECK-NEXT: [[ANYEXT:%[0-9]+]]:_(s64) = G_ANYEXT [[UV]](s32)
37     ; CHECK-NEXT: [[ANYEXT1:%[0-9]+]]:_(s64) = G_ANYEXT [[UV1]](s32)
38     ; CHECK-NEXT: [[AND:%[0-9]+]]:_(s64) = G_AND [[ANYEXT]], [[C]]
39     ; CHECK-NEXT: [[AND1:%[0-9]+]]:_(s64) = G_AND [[ANYEXT1]], [[C]]
40     ; CHECK-NEXT: [[BUILD_VECTOR:%[0-9]+]]:_(<2 x s64>) = G_BUILD_VECTOR [[AND]](s64), [[AND1]](s64)
41     ; CHECK-NEXT: $vgpr0_vgpr1_vgpr2_vgpr3 = COPY [[BUILD_VECTOR]](<2 x s64>)
42     %0:_(<2 x s32>) = COPY $vgpr0_vgpr1
43     %1:_(<2 x s16>) = G_TRUNC %0
44     %2:_(<2 x s64>) = G_ZEXT %1
45     $vgpr0_vgpr1_vgpr2_vgpr3 = COPY %2
46 ...
48 ---
49 name: test_zext_trunc_v2s32_to_v2s8_to_v2s16
50 body: |
51   bb.0:
52     liveins: $vgpr0_vgpr1
54     ; CHECK-LABEL: name: test_zext_trunc_v2s32_to_v2s8_to_v2s16
55     ; CHECK: liveins: $vgpr0_vgpr1
56     ; CHECK-NEXT: {{  $}}
57     ; CHECK-NEXT: [[COPY:%[0-9]+]]:_(<2 x s32>) = COPY $vgpr0_vgpr1
58     ; CHECK-NEXT: [[C:%[0-9]+]]:_(s32) = G_CONSTANT i32 255
59     ; CHECK-NEXT: [[COPY1:%[0-9]+]]:_(s32) = COPY [[C]](s32)
60     ; CHECK-NEXT: [[C1:%[0-9]+]]:_(s32) = G_CONSTANT i32 16
61     ; CHECK-NEXT: [[SHL:%[0-9]+]]:_(s32) = G_SHL [[C]], [[C1]](s32)
62     ; CHECK-NEXT: [[OR:%[0-9]+]]:_(s32) = G_OR [[COPY1]], [[SHL]]
63     ; CHECK-NEXT: [[BITCAST:%[0-9]+]]:_(<2 x s16>) = G_BITCAST [[OR]](s32)
64     ; CHECK-NEXT: [[TRUNC:%[0-9]+]]:_(<2 x s16>) = G_TRUNC [[COPY]](<2 x s32>)
65     ; CHECK-NEXT: [[AND:%[0-9]+]]:_(<2 x s16>) = G_AND [[TRUNC]], [[BITCAST]]
66     ; CHECK-NEXT: $vgpr0 = COPY [[AND]](<2 x s16>)
67     %0:_(<2 x s32>) = COPY $vgpr0_vgpr1
68     %1:_(<2 x s8>) = G_TRUNC %0
69     %2:_(<2 x s16>) = G_ZEXT %1
70     $vgpr0 = COPY %2
71 ...
73 ---
74 name: test_zext_trunc_v3s32_to_v3s16_to_v3s32
75 body: |
76   bb.0:
77     liveins: $vgpr0_vgpr1_vgpr2
79     ; CHECK-LABEL: name: test_zext_trunc_v3s32_to_v3s16_to_v3s32
80     ; CHECK: liveins: $vgpr0_vgpr1_vgpr2
81     ; CHECK-NEXT: {{  $}}
82     ; CHECK-NEXT: [[COPY:%[0-9]+]]:_(<3 x s32>) = COPY $vgpr0_vgpr1_vgpr2
83     ; CHECK-NEXT: [[C:%[0-9]+]]:_(s32) = G_CONSTANT i32 65535
84     ; CHECK-NEXT: [[UV:%[0-9]+]]:_(s32), [[UV1:%[0-9]+]]:_(s32), [[UV2:%[0-9]+]]:_(s32) = G_UNMERGE_VALUES [[COPY]](<3 x s32>)
85     ; CHECK-NEXT: [[BUILD_VECTOR:%[0-9]+]]:_(<2 x s32>) = G_BUILD_VECTOR [[UV]](s32), [[UV1]](s32)
86     ; CHECK-NEXT: [[BUILD_VECTOR1:%[0-9]+]]:_(<2 x s32>) = G_BUILD_VECTOR [[C]](s32), [[C]](s32)
87     ; CHECK-NEXT: [[AND:%[0-9]+]]:_(<2 x s32>) = G_AND [[BUILD_VECTOR]], [[BUILD_VECTOR1]]
88     ; CHECK-NEXT: [[AND1:%[0-9]+]]:_(s32) = G_AND [[UV2]], [[C]]
89     ; CHECK-NEXT: [[UV3:%[0-9]+]]:_(s32), [[UV4:%[0-9]+]]:_(s32) = G_UNMERGE_VALUES [[AND]](<2 x s32>)
90     ; CHECK-NEXT: [[BUILD_VECTOR2:%[0-9]+]]:_(<3 x s32>) = G_BUILD_VECTOR [[UV3]](s32), [[UV4]](s32), [[AND1]](s32)
91     ; CHECK-NEXT: $vgpr0_vgpr1_vgpr2 = COPY [[BUILD_VECTOR2]](<3 x s32>)
92     %0:_(<3 x s32>) = COPY $vgpr0_vgpr1_vgpr2
93     %1:_(<3 x s16>) = G_TRUNC %0
94     %2:_(<3 x s32>) = G_ZEXT %1
95     $vgpr0_vgpr1_vgpr2 = COPY %2
96 ...
98 # Test for "Too many bits for uint64_t" assertion when combining
99 # zexts with wide sources.
101 name: test_zext_128_trunc_s128_merge
102 body: |
103   bb.0:
104     liveins: $vgpr0_vgpr1
106     ; CHECK-LABEL: name: test_zext_128_trunc_s128_merge
107     ; CHECK: liveins: $vgpr0_vgpr1
108     ; CHECK-NEXT: {{  $}}
109     ; CHECK-NEXT: [[COPY:%[0-9]+]]:_(s64) = COPY $vgpr0_vgpr1
110     ; CHECK-NEXT: [[COPY1:%[0-9]+]]:_(s64) = COPY $vgpr0_vgpr1
111     ; CHECK-NEXT: [[C:%[0-9]+]]:_(s64) = G_CONSTANT i64 -1
112     ; CHECK-NEXT: [[C1:%[0-9]+]]:_(s64) = G_CONSTANT i64 4294967295
113     ; CHECK-NEXT: [[AND:%[0-9]+]]:_(s64) = G_AND [[COPY]], [[C]]
114     ; CHECK-NEXT: [[AND1:%[0-9]+]]:_(s64) = G_AND [[COPY1]], [[C1]]
115     ; CHECK-NEXT: [[MV:%[0-9]+]]:_(s128) = G_MERGE_VALUES [[AND]](s64), [[AND1]](s64)
116     ; CHECK-NEXT: $vgpr0_vgpr1_vgpr2_vgpr3 = COPY [[MV]](s128)
117     %0:_(s64) = COPY $vgpr0_vgpr1
118     %1:_(s64) = COPY $vgpr0_vgpr1
119     %2:_(s128) = G_MERGE_VALUES %0, %1
120     %3:_(s96) = G_TRUNC %2
121     %4:_(s128) = G_ZEXT %3
122     $vgpr0_vgpr1_vgpr2_vgpr3 = COPY %4
126 name: test_zext_s8_to_s32_of_sext_s1_to_s8
127 body: |
128   bb.0:
129     liveins: $vgpr0, $vgpr1
131     ; CHECK-LABEL: name: test_zext_s8_to_s32_of_sext_s1_to_s8
132     ; CHECK: liveins: $vgpr0, $vgpr1
133     ; CHECK-NEXT: {{  $}}
134     ; CHECK-NEXT: [[COPY:%[0-9]+]]:_(s32) = COPY $vgpr0
135     ; CHECK-NEXT: [[COPY1:%[0-9]+]]:_(s32) = COPY $vgpr1
136     ; CHECK-NEXT: [[ICMP:%[0-9]+]]:_(s1) = G_ICMP intpred(eq), [[COPY]](s32), [[COPY1]]
137     ; CHECK-NEXT: [[C:%[0-9]+]]:_(s32) = G_CONSTANT i32 255
138     ; CHECK-NEXT: [[SEXT:%[0-9]+]]:_(s32) = G_SEXT [[ICMP]](s1)
139     ; CHECK-NEXT: [[AND:%[0-9]+]]:_(s32) = G_AND [[SEXT]], [[C]]
140     ; CHECK-NEXT: $vgpr0 = COPY [[AND]](s32)
141     %0:_(s32) = COPY $vgpr0
142     %1:_(s32) = COPY $vgpr1
143     %2:_(s1) = G_ICMP intpred(eq), %0, %1
144     %3:_(s8) = G_SEXT %2
145     %4:_(s32) = G_ZEXT %3
146     $vgpr0 = COPY %4
150 name: test_zext_s8_to_s32_of_sext_s1_to_s16
151 body: |
152   bb.0:
153     liveins: $vgpr0, $vgpr1
155     ; CHECK-LABEL: name: test_zext_s8_to_s32_of_sext_s1_to_s16
156     ; CHECK: liveins: $vgpr0, $vgpr1
157     ; CHECK-NEXT: {{  $}}
158     ; CHECK-NEXT: [[COPY:%[0-9]+]]:_(s32) = COPY $vgpr0
159     ; CHECK-NEXT: [[COPY1:%[0-9]+]]:_(s32) = COPY $vgpr1
160     ; CHECK-NEXT: [[ICMP:%[0-9]+]]:_(s1) = G_ICMP intpred(eq), [[COPY]](s32), [[COPY1]]
161     ; CHECK-NEXT: [[C:%[0-9]+]]:_(s32) = G_CONSTANT i32 65535
162     ; CHECK-NEXT: [[SEXT:%[0-9]+]]:_(s32) = G_SEXT [[ICMP]](s1)
163     ; CHECK-NEXT: [[AND:%[0-9]+]]:_(s32) = G_AND [[SEXT]], [[C]]
164     ; CHECK-NEXT: $vgpr0 = COPY [[AND]](s32)
165     %0:_(s32) = COPY $vgpr0
166     %1:_(s32) = COPY $vgpr1
167     %2:_(s1) = G_ICMP intpred(eq), %0, %1
168     %3:_(s16) = G_SEXT %2
169     %4:_(s32) = G_ZEXT %3
170     $vgpr0 = COPY %4
174 name: test_zext_s8_to_s32_of_sext_s8_to_s16
175 body: |
176   bb.0:
177     liveins: $vgpr0_vgpr1
179     ; CHECK-LABEL: name: test_zext_s8_to_s32_of_sext_s8_to_s16
180     ; CHECK: liveins: $vgpr0_vgpr1
181     ; CHECK-NEXT: {{  $}}
182     ; CHECK-NEXT: [[COPY:%[0-9]+]]:_(p1) = COPY $vgpr0_vgpr1
183     ; CHECK-NEXT: [[LOAD:%[0-9]+]]:_(s32) = G_LOAD [[COPY]](p1) :: (load (s8), addrspace 1)
184     ; CHECK-NEXT: [[C:%[0-9]+]]:_(s32) = G_CONSTANT i32 65535
185     ; CHECK-NEXT: [[SEXT_INREG:%[0-9]+]]:_(s32) = G_SEXT_INREG [[LOAD]], 8
186     ; CHECK-NEXT: [[AND:%[0-9]+]]:_(s32) = G_AND [[SEXT_INREG]], [[C]]
187     ; CHECK-NEXT: $vgpr0 = COPY [[AND]](s32)
188     %0:_(p1) = COPY $vgpr0_vgpr1
189     %1:_(s8) = G_LOAD %0 :: (load (s8), addrspace 1)
190     %2:_(s16) = G_SEXT %1
191     %3:_(s32) = G_ZEXT %2
192     $vgpr0 = COPY %3
196 name: test_zext_v2s8_to_v2s32_of_sext_v2s1_to_v2s8
197 body: |
198   bb.0:
199     liveins: $vgpr0_vgpr1, $vgpr2_vgpr3
201     ; CHECK-LABEL: name: test_zext_v2s8_to_v2s32_of_sext_v2s1_to_v2s8
202     ; CHECK: liveins: $vgpr0_vgpr1, $vgpr2_vgpr3
203     ; CHECK-NEXT: {{  $}}
204     ; CHECK-NEXT: [[COPY:%[0-9]+]]:_(<2 x s32>) = COPY $vgpr0_vgpr1
205     ; CHECK-NEXT: [[COPY1:%[0-9]+]]:_(<2 x s32>) = COPY $vgpr2_vgpr3
206     ; CHECK-NEXT: [[UV:%[0-9]+]]:_(s32), [[UV1:%[0-9]+]]:_(s32) = G_UNMERGE_VALUES [[COPY]](<2 x s32>)
207     ; CHECK-NEXT: [[UV2:%[0-9]+]]:_(s32), [[UV3:%[0-9]+]]:_(s32) = G_UNMERGE_VALUES [[COPY1]](<2 x s32>)
208     ; CHECK-NEXT: [[ICMP:%[0-9]+]]:_(s1) = G_ICMP intpred(eq), [[UV]](s32), [[UV2]]
209     ; CHECK-NEXT: [[ICMP1:%[0-9]+]]:_(s1) = G_ICMP intpred(eq), [[UV1]](s32), [[UV3]]
210     ; CHECK-NEXT: [[ANYEXT:%[0-9]+]]:_(s32) = G_ANYEXT [[ICMP]](s1)
211     ; CHECK-NEXT: [[ANYEXT1:%[0-9]+]]:_(s32) = G_ANYEXT [[ICMP1]](s1)
212     ; CHECK-NEXT: [[C:%[0-9]+]]:_(s32) = G_CONSTANT i32 255
213     ; CHECK-NEXT: [[BUILD_VECTOR:%[0-9]+]]:_(<2 x s32>) = G_BUILD_VECTOR [[C]](s32), [[C]](s32)
214     ; CHECK-NEXT: [[SEXT_INREG:%[0-9]+]]:_(s32) = G_SEXT_INREG [[ANYEXT]], 1
215     ; CHECK-NEXT: [[SEXT_INREG1:%[0-9]+]]:_(s32) = G_SEXT_INREG [[ANYEXT1]], 1
216     ; CHECK-NEXT: [[BUILD_VECTOR1:%[0-9]+]]:_(<2 x s32>) = G_BUILD_VECTOR [[SEXT_INREG]](s32), [[SEXT_INREG1]](s32)
217     ; CHECK-NEXT: [[AND:%[0-9]+]]:_(<2 x s32>) = G_AND [[BUILD_VECTOR1]], [[BUILD_VECTOR]]
218     ; CHECK-NEXT: $vgpr0_vgpr1 = COPY [[AND]](<2 x s32>)
219     %0:_(<2 x s32>) = COPY $vgpr0_vgpr1
220     %1:_(<2 x s32>) = COPY $vgpr2_vgpr3
221     %2:_(<2 x s1>) = G_ICMP intpred(eq), %0, %1
222     %3:_(<2 x s8>) = G_SEXT %2
223     %4:_(<2 x s32>) = G_ZEXT %3
224     $vgpr0_vgpr1 = COPY %4
228 name: test_zext_v2s8_to_v2s32_of_sext_v2s1_to_v2s16
229 body: |
230   bb.0:
231     liveins: $vgpr0_vgpr1, $vgpr2_vgpr3
233     ; CHECK-LABEL: name: test_zext_v2s8_to_v2s32_of_sext_v2s1_to_v2s16
234     ; CHECK: liveins: $vgpr0_vgpr1, $vgpr2_vgpr3
235     ; CHECK-NEXT: {{  $}}
236     ; CHECK-NEXT: [[COPY:%[0-9]+]]:_(<2 x s32>) = COPY $vgpr0_vgpr1
237     ; CHECK-NEXT: [[COPY1:%[0-9]+]]:_(<2 x s32>) = COPY $vgpr2_vgpr3
238     ; CHECK-NEXT: [[UV:%[0-9]+]]:_(s32), [[UV1:%[0-9]+]]:_(s32) = G_UNMERGE_VALUES [[COPY]](<2 x s32>)
239     ; CHECK-NEXT: [[UV2:%[0-9]+]]:_(s32), [[UV3:%[0-9]+]]:_(s32) = G_UNMERGE_VALUES [[COPY1]](<2 x s32>)
240     ; CHECK-NEXT: [[ICMP:%[0-9]+]]:_(s1) = G_ICMP intpred(eq), [[UV]](s32), [[UV2]]
241     ; CHECK-NEXT: [[ICMP1:%[0-9]+]]:_(s1) = G_ICMP intpred(eq), [[UV1]](s32), [[UV3]]
242     ; CHECK-NEXT: [[ANYEXT:%[0-9]+]]:_(s32) = G_ANYEXT [[ICMP]](s1)
243     ; CHECK-NEXT: [[ANYEXT1:%[0-9]+]]:_(s32) = G_ANYEXT [[ICMP1]](s1)
244     ; CHECK-NEXT: [[C:%[0-9]+]]:_(s32) = G_CONSTANT i32 65535
245     ; CHECK-NEXT: [[BUILD_VECTOR:%[0-9]+]]:_(<2 x s32>) = G_BUILD_VECTOR [[C]](s32), [[C]](s32)
246     ; CHECK-NEXT: [[SEXT_INREG:%[0-9]+]]:_(s32) = G_SEXT_INREG [[ANYEXT]], 1
247     ; CHECK-NEXT: [[SEXT_INREG1:%[0-9]+]]:_(s32) = G_SEXT_INREG [[ANYEXT1]], 1
248     ; CHECK-NEXT: [[BUILD_VECTOR1:%[0-9]+]]:_(<2 x s32>) = G_BUILD_VECTOR [[SEXT_INREG]](s32), [[SEXT_INREG1]](s32)
249     ; CHECK-NEXT: [[AND:%[0-9]+]]:_(<2 x s32>) = G_AND [[BUILD_VECTOR1]], [[BUILD_VECTOR]]
250     ; CHECK-NEXT: $vgpr0_vgpr1 = COPY [[AND]](<2 x s32>)
251     %0:_(<2 x s32>) = COPY $vgpr0_vgpr1
252     %1:_(<2 x s32>) = COPY $vgpr2_vgpr3
253     %2:_(<2 x s1>) = G_ICMP intpred(eq), %0, %1
254     %3:_(<2 x s16>) = G_SEXT %2
255     %4:_(<2 x s32>) = G_ZEXT %3
256     $vgpr0_vgpr1 = COPY %4
260 name: test_zext_v2s8_to_v2s32_of_sext_v2s8_to_v2s16
261 body: |
262   bb.0:
263     liveins: $vgpr0_vgpr1
265     ; CHECK-LABEL: name: test_zext_v2s8_to_v2s32_of_sext_v2s8_to_v2s16
266     ; CHECK: liveins: $vgpr0_vgpr1
267     ; CHECK-NEXT: {{  $}}
268     ; CHECK-NEXT: [[COPY:%[0-9]+]]:_(p1) = COPY $vgpr0_vgpr1
269     ; CHECK-NEXT: [[LOAD:%[0-9]+]]:_(s32) = G_LOAD [[COPY]](p1) :: (load (s16), addrspace 1)
270     ; CHECK-NEXT: [[C:%[0-9]+]]:_(s32) = G_CONSTANT i32 8
271     ; CHECK-NEXT: [[LSHR:%[0-9]+]]:_(s32) = G_LSHR [[LOAD]], [[C]](s32)
272     ; CHECK-NEXT: [[C1:%[0-9]+]]:_(s32) = G_CONSTANT i32 65535
273     ; CHECK-NEXT: [[BUILD_VECTOR:%[0-9]+]]:_(<2 x s32>) = G_BUILD_VECTOR [[C1]](s32), [[C1]](s32)
274     ; CHECK-NEXT: [[SEXT_INREG:%[0-9]+]]:_(s32) = G_SEXT_INREG [[LOAD]], 8
275     ; CHECK-NEXT: [[SEXT_INREG1:%[0-9]+]]:_(s32) = G_SEXT_INREG [[LSHR]], 8
276     ; CHECK-NEXT: [[BUILD_VECTOR1:%[0-9]+]]:_(<2 x s32>) = G_BUILD_VECTOR [[SEXT_INREG]](s32), [[SEXT_INREG1]](s32)
277     ; CHECK-NEXT: [[AND:%[0-9]+]]:_(<2 x s32>) = G_AND [[BUILD_VECTOR1]], [[BUILD_VECTOR]]
278     ; CHECK-NEXT: $vgpr0_vgpr1 = COPY [[AND]](<2 x s32>)
279     %0:_(p1) = COPY $vgpr0_vgpr1
280     %1:_(<2 x s8>) = G_LOAD %0 :: (load (<2 x s8>), addrspace 1)
281     %2:_(<2 x s16>) = G_SEXT %1
282     %3:_(<2 x s32>) = G_ZEXT %2
283     $vgpr0_vgpr1 = COPY %3