[AArch64][NFC] NFC for const vector as Instruction operand (#116790)
[llvm-project.git] / llvm / test / Transforms / InstCombine / bswap-fold.ll
blobf7268ec9df090526c7ab61081008b9e5f421ccb6
1 ; NOTE: Assertions have been autogenerated by utils/update_test_checks.py
2 ; RUN: opt < %s -passes=instcombine -S | FileCheck %s
4 ; rdar://5992453
5 ; A & 255
6 define i32 @test4(i32 %a) {
7 ; CHECK-LABEL: @test4(
8 ; CHECK-NEXT:    [[T2:%.*]] = and i32 [[A:%.*]], 255
9 ; CHECK-NEXT:    ret i32 [[T2]]
11   %t2 = call i32 @llvm.bswap.i32( i32 %a )
12   %t4 = lshr i32 %t2, 24
13   ret i32 %t4
16 ; a >> 24
17 define i32 @test6(i32 %a) {
18 ; CHECK-LABEL: @test6(
19 ; CHECK-NEXT:    [[T2:%.*]] = lshr i32 [[A:%.*]], 24
20 ; CHECK-NEXT:    ret i32 [[T2]]
22   %t2 = call i32 @llvm.bswap.i32( i32 %a )
23   %t4 = and i32 %t2, 255
24   ret i32 %t4
27 define i32 @lshr8_i32(i32 %x) {
28 ; CHECK-LABEL: @lshr8_i32(
29 ; CHECK-NEXT:    [[TMP1:%.*]] = call i32 @llvm.bswap.i32(i32 [[X:%.*]])
30 ; CHECK-NEXT:    [[R:%.*]] = shl i32 [[TMP1]], 8
31 ; CHECK-NEXT:    ret i32 [[R]]
33   %s = lshr i32 %x, 8
34   %r = call i32 @llvm.bswap.i32(i32 %s)
35   ret i32 %r
38 define <2 x i32> @lshr16_v2i32(<2 x i32> %x) {
39 ; CHECK-LABEL: @lshr16_v2i32(
40 ; CHECK-NEXT:    [[TMP1:%.*]] = call <2 x i32> @llvm.bswap.v2i32(<2 x i32> [[X:%.*]])
41 ; CHECK-NEXT:    [[R:%.*]] = shl <2 x i32> [[TMP1]], splat (i32 16)
42 ; CHECK-NEXT:    ret <2 x i32> [[R]]
44   %s = lshr <2 x i32> %x, <i32 16, i32 16>
45   %r = call <2 x i32> @llvm.bswap.v2i32(<2 x i32> %s)
46   ret <2 x i32> %r
49 define i32 @lshr24_i32(i32 %x) {
50 ; CHECK-LABEL: @lshr24_i32(
51 ; CHECK-NEXT:    [[R:%.*]] = and i32 [[X:%.*]], -16777216
52 ; CHECK-NEXT:    ret i32 [[R]]
54   %s = lshr i32 %x, 24
55   %r = call i32 @llvm.bswap.i32(i32 %s)
56   ret i32 %r
59 ; negative test - need shift-by-8-bit-multiple
61 define i32 @lshr12_i32(i32 %x) {
62 ; CHECK-LABEL: @lshr12_i32(
63 ; CHECK-NEXT:    [[S:%.*]] = lshr i32 [[X:%.*]], 12
64 ; CHECK-NEXT:    [[R:%.*]] = call i32 @llvm.bswap.i32(i32 [[S]])
65 ; CHECK-NEXT:    ret i32 [[R]]
67   %s = lshr i32 %x, 12
68   %r = call i32 @llvm.bswap.i32(i32 %s)
69   ret i32 %r
72 ; negative test - uses
74 define i32 @lshr8_i32_use(i32 %x, ptr %p) {
75 ; CHECK-LABEL: @lshr8_i32_use(
76 ; CHECK-NEXT:    [[S:%.*]] = lshr i32 [[X:%.*]], 12
77 ; CHECK-NEXT:    store i32 [[S]], ptr [[P:%.*]], align 4
78 ; CHECK-NEXT:    [[R:%.*]] = call i32 @llvm.bswap.i32(i32 [[S]])
79 ; CHECK-NEXT:    ret i32 [[R]]
81   %s = lshr i32 %x, 12
82   store i32 %s, ptr %p
83   %r = call i32 @llvm.bswap.i32(i32 %s)
84   ret i32 %r
87 define i64 @shl16_i64(i64 %x) {
88 ; CHECK-LABEL: @shl16_i64(
89 ; CHECK-NEXT:    [[TMP1:%.*]] = call i64 @llvm.bswap.i64(i64 [[X:%.*]])
90 ; CHECK-NEXT:    [[R:%.*]] = lshr i64 [[TMP1]], 16
91 ; CHECK-NEXT:    ret i64 [[R]]
93   %s = shl i64 %x, 16
94   %r = call i64 @llvm.bswap.i64(i64 %s)
95   ret i64 %r
98 ; poison vector element propagates
100 define <2 x i64> @shl16_v2i64(<2 x i64> %x) {
101 ; CHECK-LABEL: @shl16_v2i64(
102 ; CHECK-NEXT:    [[TMP1:%.*]] = call <2 x i64> @llvm.bswap.v2i64(<2 x i64> [[X:%.*]])
103 ; CHECK-NEXT:    [[R:%.*]] = lshr <2 x i64> [[TMP1]], <i64 poison, i64 24>
104 ; CHECK-NEXT:    ret <2 x i64> [[R]]
106   %s = shl <2 x i64> %x, <i64 poison, i64 24>
107   %r = call <2 x i64> @llvm.bswap.v2i64(<2 x i64> %s)
108   ret <2 x i64> %r
111 define i64 @shl56_i64(i64 %x) {
112 ; CHECK-LABEL: @shl56_i64(
113 ; CHECK-NEXT:    [[R:%.*]] = and i64 [[X:%.*]], 255
114 ; CHECK-NEXT:    ret i64 [[R]]
116   %s = shl i64 %x, 56
117   %r = call i64 @llvm.bswap.i64(i64 %s)
118   ret i64 %r
121 ; negative test - need shift-by-8-bit-multiple
123 define i64 @shl42_i64(i64 %x) {
124 ; CHECK-LABEL: @shl42_i64(
125 ; CHECK-NEXT:    [[S:%.*]] = shl i64 [[X:%.*]], 42
126 ; CHECK-NEXT:    [[R:%.*]] = call i64 @llvm.bswap.i64(i64 [[S]])
127 ; CHECK-NEXT:    ret i64 [[R]]
129   %s = shl i64 %x, 42
130   %r = call i64 @llvm.bswap.i64(i64 %s)
131   ret i64 %r
134 ; negative test - uses
136 define i32 @shl8_i32_use(i32 %x, ptr %p) {
137 ; CHECK-LABEL: @shl8_i32_use(
138 ; CHECK-NEXT:    [[S:%.*]] = shl i32 [[X:%.*]], 8
139 ; CHECK-NEXT:    store i32 [[S]], ptr [[P:%.*]], align 4
140 ; CHECK-NEXT:    [[R:%.*]] = call i32 @llvm.bswap.i32(i32 [[S]])
141 ; CHECK-NEXT:    ret i32 [[R]]
143   %s = shl i32 %x, 8
144   store i32 %s, ptr %p
145   %r = call i32 @llvm.bswap.i32(i32 %s)
146   ret i32 %r
149 ; swaps cancel
151 define i64 @swap_shl16_i64(i64 %x) {
152 ; CHECK-LABEL: @swap_shl16_i64(
153 ; CHECK-NEXT:    [[R:%.*]] = lshr i64 [[X:%.*]], 16
154 ; CHECK-NEXT:    ret i64 [[R]]
156   %b = call i64 @llvm.bswap.i64(i64 %x)
157   %s = shl i64 %b, 16
158   %r = call i64 @llvm.bswap.i64(i64 %s)
159   ret i64 %r
162 ; canonicalize shift after bswap if shift amount is multiple of 8-bits
163 ; (including non-uniform vector elements)
165 define <2 x i32> @variable_lshr_v2i32(<2 x i32> %x, <2 x i32> %n) {
166 ; CHECK-LABEL: @variable_lshr_v2i32(
167 ; CHECK-NEXT:    [[SHAMT:%.*]] = and <2 x i32> [[N:%.*]], <i32 -8, i32 -16>
168 ; CHECK-NEXT:    [[TMP1:%.*]] = call <2 x i32> @llvm.bswap.v2i32(<2 x i32> [[X:%.*]])
169 ; CHECK-NEXT:    [[R:%.*]] = lshr <2 x i32> [[TMP1]], [[SHAMT]]
170 ; CHECK-NEXT:    ret <2 x i32> [[R]]
172   %shamt = and <2 x i32> %n, <i32 -8, i32 -16>
173   %s = shl <2 x i32> %x, %shamt
174   %r = call <2 x i32> @llvm.bswap.v2i32(<2 x i32> %s)
175   ret <2 x i32> %r
178 ; PR55327 - swaps cancel
180 define i64 @variable_shl_i64(i64 %x, i64 %n) {
181 ; CHECK-LABEL: @variable_shl_i64(
182 ; CHECK-NEXT:    [[N8:%.*]] = shl i64 [[N:%.*]], 3
183 ; CHECK-NEXT:    [[SHAMT:%.*]] = and i64 [[N8]], 56
184 ; CHECK-NEXT:    [[R:%.*]] = lshr i64 [[X:%.*]], [[SHAMT]]
185 ; CHECK-NEXT:    ret i64 [[R]]
187   %b = tail call i64 @llvm.bswap.i64(i64 %x)
188   %n8 = shl i64 %n, 3
189   %shamt = and i64 %n8, 56
190   %s = shl i64 %b, %shamt
191   %r = tail call i64 @llvm.bswap.i64(i64 %s)
192   ret i64 %r
195 ; negative test - must have multiple of 8-bit shift amount
197 define i64 @variable_shl_not_masked_enough_i64(i64 %x, i64 %n) {
198 ; CHECK-LABEL: @variable_shl_not_masked_enough_i64(
199 ; CHECK-NEXT:    [[SHAMT:%.*]] = and i64 [[N:%.*]], -4
200 ; CHECK-NEXT:    [[S:%.*]] = shl i64 [[X:%.*]], [[SHAMT]]
201 ; CHECK-NEXT:    [[R:%.*]] = call i64 @llvm.bswap.i64(i64 [[S]])
202 ; CHECK-NEXT:    ret i64 [[R]]
204   %shamt = and i64 %n, -4
205   %s = shl i64 %x, %shamt
206   %r = call i64 @llvm.bswap.i64(i64 %s)
207   ret i64 %r
210 ; PR5284
211 define i16 @test7(i32 %A) {
212 ; CHECK-LABEL: @test7(
213 ; CHECK-NEXT:    [[TMP1:%.*]] = lshr i32 [[A:%.*]], 16
214 ; CHECK-NEXT:    [[D:%.*]] = trunc nuw i32 [[TMP1]] to i16
215 ; CHECK-NEXT:    ret i16 [[D]]
217   %B = tail call i32 @llvm.bswap.i32(i32 %A) nounwind
218   %C = trunc i32 %B to i16
219   %D = tail call i16 @llvm.bswap.i16(i16 %C) nounwind
220   ret i16 %D
223 define <2 x i16> @test7_vector(<2 x i32> %A) {
224 ; CHECK-LABEL: @test7_vector(
225 ; CHECK-NEXT:    [[TMP1:%.*]] = lshr <2 x i32> [[A:%.*]], splat (i32 16)
226 ; CHECK-NEXT:    [[D:%.*]] = trunc nuw <2 x i32> [[TMP1]] to <2 x i16>
227 ; CHECK-NEXT:    ret <2 x i16> [[D]]
229   %B = tail call <2 x i32> @llvm.bswap.v2i32(<2 x i32> %A) nounwind
230   %C = trunc <2 x i32> %B to <2 x i16>
231   %D = tail call <2 x i16> @llvm.bswap.v2i16(<2 x i16> %C) nounwind
232   ret <2 x i16> %D
235 define i16 @test8(i64 %A) {
236 ; CHECK-LABEL: @test8(
237 ; CHECK-NEXT:    [[TMP1:%.*]] = lshr i64 [[A:%.*]], 48
238 ; CHECK-NEXT:    [[D:%.*]] = trunc nuw i64 [[TMP1]] to i16
239 ; CHECK-NEXT:    ret i16 [[D]]
241   %B = tail call i64 @llvm.bswap.i64(i64 %A) nounwind
242   %C = trunc i64 %B to i16
243   %D = tail call i16 @llvm.bswap.i16(i16 %C) nounwind
244   ret i16 %D
247 define <2 x i16> @test8_vector(<2 x i64> %A) {
248 ; CHECK-LABEL: @test8_vector(
249 ; CHECK-NEXT:    [[TMP1:%.*]] = lshr <2 x i64> [[A:%.*]], splat (i64 48)
250 ; CHECK-NEXT:    [[D:%.*]] = trunc nuw <2 x i64> [[TMP1]] to <2 x i16>
251 ; CHECK-NEXT:    ret <2 x i16> [[D]]
253   %B = tail call <2 x i64> @llvm.bswap.v2i64(<2 x i64> %A) nounwind
254   %C = trunc <2 x i64> %B to <2 x i16>
255   %D = tail call <2 x i16> @llvm.bswap.v2i16(<2 x i16> %C) nounwind
256   ret <2 x i16> %D
259 ; Misc: Fold bswap(undef) to undef.
260 define i64 @foo() {
261 ; CHECK-LABEL: @foo(
262 ; CHECK-NEXT:    ret i64 undef
264   %a = call i64 @llvm.bswap.i64(i64 undef)
265   ret i64 %a
268 ; PR15782
269 ; Fold: OP( BSWAP(x), BSWAP(y) ) -> BSWAP( OP(x, y) )
270 ; Fold: OP( BSWAP(x), CONSTANT ) -> BSWAP( OP(x, BSWAP(CONSTANT) ) )
271 define i16 @bs_and16i(i16 %a, i16 %b) #0 {
272 ; CHECK-LABEL: @bs_and16i(
273 ; CHECK-NEXT:    [[TMP1:%.*]] = and i16 [[A:%.*]], 4391
274 ; CHECK-NEXT:    [[TMP2:%.*]] = call i16 @llvm.bswap.i16(i16 [[TMP1]])
275 ; CHECK-NEXT:    ret i16 [[TMP2]]
277   %1 = tail call i16 @llvm.bswap.i16(i16 %a)
278   %2 = and i16 %1, 10001
279   ret i16 %2
282 define i16 @bs_and16(i16 %a, i16 %b) #0 {
283 ; CHECK-LABEL: @bs_and16(
284 ; CHECK-NEXT:    [[TMP1:%.*]] = and i16 [[A:%.*]], [[B:%.*]]
285 ; CHECK-NEXT:    [[T3:%.*]] = call i16 @llvm.bswap.i16(i16 [[TMP1]])
286 ; CHECK-NEXT:    ret i16 [[T3]]
288   %t1 = tail call i16 @llvm.bswap.i16(i16 %a)
289   %t2 = tail call i16 @llvm.bswap.i16(i16 %b)
290   %t3 = and i16 %t1, %t2
291   ret i16 %t3
294 define i16 @bs_or16(i16 %a, i16 %b) #0 {
295 ; CHECK-LABEL: @bs_or16(
296 ; CHECK-NEXT:    [[TMP1:%.*]] = or i16 [[A:%.*]], [[B:%.*]]
297 ; CHECK-NEXT:    [[T3:%.*]] = call i16 @llvm.bswap.i16(i16 [[TMP1]])
298 ; CHECK-NEXT:    ret i16 [[T3]]
300   %t1 = tail call i16 @llvm.bswap.i16(i16 %a)
301   %t2 = tail call i16 @llvm.bswap.i16(i16 %b)
302   %t3 = or i16 %t1, %t2
303   ret i16 %t3
306 define i16 @bs_xor16(i16 %a, i16 %b) #0 {
307 ; CHECK-LABEL: @bs_xor16(
308 ; CHECK-NEXT:    [[TMP1:%.*]] = xor i16 [[A:%.*]], [[B:%.*]]
309 ; CHECK-NEXT:    [[T3:%.*]] = call i16 @llvm.bswap.i16(i16 [[TMP1]])
310 ; CHECK-NEXT:    ret i16 [[T3]]
312   %t1 = tail call i16 @llvm.bswap.i16(i16 %a)
313   %t2 = tail call i16 @llvm.bswap.i16(i16 %b)
314   %t3 = xor i16 %t1, %t2
315   ret i16 %t3
318 define i32 @bs_and32i(i32 %a, i32 %b) #0 {
319 ; CHECK-LABEL: @bs_and32i(
320 ; CHECK-NEXT:    [[TMP1:%.*]] = and i32 [[A:%.*]], -1585053440
321 ; CHECK-NEXT:    [[T2:%.*]] = call i32 @llvm.bswap.i32(i32 [[TMP1]])
322 ; CHECK-NEXT:    ret i32 [[T2]]
324   %t1 = tail call i32 @llvm.bswap.i32(i32 %a)
325   %t2 = and i32 %t1, 100001
326   ret i32 %t2
329 define i32 @bs_and32(i32 %a, i32 %b) #0 {
330 ; CHECK-LABEL: @bs_and32(
331 ; CHECK-NEXT:    [[TMP1:%.*]] = and i32 [[A:%.*]], [[B:%.*]]
332 ; CHECK-NEXT:    [[T3:%.*]] = call i32 @llvm.bswap.i32(i32 [[TMP1]])
333 ; CHECK-NEXT:    ret i32 [[T3]]
335   %t1 = tail call i32 @llvm.bswap.i32(i32 %a)
336   %t2 = tail call i32 @llvm.bswap.i32(i32 %b)
337   %t3 = and i32 %t1, %t2
338   ret i32 %t3
341 define i32 @bs_or32(i32 %a, i32 %b) #0 {
342 ; CHECK-LABEL: @bs_or32(
343 ; CHECK-NEXT:    [[TMP1:%.*]] = or i32 [[A:%.*]], [[B:%.*]]
344 ; CHECK-NEXT:    [[T3:%.*]] = call i32 @llvm.bswap.i32(i32 [[TMP1]])
345 ; CHECK-NEXT:    ret i32 [[T3]]
347   %t1 = tail call i32 @llvm.bswap.i32(i32 %a)
348   %t2 = tail call i32 @llvm.bswap.i32(i32 %b)
349   %t3 = or i32 %t1, %t2
350   ret i32 %t3
353 define i32 @bs_xor32(i32 %a, i32 %b) #0 {
354 ; CHECK-LABEL: @bs_xor32(
355 ; CHECK-NEXT:    [[TMP1:%.*]] = xor i32 [[A:%.*]], [[B:%.*]]
356 ; CHECK-NEXT:    [[T3:%.*]] = call i32 @llvm.bswap.i32(i32 [[TMP1]])
357 ; CHECK-NEXT:    ret i32 [[T3]]
359   %t1 = tail call i32 @llvm.bswap.i32(i32 %a)
360   %t2 = tail call i32 @llvm.bswap.i32(i32 %b)
361   %t3 = xor i32 %t1, %t2
362   ret i32 %t3
365 define i64 @bs_and64i(i64 %a, i64 %b) #0 {
366 ; CHECK-LABEL: @bs_and64i(
367 ; CHECK-NEXT:    [[TMP1:%.*]] = and i64 [[A:%.*]], 129085117527228416
368 ; CHECK-NEXT:    [[T2:%.*]] = call i64 @llvm.bswap.i64(i64 [[TMP1]])
369 ; CHECK-NEXT:    ret i64 [[T2]]
371   %t1 = tail call i64 @llvm.bswap.i64(i64 %a)
372   %t2 = and i64 %t1, 1000000001
373   ret i64 %t2
376 define i64 @bs_and64(i64 %a, i64 %b) #0 {
377 ; CHECK-LABEL: @bs_and64(
378 ; CHECK-NEXT:    [[TMP1:%.*]] = and i64 [[A:%.*]], [[B:%.*]]
379 ; CHECK-NEXT:    [[T3:%.*]] = call i64 @llvm.bswap.i64(i64 [[TMP1]])
380 ; CHECK-NEXT:    ret i64 [[T3]]
382   %t1 = tail call i64 @llvm.bswap.i64(i64 %a)
383   %t2 = tail call i64 @llvm.bswap.i64(i64 %b)
384   %t3 = and i64 %t1, %t2
385   ret i64 %t3
388 define i64 @bs_or64(i64 %a, i64 %b) #0 {
389 ; CHECK-LABEL: @bs_or64(
390 ; CHECK-NEXT:    [[TMP1:%.*]] = or i64 [[A:%.*]], [[B:%.*]]
391 ; CHECK-NEXT:    [[T3:%.*]] = call i64 @llvm.bswap.i64(i64 [[TMP1]])
392 ; CHECK-NEXT:    ret i64 [[T3]]
394   %t1 = tail call i64 @llvm.bswap.i64(i64 %a)
395   %t2 = tail call i64 @llvm.bswap.i64(i64 %b)
396   %t3 = or i64 %t1, %t2
397   ret i64 %t3
400 define i64 @bs_xor64(i64 %a, i64 %b) #0 {
401 ; CHECK-LABEL: @bs_xor64(
402 ; CHECK-NEXT:    [[TMP1:%.*]] = xor i64 [[A:%.*]], [[B:%.*]]
403 ; CHECK-NEXT:    [[T3:%.*]] = call i64 @llvm.bswap.i64(i64 [[TMP1]])
404 ; CHECK-NEXT:    ret i64 [[T3]]
406   %t1 = tail call i64 @llvm.bswap.i64(i64 %a)
407   %t2 = tail call i64 @llvm.bswap.i64(i64 %b)
408   %t3 = xor i64 %t1, %t2
409   ret i64 %t3
412 define <2 x i32> @bs_and32vec(<2 x i32> %a, <2 x i32> %b) #0 {
413 ; CHECK-LABEL: @bs_and32vec(
414 ; CHECK-NEXT:    [[TMP1:%.*]] = and <2 x i32> [[A:%.*]], [[B:%.*]]
415 ; CHECK-NEXT:    [[T3:%.*]] = call <2 x i32> @llvm.bswap.v2i32(<2 x i32> [[TMP1]])
416 ; CHECK-NEXT:    ret <2 x i32> [[T3]]
418   %t1 = tail call <2 x i32> @llvm.bswap.v2i32(<2 x i32> %a)
419   %t2 = tail call <2 x i32> @llvm.bswap.v2i32(<2 x i32> %b)
420   %t3 = and <2 x i32> %t1, %t2
421   ret <2 x i32> %t3
424 define <2 x i32> @bs_or32vec(<2 x i32> %a, <2 x i32> %b) #0 {
425 ; CHECK-LABEL: @bs_or32vec(
426 ; CHECK-NEXT:    [[TMP1:%.*]] = or <2 x i32> [[A:%.*]], [[B:%.*]]
427 ; CHECK-NEXT:    [[T3:%.*]] = call <2 x i32> @llvm.bswap.v2i32(<2 x i32> [[TMP1]])
428 ; CHECK-NEXT:    ret <2 x i32> [[T3]]
430   %t1 = tail call <2 x i32> @llvm.bswap.v2i32(<2 x i32> %a)
431   %t2 = tail call <2 x i32> @llvm.bswap.v2i32(<2 x i32> %b)
432   %t3 = or <2 x i32> %t1, %t2
433   ret <2 x i32> %t3
436 define <2 x i32> @bs_xor32vec(<2 x i32> %a, <2 x i32> %b) #0 {
437 ; CHECK-LABEL: @bs_xor32vec(
438 ; CHECK-NEXT:    [[TMP1:%.*]] = xor <2 x i32> [[A:%.*]], [[B:%.*]]
439 ; CHECK-NEXT:    [[T3:%.*]] = call <2 x i32> @llvm.bswap.v2i32(<2 x i32> [[TMP1]])
440 ; CHECK-NEXT:    ret <2 x i32> [[T3]]
442   %t1 = tail call <2 x i32> @llvm.bswap.v2i32(<2 x i32> %a)
443   %t2 = tail call <2 x i32> @llvm.bswap.v2i32(<2 x i32> %b)
444   %t3 = xor <2 x i32> %t1, %t2
445   ret <2 x i32> %t3
448 define <2 x i32> @bs_and32ivec(<2 x i32> %a, <2 x i32> %b) #0 {
449 ; CHECK-LABEL: @bs_and32ivec(
450 ; CHECK-NEXT:    [[TMP1:%.*]] = and <2 x i32> [[A:%.*]], splat (i32 -1585053440)
451 ; CHECK-NEXT:    [[T2:%.*]] = call <2 x i32> @llvm.bswap.v2i32(<2 x i32> [[TMP1]])
452 ; CHECK-NEXT:    ret <2 x i32> [[T2]]
454   %t1 = tail call <2 x i32> @llvm.bswap.v2i32(<2 x i32> %a)
455   %t2 = and <2 x i32> %t1, <i32 100001, i32 100001>
456   ret <2 x i32> %t2
459 define <2 x i32> @bs_or32ivec(<2 x i32> %a, <2 x i32> %b) #0 {
460 ; CHECK-LABEL: @bs_or32ivec(
461 ; CHECK-NEXT:    [[TMP1:%.*]] = or <2 x i32> [[A:%.*]], splat (i32 -1585053440)
462 ; CHECK-NEXT:    [[T2:%.*]] = call <2 x i32> @llvm.bswap.v2i32(<2 x i32> [[TMP1]])
463 ; CHECK-NEXT:    ret <2 x i32> [[T2]]
465   %t1 = tail call <2 x i32> @llvm.bswap.v2i32(<2 x i32> %a)
466   %t2 = or <2 x i32> %t1, <i32 100001, i32 100001>
467   ret <2 x i32> %t2
470 define <2 x i32> @bs_xor32ivec(<2 x i32> %a, <2 x i32> %b) #0 {
471 ; CHECK-LABEL: @bs_xor32ivec(
472 ; CHECK-NEXT:    [[TMP1:%.*]] = xor <2 x i32> [[A:%.*]], splat (i32 -1585053440)
473 ; CHECK-NEXT:    [[T2:%.*]] = call <2 x i32> @llvm.bswap.v2i32(<2 x i32> [[TMP1]])
474 ; CHECK-NEXT:    ret <2 x i32> [[T2]]
476   %t1 = tail call <2 x i32> @llvm.bswap.v2i32(<2 x i32> %a)
477   %t2 = xor <2 x i32> %t1, <i32 100001, i32 100001>
478   ret <2 x i32> %t2
481 define i64 @bs_and64_multiuse1(i64 %a, i64 %b) #0 {
482 ; CHECK-LABEL: @bs_and64_multiuse1(
483 ; CHECK-NEXT:    [[T1:%.*]] = tail call i64 @llvm.bswap.i64(i64 [[A:%.*]])
484 ; CHECK-NEXT:    [[T2:%.*]] = tail call i64 @llvm.bswap.i64(i64 [[B:%.*]])
485 ; CHECK-NEXT:    [[T3:%.*]] = and i64 [[T1]], [[T2]]
486 ; CHECK-NEXT:    [[T4:%.*]] = mul i64 [[T3]], [[T1]]
487 ; CHECK-NEXT:    [[T5:%.*]] = mul i64 [[T4]], [[T2]]
488 ; CHECK-NEXT:    ret i64 [[T5]]
490   %t1 = tail call i64 @llvm.bswap.i64(i64 %a)
491   %t2 = tail call i64 @llvm.bswap.i64(i64 %b)
492   %t3 = and i64 %t1, %t2
493   %t4 = mul i64 %t3, %t1 ; to increase use count of the bswaps
494   %t5 = mul i64 %t4, %t2 ; to increase use count of the bswaps
495   ret i64 %t5
498 define i64 @bs_and64_multiuse2(i64 %a, i64 %b) #0 {
499 ; CHECK-LABEL: @bs_and64_multiuse2(
500 ; CHECK-NEXT:    [[T1:%.*]] = tail call i64 @llvm.bswap.i64(i64 [[A:%.*]])
501 ; CHECK-NEXT:    [[T2:%.*]] = tail call i64 @llvm.bswap.i64(i64 [[B:%.*]])
502 ; CHECK-NEXT:    [[T3:%.*]] = and i64 [[T1]], [[T2]]
503 ; CHECK-NEXT:    [[T4:%.*]] = mul i64 [[T3]], [[T1]]
504 ; CHECK-NEXT:    ret i64 [[T4]]
506   %t1 = tail call i64 @llvm.bswap.i64(i64 %a)
507   %t2 = tail call i64 @llvm.bswap.i64(i64 %b)
508   %t3 = and i64 %t1, %t2
509   %t4 = mul i64 %t3, %t1 ; to increase use count of the bswaps
510   ret i64 %t4
513 define i64 @bs_and64_multiuse3(i64 %a, i64 %b) #0 {
514 ; CHECK-LABEL: @bs_and64_multiuse3(
515 ; CHECK-NEXT:    [[T1:%.*]] = tail call i64 @llvm.bswap.i64(i64 [[A:%.*]])
516 ; CHECK-NEXT:    [[T2:%.*]] = tail call i64 @llvm.bswap.i64(i64 [[B:%.*]])
517 ; CHECK-NEXT:    [[T3:%.*]] = and i64 [[T1]], [[T2]]
518 ; CHECK-NEXT:    [[T4:%.*]] = mul i64 [[T3]], [[T2]]
519 ; CHECK-NEXT:    ret i64 [[T4]]
521   %t1 = tail call i64 @llvm.bswap.i64(i64 %a)
522   %t2 = tail call i64 @llvm.bswap.i64(i64 %b)
523   %t3 = and i64 %t1, %t2
524   %t4 = mul i64 %t3, %t2 ; to increase use count of the bswaps
525   ret i64 %t4
528 define i64 @bs_and64i_multiuse(i64 %a, i64 %b) #0 {
529 ; CHECK-LABEL: @bs_and64i_multiuse(
530 ; CHECK-NEXT:    [[T1:%.*]] = tail call i64 @llvm.bswap.i64(i64 [[A:%.*]])
531 ; CHECK-NEXT:    [[T2:%.*]] = and i64 [[T1]], 1000000001
532 ; CHECK-NEXT:    [[T3:%.*]] = mul i64 [[T2]], [[T1]]
533 ; CHECK-NEXT:    ret i64 [[T3]]
535   %t1 = tail call i64 @llvm.bswap.i64(i64 %a)
536   %t2 = and i64 %t1, 1000000001
537   %t3 = mul i64 %t2, %t1 ; to increase use count of the bswap
538   ret i64 %t3
542 ; Issue#62236
543 ; Fold: BSWAP( OP( BSWAP(x), y ) ) -> OP( x, BSWAP(y) )
544 define i16 @bs_and_lhs_bs16(i16 %a, i16 %b) #0 {
545 ; CHECK-LABEL: @bs_and_lhs_bs16(
546 ; CHECK-NEXT:    [[TMP1:%.*]] = call i16 @llvm.bswap.i16(i16 [[B:%.*]])
547 ; CHECK-NEXT:    [[TMP2:%.*]] = and i16 [[A:%.*]], [[TMP1]]
548 ; CHECK-NEXT:    ret i16 [[TMP2]]
550   %1 = tail call i16 @llvm.bswap.i16(i16 %a)
551   %2 = and i16 %1, %b
552   %3 = tail call i16 @llvm.bswap.i16(i16 %2)
553   ret i16 %3
556 define i16 @bs_or_lhs_bs16(i16 %a, i16 %b) #0 {
557 ; CHECK-LABEL: @bs_or_lhs_bs16(
558 ; CHECK-NEXT:    [[TMP1:%.*]] = call i16 @llvm.bswap.i16(i16 [[B:%.*]])
559 ; CHECK-NEXT:    [[TMP2:%.*]] = or i16 [[A:%.*]], [[TMP1]]
560 ; CHECK-NEXT:    ret i16 [[TMP2]]
562   %1 = tail call i16 @llvm.bswap.i16(i16 %a)
563   %2 = or i16 %1, %b
564   %3 = tail call i16 @llvm.bswap.i16(i16 %2)
565   ret i16 %3
568 define i16 @bs_xor_lhs_bs16(i16 %a, i16 %b) #0 {
569 ; CHECK-LABEL: @bs_xor_lhs_bs16(
570 ; CHECK-NEXT:    [[TMP1:%.*]] = call i16 @llvm.bswap.i16(i16 [[B:%.*]])
571 ; CHECK-NEXT:    [[TMP2:%.*]] = xor i16 [[A:%.*]], [[TMP1]]
572 ; CHECK-NEXT:    ret i16 [[TMP2]]
574   %1 = tail call i16 @llvm.bswap.i16(i16 %a)
575   %2 = xor i16 %1, %b
576   %3 = tail call i16 @llvm.bswap.i16(i16 %2)
577   ret i16 %3
580 define i16 @bs_and_rhs_bs16(i16 %a, i16 %b) #0 {
581 ; CHECK-LABEL: @bs_and_rhs_bs16(
582 ; CHECK-NEXT:    [[TMP1:%.*]] = call i16 @llvm.bswap.i16(i16 [[A:%.*]])
583 ; CHECK-NEXT:    [[TMP2:%.*]] = and i16 [[TMP1]], [[B:%.*]]
584 ; CHECK-NEXT:    ret i16 [[TMP2]]
586   %1 = tail call i16 @llvm.bswap.i16(i16 %b)
587   %2 = and i16 %a, %1
588   %3 = tail call i16 @llvm.bswap.i16(i16 %2)
589   ret i16 %3
592 define i16 @bs_or_rhs_bs16(i16 %a, i16 %b) #0 {
593 ; CHECK-LABEL: @bs_or_rhs_bs16(
594 ; CHECK-NEXT:    [[TMP1:%.*]] = call i16 @llvm.bswap.i16(i16 [[A:%.*]])
595 ; CHECK-NEXT:    [[TMP2:%.*]] = or i16 [[TMP1]], [[B:%.*]]
596 ; CHECK-NEXT:    ret i16 [[TMP2]]
598   %1 = tail call i16 @llvm.bswap.i16(i16 %b)
599   %2 = or i16 %a, %1
600   %3 = tail call i16 @llvm.bswap.i16(i16 %2)
601   ret i16 %3
604 define i16 @bs_xor_rhs_bs16(i16 %a, i16 %b) #0 {
605 ; CHECK-LABEL: @bs_xor_rhs_bs16(
606 ; CHECK-NEXT:    [[TMP1:%.*]] = call i16 @llvm.bswap.i16(i16 [[A:%.*]])
607 ; CHECK-NEXT:    [[TMP2:%.*]] = xor i16 [[TMP1]], [[B:%.*]]
608 ; CHECK-NEXT:    ret i16 [[TMP2]]
610   %1 = tail call i16 @llvm.bswap.i16(i16 %b)
611   %2 = xor i16 %a, %1
612   %3 = tail call i16 @llvm.bswap.i16(i16 %2)
613   ret i16 %3
616 define i32 @bs_and_rhs_bs32(i32 %a, i32 %b) #0 {
617 ; CHECK-LABEL: @bs_and_rhs_bs32(
618 ; CHECK-NEXT:    [[TMP1:%.*]] = call i32 @llvm.bswap.i32(i32 [[A:%.*]])
619 ; CHECK-NEXT:    [[TMP2:%.*]] = and i32 [[TMP1]], [[B:%.*]]
620 ; CHECK-NEXT:    ret i32 [[TMP2]]
622   %1 = tail call i32 @llvm.bswap.i32(i32 %b)
623   %2 = and i32 %a, %1
624   %3 = tail call i32 @llvm.bswap.i32(i32 %2)
625   ret i32 %3
628 define i32 @bs_or_rhs_bs32(i32 %a, i32 %b) #0 {
629 ; CHECK-LABEL: @bs_or_rhs_bs32(
630 ; CHECK-NEXT:    [[TMP1:%.*]] = call i32 @llvm.bswap.i32(i32 [[A:%.*]])
631 ; CHECK-NEXT:    [[TMP2:%.*]] = or i32 [[TMP1]], [[B:%.*]]
632 ; CHECK-NEXT:    ret i32 [[TMP2]]
634   %1 = tail call i32 @llvm.bswap.i32(i32 %b)
635   %2 = or i32 %a, %1
636   %3 = tail call i32 @llvm.bswap.i32(i32 %2)
637   ret i32 %3
640 define i32 @bs_xor_rhs_bs32(i32 %a, i32 %b) #0 {
641 ; CHECK-LABEL: @bs_xor_rhs_bs32(
642 ; CHECK-NEXT:    [[TMP1:%.*]] = call i32 @llvm.bswap.i32(i32 [[A:%.*]])
643 ; CHECK-NEXT:    [[TMP2:%.*]] = xor i32 [[TMP1]], [[B:%.*]]
644 ; CHECK-NEXT:    ret i32 [[TMP2]]
646   %1 = tail call i32 @llvm.bswap.i32(i32 %b)
647   %2 = xor i32 %a, %1
648   %3 = tail call i32 @llvm.bswap.i32(i32 %2)
649   ret i32 %3
652 define i64 @bs_and_rhs_bs64(i64 %a, i64 %b) #0 {
653 ; CHECK-LABEL: @bs_and_rhs_bs64(
654 ; CHECK-NEXT:    [[TMP1:%.*]] = call i64 @llvm.bswap.i64(i64 [[A:%.*]])
655 ; CHECK-NEXT:    [[TMP2:%.*]] = and i64 [[TMP1]], [[B:%.*]]
656 ; CHECK-NEXT:    ret i64 [[TMP2]]
658   %1 = tail call i64 @llvm.bswap.i64(i64 %b)
659   %2 = and i64 %a, %1
660   %3 = tail call i64 @llvm.bswap.i64(i64 %2)
661   ret i64 %3
664 define i64 @bs_or_rhs_bs64(i64 %a, i64 %b) #0 {
665 ; CHECK-LABEL: @bs_or_rhs_bs64(
666 ; CHECK-NEXT:    [[TMP1:%.*]] = call i64 @llvm.bswap.i64(i64 [[A:%.*]])
667 ; CHECK-NEXT:    [[TMP2:%.*]] = or i64 [[TMP1]], [[B:%.*]]
668 ; CHECK-NEXT:    ret i64 [[TMP2]]
670   %1 = tail call i64 @llvm.bswap.i64(i64 %b)
671   %2 = or i64 %a, %1
672   %3 = tail call i64 @llvm.bswap.i64(i64 %2)
673   ret i64 %3
676 define i64 @bs_xor_rhs_bs64(i64 %a, i64 %b) #0 {
677 ; CHECK-LABEL: @bs_xor_rhs_bs64(
678 ; CHECK-NEXT:    [[TMP1:%.*]] = call i64 @llvm.bswap.i64(i64 [[A:%.*]])
679 ; CHECK-NEXT:    [[TMP2:%.*]] = xor i64 [[TMP1]], [[B:%.*]]
680 ; CHECK-NEXT:    ret i64 [[TMP2]]
682   %1 = tail call i64 @llvm.bswap.i64(i64 %b)
683   %2 = xor i64 %a, %1
684   %3 = tail call i64 @llvm.bswap.i64(i64 %2)
685   ret i64 %3
688 define <2 x i32> @bs_and_rhs_i32vec(<2 x i32> %a, <2 x i32> %b) #0 {
689 ; CHECK-LABEL: @bs_and_rhs_i32vec(
690 ; CHECK-NEXT:    [[TMP1:%.*]] = call <2 x i32> @llvm.bswap.v2i32(<2 x i32> [[A:%.*]])
691 ; CHECK-NEXT:    [[TMP2:%.*]] = and <2 x i32> [[TMP1]], [[B:%.*]]
692 ; CHECK-NEXT:    ret <2 x i32> [[TMP2]]
694   %1 = tail call <2 x i32> @llvm.bswap.v2i32(<2 x i32> %b)
695   %2 = and <2 x i32> %a, %1
696   %3 = tail call <2 x i32> @llvm.bswap.v2i32(<2 x i32> %2)
697   ret <2 x i32> %3
700 define <2 x i32> @bs_or_rhs_i32vec(<2 x i32> %a, <2 x i32> %b) #0 {
701 ; CHECK-LABEL: @bs_or_rhs_i32vec(
702 ; CHECK-NEXT:    [[TMP1:%.*]] = call <2 x i32> @llvm.bswap.v2i32(<2 x i32> [[A:%.*]])
703 ; CHECK-NEXT:    [[TMP2:%.*]] = or <2 x i32> [[TMP1]], [[B:%.*]]
704 ; CHECK-NEXT:    ret <2 x i32> [[TMP2]]
706   %1 = tail call <2 x i32> @llvm.bswap.v2i32(<2 x i32> %b)
707   %2 = or <2 x i32> %a, %1
708   %3 = tail call <2 x i32> @llvm.bswap.v2i32(<2 x i32> %2)
709   ret <2 x i32> %3
712 define <2 x i32> @bs_xor_rhs_i32vec(<2 x i32> %a, <2 x i32> %b) #0 {
713 ; CHECK-LABEL: @bs_xor_rhs_i32vec(
714 ; CHECK-NEXT:    [[TMP1:%.*]] = call <2 x i32> @llvm.bswap.v2i32(<2 x i32> [[A:%.*]])
715 ; CHECK-NEXT:    [[TMP2:%.*]] = xor <2 x i32> [[TMP1]], [[B:%.*]]
716 ; CHECK-NEXT:    ret <2 x i32> [[TMP2]]
718   %1 = tail call <2 x i32> @llvm.bswap.v2i32(<2 x i32> %b)
719   %2 = xor <2 x i32> %a, %1
720   %3 = tail call <2 x i32> @llvm.bswap.v2i32(<2 x i32> %2)
721   ret <2 x i32> %3
724 define i64 @bs_and_rhs_bs64_multiuse1(i64 %a, i64 %b) #0 {
725 ; CHECK-LABEL: @bs_and_rhs_bs64_multiuse1(
726 ; CHECK-NEXT:    [[TMP1:%.*]] = tail call i64 @llvm.bswap.i64(i64 [[B:%.*]])
727 ; CHECK-NEXT:    [[TMP2:%.*]] = and i64 [[A:%.*]], [[TMP1]]
728 ; CHECK-NEXT:    [[TMP3:%.*]] = tail call i64 @llvm.bswap.i64(i64 [[TMP2]])
729 ; CHECK-NEXT:    [[TMP4:%.*]] = mul i64 [[TMP2]], [[TMP3]]
730 ; CHECK-NEXT:    ret i64 [[TMP4]]
732   %1 = tail call i64 @llvm.bswap.i64(i64 %b)
733   %2 = and i64 %a, %1
734   %3 = tail call i64 @llvm.bswap.i64(i64 %2)
735   %4 = mul i64 %2, %3 ;increase use of logical op
736   ret i64 %4
739 define i64 @bs_and_rhs_bs64_multiuse2(i64 %a, i64 %b) #0 {
740 ; CHECK-LABEL: @bs_and_rhs_bs64_multiuse2(
741 ; CHECK-NEXT:    [[TMP1:%.*]] = tail call i64 @llvm.bswap.i64(i64 [[B:%.*]])
742 ; CHECK-NEXT:    [[TMP2:%.*]] = and i64 [[A:%.*]], [[TMP1]]
743 ; CHECK-NEXT:    [[TMP3:%.*]] = tail call i64 @llvm.bswap.i64(i64 [[TMP2]])
744 ; CHECK-NEXT:    [[TMP4:%.*]] = mul i64 [[TMP1]], [[TMP3]]
745 ; CHECK-NEXT:    ret i64 [[TMP4]]
747   %1 = tail call i64 @llvm.bswap.i64(i64 %b)
748   %2 = and i64 %a, %1
749   %3 = tail call i64 @llvm.bswap.i64(i64 %2)
750   %4 = mul i64 %1, %3 ;increase use of inner bswap
751   ret i64 %4
754 define i64 @bs_all_operand64(i64 %a, i64 %b) #0 {
755 ; CHECK-LABEL: @bs_all_operand64(
756 ; CHECK-NEXT:    [[TMP1:%.*]] = and i64 [[A:%.*]], [[B:%.*]]
757 ; CHECK-NEXT:    ret i64 [[TMP1]]
759   %1 = tail call i64 @llvm.bswap.i64(i64 %a)
760   %2 = tail call i64 @llvm.bswap.i64(i64 %b)
761   %3 = and i64 %1, %2
762   %4 = tail call i64 @llvm.bswap.i64(i64 %3)
763   ret i64 %4
766 define i64 @bs_all_operand64_multiuse_both(i64 %a, i64 %b) #0 {
767 ; CHECK-LABEL: @bs_all_operand64_multiuse_both(
768 ; CHECK-NEXT:    [[TMP1:%.*]] = tail call i64 @llvm.bswap.i64(i64 [[A:%.*]])
769 ; CHECK-NEXT:    [[TMP2:%.*]] = tail call i64 @llvm.bswap.i64(i64 [[B:%.*]])
770 ; CHECK-NEXT:    [[TMP3:%.*]] = and i64 [[A]], [[B]]
771 ; CHECK-NEXT:    call void @use.i64(i64 [[TMP1]])
772 ; CHECK-NEXT:    call void @use.i64(i64 [[TMP2]])
773 ; CHECK-NEXT:    ret i64 [[TMP3]]
775   %1 = tail call i64 @llvm.bswap.i64(i64 %a)
776   %2 = tail call i64 @llvm.bswap.i64(i64 %b)
777   %3 = and i64 %1, %2
778   %4 = tail call i64 @llvm.bswap.i64(i64 %3)
780   call void @use.i64(i64 %1)
781   call void @use.i64(i64 %2)
782   ret i64 %4
785 @gp = external global [0 x i8]
787 define void @bs_and_constexpr(ptr %out, i64 %a) {
788 ; CHECK-LABEL: @bs_and_constexpr(
789 ; CHECK-NEXT:    [[EXP:%.*]] = and i64 ptrtoint (ptr @gp to i64), 4095
790 ; CHECK-NEXT:    [[RES:%.*]] = call i64 @llvm.bswap.i64(i64 [[EXP]])
791 ; CHECK-NEXT:    store i64 [[RES]], ptr [[OUT:%.*]], align 8
792 ; CHECK-NEXT:    ret void
794   %gpi = ptrtoint ptr @gp to i64
795   %exp = and i64 %gpi, 4095
796   %res = call i64 @llvm.bswap.i64(i64 %exp)
797   store i64 %res, ptr %out, align 8
798   ret void
802 define void @bs_and_bs_constexpr(ptr %out, i64 %a) {
803 ; CHECK-LABEL: @bs_and_bs_constexpr(
804 ; CHECK-NEXT:    [[TMP1:%.*]] = and i64 ptrtoint (ptr @gp to i64), -67835469387268096
805 ; CHECK-NEXT:    store i64 [[TMP1]], ptr [[OUT:%.*]], align 8
806 ; CHECK-NEXT:    ret void
808   %gpi = ptrtoint ptr @gp to i64
809   %bs_gpi = call i64 @llvm.bswap.i64(i64 %gpi)
810   %exp = and i64 %bs_gpi, 4095
811   %res = call i64 @llvm.bswap.i64(i64 %exp)
812   store i64 %res, ptr %out, align 8
813   ret void
817 define i64 @bs_active_high8(i64 %0) {
818 ; CHECK-LABEL: @bs_active_high8(
819 ; CHECK-NEXT:    [[TMP2:%.*]] = and i64 [[TMP0:%.*]], 255
820 ; CHECK-NEXT:    ret i64 [[TMP2]]
822   %2 = shl i64 %0, 56
823   %3 = call i64 @llvm.bswap.i64(i64 %2)
824   ret i64 %3
827 define i32 @bs_active_high7(i32 %0) {
828 ; CHECK-LABEL: @bs_active_high7(
829 ; CHECK-NEXT:    [[TMP2:%.*]] = lshr i32 [[TMP0:%.*]], 24
830 ; CHECK-NEXT:    [[TMP3:%.*]] = and i32 [[TMP2]], 254
831 ; CHECK-NEXT:    ret i32 [[TMP3]]
833   %2 = and i32 %0, -33554432  ; 0xfe000000
834   %3 = call i32 @llvm.bswap.i32(i32 %2)
835   ret i32 %3
838 define <2 x i64> @bs_active_high4(<2 x i64> %0) {
839 ; CHECK-LABEL: @bs_active_high4(
840 ; CHECK-NEXT:    [[TMP2:%.*]] = shl <2 x i64> [[TMP0:%.*]], splat (i64 4)
841 ; CHECK-NEXT:    [[TMP3:%.*]] = and <2 x i64> [[TMP2]], splat (i64 240)
842 ; CHECK-NEXT:    ret <2 x i64> [[TMP3]]
844   %2 = shl <2 x i64> %0, <i64 60, i64 60>
845   %3 = call <2 x i64> @llvm.bswap.v2i64(<2 x i64> %2)
846   ret <2 x i64> %3
849 define <2 x i64> @bs_active_high_different(<2 x i64> %0) {
850 ; CHECK-LABEL: @bs_active_high_different(
851 ; CHECK-NEXT:    [[TMP2:%.*]] = shl <2 x i64> [[TMP0:%.*]], <i64 56, i64 57>
852 ; CHECK-NEXT:    [[TMP3:%.*]] = lshr exact <2 x i64> [[TMP2]], splat (i64 56)
853 ; CHECK-NEXT:    ret <2 x i64> [[TMP3]]
855   %2 = shl <2 x i64> %0, <i64 56, i64 57>
856   %3 = call <2 x i64> @llvm.bswap.v2i64(<2 x i64> %2)
857   ret <2 x i64> %3
860 ; negative test
861 define <2 x i64> @bs_active_high_different_negative(<2 x i64> %0) {
862 ; CHECK-LABEL: @bs_active_high_different_negative(
863 ; CHECK-NEXT:    [[TMP2:%.*]] = shl <2 x i64> [[TMP0:%.*]], <i64 56, i64 55>
864 ; CHECK-NEXT:    [[TMP3:%.*]] = call <2 x i64> @llvm.bswap.v2i64(<2 x i64> [[TMP2]])
865 ; CHECK-NEXT:    ret <2 x i64> [[TMP3]]
867   %2 = shl <2 x i64> %0, <i64 56, i64 55>  ; second elem has 9 active high bits
868   %3 = call <2 x i64> @llvm.bswap.v2i64(<2 x i64> %2)
869   ret <2 x i64> %3
872 ; TODO: This should fold to 'and'.
873 define <2 x i64> @bs_active_high_poison(<2 x i64> %0) {
874 ; CHECK-LABEL: @bs_active_high_poison(
875 ; CHECK-NEXT:    [[TMP2:%.*]] = call <2 x i64> @llvm.bswap.v2i64(<2 x i64> [[TMP0:%.*]])
876 ; CHECK-NEXT:    [[TMP3:%.*]] = lshr <2 x i64> [[TMP2]], <i64 56, i64 poison>
877 ; CHECK-NEXT:    ret <2 x i64> [[TMP3]]
879   %2 = shl <2 x i64> %0, <i64 56, i64 poison>
880   %3 = call <2 x i64> @llvm.bswap.v2i64(<2 x i64> %2)
881   ret <2 x i64> %3
884 define i64 @bs_active_high8_multiuse(i64 %0) {
885 ; CHECK-LABEL: @bs_active_high8_multiuse(
886 ; CHECK-NEXT:    [[TMP2:%.*]] = shl i64 [[TMP0:%.*]], 56
887 ; CHECK-NEXT:    [[TMP3:%.*]] = and i64 [[TMP0]], 255
888 ; CHECK-NEXT:    [[TMP4:%.*]] = mul i64 [[TMP2]], [[TMP3]]
889 ; CHECK-NEXT:    ret i64 [[TMP4]]
891   %2 = shl i64 %0, 56
892   %3 = call i64 @llvm.bswap.i64(i64 %2)
893   %4 = mul i64 %2, %3  ; increase use of shl and bswap
894   ret i64 %4
897 define i64 @bs_active_high7_multiuse(i64 %0) {
898 ; CHECK-LABEL: @bs_active_high7_multiuse(
899 ; CHECK-NEXT:    [[TMP2:%.*]] = shl i64 [[TMP0:%.*]], 57
900 ; CHECK-NEXT:    [[TMP3:%.*]] = lshr exact i64 [[TMP2]], 56
901 ; CHECK-NEXT:    [[TMP4:%.*]] = mul i64 [[TMP2]], [[TMP3]]
902 ; CHECK-NEXT:    ret i64 [[TMP4]]
904   %2 = shl i64 %0, 57
905   %3 = call i64 @llvm.bswap.i64(i64 %2)
906   %4 = mul i64 %2, %3  ; increase use of shl and bswap
907   ret i64 %4
910 define i64 @bs_active_byte_6h(i64 %0) {
911 ; CHECK-LABEL: @bs_active_byte_6h(
912 ; CHECK-NEXT:    [[TMP2:%.*]] = lshr i64 [[TMP0:%.*]], 24
913 ; CHECK-NEXT:    [[TMP3:%.*]] = and i64 [[TMP2]], 16711680
914 ; CHECK-NEXT:    ret i64 [[TMP3]]
916   %2 = and i64 %0, 280375465082880  ; 0xff00'00000000
917   %3 = call i64 @llvm.bswap.i64(i64 %2)
918   ret i64 %3
921 define i32 @bs_active_byte_3h(i32 %0) {
922 ; CHECK-LABEL: @bs_active_byte_3h(
923 ; CHECK-NEXT:    [[TMP2:%.*]] = lshr i32 [[TMP0:%.*]], 8
924 ; CHECK-NEXT:    [[TMP3:%.*]] = and i32 [[TMP2]], 1536
925 ; CHECK-NEXT:    ret i32 [[TMP3]]
927   %2 = and i32 %0, 393216  ; 0x0006'0000
928   %3 = call i32 @llvm.bswap.i32(i32 %2)
929   ret i32 %3
932 define <2 x i32> @bs_active_byte_3h_v2(<2 x i32> %0) {
933 ; CHECK-LABEL: @bs_active_byte_3h_v2(
934 ; CHECK-NEXT:    [[TMP2:%.*]] = and <2 x i32> [[TMP0:%.*]], <i32 8388608, i32 65536>
935 ; CHECK-NEXT:    [[TMP3:%.*]] = lshr exact <2 x i32> [[TMP2]], splat (i32 8)
936 ; CHECK-NEXT:    ret <2 x i32> [[TMP3]]
938   %2 = and <2 x i32> %0, <i32 8388608, i32 65536>  ; 0x0080'0000, 0x0001'0000
939   %3 = call <2 x i32> @llvm.bswap.v2i32(<2 x i32> %2)
940   ret <2 x i32> %3
943 ; negative test
944 define i64 @bs_active_byte_78h(i64 %0) {
945 ; CHECK-LABEL: @bs_active_byte_78h(
946 ; CHECK-NEXT:    [[TMP2:%.*]] = and i64 [[TMP0:%.*]], 108086391056891904
947 ; CHECK-NEXT:    [[TMP3:%.*]] = call i64 @llvm.bswap.i64(i64 [[TMP2]])
948 ; CHECK-NEXT:    ret i64 [[TMP3]]
950   %2 = and i64 %0, 108086391056891904  ; 0x01800000'00000000
951   %3 = call i64 @llvm.bswap.i64(i64 %2)
952   ret i64 %3
956 define i16 @bs_active_low1(i16 %0) {
957 ; CHECK-LABEL: @bs_active_low1(
958 ; CHECK-NEXT:    [[TMP2:%.*]] = lshr i16 [[TMP0:%.*]], 7
959 ; CHECK-NEXT:    [[TMP3:%.*]] = and i16 [[TMP2]], 256
960 ; CHECK-NEXT:    ret i16 [[TMP3]]
962   %2 = lshr i16 %0, 15
963   %3 = call i16 @llvm.bswap.i16(i16 %2)
964   ret i16 %3
967 define <2 x i32> @bs_active_low8(<2 x i32> %0) {
968 ; CHECK-LABEL: @bs_active_low8(
969 ; CHECK-NEXT:    [[TMP2:%.*]] = shl <2 x i32> [[TMP0:%.*]], splat (i32 24)
970 ; CHECK-NEXT:    ret <2 x i32> [[TMP2]]
972   %2 = and <2 x i32> %0, <i32 255, i32 255>
973   %3 = call <2 x i32> @llvm.bswap.v2i32(<2 x i32> %2)
974   ret <2 x i32> %3
977 define <2 x i32> @bs_active_low_different(<2 x i32> %0) {
978 ; CHECK-LABEL: @bs_active_low_different(
979 ; CHECK-NEXT:    [[TMP2:%.*]] = and <2 x i32> [[TMP0:%.*]], <i32 2, i32 128>
980 ; CHECK-NEXT:    [[TMP3:%.*]] = shl nuw <2 x i32> [[TMP2]], splat (i32 24)
981 ; CHECK-NEXT:    ret <2 x i32> [[TMP3]]
983   %2 = and <2 x i32> %0, <i32 2, i32 128>
984   %3 = call <2 x i32> @llvm.bswap.v2i32(<2 x i32> %2)
985   ret <2 x i32> %3
988 ; negative test
989 define <2 x i32> @bs_active_low_different_negative(<2 x i32> %0) {
990 ; CHECK-LABEL: @bs_active_low_different_negative(
991 ; CHECK-NEXT:    [[TMP2:%.*]] = and <2 x i32> [[TMP0:%.*]], <i32 256, i32 255>
992 ; CHECK-NEXT:    [[TMP3:%.*]] = call <2 x i32> @llvm.bswap.v2i32(<2 x i32> [[TMP2]])
993 ; CHECK-NEXT:    ret <2 x i32> [[TMP3]]
995   %2 = and <2 x i32> %0, <i32 256, i32 255>
996   %3 = call <2 x i32> @llvm.bswap.v2i32(<2 x i32> %2)
997   ret <2 x i32> %3
1000 ; negative test
1001 define <2 x i32> @bs_active_low_undef(<2 x i32> %0) {
1002 ; CHECK-LABEL: @bs_active_low_undef(
1003 ; CHECK-NEXT:    [[TMP2:%.*]] = and <2 x i32> [[TMP0:%.*]], <i32 255, i32 undef>
1004 ; CHECK-NEXT:    [[TMP3:%.*]] = call <2 x i32> @llvm.bswap.v2i32(<2 x i32> [[TMP2]])
1005 ; CHECK-NEXT:    ret <2 x i32> [[TMP3]]
1007   %2 = and <2 x i32> %0, <i32 255, i32 undef>
1008   %3 = call <2 x i32> @llvm.bswap.v2i32(<2 x i32> %2)
1009   ret <2 x i32> %3
1012 define i64 @bs_active_low8_multiuse(i64 %0) {
1013 ; CHECK-LABEL: @bs_active_low8_multiuse(
1014 ; CHECK-NEXT:    [[TMP2:%.*]] = and i64 [[TMP0:%.*]], 255
1015 ; CHECK-NEXT:    [[TMP3:%.*]] = shl nuw i64 [[TMP2]], 56
1016 ; CHECK-NEXT:    [[TMP4:%.*]] = mul i64 [[TMP2]], [[TMP3]]
1017 ; CHECK-NEXT:    ret i64 [[TMP4]]
1019   %2 = and i64 %0, 255
1020   %3 = call i64 @llvm.bswap.i64(i64 %2)
1021   %4 = mul i64 %2, %3  ; increase use of and and bswap
1022   ret i64 %4
1025 define i64 @bs_active_low7_multiuse(i64 %0) {
1026 ; CHECK-LABEL: @bs_active_low7_multiuse(
1027 ; CHECK-NEXT:    [[TMP2:%.*]] = and i64 [[TMP0:%.*]], 127
1028 ; CHECK-NEXT:    [[TMP3:%.*]] = shl nuw nsw i64 [[TMP2]], 56
1029 ; CHECK-NEXT:    [[TMP4:%.*]] = mul i64 [[TMP2]], [[TMP3]]
1030 ; CHECK-NEXT:    ret i64 [[TMP4]]
1032   %2 = and i64 %0, 127
1033   %3 = call i64 @llvm.bswap.i64(i64 %2)
1034   %4 = mul i64 %2, %3  ; increase use of and and bswap
1035   ret i64 %4
1038 define i64 @bs_active_byte_4l(i64 %0) {
1039 ; CHECK-LABEL: @bs_active_byte_4l(
1040 ; CHECK-NEXT:    [[TMP2:%.*]] = shl i64 [[TMP0:%.*]], 8
1041 ; CHECK-NEXT:    [[TMP3:%.*]] = and i64 [[TMP2]], 292057776128
1042 ; CHECK-NEXT:    ret i64 [[TMP3]]
1044   %2 = and i64 %0, 1140850688  ; 0x44000000
1045   %3 = call i64 @llvm.bswap.i64(i64 %2)
1046   ret i64 %3
1049 define i32 @bs_active_byte_2l(i32 %0) {
1050 ; CHECK-LABEL: @bs_active_byte_2l(
1051 ; CHECK-NEXT:    [[TMP2:%.*]] = shl i32 [[TMP0:%.*]], 8
1052 ; CHECK-NEXT:    [[TMP3:%.*]] = and i32 [[TMP2]], 16711680
1053 ; CHECK-NEXT:    ret i32 [[TMP3]]
1055   %2 = and i32 %0, 65280  ; 0xff00
1056   %3 = call i32 @llvm.bswap.i32(i32 %2)
1057   ret i32 %3
1060 define <2 x i64> @bs_active_byte_2l_v2(<2 x i64> %0) {
1061 ; CHECK-LABEL: @bs_active_byte_2l_v2(
1062 ; CHECK-NEXT:    [[TMP2:%.*]] = and <2 x i64> [[TMP0:%.*]], <i64 256, i64 65280>
1063 ; CHECK-NEXT:    [[TMP3:%.*]] = shl nuw nsw <2 x i64> [[TMP2]], splat (i64 40)
1064 ; CHECK-NEXT:    ret <2 x i64> [[TMP3]]
1066   %2 = and <2 x i64> %0, <i64 256, i64 65280>  ; 0x0100, 0xff00
1067   %3 = call <2 x i64> @llvm.bswap.v2i64(<2 x i64> %2)
1068   ret <2 x i64> %3
1071 ; negative test
1072 define i64 @bs_active_byte_12l(i64 %0) {
1073 ; CHECK-LABEL: @bs_active_byte_12l(
1074 ; CHECK-NEXT:    [[TMP2:%.*]] = and i64 [[TMP0:%.*]], 384
1075 ; CHECK-NEXT:    [[TMP3:%.*]] = call i64 @llvm.bswap.i64(i64 [[TMP2]])
1076 ; CHECK-NEXT:    ret i64 [[TMP3]]
1078   %2 = and i64 %0, 384  ; 0x0180
1079   %3 = call i64 @llvm.bswap.i64(i64 %2)
1080   ret i64 %3
1084 declare i64 @use.i64(i64)
1085 declare i16 @llvm.bswap.i16(i16)
1086 declare i32 @llvm.bswap.i32(i32)
1087 declare i64 @llvm.bswap.i64(i64)
1088 declare <2 x i16> @llvm.bswap.v2i16(<2 x i16>)
1089 declare <2 x i32> @llvm.bswap.v2i32(<2 x i32>)
1090 declare <2 x i64> @llvm.bswap.v2i64(<2 x i64>)