[X86] X86DAGToDAGISel - attempt to merge XMM/YMM loads with YMM/ZMM loads of the...
[llvm-project.git] / llvm / test / CodeGen / NVPTX / rotate.ll
blob9d058662c27174b3736d4d14b1587eb0a4e61f28
1 ; RUN: llc < %s -march=nvptx64 -mcpu=sm_20 | FileCheck --check-prefix=SM20 %s
2 ; RUN: llc < %s -march=nvptx64 -mcpu=sm_35 | FileCheck --check-prefix=SM35 %s
3 ; RUN: %if ptxas %{ llc < %s -march=nvptx64 -mcpu=sm_20 | %ptxas-verify %}
4 ; RUN: %if ptxas %{ llc < %s -march=nvptx64 -mcpu=sm_35 | %ptxas-verify %}
7 declare i32 @llvm.nvvm.rotate.b32(i32, i32)
8 declare i64 @llvm.nvvm.rotate.b64(i64, i32)
9 declare i64 @llvm.nvvm.rotate.right.b64(i64, i32)
11 ; SM20: rotate32
12 ; SM35: rotate32
13 define i32 @rotate32(i32 %a, i32 %b) {
14 ; SM20: shl.b32
15 ; SM20: sub.s32
16 ; SM20: shr.b32
17 ; SM20: add.u32
18 ; SM35: shf.l.wrap.b32
19   %val = tail call i32 @llvm.nvvm.rotate.b32(i32 %a, i32 %b)
20   ret i32 %val
23 ; SM20: rotate64
24 ; SM35: rotate64
25 define i64 @rotate64(i64 %a, i32 %b) {
26 ; SM20: shl.b64
27 ; SM20: sub.u32
28 ; SM20: shr.b64
29 ; SM20: add.u64
30 ; SM35: shf.l.wrap.b32
31 ; SM35: shf.l.wrap.b32
32   %val = tail call i64 @llvm.nvvm.rotate.b64(i64 %a, i32 %b)
33   ret i64 %val
36 ; SM20: rotateright64
37 ; SM35: rotateright64
38 define i64 @rotateright64(i64 %a, i32 %b) {
39 ; SM20: shr.b64
40 ; SM20: sub.u32
41 ; SM20: shl.b64
42 ; SM20: add.u64
43 ; SM35: shf.r.wrap.b32
44 ; SM35: shf.r.wrap.b32
45   %val = tail call i64 @llvm.nvvm.rotate.right.b64(i64 %a, i32 %b)
46   ret i64 %val
49 ; SM20: rotl0
50 ; SM35: rotl0
51 define i32 @rotl0(i32 %x) {
52 ; SM20: shl.b32
53 ; SM20: shr.b32
54 ; SM20: add.u32
55 ; SM35: shf.l.wrap.b32
56   %t0 = shl i32 %x, 8
57   %t1 = lshr i32 %x, 24
58   %t2 = or i32 %t0, %t1
59   ret i32 %t2