[ELF] Avoid make in elf::writeARMCmseImportLib
[llvm-project.git] / llvm / test / CodeGen / Hexagon / autohvx / widen-trunc.ll
blob7f9a6078a26f86de9124985aea18758f1d10e05f
1 ; RUN: llc -march=hexagon -hexagon-hvx-widen=32 < %s | FileCheck %s
3 ; If the "rx = #N, vsetq(rx)" get reordered with the rest, update the test.
5 ; v32i16 -> v32i8
6 ; CHECK-LABEL: f0:
7 ; CHECK: r[[R0:[0-9]+]] = #32
8 ; CHECK: v[[V0:[0-9]+]] = vmem(r0+#0)
9 ; CHECK: v[[V1:[0-9]+]].b = vpacke({{.*}},v[[V0]].h)
10 ; CHECK: q[[Q0:[0-3]]] = vsetq(r[[R0]])
11 ; CHECK: if (q[[Q0]]) vmem(r1+#0) = v[[V1]]
12 define void @f0(ptr %a0, ptr %a1) #0 {
13   %v0 = load <32 x i16>, ptr %a0, align 128
14   %v1 = trunc <32 x i16> %v0 to <32 x i8>
15   store <32 x i8> %v1, ptr %a1, align 128
16   ret void
19 ; v32i32 -> v32i8
20 ; CHECK-LABEL: f1:
21 ; CHECK: r[[R0:[0-9]+]] = #32
22 ; CHECK: v[[V0:[0-9]+]] = vmem(r0+#0)
23 ; CHECK: v[[V1:[0-9]+]].b = vdeale({{.*}},v[[V0]].b)
24 ; CHECK: q[[Q0:[0-3]]] = vsetq(r[[R0]])
25 ; CHECK: if (q[[Q0]]) vmem(r1+#0) = v[[V1]]
26 define void @f1(ptr %a0, ptr %a1) #0 {
27   %v0 = load <32 x i32>, ptr %a0, align 128
28   %v1 = trunc <32 x i32> %v0 to <32 x i8>
29   store <32 x i8> %v1, ptr %a1, align 128
30   ret void
33 ; v64i16 -> v64i8
34 ; CHECK-LABEL: f2:
35 ; CHECK: r[[R0:[0-9]+]] = #64
36 ; CHECK: v[[V0:[0-9]+]] = vmem(r0+#0)
37 ; CHECK: v[[V1:[0-9]+]].b = vpacke({{.*}},v[[V0]].h)
38 ; CHECK: q[[Q0:[0-3]]] = vsetq(r[[R0]])
39 ; CHECK: if (q[[Q0]]) vmem(r1+#0) = v[[V1]]
40 define void @f2(ptr %a0, ptr %a1) #0 {
41   %v0 = load <64 x i16>, ptr %a0, align 128
42   %v1 = trunc <64 x i16> %v0 to <64 x i8>
43   store <64 x i8> %v1, ptr %a1, align 128
44   ret void
47 ; v64i32 -> v64i8
48 ; CHECK-LABEL: f3:
49 ; CHECK-DAG: v[[V0:[0-9]+]] = vmem(r0+#0)
50 ; CHECK-DAG: v[[V1:[0-9]+]] = vmem(r0+#1)
51 ; CHECK-DAG: q[[Q0:[0-3]]] = vsetq
52 ; CHECK: v[[V2:[0-9]+]].h = vpacke(v[[V1]].w,v[[V0]].w)
53 ; CHECK: v[[V3:[0-9]+]].b = vpacke({{.*}},v[[V2]].h)
54 ; CHECK: if (q[[Q0]]) vmem(r1+#0) = v[[V3]]
55 define void @f3(ptr %a0, ptr %a1) #0 {
56   %v0 = load <64 x i32>, ptr %a0, align 128
57   %v1 = trunc <64 x i32> %v0 to <64 x i8>
58   store <64 x i8> %v1, ptr %a1, align 128
59   ret void
62 ; v16i32 -> v16i16
63 ; CHECK-LABEL: f4:
64 ; CHECK: r[[R0:[0-9]+]] = #32
65 ; CHECK: v[[V0:[0-9]+]] = vmem(r0+#0)
66 ; CHECK: v[[V1:[0-9]+]].h = vpacke({{.*}},v[[V0]].w)
67 ; CHECK: q[[Q0:[0-3]]] = vsetq(r[[R0]])
68 ; CHECK: if (q[[Q0]]) vmem(r1+#0) = v[[V1]]
69 define void @f4(ptr %a0, ptr %a1) #0 {
70   %v0 = load <16 x i32>, ptr %a0, align 128
71   %v1 = trunc <16 x i32> %v0 to <16 x i16>
72   store <16 x i16> %v1, ptr %a1, align 128
73   ret void
76 ; v32i32 -> v32i16
77 ; CHECK-LABEL: f5:
78 ; CHECK: r[[R0:[0-9]+]] = #64
79 ; CHECK: v[[V0:[0-9]+]] = vmem(r0+#0)
80 ; CHECK: v[[V1:[0-9]+]].h = vpacke({{.*}},v[[V0]].w)
81 ; CHECK: q[[Q0:[0-3]]] = vsetq(r[[R0]])
82 ; CHECK: if (q[[Q0]]) vmem(r1+#0) = v[[V1]]
83 define void @f5(ptr %a0, ptr %a1) #0 {
84   %v0 = load <32 x i32>, ptr %a0, align 128
85   %v1 = trunc <32 x i32> %v0 to <32 x i16>
86   store <32 x i16> %v1, ptr %a1, align 128
87   ret void
90 ; v8i32 -> v8i8
91 ; CHECK-LABEL: f6:
92 ; CHECK:     v[[V0:[0-9]+]] = vmem(r0+#0)
93 ; CHECK:     v[[V1:[0-9]+]].b = vdeale({{.*}},v[[V0]].b)
94 ; CHECK:     vmem(r[[R0:[0-9]+]]+#0) = v[[V1]]
95 ; CHECK-DAG: r[[R1:[0-9]+]] = memw(r[[R0]]+#0)
96 ; CHECK-DAG: r[[R2:[0-9]+]] = memw(r[[R0]]+#4)
97 ; CHECK:     memd(r1+#0) = r[[R2]]:[[R1]]
98 define void @f6(ptr %a0, ptr %a1) #0 {
99   %v0 = load <8 x i32>, ptr %a0, align 128
100   %v1 = trunc <8 x i32> %v0 to <8 x i8>
101   store <8 x i8> %v1, ptr %a1, align 128
102   ret void
106 attributes #0 = { "target-cpu"="hexagonv65" "target-features"="+hvx,+hvx-length128b,-packets" }