[clang][modules] Don't prevent translation of FW_Private includes when explicitly...
[llvm-project.git] / llvm / test / CodeGen / AArch64 / mulcmle.ll
blob5c216b8550080133693ab828fda04ee4ee5d2710
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc -mtriple=aarch64 %s -o - | FileCheck %s
4 define <1 x i64> @v1i64(<1 x i64> %a) {
5 ; CHECK-LABEL: v1i64:
6 ; CHECK:       // %bb.0:
7 ; CHECK-NEXT:    cmlt v0.2s, v0.2s, #0
8 ; CHECK-NEXT:    ret
9   %b = lshr <1 x i64> %a, <i64 31>
10   %c = and <1 x i64> %b, <i64 4294967297>
11   %d = mul nuw <1 x i64> %c, <i64 4294967295>
12   ret <1 x i64> %d
15 define <2 x i64> @v2i64(<2 x i64> %a) {
16 ; CHECK-LABEL: v2i64:
17 ; CHECK:       // %bb.0:
18 ; CHECK-NEXT:    cmlt v0.4s, v0.4s, #0
19 ; CHECK-NEXT:    ret
20   %b = lshr <2 x i64> %a, <i64 31, i64 31>
21   %c = and <2 x i64> %b, <i64 4294967297, i64 4294967297>
22   %d = mul nuw <2 x i64> %c, <i64 4294967295, i64 4294967295>
23   ret <2 x i64> %d
26 define <2 x i32> @v2i32(<2 x i32> %a) {
27 ; CHECK-LABEL: v2i32:
28 ; CHECK:       // %bb.0:
29 ; CHECK-NEXT:    cmlt v0.4h, v0.4h, #0
30 ; CHECK-NEXT:    ret
31   %b = lshr <2 x i32> %a, <i32 15, i32 15>
32   %c = and <2 x i32> %b, <i32 65537, i32 65537>
33   %d = mul nuw <2 x i32> %c, <i32 65535, i32 65535>
34   ret <2 x i32> %d
37 define <4 x i32> @v4i32(<4 x i32> %a) {
38 ; CHECK-LABEL: v4i32:
39 ; CHECK:       // %bb.0:
40 ; CHECK-NEXT:    cmlt v0.8h, v0.8h, #0
41 ; CHECK-NEXT:    ret
42   %b = lshr <4 x i32> %a, <i32 15, i32 15, i32 15, i32 15>
43   %c = and <4 x i32> %b, <i32 65537, i32 65537, i32 65537, i32 65537>
44   %d = mul nuw <4 x i32> %c, <i32 65535, i32 65535, i32 65535, i32 65535>
45   ret <4 x i32> %d
48 define <8 x i32> @v8i32(<8 x i32> %a) {
49 ; CHECK-LABEL: v8i32:
50 ; CHECK:       // %bb.0:
51 ; CHECK-NEXT:    cmlt v0.8h, v0.8h, #0
52 ; CHECK-NEXT:    cmlt v1.8h, v1.8h, #0
53 ; CHECK-NEXT:    ret
54   %b = lshr <8 x i32> %a, <i32 15, i32 15, i32 15, i32 15, i32 15, i32 15, i32 15, i32 15>
55   %c = and <8 x i32> %b, <i32 65537, i32 65537, i32 65537, i32 65537, i32 65537, i32 65537, i32 65537, i32 65537>
56   %d = mul nuw <8 x i32> %c, <i32 65535, i32 65535, i32 65535, i32 65535, i32 65535, i32 65535, i32 65535, i32 65535>
57   ret <8 x i32> %d
60 define <4 x i16> @v4i16(<4 x i16> %a) {
61 ; CHECK-LABEL: v4i16:
62 ; CHECK:       // %bb.0:
63 ; CHECK-NEXT:    cmlt v0.8b, v0.8b, #0
64 ; CHECK-NEXT:    ret
65   %b = lshr <4 x i16> %a, <i16 7, i16 7, i16 7, i16 7>
66   %c = and <4 x i16> %b, <i16 257, i16 257, i16 257, i16 257>
67   %d = mul nuw <4 x i16> %c, <i16 255, i16 255, i16 255, i16 255>
68   ret <4 x i16> %d
71 define <8 x i16> @v8i16(<8 x i16> %a) {
72 ; CHECK-LABEL: v8i16:
73 ; CHECK:       // %bb.0:
74 ; CHECK-NEXT:    cmlt v0.16b, v0.16b, #0
75 ; CHECK-NEXT:    ret
76   %b = lshr <8 x i16> %a, <i16 7, i16 7, i16 7, i16 7, i16 7, i16 7, i16 7, i16 7>
77   %c = and <8 x i16> %b, <i16 257, i16 257, i16 257, i16 257, i16 257, i16 257, i16 257, i16 257>
78   %d = mul nuw <8 x i16> %c, <i16 255, i16 255, i16 255, i16 255, i16 255, i16 255, i16 255, i16 255>
79   ret <8 x i16> %d
82 define <8 x i8> @v8i8(<8 x i8> %a) {
83 ; CHECK-LABEL: v8i8:
84 ; CHECK:       // %bb.0:
85 ; CHECK-NEXT:    movi v1.8b, #17
86 ; CHECK-NEXT:    ushr v0.8b, v0.8b, #3
87 ; CHECK-NEXT:    movi v2.8b, #15
88 ; CHECK-NEXT:    and v0.8b, v0.8b, v1.8b
89 ; CHECK-NEXT:    mul v0.8b, v0.8b, v2.8b
90 ; CHECK-NEXT:    ret
91   %b = lshr <8 x i8> %a, <i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3>
92   %c = and <8 x i8> %b, <i8 17, i8 17, i8 17, i8 17, i8 17, i8 17, i8 17, i8 17>
93   %d = mul nuw <8 x i8> %c, <i8 15, i8 15, i8 15, i8 15, i8 15, i8 15, i8 15, i8 15>
94   ret <8 x i8> %d
97 define <16 x i8> @v16i8(<16 x i8> %a) {
98 ; CHECK-LABEL: v16i8:
99 ; CHECK:       // %bb.0:
100 ; CHECK-NEXT:    movi v1.16b, #17
101 ; CHECK-NEXT:    ushr v0.16b, v0.16b, #3
102 ; CHECK-NEXT:    movi v2.16b, #15
103 ; CHECK-NEXT:    and v0.16b, v0.16b, v1.16b
104 ; CHECK-NEXT:    mul v0.16b, v0.16b, v2.16b
105 ; CHECK-NEXT:    ret
106   %b = lshr <16 x i8> %a, <i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3, i8 3>
107   %c = and <16 x i8> %b, <i8 17, i8 17, i8 17, i8 17, i8 17, i8 17, i8 17, i8 17, i8 17, i8 17, i8 17, i8 17, i8 17, i8 17, i8 17, i8 17>
108   %d = mul nuw <16 x i8> %c, <i8 15, i8 15, i8 15, i8 15, i8 15, i8 15, i8 15, i8 15, i8 15, i8 15, i8 15, i8 15, i8 15, i8 15, i8 15, i8 15>
109   ret <16 x i8> %d