[Codegen] Alter the default promotion for saturating adds and subs
[llvm-complete.git] / test / CodeGen / AArch64 / sadd_sat.ll
blob7cbf4e3321aa0ea8e889d43e2af5e21e5be30428
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc < %s -mtriple=aarch64-- | FileCheck %s
4 declare i4 @llvm.sadd.sat.i4(i4, i4)
5 declare i8 @llvm.sadd.sat.i8(i8, i8)
6 declare i16 @llvm.sadd.sat.i16(i16, i16)
7 declare i32 @llvm.sadd.sat.i32(i32, i32)
8 declare i64 @llvm.sadd.sat.i64(i64, i64)
9 declare <4 x i32> @llvm.sadd.sat.v4i32(<4 x i32>, <4 x i32>)
11 define i32 @func(i32 %x, i32 %y) nounwind {
12 ; CHECK-LABEL: func:
13 ; CHECK:       // %bb.0:
14 ; CHECK-NEXT:    adds w8, w0, w1
15 ; CHECK-NEXT:    mov w9, #2147483647
16 ; CHECK-NEXT:    cmp w8, #0 // =0
17 ; CHECK-NEXT:    cinv w8, w9, ge
18 ; CHECK-NEXT:    adds w9, w0, w1
19 ; CHECK-NEXT:    csel w0, w8, w9, vs
20 ; CHECK-NEXT:    ret
21   %tmp = call i32 @llvm.sadd.sat.i32(i32 %x, i32 %y);
22   ret i32 %tmp;
25 define i64 @func2(i64 %x, i64 %y) nounwind {
26 ; CHECK-LABEL: func2:
27 ; CHECK:       // %bb.0:
28 ; CHECK-NEXT:    adds x8, x0, x1
29 ; CHECK-NEXT:    mov x9, #9223372036854775807
30 ; CHECK-NEXT:    cmp x8, #0 // =0
31 ; CHECK-NEXT:    cinv x8, x9, ge
32 ; CHECK-NEXT:    adds x9, x0, x1
33 ; CHECK-NEXT:    csel x0, x8, x9, vs
34 ; CHECK-NEXT:    ret
35   %tmp = call i64 @llvm.sadd.sat.i64(i64 %x, i64 %y);
36   ret i64 %tmp;
39 define i16 @func16(i16 %x, i16 %y) nounwind {
40 ; CHECK-LABEL: func16:
41 ; CHECK:       // %bb.0:
42 ; CHECK-NEXT:    add w8, w0, w1
43 ; CHECK-NEXT:    mov w9, #32767
44 ; CHECK-NEXT:    cmp w8, w9
45 ; CHECK-NEXT:    csel w8, w8, w9, lt
46 ; CHECK-NEXT:    cmn w8, #8, lsl #12 // =32768
47 ; CHECK-NEXT:    mov w9, #-32768
48 ; CHECK-NEXT:    csel w0, w8, w9, gt
49 ; CHECK-NEXT:    ret
50   %tmp = call i16 @llvm.sadd.sat.i16(i16 %x, i16 %y);
51   ret i16 %tmp;
54 define i8 @func8(i8 %x, i8 %y) nounwind {
55 ; CHECK-LABEL: func8:
56 ; CHECK:       // %bb.0:
57 ; CHECK-NEXT:    add w8, w0, w1
58 ; CHECK-NEXT:    mov w9, #127
59 ; CHECK-NEXT:    cmp w8, #127 // =127
60 ; CHECK-NEXT:    csel w8, w8, w9, lt
61 ; CHECK-NEXT:    cmn w8, #128 // =128
62 ; CHECK-NEXT:    mov w9, #-128
63 ; CHECK-NEXT:    csel w0, w8, w9, gt
64 ; CHECK-NEXT:    ret
65   %tmp = call i8 @llvm.sadd.sat.i8(i8 %x, i8 %y);
66   ret i8 %tmp;
69 define i4 @func3(i4 %x, i4 %y) nounwind {
70 ; CHECK-LABEL: func3:
71 ; CHECK:       // %bb.0:
72 ; CHECK-NEXT:    add w8, w0, w1
73 ; CHECK-NEXT:    mov w9, #7
74 ; CHECK-NEXT:    cmp w8, #7 // =7
75 ; CHECK-NEXT:    csel w8, w8, w9, lt
76 ; CHECK-NEXT:    cmn w8, #8 // =8
77 ; CHECK-NEXT:    mov w9, #-8
78 ; CHECK-NEXT:    csel w0, w8, w9, gt
79 ; CHECK-NEXT:    ret
80   %tmp = call i4 @llvm.sadd.sat.i4(i4 %x, i4 %y);
81   ret i4 %tmp;
84 define <4 x i32> @vec(<4 x i32> %x, <4 x i32> %y) nounwind {
85 ; CHECK-LABEL: vec:
86 ; CHECK:       // %bb.0:
87 ; CHECK-NEXT:    add v2.4s, v0.4s, v1.4s
88 ; CHECK-NEXT:    cmlt v4.4s, v2.4s, #0
89 ; CHECK-NEXT:    mvni v3.4s, #128, lsl #24
90 ; CHECK-NEXT:    cmlt v1.4s, v1.4s, #0
91 ; CHECK-NEXT:    cmgt v0.4s, v0.4s, v2.4s
92 ; CHECK-NEXT:    mvn v5.16b, v4.16b
93 ; CHECK-NEXT:    bsl v3.16b, v4.16b, v5.16b
94 ; CHECK-NEXT:    eor v0.16b, v1.16b, v0.16b
95 ; CHECK-NEXT:    bsl v0.16b, v3.16b, v2.16b
96 ; CHECK-NEXT:    ret
97   %tmp = call <4 x i32> @llvm.sadd.sat.v4i32(<4 x i32> %x, <4 x i32> %y);
98   ret <4 x i32> %tmp;