[InstCombine] Signed saturation patterns
[llvm-core.git] / test / CodeGen / SPARC / fp128.ll
blob83912e0f211ee28a323c088809ccb126aae5003f
1 ; RUN: llc < %s -march=sparc -mattr=hard-quad-float | FileCheck %s --check-prefix=CHECK --check-prefix=HARD --check-prefix=BE
2 ; RUN: llc < %s -march=sparcel -mattr=hard-quad-float | FileCheck %s --check-prefix=CHECK --check-prefix=HARD --check-prefix=EL
3 ; RUN: llc < %s -march=sparc -mattr=-hard-quad-float | FileCheck %s --check-prefix=CHECK --check-prefix=SOFT --check-prefix=BE
4 ; RUN: llc < %s -march=sparcel -mattr=-hard-quad-float | FileCheck %s --check-prefix=CHECK --check-prefix=SOFT --check-prefix=EL
7 ; CHECK-LABEL: f128_ops:
8 ; CHECK:      ldd
9 ; CHECK:      ldd
10 ; CHECK:      ldd
11 ; CHECK:      ldd
12 ; HARD:       faddq [[R0:.+]],  [[R1:.+]],  [[R2:.+]]
13 ; HARD:       fsubq [[R2]], [[R3:.+]], [[R4:.+]]
14 ; HARD:       fmulq [[R4]], [[R5:.+]], [[R6:.+]]
15 ; HARD:       fdivq [[R6]], [[R2]]
16 ; SOFT:       call _Q_add
17 ; SOFT:       unimp 16
18 ; SOFT:       call _Q_sub
19 ; SOFT:       unimp 16
20 ; SOFT:       call _Q_mul
21 ; SOFT:       unimp 16
22 ; SOFT:       call _Q_div
23 ; SOFT:       unimp 16
24 ; CHECK:      std
25 ; CHECK:      std
27 define void @f128_ops(fp128* noalias sret %scalar.result, fp128* byval %a, fp128* byval %b, fp128* byval %c, fp128* byval %d) {
28 entry:
29   %0 = load fp128, fp128* %a, align 8
30   %1 = load fp128, fp128* %b, align 8
31   %2 = load fp128, fp128* %c, align 8
32   %3 = load fp128, fp128* %d, align 8
33   %4 = fadd fp128 %0, %1
34   %5 = fsub fp128 %4, %2
35   %6 = fmul fp128 %5, %3
36   %7 = fdiv fp128 %6, %4
37   store fp128 %7, fp128* %scalar.result, align 8
38   ret void
41 ; CHECK-LABEL: f128_spill:
42 ; CHECK:       std %f{{.+}}, [%[[S0:.+]]]
43 ; CHECK:       std %f{{.+}}, [%[[S1:.+]]]
44 ; CHECK-DAG:   ldd [%[[S0]]], %f{{.+}}
45 ; CHECK-DAG:   ldd [%[[S1]]], %f{{.+}}
46 ; CHECK:       jmp {{%[oi]7}}+12
48 define void @f128_spill(fp128* noalias sret %scalar.result, fp128* byval %a) {
49 entry:
50   %0 = load fp128, fp128* %a, align 8
51   call void asm sideeffect "", "~{f0},~{f1},~{f2},~{f3},~{f4},~{f5},~{f6},~{f7},~{f8},~{f9},~{f10},~{f11},~{f12},~{f13},~{f14},~{f15},~{f16},~{f17},~{f18},~{f19},~{f20},~{f21},~{f22},~{f23},~{f24},~{f25},~{f26},~{f27},~{f28},~{f29},~{f30},~{f31}"()
52   store fp128 %0, fp128* %scalar.result, align 8
53   ret void
56 ; CHECK-LABEL: f128_spill_large:
57 ; CHECK:       sethi 4, %g1
58 ; CHECK:       sethi 4, %g1
59 ; CHECK-NEXT:  add %g1, %sp, %g1
60 ; CHECK-NEXT:  std %f{{.+}}, [%g1]
61 ; CHECK:       sethi 4, %g1
62 ; CHECK-NEXT:  add %g1, %sp, %g1
63 ; CHECK-NEXT:  std %f{{.+}}, [%g1+8]
64 ; CHECK:       sethi 4, %g1
65 ; CHECK-NEXT:  add %g1, %sp, %g1
66 ; CHECK-NEXT:  ldd [%g1], %f{{.+}}
67 ; CHECK:       sethi 4, %g1
68 ; CHECK-NEXT:  add %g1, %sp, %g1
69 ; CHECK-NEXT:  ldd [%g1+8], %f{{.+}}
71 define void @f128_spill_large(<251 x fp128>* noalias sret %scalar.result, <251 x fp128>* byval %a) {
72 entry:
73   %0 = load <251 x fp128>, <251 x fp128>* %a, align 8
74   call void asm sideeffect "", "~{f0},~{f1},~{f2},~{f3},~{f4},~{f5},~{f6},~{f7},~{f8},~{f9},~{f10},~{f11},~{f12},~{f13},~{f14},~{f15},~{f16},~{f17},~{f18},~{f19},~{f20},~{f21},~{f22},~{f23},~{f24},~{f25},~{f26},~{f27},~{f28},~{f29},~{f30},~{f31}"()
75   store <251 x fp128> %0, <251 x fp128>* %scalar.result, align 8
76   ret void
79 ; CHECK-LABEL: f128_compare:
80 ; HARD:       fcmpq
81 ; HARD-NEXT:  nop
82 ; SOFT:       _Q_cmp
84 define i32 @f128_compare(fp128* byval %f0, fp128* byval %f1, i32 %a, i32 %b) {
85 entry:
86    %0 = load fp128, fp128* %f0, align 8
87    %1 = load fp128, fp128* %f1, align 8
88    %cond = fcmp ult fp128 %0, %1
89    %ret = select i1 %cond, i32 %a, i32 %b
90    ret i32 %ret
93 ; CHECK-LABEL: f128_compare2:
94 ; HARD:        fcmpq
95 ; HARD:        fb{{ule|g}}
96 ; SOFT:       _Q_cmp
97 ; SOFT:       cmp
99 define i32 @f128_compare2(fp128* byval %f0) {
100 entry:
101   %0 = load fp128, fp128* %f0, align 8
102   %1 = fcmp ogt fp128 %0, 0xL00000000000000000000000000000000
103   br i1 %1, label %"5", label %"7"
105 "5":                                              ; preds = %entry
106   ret i32 0
108 "7":                                              ; preds = %entry
109   ret i32 1
113 ; CHECK-LABEL: f128_abs:
114 ; CHECK:       ldd [%o0], %f0
115 ; CHECK:       ldd [%o0+8], %f2
116 ; BE:          fabss %f0, %f0
117 ; EL:          fabss %f3, %f3
119 define void @f128_abs(fp128* noalias sret %scalar.result, fp128* byval %a) {
120 entry:
121   %0 = load fp128, fp128* %a, align 8
122   %1 = tail call fp128 @llvm.fabs.f128(fp128 %0)
123   store fp128 %1, fp128* %scalar.result, align 8
124   ret void
127 declare fp128 @llvm.fabs.f128(fp128) nounwind readonly
129 ; CHECK-LABEL: int_to_f128:
130 ; HARD:       fitoq
131 ; SOFT:       _Q_itoq
132 ; SOFT:       unimp 16
134 define void @int_to_f128(fp128* noalias sret %scalar.result, i32 %i) {
135 entry:
136   %0 = sitofp i32 %i to fp128
137   store fp128 %0, fp128* %scalar.result, align 8
138   ret void
141 ; CHECK-LABEL: fp128_unaligned:
142 ; CHECK:       ldub
143 ; HARD:        faddq
144 ; SOFT:       call _Q_add
145 ; SOFT:       unimp 16
146 ; CHECK:       stb
147 ; CHECK:       ret
149 define void @fp128_unaligned(fp128* %a, fp128* %b, fp128* %c) {
150 entry:
151   %0 = load fp128, fp128* %a, align 1
152   %1 = load fp128, fp128* %b, align 1
153   %2 = fadd fp128 %0, %1
154   store fp128 %2, fp128* %c, align 1
155   ret void
158 ; CHECK-LABEL: uint_to_f128:
159 ; HARD:       fdtoq
160 ; SOFT:       _Q_utoq
161 ; SOFT:       unimp 16
163 define void @uint_to_f128(fp128* noalias sret %scalar.result, i32 %i) {
164 entry:
165   %0 = uitofp i32 %i to fp128
166   store fp128 %0, fp128* %scalar.result, align 8
167   ret void
170 ; CHECK-LABEL: f128_to_i32:
171 ; HARD:       fqtoi
172 ; HARD:       fqtoi
173 ; SOFT:       call _Q_qtou
174 ; SOFT:       call _Q_qtoi
177 define i32 @f128_to_i32(fp128* %a, fp128* %b) {
178 entry:
179   %0 = load fp128, fp128* %a, align 8
180   %1 = load fp128, fp128* %b, align 8
181   %2 = fptoui fp128 %0 to i32
182   %3 = fptosi fp128 %1 to i32
183   %4 = add i32 %2, %3
184   ret i32 %4
187 ; CHECK-LABEL:   test_itoq_qtoi
188 ; HARD-DAG:      call _Q_lltoq
189 ; HARD-DAG:      call _Q_qtoll
190 ; HARD-DAG:      fitoq
191 ; HARD-DAG:      fqtoi
192 ; SOFT-DAG:      call _Q_lltoq
193 ; SOFT-DAG:      unimp 16
194 ; SOFT-DAG:      call _Q_qtoll
195 ; SOFT-DAG:      call _Q_itoq
196 ; SOFT-DAG:      unimp 16
197 ; SOFT-DAG:      call _Q_qtoi
199 define void @test_itoq_qtoi(i64 %a, i32 %b, fp128* %c, fp128* %d, i64* %ptr0, fp128* %ptr1) {
200 entry:
201   %0 = sitofp i64 %a to fp128
202   store  fp128 %0, fp128* %ptr1, align 8
203   %cval = load fp128, fp128* %c, align 8
204   %1 = fptosi fp128 %cval to i64
205   store  i64 %1, i64* %ptr0, align 8
206   %2 = sitofp i32 %b to fp128
207   store  fp128 %2, fp128* %ptr1, align 8
208   %dval = load fp128, fp128* %d, align 8
209   %3 = fptosi fp128 %dval to i32
210   %4 = bitcast i64* %ptr0 to i32*
211   store  i32 %3, i32* %4, align 8
212   ret void
215 ; CHECK-LABEL:   test_utoq_qtou:
216 ; CHECK-DAG:     call _Q_ulltoq
217 ; CHECK-DAG:     call _Q_qtoull
218 ; HARD-DAG:      fdtoq
219 ; HARD-DAG:      fqtoi
220 ; SOFT-DAG:      call _Q_utoq
221 ; SOFT-DAG:      unimp 16
222 ; SOFT-DAG:      call _Q_qtou
224 define void @test_utoq_qtou(i64 %a, i32 %b, fp128* %c, fp128* %d, i64* %ptr0, fp128* %ptr1) {
225 entry:
226   %0 = uitofp i64 %a to fp128
227   store  fp128 %0, fp128* %ptr1, align 8
228   %cval = load fp128, fp128* %c, align 8
229   %1 = fptoui fp128 %cval to i64
230   store  i64 %1, i64* %ptr0, align 8
231   %2 = uitofp i32 %b to fp128
232   store  fp128 %2, fp128* %ptr1, align 8
233   %dval = load fp128, fp128* %d, align 8
234   %3 = fptoui fp128 %dval to i32
235   %4 = bitcast i64* %ptr0 to i32*
236   store  i32 %3, i32* %4, align 8
237   ret void
240 ; CHECK-LABEL: f128_neg:
241 ; CHECK:       ldd [%o0], %f0
242 ; CHECK:       ldd [%o0+8], %f2
243 ; BE:          fnegs %f0, %f0
244 ; EL:          fnegs %f3, %f3
246 define void @f128_neg(fp128* noalias sret %scalar.result, fp128* byval %a) {
247 entry:
248   %0 = load fp128, fp128* %a, align 8
249   %1 = fsub fp128 0xL00000000000000008000000000000000, %0
250   store fp128 %1, fp128* %scalar.result, align 8
251   ret void