[ARM] More MVE compare vector splat combines for ANDs
[llvm-complete.git] / test / CodeGen / SystemZ / fp-strict-sub-01.ll
bloba4c485a2f9506d9150f233a71efdaf5aeed52fa3
1 ; Test 32-bit floating-point strict subtraction.
3 ; RUN: llc < %s -mtriple=s390x-linux-gnu -mcpu=z10 \
4 ; RUN:   | FileCheck -check-prefix=CHECK -check-prefix=CHECK-SCALAR %s
5 ; RUN: llc < %s -mtriple=s390x-linux-gnu -mcpu=z14 | FileCheck %s
7 declare float @foo()
8 declare float @llvm.experimental.constrained.fsub.f32(float, float, metadata, metadata)
10 ; Check register subtraction.
11 define float @f1(float %f1, float %f2) {
12 ; CHECK-LABEL: f1:
13 ; CHECK: sebr %f0, %f2
14 ; CHECK: br %r14
15   %res = call float @llvm.experimental.constrained.fsub.f32(
16                         float %f1, float %f2,
17                         metadata !"round.dynamic",
18                         metadata !"fpexcept.strict")
19   ret float %res
22 ; Check the low end of the SEB range.
23 define float @f2(float %f1, float *%ptr) {
24 ; CHECK-LABEL: f2:
25 ; CHECK: seb %f0, 0(%r2)
26 ; CHECK: br %r14
27   %f2 = load float, float *%ptr
28   %res = call float @llvm.experimental.constrained.fsub.f32(
29                         float %f1, float %f2,
30                         metadata !"round.dynamic",
31                         metadata !"fpexcept.strict")
32   ret float %res
35 ; Check the high end of the aligned SEB range.
36 define float @f3(float %f1, float *%base) {
37 ; CHECK-LABEL: f3:
38 ; CHECK: seb %f0, 4092(%r2)
39 ; CHECK: br %r14
40   %ptr = getelementptr float, float *%base, i64 1023
41   %f2 = load float, float *%ptr
42   %res = call float @llvm.experimental.constrained.fsub.f32(
43                         float %f1, float %f2,
44                         metadata !"round.dynamic",
45                         metadata !"fpexcept.strict")
46   ret float %res
49 ; Check the next word up, which needs separate address logic.
50 ; Other sequences besides this one would be OK.
51 define float @f4(float %f1, float *%base) {
52 ; CHECK-LABEL: f4:
53 ; CHECK: aghi %r2, 4096
54 ; CHECK: seb %f0, 0(%r2)
55 ; CHECK: br %r14
56   %ptr = getelementptr float, float *%base, i64 1024
57   %f2 = load float, float *%ptr
58   %res = call float @llvm.experimental.constrained.fsub.f32(
59                         float %f1, float %f2,
60                         metadata !"round.dynamic",
61                         metadata !"fpexcept.strict")
62   ret float %res
65 ; Check negative displacements, which also need separate address logic.
66 define float @f5(float %f1, float *%base) {
67 ; CHECK-LABEL: f5:
68 ; CHECK: aghi %r2, -4
69 ; CHECK: seb %f0, 0(%r2)
70 ; CHECK: br %r14
71   %ptr = getelementptr float, float *%base, i64 -1
72   %f2 = load float, float *%ptr
73   %res = call float @llvm.experimental.constrained.fsub.f32(
74                         float %f1, float %f2,
75                         metadata !"round.dynamic",
76                         metadata !"fpexcept.strict")
77   ret float %res
80 ; Check that SEB allows indices.
81 define float @f6(float %f1, float *%base, i64 %index) {
82 ; CHECK-LABEL: f6:
83 ; CHECK: sllg %r1, %r3, 2
84 ; CHECK: seb %f0, 400(%r1,%r2)
85 ; CHECK: br %r14
86   %ptr1 = getelementptr float, float *%base, i64 %index
87   %ptr2 = getelementptr float, float *%ptr1, i64 100
88   %f2 = load float, float *%ptr2
89   %res = call float @llvm.experimental.constrained.fsub.f32(
90                         float %f1, float %f2,
91                         metadata !"round.dynamic",
92                         metadata !"fpexcept.strict")
93   ret float %res
96 ; Check that subtractions of spilled values can use SEB rather than SEBR.
97 define float @f7(float *%ptr0) {
98 ; CHECK-LABEL: f7:
99 ; CHECK: brasl %r14, foo@PLT
100 ; CHECK-SCALAR: seb %f0, 16{{[04]}}(%r15)
101 ; CHECK: br %r14
102   %ptr1 = getelementptr float, float *%ptr0, i64 2
103   %ptr2 = getelementptr float, float *%ptr0, i64 4
104   %ptr3 = getelementptr float, float *%ptr0, i64 6
105   %ptr4 = getelementptr float, float *%ptr0, i64 8
106   %ptr5 = getelementptr float, float *%ptr0, i64 10
107   %ptr6 = getelementptr float, float *%ptr0, i64 12
108   %ptr7 = getelementptr float, float *%ptr0, i64 14
109   %ptr8 = getelementptr float, float *%ptr0, i64 16
110   %ptr9 = getelementptr float, float *%ptr0, i64 18
111   %ptr10 = getelementptr float, float *%ptr0, i64 20
113   %val0 = load float, float *%ptr0
114   %val1 = load float, float *%ptr1
115   %val2 = load float, float *%ptr2
116   %val3 = load float, float *%ptr3
117   %val4 = load float, float *%ptr4
118   %val5 = load float, float *%ptr5
119   %val6 = load float, float *%ptr6
120   %val7 = load float, float *%ptr7
121   %val8 = load float, float *%ptr8
122   %val9 = load float, float *%ptr9
123   %val10 = load float, float *%ptr10
125   %ret = call float @foo()
127   %sub0 = call float @llvm.experimental.constrained.fsub.f32(
128                         float %ret, float %val0,
129                         metadata !"round.dynamic",
130                         metadata !"fpexcept.strict")
131   %sub1 = call float @llvm.experimental.constrained.fsub.f32(
132                         float %sub0, float %val1,
133                         metadata !"round.dynamic",
134                         metadata !"fpexcept.strict")
135   %sub2 = call float @llvm.experimental.constrained.fsub.f32(
136                         float %sub1, float %val2,
137                         metadata !"round.dynamic",
138                         metadata !"fpexcept.strict")
139   %sub3 = call float @llvm.experimental.constrained.fsub.f32(
140                         float %sub2, float %val3,
141                         metadata !"round.dynamic",
142                         metadata !"fpexcept.strict")
143   %sub4 = call float @llvm.experimental.constrained.fsub.f32(
144                         float %sub3, float %val4,
145                         metadata !"round.dynamic",
146                         metadata !"fpexcept.strict")
147   %sub5 = call float @llvm.experimental.constrained.fsub.f32(
148                         float %sub4, float %val5,
149                         metadata !"round.dynamic",
150                         metadata !"fpexcept.strict")
151   %sub6 = call float @llvm.experimental.constrained.fsub.f32(
152                         float %sub5, float %val6,
153                         metadata !"round.dynamic",
154                         metadata !"fpexcept.strict")
155   %sub7 = call float @llvm.experimental.constrained.fsub.f32(
156                         float %sub6, float %val7,
157                         metadata !"round.dynamic",
158                         metadata !"fpexcept.strict")
159   %sub8 = call float @llvm.experimental.constrained.fsub.f32(
160                         float %sub7, float %val8,
161                         metadata !"round.dynamic",
162                         metadata !"fpexcept.strict")
163   %sub9 = call float @llvm.experimental.constrained.fsub.f32(
164                         float %sub8, float %val9,
165                         metadata !"round.dynamic",
166                         metadata !"fpexcept.strict")
167   %sub10 = call float @llvm.experimental.constrained.fsub.f32(
168                         float %sub9, float %val10,
169                         metadata !"round.dynamic",
170                         metadata !"fpexcept.strict")
172   ret float %sub10