1 // REQUIRES: systemz-registered-target
2 // RUN: %clang_cc1 -target-cpu z13 -triple s390x-ibm-linux -flax-vector-conversions=none \
3 // RUN: -Wall -Wno-unused -Werror -emit-llvm %s -o - | FileCheck %s
5 typedef __attribute__((vector_size(16))) signed char vec_schar
;
6 typedef __attribute__((vector_size(16))) signed short vec_sshort
;
7 typedef __attribute__((vector_size(16))) signed int vec_sint
;
8 typedef __attribute__((vector_size(16))) signed long long vec_slong
;
9 typedef __attribute__((vector_size(16))) unsigned char vec_uchar
;
10 typedef __attribute__((vector_size(16))) unsigned short vec_ushort
;
11 typedef __attribute__((vector_size(16))) unsigned int vec_uint
;
12 typedef __attribute__((vector_size(16))) unsigned long long vec_ulong
;
13 typedef __attribute__((vector_size(16))) double vec_double
;
15 volatile vec_schar vsc
;
16 volatile vec_sshort vss
;
17 volatile vec_sint vsi
;
18 volatile vec_slong vsl
;
19 volatile vec_uchar vuc
;
20 volatile vec_ushort vus
;
21 volatile vec_uint vui
;
22 volatile vec_ulong vul
;
23 volatile vec_double vd
;
25 volatile unsigned int len
;
26 const void * volatile cptr
;
30 void test_core(void) {
31 len
= __builtin_s390_lcbb(cptr
, 0);
32 // CHECK: call i32 @llvm.s390.lcbb(ptr %{{.*}}, i32 0)
33 len
= __builtin_s390_lcbb(cptr
, 15);
34 // CHECK: call i32 @llvm.s390.lcbb(ptr %{{.*}}, i32 15)
36 vsc
= __builtin_s390_vlbb(cptr
, 0);
37 // CHECK: call <16 x i8> @llvm.s390.vlbb(ptr %{{.*}}, i32 0)
38 vsc
= __builtin_s390_vlbb(cptr
, 15);
39 // CHECK: call <16 x i8> @llvm.s390.vlbb(ptr %{{.*}}, i32 15)
41 vsc
= __builtin_s390_vll(len
, cptr
);
42 // CHECK: call <16 x i8> @llvm.s390.vll(i32 %{{.*}}, ptr %{{.*}})
44 vul
= __builtin_s390_vpdi(vul
, vul
, 0);
45 // CHECK: call <2 x i64> @llvm.s390.vpdi(<2 x i64> %{{.*}}, <2 x i64> %{{.*}}, i32 0)
46 vul
= __builtin_s390_vpdi(vul
, vul
, 15);
47 // CHECK: call <2 x i64> @llvm.s390.vpdi(<2 x i64> %{{.*}}, <2 x i64> %{{.*}}, i32 15)
49 vuc
= __builtin_s390_vperm(vuc
, vuc
, vuc
);
50 // CHECK: call <16 x i8> @llvm.s390.vperm(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}})
52 vuc
= __builtin_s390_vpklsh(vus
, vus
);
53 // CHECK: call <16 x i8> @llvm.s390.vpklsh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
54 vus
= __builtin_s390_vpklsf(vui
, vui
);
55 // CHECK: call <8 x i16> @llvm.s390.vpklsf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
56 vui
= __builtin_s390_vpklsg(vul
, vul
);
57 // CHECK: call <4 x i32> @llvm.s390.vpklsg(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
59 vuc
= __builtin_s390_vpklshs(vus
, vus
, &cc
);
60 // CHECK: call { <16 x i8>, i32 } @llvm.s390.vpklshs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
61 vus
= __builtin_s390_vpklsfs(vui
, vui
, &cc
);
62 // CHECK: call { <8 x i16>, i32 } @llvm.s390.vpklsfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
63 vui
= __builtin_s390_vpklsgs(vul
, vul
, &cc
);
64 // CHECK: call { <4 x i32>, i32 } @llvm.s390.vpklsgs(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
66 vsc
= __builtin_s390_vpksh(vss
, vss
);
67 // CHECK: call <16 x i8> @llvm.s390.vpksh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
68 vss
= __builtin_s390_vpksf(vsi
, vsi
);
69 // CHECK: call <8 x i16> @llvm.s390.vpksf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
70 vsi
= __builtin_s390_vpksg(vsl
, vsl
);
71 // CHECK: call <4 x i32> @llvm.s390.vpksg(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
73 vsc
= __builtin_s390_vpkshs(vss
, vss
, &cc
);
74 // CHECK: call { <16 x i8>, i32 } @llvm.s390.vpkshs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
75 vss
= __builtin_s390_vpksfs(vsi
, vsi
, &cc
);
76 // CHECK: call { <8 x i16>, i32 } @llvm.s390.vpksfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
77 vsi
= __builtin_s390_vpksgs(vsl
, vsl
, &cc
);
78 // CHECK: call { <4 x i32>, i32 } @llvm.s390.vpksgs(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
80 __builtin_s390_vstl(vsc
, len
, ptr
);
81 // CHECK: call void @llvm.s390.vstl(<16 x i8> %{{.*}}, i32 %{{.*}}, ptr %{{.*}})
83 vss
= __builtin_s390_vuphb(vsc
);
84 // CHECK: call <8 x i16> @llvm.s390.vuphb(<16 x i8> %{{.*}})
85 vsi
= __builtin_s390_vuphh(vss
);
86 // CHECK: call <4 x i32> @llvm.s390.vuphh(<8 x i16> %{{.*}})
87 vsl
= __builtin_s390_vuphf(vsi
);
88 // CHECK: call <2 x i64> @llvm.s390.vuphf(<4 x i32> %{{.*}})
90 vss
= __builtin_s390_vuplb(vsc
);
91 // CHECK: call <8 x i16> @llvm.s390.vuplb(<16 x i8> %{{.*}})
92 vsi
= __builtin_s390_vuplhw(vss
);
93 // CHECK: call <4 x i32> @llvm.s390.vuplhw(<8 x i16> %{{.*}})
94 vsl
= __builtin_s390_vuplf(vsi
);
95 // CHECK: call <2 x i64> @llvm.s390.vuplf(<4 x i32> %{{.*}})
97 vus
= __builtin_s390_vuplhb(vuc
);
98 // CHECK: call <8 x i16> @llvm.s390.vuplhb(<16 x i8> %{{.*}})
99 vui
= __builtin_s390_vuplhh(vus
);
100 // CHECK: call <4 x i32> @llvm.s390.vuplhh(<8 x i16> %{{.*}})
101 vul
= __builtin_s390_vuplhf(vui
);
102 // CHECK: call <2 x i64> @llvm.s390.vuplhf(<4 x i32> %{{.*}})
104 vus
= __builtin_s390_vupllb(vuc
);
105 // CHECK: call <8 x i16> @llvm.s390.vupllb(<16 x i8> %{{.*}})
106 vui
= __builtin_s390_vupllh(vus
);
107 // CHECK: call <4 x i32> @llvm.s390.vupllh(<8 x i16> %{{.*}})
108 vul
= __builtin_s390_vupllf(vui
);
109 // CHECK: call <2 x i64> @llvm.s390.vupllf(<4 x i32> %{{.*}})
112 void test_integer(void) {
113 vuc
= __builtin_s390_vaq(vuc
, vuc
);
114 // CHECK: call <16 x i8> @llvm.s390.vaq(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
115 vuc
= __builtin_s390_vacq(vuc
, vuc
, vuc
);
116 // CHECK: call <16 x i8> @llvm.s390.vacq(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}})
117 vuc
= __builtin_s390_vaccq(vuc
, vuc
);
118 // CHECK: call <16 x i8> @llvm.s390.vaccq(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
119 vuc
= __builtin_s390_vacccq(vuc
, vuc
, vuc
);
120 // CHECK: call <16 x i8> @llvm.s390.vacccq(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}})
122 vuc
= __builtin_s390_vaccb(vuc
, vuc
);
123 // CHECK: call <16 x i8> @llvm.s390.vaccb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
124 vus
= __builtin_s390_vacch(vus
, vus
);
125 // CHECK: call <8 x i16> @llvm.s390.vacch(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
126 vui
= __builtin_s390_vaccf(vui
, vui
);
127 // CHECK: call <4 x i32> @llvm.s390.vaccf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
128 vul
= __builtin_s390_vaccg(vul
, vul
);
129 // CHECK: call <2 x i64> @llvm.s390.vaccg(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
131 vsc
= __builtin_s390_vavgb(vsc
, vsc
);
132 // CHECK: call <16 x i8> @llvm.s390.vavgb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
133 vss
= __builtin_s390_vavgh(vss
, vss
);
134 // CHECK: call <8 x i16> @llvm.s390.vavgh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
135 vsi
= __builtin_s390_vavgf(vsi
, vsi
);
136 // CHECK: call <4 x i32> @llvm.s390.vavgf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
137 vsl
= __builtin_s390_vavgg(vsl
, vsl
);
138 // CHECK: call <2 x i64> @llvm.s390.vavgg(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
140 vuc
= __builtin_s390_vavglb(vuc
, vuc
);
141 // CHECK: call <16 x i8> @llvm.s390.vavglb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
142 vus
= __builtin_s390_vavglh(vus
, vus
);
143 // CHECK: call <8 x i16> @llvm.s390.vavglh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
144 vui
= __builtin_s390_vavglf(vui
, vui
);
145 // CHECK: call <4 x i32> @llvm.s390.vavglf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
146 vul
= __builtin_s390_vavglg(vul
, vul
);
147 // CHECK: call <2 x i64> @llvm.s390.vavglg(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
149 vui
= __builtin_s390_vcksm(vui
, vui
);
150 // CHECK: call <4 x i32> @llvm.s390.vcksm(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
152 vuc
= __builtin_s390_vclzb(vuc
);
153 // CHECK: call <16 x i8> @llvm.ctlz.v16i8(<16 x i8> %{{.*}}, i1 false)
154 vus
= __builtin_s390_vclzh(vus
);
155 // CHECK: call <8 x i16> @llvm.ctlz.v8i16(<8 x i16> %{{.*}}, i1 false)
156 vui
= __builtin_s390_vclzf(vui
);
157 // CHECK: call <4 x i32> @llvm.ctlz.v4i32(<4 x i32> %{{.*}}, i1 false)
158 vul
= __builtin_s390_vclzg(vul
);
159 // CHECK: call <2 x i64> @llvm.ctlz.v2i64(<2 x i64> %{{.*}}, i1 false)
161 vuc
= __builtin_s390_vctzb(vuc
);
162 // CHECK: call <16 x i8> @llvm.cttz.v16i8(<16 x i8> %{{.*}}, i1 false)
163 vus
= __builtin_s390_vctzh(vus
);
164 // CHECK: call <8 x i16> @llvm.cttz.v8i16(<8 x i16> %{{.*}}, i1 false)
165 vui
= __builtin_s390_vctzf(vui
);
166 // CHECK: call <4 x i32> @llvm.cttz.v4i32(<4 x i32> %{{.*}}, i1 false)
167 vul
= __builtin_s390_vctzg(vul
);
168 // CHECK: call <2 x i64> @llvm.cttz.v2i64(<2 x i64> %{{.*}}, i1 false)
170 vuc
= __builtin_s390_verimb(vuc
, vuc
, vuc
, 0);
171 // CHECK: call <16 x i8> @llvm.s390.verimb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 0)
172 vuc
= __builtin_s390_verimb(vuc
, vuc
, vuc
, 255);
173 // CHECK: call <16 x i8> @llvm.s390.verimb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 255)
174 vus
= __builtin_s390_verimh(vus
, vus
, vus
, 0);
175 // CHECK: call <8 x i16> @llvm.s390.verimh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 0)
176 vus
= __builtin_s390_verimh(vus
, vus
, vus
, 255);
177 // CHECK: call <8 x i16> @llvm.s390.verimh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 255)
178 vui
= __builtin_s390_verimf(vui
, vui
, vui
, 0);
179 // CHECK: call <4 x i32> @llvm.s390.verimf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 0)
180 vui
= __builtin_s390_verimf(vui
, vui
, vui
, 255);
181 // CHECK: call <4 x i32> @llvm.s390.verimf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 255)
182 vul
= __builtin_s390_verimg(vul
, vul
, vul
, 0);
183 // CHECK: call <2 x i64> @llvm.s390.verimg(<2 x i64> %{{.*}}, <2 x i64> %{{.*}}, <2 x i64> %{{.*}}, i32 0)
184 vul
= __builtin_s390_verimg(vul
, vul
, vul
, 255);
185 // CHECK: call <2 x i64> @llvm.s390.verimg(<2 x i64> %{{.*}}, <2 x i64> %{{.*}}, <2 x i64> %{{.*}}, i32 255)
187 vuc
= __builtin_s390_verllb(vuc
, len
);
188 // CHECK: call <16 x i8> @llvm.s390.verllb(<16 x i8> %{{.*}}, i32 %{{.*}})
189 vus
= __builtin_s390_verllh(vus
, len
);
190 // CHECK: call <8 x i16> @llvm.s390.verllh(<8 x i16> %{{.*}}, i32 %{{.*}})
191 vui
= __builtin_s390_verllf(vui
, len
);
192 // CHECK: call <4 x i32> @llvm.s390.verllf(<4 x i32> %{{.*}}, i32 %{{.*}})
193 vul
= __builtin_s390_verllg(vul
, len
);
194 // CHECK: call <2 x i64> @llvm.s390.verllg(<2 x i64> %{{.*}}, i32 %{{.*}})
196 vuc
= __builtin_s390_verllvb(vuc
, vuc
);
197 // CHECK: call <16 x i8> @llvm.s390.verllvb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
198 vus
= __builtin_s390_verllvh(vus
, vus
);
199 // CHECK: call <8 x i16> @llvm.s390.verllvh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
200 vui
= __builtin_s390_verllvf(vui
, vui
);
201 // CHECK: call <4 x i32> @llvm.s390.verllvf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
202 vul
= __builtin_s390_verllvg(vul
, vul
);
203 // CHECK: call <2 x i64> @llvm.s390.verllvg(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
205 vus
= __builtin_s390_vgfmb(vuc
, vuc
);
206 // CHECK: call <8 x i16> @llvm.s390.vgfmb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
207 vui
= __builtin_s390_vgfmh(vus
, vus
);
208 // CHECK: call <4 x i32> @llvm.s390.vgfmh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
209 vul
= __builtin_s390_vgfmf(vui
, vui
);
210 // CHECK: call <2 x i64> @llvm.s390.vgfmf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
211 vuc
= __builtin_s390_vgfmg(vul
, vul
);
212 // CHECK: call <16 x i8> @llvm.s390.vgfmg(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
214 vus
= __builtin_s390_vgfmab(vuc
, vuc
, vus
);
215 // CHECK: call <8 x i16> @llvm.s390.vgfmab(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <8 x i16> %{{.*}})
216 vui
= __builtin_s390_vgfmah(vus
, vus
, vui
);
217 // CHECK: call <4 x i32> @llvm.s390.vgfmah(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <4 x i32> %{{.*}})
218 vul
= __builtin_s390_vgfmaf(vui
, vui
, vul
);
219 // CHECK: call <2 x i64> @llvm.s390.vgfmaf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <2 x i64> %{{.*}})
220 vuc
= __builtin_s390_vgfmag(vul
, vul
, vuc
);
221 // CHECK: call <16 x i8> @llvm.s390.vgfmag(<2 x i64> %{{.*}}, <2 x i64> %{{.*}}, <16 x i8> %{{.*}})
223 vsc
= __builtin_s390_vmahb(vsc
, vsc
, vsc
);
224 // CHECK: call <16 x i8> @llvm.s390.vmahb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}})
225 vss
= __builtin_s390_vmahh(vss
, vss
, vss
);
226 // CHECK: call <8 x i16> @llvm.s390.vmahh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}})
227 vsi
= __builtin_s390_vmahf(vsi
, vsi
, vsi
);
228 // CHECK: call <4 x i32> @llvm.s390.vmahf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}})
229 vuc
= __builtin_s390_vmalhb(vuc
, vuc
, vuc
);
230 // CHECK: call <16 x i8> @llvm.s390.vmalhb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}})
231 vus
= __builtin_s390_vmalhh(vus
, vus
, vus
);
232 // CHECK: call <8 x i16> @llvm.s390.vmalhh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}})
233 vui
= __builtin_s390_vmalhf(vui
, vui
, vui
);
234 // CHECK: call <4 x i32> @llvm.s390.vmalhf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}})
236 vss
= __builtin_s390_vmaeb(vsc
, vsc
, vss
);
237 // CHECK: call <8 x i16> @llvm.s390.vmaeb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <8 x i16> %{{.*}})
238 vsi
= __builtin_s390_vmaeh(vss
, vss
, vsi
);
239 // CHECK: call <4 x i32> @llvm.s390.vmaeh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <4 x i32> %{{.*}})
240 vsl
= __builtin_s390_vmaef(vsi
, vsi
, vsl
);
241 // CHECK: call <2 x i64> @llvm.s390.vmaef(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <2 x i64> %{{.*}})
242 vus
= __builtin_s390_vmaleb(vuc
, vuc
, vus
);
243 // CHECK: call <8 x i16> @llvm.s390.vmaleb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <8 x i16> %{{.*}})
244 vui
= __builtin_s390_vmaleh(vus
, vus
, vui
);
245 // CHECK: call <4 x i32> @llvm.s390.vmaleh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <4 x i32> %{{.*}})
246 vul
= __builtin_s390_vmalef(vui
, vui
, vul
);
247 // CHECK: call <2 x i64> @llvm.s390.vmalef(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <2 x i64> %{{.*}})
249 vss
= __builtin_s390_vmaob(vsc
, vsc
, vss
);
250 // CHECK: call <8 x i16> @llvm.s390.vmaob(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <8 x i16> %{{.*}})
251 vsi
= __builtin_s390_vmaoh(vss
, vss
, vsi
);
252 // CHECK: call <4 x i32> @llvm.s390.vmaoh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <4 x i32> %{{.*}})
253 vsl
= __builtin_s390_vmaof(vsi
, vsi
, vsl
);
254 // CHECK: call <2 x i64> @llvm.s390.vmaof(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <2 x i64> %{{.*}})
255 vus
= __builtin_s390_vmalob(vuc
, vuc
, vus
);
256 // CHECK: call <8 x i16> @llvm.s390.vmalob(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <8 x i16> %{{.*}})
257 vui
= __builtin_s390_vmaloh(vus
, vus
, vui
);
258 // CHECK: call <4 x i32> @llvm.s390.vmaloh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <4 x i32> %{{.*}})
259 vul
= __builtin_s390_vmalof(vui
, vui
, vul
);
260 // CHECK: call <2 x i64> @llvm.s390.vmalof(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <2 x i64> %{{.*}})
262 vsc
= __builtin_s390_vmhb(vsc
, vsc
);
263 // CHECK: call <16 x i8> @llvm.s390.vmhb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
264 vss
= __builtin_s390_vmhh(vss
, vss
);
265 // CHECK: call <8 x i16> @llvm.s390.vmhh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
266 vsi
= __builtin_s390_vmhf(vsi
, vsi
);
267 // CHECK: call <4 x i32> @llvm.s390.vmhf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
268 vuc
= __builtin_s390_vmlhb(vuc
, vuc
);
269 // CHECK: call <16 x i8> @llvm.s390.vmlhb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
270 vus
= __builtin_s390_vmlhh(vus
, vus
);
271 // CHECK: call <8 x i16> @llvm.s390.vmlhh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
272 vui
= __builtin_s390_vmlhf(vui
, vui
);
273 // CHECK: call <4 x i32> @llvm.s390.vmlhf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
275 vss
= __builtin_s390_vmeb(vsc
, vsc
);
276 // CHECK: call <8 x i16> @llvm.s390.vmeb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
277 vsi
= __builtin_s390_vmeh(vss
, vss
);
278 // CHECK: call <4 x i32> @llvm.s390.vmeh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
279 vsl
= __builtin_s390_vmef(vsi
, vsi
);
280 // CHECK: call <2 x i64> @llvm.s390.vmef(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
281 vus
= __builtin_s390_vmleb(vuc
, vuc
);
282 // CHECK: call <8 x i16> @llvm.s390.vmleb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
283 vui
= __builtin_s390_vmleh(vus
, vus
);
284 // CHECK: call <4 x i32> @llvm.s390.vmleh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
285 vul
= __builtin_s390_vmlef(vui
, vui
);
286 // CHECK: call <2 x i64> @llvm.s390.vmlef(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
288 vss
= __builtin_s390_vmob(vsc
, vsc
);
289 // CHECK: call <8 x i16> @llvm.s390.vmob(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
290 vsi
= __builtin_s390_vmoh(vss
, vss
);
291 // CHECK: call <4 x i32> @llvm.s390.vmoh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
292 vsl
= __builtin_s390_vmof(vsi
, vsi
);
293 // CHECK: call <2 x i64> @llvm.s390.vmof(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
294 vus
= __builtin_s390_vmlob(vuc
, vuc
);
295 // CHECK: call <8 x i16> @llvm.s390.vmlob(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
296 vui
= __builtin_s390_vmloh(vus
, vus
);
297 // CHECK: call <4 x i32> @llvm.s390.vmloh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
298 vul
= __builtin_s390_vmlof(vui
, vui
);
299 // CHECK: call <2 x i64> @llvm.s390.vmlof(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
301 vuc
= __builtin_s390_vpopctb(vuc
);
302 // CHECK: call <16 x i8> @llvm.ctpop.v16i8(<16 x i8> %{{.*}})
303 vus
= __builtin_s390_vpopcth(vus
);
304 // CHECK: call <8 x i16> @llvm.ctpop.v8i16(<8 x i16> %{{.*}})
305 vui
= __builtin_s390_vpopctf(vui
);
306 // CHECK: call <4 x i32> @llvm.ctpop.v4i32(<4 x i32> %{{.*}})
307 vul
= __builtin_s390_vpopctg(vul
);
308 // CHECK: call <2 x i64> @llvm.ctpop.v2i64(<2 x i64> %{{.*}})
310 vuc
= __builtin_s390_vsq(vuc
, vuc
);
311 // CHECK: call <16 x i8> @llvm.s390.vsq(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
312 vuc
= __builtin_s390_vsbiq(vuc
, vuc
, vuc
);
313 // CHECK: call <16 x i8> @llvm.s390.vsbiq(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}})
314 vuc
= __builtin_s390_vscbiq(vuc
, vuc
);
315 // CHECK: call <16 x i8> @llvm.s390.vscbiq(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
316 vuc
= __builtin_s390_vsbcbiq(vuc
, vuc
, vuc
);
317 // CHECK: call <16 x i8> @llvm.s390.vsbcbiq(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}})
319 vuc
= __builtin_s390_vscbib(vuc
, vuc
);
320 // CHECK: call <16 x i8> @llvm.s390.vscbib(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
321 vus
= __builtin_s390_vscbih(vus
, vus
);
322 // CHECK: call <8 x i16> @llvm.s390.vscbih(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
323 vui
= __builtin_s390_vscbif(vui
, vui
);
324 // CHECK: call <4 x i32> @llvm.s390.vscbif(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
325 vul
= __builtin_s390_vscbig(vul
, vul
);
326 // CHECK: call <2 x i64> @llvm.s390.vscbig(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
328 vuc
= __builtin_s390_vsldb(vuc
, vuc
, 0);
329 // CHECK: call <16 x i8> @llvm.s390.vsldb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 0)
330 vuc
= __builtin_s390_vsldb(vuc
, vuc
, 15);
331 // CHECK: call <16 x i8> @llvm.s390.vsldb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 15)
333 vuc
= __builtin_s390_vsl(vuc
, vuc
);
334 // CHECK: call <16 x i8> @llvm.s390.vsl(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
335 vuc
= __builtin_s390_vslb(vuc
, vuc
);
336 // CHECK: call <16 x i8> @llvm.s390.vslb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
338 vuc
= __builtin_s390_vsra(vuc
, vuc
);
339 // CHECK: call <16 x i8> @llvm.s390.vsra(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
340 vuc
= __builtin_s390_vsrab(vuc
, vuc
);
341 // CHECK: call <16 x i8> @llvm.s390.vsrab(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
343 vuc
= __builtin_s390_vsrl(vuc
, vuc
);
344 // CHECK: call <16 x i8> @llvm.s390.vsrl(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
345 vuc
= __builtin_s390_vsrlb(vuc
, vuc
);
346 // CHECK: call <16 x i8> @llvm.s390.vsrlb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
348 vui
= __builtin_s390_vsumb(vuc
, vuc
);
349 // CHECK: call <4 x i32> @llvm.s390.vsumb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
350 vui
= __builtin_s390_vsumh(vus
, vus
);
351 // CHECK: call <4 x i32> @llvm.s390.vsumh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
352 vul
= __builtin_s390_vsumgh(vus
, vus
);
353 // CHECK: call <2 x i64> @llvm.s390.vsumgh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
354 vul
= __builtin_s390_vsumgf(vui
, vui
);
355 // CHECK: call <2 x i64> @llvm.s390.vsumgf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
356 vuc
= __builtin_s390_vsumqf(vui
, vui
);
357 // CHECK: call <16 x i8> @llvm.s390.vsumqf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
358 vuc
= __builtin_s390_vsumqg(vul
, vul
);
359 // CHECK: call <16 x i8> @llvm.s390.vsumqg(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
361 len
= __builtin_s390_vtm(vuc
, vuc
);
362 // CHECK: call i32 @llvm.s390.vtm(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
364 vsc
= __builtin_s390_vceqbs(vsc
, vsc
, &cc
);
365 // CHECK: call { <16 x i8>, i32 } @llvm.s390.vceqbs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
366 vss
= __builtin_s390_vceqhs(vss
, vss
, &cc
);
367 // CHECK: call { <8 x i16>, i32 } @llvm.s390.vceqhs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
368 vsi
= __builtin_s390_vceqfs(vsi
, vsi
, &cc
);
369 // CHECK: call { <4 x i32>, i32 } @llvm.s390.vceqfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
370 vsl
= __builtin_s390_vceqgs(vsl
, vsl
, &cc
);
371 // CHECK: call { <2 x i64>, i32 } @llvm.s390.vceqgs(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
373 vsc
= __builtin_s390_vchbs(vsc
, vsc
, &cc
);
374 // CHECK: call { <16 x i8>, i32 } @llvm.s390.vchbs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
375 vss
= __builtin_s390_vchhs(vss
, vss
, &cc
);
376 // CHECK: call { <8 x i16>, i32 } @llvm.s390.vchhs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
377 vsi
= __builtin_s390_vchfs(vsi
, vsi
, &cc
);
378 // CHECK: call { <4 x i32>, i32 } @llvm.s390.vchfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
379 vsl
= __builtin_s390_vchgs(vsl
, vsl
, &cc
);
380 // CHECK: call { <2 x i64>, i32 } @llvm.s390.vchgs(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
382 vsc
= __builtin_s390_vchlbs(vuc
, vuc
, &cc
);
383 // CHECK: call { <16 x i8>, i32 } @llvm.s390.vchlbs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
384 vss
= __builtin_s390_vchlhs(vus
, vus
, &cc
);
385 // CHECK: call { <8 x i16>, i32 } @llvm.s390.vchlhs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
386 vsi
= __builtin_s390_vchlfs(vui
, vui
, &cc
);
387 // CHECK: call { <4 x i32>, i32 } @llvm.s390.vchlfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
388 vsl
= __builtin_s390_vchlgs(vul
, vul
, &cc
);
389 // CHECK: call { <2 x i64>, i32 } @llvm.s390.vchlgs(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
392 void test_string(void) {
393 vuc
= __builtin_s390_vfaeb(vuc
, vuc
, 0);
394 // CHECK: call <16 x i8> @llvm.s390.vfaeb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 0)
395 vuc
= __builtin_s390_vfaeb(vuc
, vuc
, 15);
396 // CHECK: call <16 x i8> @llvm.s390.vfaeb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 15)
397 vus
= __builtin_s390_vfaeh(vus
, vus
, 0);
398 // CHECK: call <8 x i16> @llvm.s390.vfaeh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 0)
399 vus
= __builtin_s390_vfaeh(vus
, vus
, 15);
400 // CHECK: call <8 x i16> @llvm.s390.vfaeh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 15)
401 vui
= __builtin_s390_vfaef(vui
, vui
, 0);
402 // CHECK: call <4 x i32> @llvm.s390.vfaef(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 0)
403 vui
= __builtin_s390_vfaef(vui
, vui
, 15);
404 // CHECK: call <4 x i32> @llvm.s390.vfaef(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 15)
406 vuc
= __builtin_s390_vfaezb(vuc
, vuc
, 0);
407 // CHECK: call <16 x i8> @llvm.s390.vfaezb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 0)
408 vuc
= __builtin_s390_vfaezb(vuc
, vuc
, 15);
409 // CHECK: call <16 x i8> @llvm.s390.vfaezb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 15)
410 vus
= __builtin_s390_vfaezh(vus
, vus
, 0);
411 // CHECK: call <8 x i16> @llvm.s390.vfaezh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 0)
412 vus
= __builtin_s390_vfaezh(vus
, vus
, 15);
413 // CHECK: call <8 x i16> @llvm.s390.vfaezh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 15)
414 vui
= __builtin_s390_vfaezf(vui
, vui
, 0);
415 // CHECK: call <4 x i32> @llvm.s390.vfaezf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 0)
416 vui
= __builtin_s390_vfaezf(vui
, vui
, 15);
417 // CHECK: call <4 x i32> @llvm.s390.vfaezf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 15)
419 vuc
= __builtin_s390_vfeeb(vuc
, vuc
);
420 // CHECK: call <16 x i8> @llvm.s390.vfeeb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
421 vus
= __builtin_s390_vfeeh(vus
, vus
);
422 // CHECK: call <8 x i16> @llvm.s390.vfeeh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
423 vui
= __builtin_s390_vfeef(vui
, vui
);
424 // CHECK: call <4 x i32> @llvm.s390.vfeef(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
426 vuc
= __builtin_s390_vfeezb(vuc
, vuc
);
427 // CHECK: call <16 x i8> @llvm.s390.vfeezb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
428 vus
= __builtin_s390_vfeezh(vus
, vus
);
429 // CHECK: call <8 x i16> @llvm.s390.vfeezh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
430 vui
= __builtin_s390_vfeezf(vui
, vui
);
431 // CHECK: call <4 x i32> @llvm.s390.vfeezf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
433 vuc
= __builtin_s390_vfeneb(vuc
, vuc
);
434 // CHECK: call <16 x i8> @llvm.s390.vfeneb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
435 vus
= __builtin_s390_vfeneh(vus
, vus
);
436 // CHECK: call <8 x i16> @llvm.s390.vfeneh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
437 vui
= __builtin_s390_vfenef(vui
, vui
);
438 // CHECK: call <4 x i32> @llvm.s390.vfenef(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
440 vuc
= __builtin_s390_vfenezb(vuc
, vuc
);
441 // CHECK: call <16 x i8> @llvm.s390.vfenezb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
442 vus
= __builtin_s390_vfenezh(vus
, vus
);
443 // CHECK: call <8 x i16> @llvm.s390.vfenezh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
444 vui
= __builtin_s390_vfenezf(vui
, vui
);
445 // CHECK: call <4 x i32> @llvm.s390.vfenezf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
447 vuc
= __builtin_s390_vistrb(vuc
);
448 // CHECK: call <16 x i8> @llvm.s390.vistrb(<16 x i8> %{{.*}})
449 vus
= __builtin_s390_vistrh(vus
);
450 // CHECK: call <8 x i16> @llvm.s390.vistrh(<8 x i16> %{{.*}})
451 vui
= __builtin_s390_vistrf(vui
);
452 // CHECK: call <4 x i32> @llvm.s390.vistrf(<4 x i32> %{{.*}})
454 vuc
= __builtin_s390_vstrcb(vuc
, vuc
, vuc
, 0);
455 // CHECK: call <16 x i8> @llvm.s390.vstrcb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 0)
456 vuc
= __builtin_s390_vstrcb(vuc
, vuc
, vuc
, 15);
457 // CHECK: call <16 x i8> @llvm.s390.vstrcb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 15)
458 vus
= __builtin_s390_vstrch(vus
, vus
, vus
, 0);
459 // CHECK: call <8 x i16> @llvm.s390.vstrch(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 0)
460 vus
= __builtin_s390_vstrch(vus
, vus
, vus
, 15);
461 // CHECK: call <8 x i16> @llvm.s390.vstrch(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 15)
462 vui
= __builtin_s390_vstrcf(vui
, vui
, vui
, 0);
463 // CHECK: call <4 x i32> @llvm.s390.vstrcf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 0)
464 vui
= __builtin_s390_vstrcf(vui
, vui
, vui
, 15);
465 // CHECK: call <4 x i32> @llvm.s390.vstrcf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 15)
467 vuc
= __builtin_s390_vstrczb(vuc
, vuc
, vuc
, 0);
468 // CHECK: call <16 x i8> @llvm.s390.vstrczb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 0)
469 vuc
= __builtin_s390_vstrczb(vuc
, vuc
, vuc
, 15);
470 // CHECK: call <16 x i8> @llvm.s390.vstrczb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 15)
471 vus
= __builtin_s390_vstrczh(vus
, vus
, vus
, 0);
472 // CHECK: call <8 x i16> @llvm.s390.vstrczh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 0)
473 vus
= __builtin_s390_vstrczh(vus
, vus
, vus
, 15);
474 // CHECK: call <8 x i16> @llvm.s390.vstrczh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 15)
475 vui
= __builtin_s390_vstrczf(vui
, vui
, vui
, 0);
476 // CHECK: call <4 x i32> @llvm.s390.vstrczf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 0)
477 vui
= __builtin_s390_vstrczf(vui
, vui
, vui
, 15);
478 // CHECK: call <4 x i32> @llvm.s390.vstrczf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 15)
480 vuc
= __builtin_s390_vfaebs(vuc
, vuc
, 0, &cc
);
481 // CHECK: call { <16 x i8>, i32 } @llvm.s390.vfaebs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 0)
482 vuc
= __builtin_s390_vfaebs(vuc
, vuc
, 15, &cc
);
483 // CHECK: call { <16 x i8>, i32 } @llvm.s390.vfaebs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 15)
484 vus
= __builtin_s390_vfaehs(vus
, vus
, 0, &cc
);
485 // CHECK: call { <8 x i16>, i32 } @llvm.s390.vfaehs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 0)
486 vus
= __builtin_s390_vfaehs(vus
, vus
, 15, &cc
);
487 // CHECK: call { <8 x i16>, i32 } @llvm.s390.vfaehs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 15)
488 vui
= __builtin_s390_vfaefs(vui
, vui
, 0, &cc
);
489 // CHECK: call { <4 x i32>, i32 } @llvm.s390.vfaefs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 0)
490 vui
= __builtin_s390_vfaefs(vui
, vui
, 15, &cc
);
491 // CHECK: call { <4 x i32>, i32 } @llvm.s390.vfaefs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 15)
493 vuc
= __builtin_s390_vfaezbs(vuc
, vuc
, 0, &cc
);
494 // CHECK: call { <16 x i8>, i32 } @llvm.s390.vfaezbs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 0)
495 vuc
= __builtin_s390_vfaezbs(vuc
, vuc
, 15, &cc
);
496 // CHECK: call { <16 x i8>, i32 } @llvm.s390.vfaezbs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 15)
497 vus
= __builtin_s390_vfaezhs(vus
, vus
, 0, &cc
);
498 // CHECK: call { <8 x i16>, i32 } @llvm.s390.vfaezhs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 0)
499 vus
= __builtin_s390_vfaezhs(vus
, vus
, 15, &cc
);
500 // CHECK: call { <8 x i16>, i32 } @llvm.s390.vfaezhs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 15)
501 vui
= __builtin_s390_vfaezfs(vui
, vui
, 0, &cc
);
502 // CHECK: call { <4 x i32>, i32 } @llvm.s390.vfaezfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 0)
503 vui
= __builtin_s390_vfaezfs(vui
, vui
, 15, &cc
);
504 // CHECK: call { <4 x i32>, i32 } @llvm.s390.vfaezfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 15)
506 vuc
= __builtin_s390_vfeebs(vuc
, vuc
, &cc
);
507 // CHECK: call { <16 x i8>, i32 } @llvm.s390.vfeebs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
508 vus
= __builtin_s390_vfeehs(vus
, vus
, &cc
);
509 // CHECK: call { <8 x i16>, i32 } @llvm.s390.vfeehs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
510 vui
= __builtin_s390_vfeefs(vui
, vui
, &cc
);
511 // CHECK: call { <4 x i32>, i32 } @llvm.s390.vfeefs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
513 vuc
= __builtin_s390_vfeezbs(vuc
, vuc
, &cc
);
514 // CHECK: call { <16 x i8>, i32 } @llvm.s390.vfeezbs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
515 vus
= __builtin_s390_vfeezhs(vus
, vus
, &cc
);
516 // CHECK: call { <8 x i16>, i32 } @llvm.s390.vfeezhs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
517 vui
= __builtin_s390_vfeezfs(vui
, vui
, &cc
);
518 // CHECK: call { <4 x i32>, i32 } @llvm.s390.vfeezfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
520 vuc
= __builtin_s390_vfenebs(vuc
, vuc
, &cc
);
521 // CHECK: call { <16 x i8>, i32 } @llvm.s390.vfenebs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
522 vus
= __builtin_s390_vfenehs(vus
, vus
, &cc
);
523 // CHECK: call { <8 x i16>, i32 } @llvm.s390.vfenehs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
524 vui
= __builtin_s390_vfenefs(vui
, vui
, &cc
);
525 // CHECK: call { <4 x i32>, i32 } @llvm.s390.vfenefs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
527 vuc
= __builtin_s390_vfenezbs(vuc
, vuc
, &cc
);
528 // CHECK: call { <16 x i8>, i32 } @llvm.s390.vfenezbs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
529 vus
= __builtin_s390_vfenezhs(vus
, vus
, &cc
);
530 // CHECK: call { <8 x i16>, i32 } @llvm.s390.vfenezhs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
531 vui
= __builtin_s390_vfenezfs(vui
, vui
, &cc
);
532 // CHECK: call { <4 x i32>, i32 } @llvm.s390.vfenezfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
534 vuc
= __builtin_s390_vistrbs(vuc
, &cc
);
535 // CHECK: call { <16 x i8>, i32 } @llvm.s390.vistrbs(<16 x i8> %{{.*}})
536 vus
= __builtin_s390_vistrhs(vus
, &cc
);
537 // CHECK: call { <8 x i16>, i32 } @llvm.s390.vistrhs(<8 x i16> %{{.*}})
538 vui
= __builtin_s390_vistrfs(vui
, &cc
);
539 // CHECK: call { <4 x i32>, i32 } @llvm.s390.vistrfs(<4 x i32> %{{.*}})
541 vuc
= __builtin_s390_vstrcbs(vuc
, vuc
, vuc
, 0, &cc
);
542 // CHECK: call { <16 x i8>, i32 } @llvm.s390.vstrcbs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 0)
543 vuc
= __builtin_s390_vstrcbs(vuc
, vuc
, vuc
, 15, &cc
);
544 // CHECK: call { <16 x i8>, i32 } @llvm.s390.vstrcbs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 15)
545 vus
= __builtin_s390_vstrchs(vus
, vus
, vus
, 0, &cc
);
546 // CHECK: call { <8 x i16>, i32 } @llvm.s390.vstrchs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 0)
547 vus
= __builtin_s390_vstrchs(vus
, vus
, vus
, 15, &cc
);
548 // CHECK: call { <8 x i16>, i32 } @llvm.s390.vstrchs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 15)
549 vui
= __builtin_s390_vstrcfs(vui
, vui
, vui
, 0, &cc
);
550 // CHECK: call { <4 x i32>, i32 } @llvm.s390.vstrcfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 0)
551 vui
= __builtin_s390_vstrcfs(vui
, vui
, vui
, 15, &cc
);
552 // CHECK: call { <4 x i32>, i32 } @llvm.s390.vstrcfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 15)
554 vuc
= __builtin_s390_vstrczbs(vuc
, vuc
, vuc
, 0, &cc
);
555 // CHECK: call { <16 x i8>, i32 } @llvm.s390.vstrczbs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 0)
556 vuc
= __builtin_s390_vstrczbs(vuc
, vuc
, vuc
, 15, &cc
);
557 // CHECK: call { <16 x i8>, i32 } @llvm.s390.vstrczbs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 15)
558 vus
= __builtin_s390_vstrczhs(vus
, vus
, vus
, 0, &cc
);
559 // CHECK: call { <8 x i16>, i32 } @llvm.s390.vstrczhs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 0)
560 vus
= __builtin_s390_vstrczhs(vus
, vus
, vus
, 15, &cc
);
561 // CHECK: call { <8 x i16>, i32 } @llvm.s390.vstrczhs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 15)
562 vui
= __builtin_s390_vstrczfs(vui
, vui
, vui
, 0, &cc
);
563 // CHECK: call { <4 x i32>, i32 } @llvm.s390.vstrczfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 0)
564 vui
= __builtin_s390_vstrczfs(vui
, vui
, vui
, 15, &cc
);
565 // CHECK: call { <4 x i32>, i32 } @llvm.s390.vstrczfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 15)
568 void test_float(void) {
569 vsl
= __builtin_s390_vfcedbs(vd
, vd
, &cc
);
570 // CHECK: call { <2 x i64>, i32 } @llvm.s390.vfcedbs(<2 x double> %{{.*}}, <2 x double> %{{.*}})
571 vsl
= __builtin_s390_vfchdbs(vd
, vd
, &cc
);
572 // CHECK: call { <2 x i64>, i32 } @llvm.s390.vfchdbs(<2 x double> %{{.*}}, <2 x double> %{{.*}})
573 vsl
= __builtin_s390_vfchedbs(vd
, vd
, &cc
);
574 // CHECK: call { <2 x i64>, i32 } @llvm.s390.vfchedbs(<2 x double> %{{.*}}, <2 x double> %{{.*}})
576 vsl
= __builtin_s390_vftcidb(vd
, 0, &cc
);
577 // CHECK: call { <2 x i64>, i32 } @llvm.s390.vftcidb(<2 x double> %{{.*}}, i32 0)
578 vsl
= __builtin_s390_vftcidb(vd
, 4095, &cc
);
579 // CHECK: call { <2 x i64>, i32 } @llvm.s390.vftcidb(<2 x double> %{{.*}}, i32 4095)
581 vd
= __builtin_s390_vfsqdb(vd
);
582 // CHECK: call <2 x double> @llvm.sqrt.v2f64(<2 x double> %{{.*}})
584 vd
= __builtin_s390_vfmadb(vd
, vd
, vd
);
585 // CHECK: call <2 x double> @llvm.fma.v2f64(<2 x double> %{{.*}}, <2 x double> %{{.*}}, <2 x double> %{{.*}})
586 vd
= __builtin_s390_vfmsdb(vd
, vd
, vd
);
587 // CHECK: [[NEG:%[^ ]+]] = fneg <2 x double> %{{.*}}
588 // CHECK: call <2 x double> @llvm.fma.v2f64(<2 x double> %{{.*}}, <2 x double> %{{.*}}, <2 x double> [[NEG]])
590 vd
= __builtin_s390_vflpdb(vd
);
591 // CHECK: call <2 x double> @llvm.fabs.v2f64(<2 x double> %{{.*}})
592 vd
= __builtin_s390_vflndb(vd
);
593 // CHECK: [[ABS:%[^ ]+]] = call <2 x double> @llvm.fabs.v2f64(<2 x double> %{{.*}})
594 // CHECK: fneg <2 x double> [[ABS]]
596 vd
= __builtin_s390_vfidb(vd
, 0, 0);
597 // CHECK: call <2 x double> @llvm.rint.v2f64(<2 x double> %{{.*}})
598 vd
= __builtin_s390_vfidb(vd
, 4, 0);
599 // CHECK: call <2 x double> @llvm.nearbyint.v2f64(<2 x double> %{{.*}})
600 vd
= __builtin_s390_vfidb(vd
, 4, 1);
601 // CHECK: call <2 x double> @llvm.round.v2f64(<2 x double> %{{.*}})
602 vd
= __builtin_s390_vfidb(vd
, 4, 5);
603 // CHECK: call <2 x double> @llvm.trunc.v2f64(<2 x double> %{{.*}})
604 vd
= __builtin_s390_vfidb(vd
, 4, 6);
605 // CHECK: call <2 x double> @llvm.ceil.v2f64(<2 x double> %{{.*}})
606 vd
= __builtin_s390_vfidb(vd
, 4, 7);
607 // CHECK: call <2 x double> @llvm.floor.v2f64(<2 x double> %{{.*}})
608 vd
= __builtin_s390_vfidb(vd
, 4, 4);
609 // CHECK: call <2 x double> @llvm.s390.vfidb(<2 x double> %{{.*}}, i32 4, i32 4)