1 // REQUIRES: systemz-registered-target
2 // RUN: %clang_cc1 -target-cpu z13 -triple s390x-ibm-linux -flax-vector-conversions=none \
3 // RUN: -Wall -Wno-unused -Werror -emit-llvm %s -o - | FileCheck %s
5 typedef __attribute__((vector_size(16))) signed char vec_schar
;
6 typedef __attribute__((vector_size(16))) signed short vec_sshort
;
7 typedef __attribute__((vector_size(16))) signed int vec_sint
;
8 typedef __attribute__((vector_size(16))) signed long long vec_slong
;
9 typedef __attribute__((vector_size(16))) unsigned char vec_uchar
;
10 typedef __attribute__((vector_size(16))) unsigned short vec_ushort
;
11 typedef __attribute__((vector_size(16))) unsigned int vec_uint
;
12 typedef __attribute__((vector_size(16))) unsigned long long vec_ulong
;
13 typedef __attribute__((vector_size(16))) double vec_double
;
15 volatile vec_schar vsc
;
16 volatile vec_sshort vss
;
17 volatile vec_sint vsi
;
18 volatile vec_slong vsl
;
19 volatile vec_uchar vuc
;
20 volatile vec_ushort vus
;
21 volatile vec_uint vui
;
22 volatile vec_ulong vul
;
23 volatile vec_double vd
;
24 volatile signed __int128 si128
;
25 volatile unsigned __int128 ui128
;
27 volatile unsigned int len
;
28 volatile unsigned char amt
;
29 const void * volatile cptr
;
33 void test_core(void) {
34 len
= __builtin_s390_lcbb(cptr
, 0);
35 // CHECK: call i32 @llvm.s390.lcbb(ptr %{{.*}}, i32 0)
36 len
= __builtin_s390_lcbb(cptr
, 15);
37 // CHECK: call i32 @llvm.s390.lcbb(ptr %{{.*}}, i32 15)
39 vsc
= __builtin_s390_vlbb(cptr
, 0);
40 // CHECK: call <16 x i8> @llvm.s390.vlbb(ptr %{{.*}}, i32 0)
41 vsc
= __builtin_s390_vlbb(cptr
, 15);
42 // CHECK: call <16 x i8> @llvm.s390.vlbb(ptr %{{.*}}, i32 15)
44 vsc
= __builtin_s390_vll(len
, cptr
);
45 // CHECK: call <16 x i8> @llvm.s390.vll(i32 %{{.*}}, ptr %{{.*}})
47 vul
= __builtin_s390_vpdi(vul
, vul
, 0);
48 // CHECK: call <2 x i64> @llvm.s390.vpdi(<2 x i64> %{{.*}}, <2 x i64> %{{.*}}, i32 0)
49 vul
= __builtin_s390_vpdi(vul
, vul
, 15);
50 // CHECK: call <2 x i64> @llvm.s390.vpdi(<2 x i64> %{{.*}}, <2 x i64> %{{.*}}, i32 15)
52 vuc
= __builtin_s390_vperm(vuc
, vuc
, vuc
);
53 // CHECK: call <16 x i8> @llvm.s390.vperm(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}})
55 vuc
= __builtin_s390_vpklsh(vus
, vus
);
56 // CHECK: call <16 x i8> @llvm.s390.vpklsh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
57 vus
= __builtin_s390_vpklsf(vui
, vui
);
58 // CHECK: call <8 x i16> @llvm.s390.vpklsf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
59 vui
= __builtin_s390_vpklsg(vul
, vul
);
60 // CHECK: call <4 x i32> @llvm.s390.vpklsg(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
62 vuc
= __builtin_s390_vpklshs(vus
, vus
, &cc
);
63 // CHECK: call { <16 x i8>, i32 } @llvm.s390.vpklshs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
64 vus
= __builtin_s390_vpklsfs(vui
, vui
, &cc
);
65 // CHECK: call { <8 x i16>, i32 } @llvm.s390.vpklsfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
66 vui
= __builtin_s390_vpklsgs(vul
, vul
, &cc
);
67 // CHECK: call { <4 x i32>, i32 } @llvm.s390.vpklsgs(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
69 vsc
= __builtin_s390_vpksh(vss
, vss
);
70 // CHECK: call <16 x i8> @llvm.s390.vpksh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
71 vss
= __builtin_s390_vpksf(vsi
, vsi
);
72 // CHECK: call <8 x i16> @llvm.s390.vpksf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
73 vsi
= __builtin_s390_vpksg(vsl
, vsl
);
74 // CHECK: call <4 x i32> @llvm.s390.vpksg(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
76 vsc
= __builtin_s390_vpkshs(vss
, vss
, &cc
);
77 // CHECK: call { <16 x i8>, i32 } @llvm.s390.vpkshs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
78 vss
= __builtin_s390_vpksfs(vsi
, vsi
, &cc
);
79 // CHECK: call { <8 x i16>, i32 } @llvm.s390.vpksfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
80 vsi
= __builtin_s390_vpksgs(vsl
, vsl
, &cc
);
81 // CHECK: call { <4 x i32>, i32 } @llvm.s390.vpksgs(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
83 __builtin_s390_vstl(vsc
, len
, ptr
);
84 // CHECK: call void @llvm.s390.vstl(<16 x i8> %{{.*}}, i32 %{{.*}}, ptr %{{.*}})
86 vss
= __builtin_s390_vuphb(vsc
);
87 // CHECK: call <8 x i16> @llvm.s390.vuphb(<16 x i8> %{{.*}})
88 vsi
= __builtin_s390_vuphh(vss
);
89 // CHECK: call <4 x i32> @llvm.s390.vuphh(<8 x i16> %{{.*}})
90 vsl
= __builtin_s390_vuphf(vsi
);
91 // CHECK: call <2 x i64> @llvm.s390.vuphf(<4 x i32> %{{.*}})
93 vss
= __builtin_s390_vuplb(vsc
);
94 // CHECK: call <8 x i16> @llvm.s390.vuplb(<16 x i8> %{{.*}})
95 vsi
= __builtin_s390_vuplhw(vss
);
96 // CHECK: call <4 x i32> @llvm.s390.vuplhw(<8 x i16> %{{.*}})
97 vsl
= __builtin_s390_vuplf(vsi
);
98 // CHECK: call <2 x i64> @llvm.s390.vuplf(<4 x i32> %{{.*}})
100 vus
= __builtin_s390_vuplhb(vuc
);
101 // CHECK: call <8 x i16> @llvm.s390.vuplhb(<16 x i8> %{{.*}})
102 vui
= __builtin_s390_vuplhh(vus
);
103 // CHECK: call <4 x i32> @llvm.s390.vuplhh(<8 x i16> %{{.*}})
104 vul
= __builtin_s390_vuplhf(vui
);
105 // CHECK: call <2 x i64> @llvm.s390.vuplhf(<4 x i32> %{{.*}})
107 vus
= __builtin_s390_vupllb(vuc
);
108 // CHECK: call <8 x i16> @llvm.s390.vupllb(<16 x i8> %{{.*}})
109 vui
= __builtin_s390_vupllh(vus
);
110 // CHECK: call <4 x i32> @llvm.s390.vupllh(<8 x i16> %{{.*}})
111 vul
= __builtin_s390_vupllf(vui
);
112 // CHECK: call <2 x i64> @llvm.s390.vupllf(<4 x i32> %{{.*}})
115 void test_integer(void) {
116 si128
= __builtin_s390_vaq(si128
, si128
);
117 // CHECK: call i128 @llvm.s390.vaq(i128 %{{.*}}, i128 %{{.*}})
118 ui128
= __builtin_s390_vacq(ui128
, ui128
, ui128
);
119 // CHECK: call i128 @llvm.s390.vacq(i128 %{{.*}}, i128 %{{.*}}, i128 %{{.*}})
120 ui128
= __builtin_s390_vaccq(ui128
, ui128
);
121 // CHECK: call i128 @llvm.s390.vaccq(i128 %{{.*}}, i128 %{{.*}})
122 ui128
= __builtin_s390_vacccq(ui128
, ui128
, ui128
);
123 // CHECK: call i128 @llvm.s390.vacccq(i128 %{{.*}}, i128 %{{.*}}, i128 %{{.*}})
125 vuc
= __builtin_s390_vaccb(vuc
, vuc
);
126 // CHECK: call <16 x i8> @llvm.s390.vaccb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
127 vus
= __builtin_s390_vacch(vus
, vus
);
128 // CHECK: call <8 x i16> @llvm.s390.vacch(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
129 vui
= __builtin_s390_vaccf(vui
, vui
);
130 // CHECK: call <4 x i32> @llvm.s390.vaccf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
131 vul
= __builtin_s390_vaccg(vul
, vul
);
132 // CHECK: call <2 x i64> @llvm.s390.vaccg(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
134 vsc
= __builtin_s390_vavgb(vsc
, vsc
);
135 // CHECK: call <16 x i8> @llvm.s390.vavgb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
136 vss
= __builtin_s390_vavgh(vss
, vss
);
137 // CHECK: call <8 x i16> @llvm.s390.vavgh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
138 vsi
= __builtin_s390_vavgf(vsi
, vsi
);
139 // CHECK: call <4 x i32> @llvm.s390.vavgf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
140 vsl
= __builtin_s390_vavgg(vsl
, vsl
);
141 // CHECK: call <2 x i64> @llvm.s390.vavgg(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
143 vuc
= __builtin_s390_vavglb(vuc
, vuc
);
144 // CHECK: call <16 x i8> @llvm.s390.vavglb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
145 vus
= __builtin_s390_vavglh(vus
, vus
);
146 // CHECK: call <8 x i16> @llvm.s390.vavglh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
147 vui
= __builtin_s390_vavglf(vui
, vui
);
148 // CHECK: call <4 x i32> @llvm.s390.vavglf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
149 vul
= __builtin_s390_vavglg(vul
, vul
);
150 // CHECK: call <2 x i64> @llvm.s390.vavglg(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
152 vui
= __builtin_s390_vcksm(vui
, vui
);
153 // CHECK: call <4 x i32> @llvm.s390.vcksm(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
155 vuc
= __builtin_s390_vclzb(vuc
);
156 // CHECK: call <16 x i8> @llvm.ctlz.v16i8(<16 x i8> %{{.*}}, i1 false)
157 vus
= __builtin_s390_vclzh(vus
);
158 // CHECK: call <8 x i16> @llvm.ctlz.v8i16(<8 x i16> %{{.*}}, i1 false)
159 vui
= __builtin_s390_vclzf(vui
);
160 // CHECK: call <4 x i32> @llvm.ctlz.v4i32(<4 x i32> %{{.*}}, i1 false)
161 vul
= __builtin_s390_vclzg(vul
);
162 // CHECK: call <2 x i64> @llvm.ctlz.v2i64(<2 x i64> %{{.*}}, i1 false)
164 vuc
= __builtin_s390_vctzb(vuc
);
165 // CHECK: call <16 x i8> @llvm.cttz.v16i8(<16 x i8> %{{.*}}, i1 false)
166 vus
= __builtin_s390_vctzh(vus
);
167 // CHECK: call <8 x i16> @llvm.cttz.v8i16(<8 x i16> %{{.*}}, i1 false)
168 vui
= __builtin_s390_vctzf(vui
);
169 // CHECK: call <4 x i32> @llvm.cttz.v4i32(<4 x i32> %{{.*}}, i1 false)
170 vul
= __builtin_s390_vctzg(vul
);
171 // CHECK: call <2 x i64> @llvm.cttz.v2i64(<2 x i64> %{{.*}}, i1 false)
173 vuc
= __builtin_s390_verimb(vuc
, vuc
, vuc
, 0);
174 // CHECK: call <16 x i8> @llvm.s390.verimb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 0)
175 vuc
= __builtin_s390_verimb(vuc
, vuc
, vuc
, 255);
176 // CHECK: call <16 x i8> @llvm.s390.verimb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 255)
177 vus
= __builtin_s390_verimh(vus
, vus
, vus
, 0);
178 // CHECK: call <8 x i16> @llvm.s390.verimh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 0)
179 vus
= __builtin_s390_verimh(vus
, vus
, vus
, 255);
180 // CHECK: call <8 x i16> @llvm.s390.verimh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 255)
181 vui
= __builtin_s390_verimf(vui
, vui
, vui
, 0);
182 // CHECK: call <4 x i32> @llvm.s390.verimf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 0)
183 vui
= __builtin_s390_verimf(vui
, vui
, vui
, 255);
184 // CHECK: call <4 x i32> @llvm.s390.verimf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 255)
185 vul
= __builtin_s390_verimg(vul
, vul
, vul
, 0);
186 // CHECK: call <2 x i64> @llvm.s390.verimg(<2 x i64> %{{.*}}, <2 x i64> %{{.*}}, <2 x i64> %{{.*}}, i32 0)
187 vul
= __builtin_s390_verimg(vul
, vul
, vul
, 255);
188 // CHECK: call <2 x i64> @llvm.s390.verimg(<2 x i64> %{{.*}}, <2 x i64> %{{.*}}, <2 x i64> %{{.*}}, i32 255)
190 vuc
= __builtin_s390_verllb(vuc
, amt
);
191 // CHECK: call <16 x i8> @llvm.fshl.v16i8(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}})
192 vus
= __builtin_s390_verllh(vus
, amt
);
193 // CHECK: call <8 x i16> @llvm.fshl.v8i16(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}})
194 vui
= __builtin_s390_verllf(vui
, amt
);
195 // CHECK: call <4 x i32> @llvm.fshl.v4i32(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}})
196 vul
= __builtin_s390_verllg(vul
, amt
);
197 // CHECK: call <2 x i64> @llvm.fshl.v2i64(<2 x i64> %{{.*}}, <2 x i64> %{{.*}}, <2 x i64> %{{.*}})
199 vuc
= __builtin_s390_verllvb(vuc
, vuc
);
200 // CHECK: call <16 x i8> @llvm.fshl.v16i8(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}})
201 vus
= __builtin_s390_verllvh(vus
, vus
);
202 // CHECK: call <8 x i16> @llvm.fshl.v8i16(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}})
203 vui
= __builtin_s390_verllvf(vui
, vui
);
204 // CHECK: call <4 x i32> @llvm.fshl.v4i32(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}})
205 vul
= __builtin_s390_verllvg(vul
, vul
);
206 // CHECK: call <2 x i64> @llvm.fshl.v2i64(<2 x i64> %{{.*}}, <2 x i64> %{{.*}}, <2 x i64> %{{.*}})
208 vus
= __builtin_s390_vgfmb(vuc
, vuc
);
209 // CHECK: call <8 x i16> @llvm.s390.vgfmb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
210 vui
= __builtin_s390_vgfmh(vus
, vus
);
211 // CHECK: call <4 x i32> @llvm.s390.vgfmh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
212 vul
= __builtin_s390_vgfmf(vui
, vui
);
213 // CHECK: call <2 x i64> @llvm.s390.vgfmf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
214 ui128
= __builtin_s390_vgfmg(vul
, vul
);
215 // CHECK: call i128 @llvm.s390.vgfmg(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
217 vus
= __builtin_s390_vgfmab(vuc
, vuc
, vus
);
218 // CHECK: call <8 x i16> @llvm.s390.vgfmab(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <8 x i16> %{{.*}})
219 vui
= __builtin_s390_vgfmah(vus
, vus
, vui
);
220 // CHECK: call <4 x i32> @llvm.s390.vgfmah(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <4 x i32> %{{.*}})
221 vul
= __builtin_s390_vgfmaf(vui
, vui
, vul
);
222 // CHECK: call <2 x i64> @llvm.s390.vgfmaf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <2 x i64> %{{.*}})
223 ui128
= __builtin_s390_vgfmag(vul
, vul
, ui128
);
224 // CHECK: call i128 @llvm.s390.vgfmag(<2 x i64> %{{.*}}, <2 x i64> %{{.*}}, i128 %{{.*}})
226 vsc
= __builtin_s390_vmahb(vsc
, vsc
, vsc
);
227 // CHECK: call <16 x i8> @llvm.s390.vmahb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}})
228 vss
= __builtin_s390_vmahh(vss
, vss
, vss
);
229 // CHECK: call <8 x i16> @llvm.s390.vmahh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}})
230 vsi
= __builtin_s390_vmahf(vsi
, vsi
, vsi
);
231 // CHECK: call <4 x i32> @llvm.s390.vmahf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}})
232 vuc
= __builtin_s390_vmalhb(vuc
, vuc
, vuc
);
233 // CHECK: call <16 x i8> @llvm.s390.vmalhb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}})
234 vus
= __builtin_s390_vmalhh(vus
, vus
, vus
);
235 // CHECK: call <8 x i16> @llvm.s390.vmalhh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}})
236 vui
= __builtin_s390_vmalhf(vui
, vui
, vui
);
237 // CHECK: call <4 x i32> @llvm.s390.vmalhf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}})
239 vss
= __builtin_s390_vmaeb(vsc
, vsc
, vss
);
240 // CHECK: call <8 x i16> @llvm.s390.vmaeb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <8 x i16> %{{.*}})
241 vsi
= __builtin_s390_vmaeh(vss
, vss
, vsi
);
242 // CHECK: call <4 x i32> @llvm.s390.vmaeh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <4 x i32> %{{.*}})
243 vsl
= __builtin_s390_vmaef(vsi
, vsi
, vsl
);
244 // CHECK: call <2 x i64> @llvm.s390.vmaef(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <2 x i64> %{{.*}})
245 vus
= __builtin_s390_vmaleb(vuc
, vuc
, vus
);
246 // CHECK: call <8 x i16> @llvm.s390.vmaleb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <8 x i16> %{{.*}})
247 vui
= __builtin_s390_vmaleh(vus
, vus
, vui
);
248 // CHECK: call <4 x i32> @llvm.s390.vmaleh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <4 x i32> %{{.*}})
249 vul
= __builtin_s390_vmalef(vui
, vui
, vul
);
250 // CHECK: call <2 x i64> @llvm.s390.vmalef(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <2 x i64> %{{.*}})
252 vss
= __builtin_s390_vmaob(vsc
, vsc
, vss
);
253 // CHECK: call <8 x i16> @llvm.s390.vmaob(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <8 x i16> %{{.*}})
254 vsi
= __builtin_s390_vmaoh(vss
, vss
, vsi
);
255 // CHECK: call <4 x i32> @llvm.s390.vmaoh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <4 x i32> %{{.*}})
256 vsl
= __builtin_s390_vmaof(vsi
, vsi
, vsl
);
257 // CHECK: call <2 x i64> @llvm.s390.vmaof(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <2 x i64> %{{.*}})
258 vus
= __builtin_s390_vmalob(vuc
, vuc
, vus
);
259 // CHECK: call <8 x i16> @llvm.s390.vmalob(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <8 x i16> %{{.*}})
260 vui
= __builtin_s390_vmaloh(vus
, vus
, vui
);
261 // CHECK: call <4 x i32> @llvm.s390.vmaloh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <4 x i32> %{{.*}})
262 vul
= __builtin_s390_vmalof(vui
, vui
, vul
);
263 // CHECK: call <2 x i64> @llvm.s390.vmalof(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <2 x i64> %{{.*}})
265 vsc
= __builtin_s390_vmhb(vsc
, vsc
);
266 // CHECK: call <16 x i8> @llvm.s390.vmhb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
267 vss
= __builtin_s390_vmhh(vss
, vss
);
268 // CHECK: call <8 x i16> @llvm.s390.vmhh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
269 vsi
= __builtin_s390_vmhf(vsi
, vsi
);
270 // CHECK: call <4 x i32> @llvm.s390.vmhf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
271 vuc
= __builtin_s390_vmlhb(vuc
, vuc
);
272 // CHECK: call <16 x i8> @llvm.s390.vmlhb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
273 vus
= __builtin_s390_vmlhh(vus
, vus
);
274 // CHECK: call <8 x i16> @llvm.s390.vmlhh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
275 vui
= __builtin_s390_vmlhf(vui
, vui
);
276 // CHECK: call <4 x i32> @llvm.s390.vmlhf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
278 vss
= __builtin_s390_vmeb(vsc
, vsc
);
279 // CHECK: call <8 x i16> @llvm.s390.vmeb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
280 vsi
= __builtin_s390_vmeh(vss
, vss
);
281 // CHECK: call <4 x i32> @llvm.s390.vmeh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
282 vsl
= __builtin_s390_vmef(vsi
, vsi
);
283 // CHECK: call <2 x i64> @llvm.s390.vmef(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
284 vus
= __builtin_s390_vmleb(vuc
, vuc
);
285 // CHECK: call <8 x i16> @llvm.s390.vmleb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
286 vui
= __builtin_s390_vmleh(vus
, vus
);
287 // CHECK: call <4 x i32> @llvm.s390.vmleh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
288 vul
= __builtin_s390_vmlef(vui
, vui
);
289 // CHECK: call <2 x i64> @llvm.s390.vmlef(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
291 vss
= __builtin_s390_vmob(vsc
, vsc
);
292 // CHECK: call <8 x i16> @llvm.s390.vmob(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
293 vsi
= __builtin_s390_vmoh(vss
, vss
);
294 // CHECK: call <4 x i32> @llvm.s390.vmoh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
295 vsl
= __builtin_s390_vmof(vsi
, vsi
);
296 // CHECK: call <2 x i64> @llvm.s390.vmof(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
297 vus
= __builtin_s390_vmlob(vuc
, vuc
);
298 // CHECK: call <8 x i16> @llvm.s390.vmlob(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
299 vui
= __builtin_s390_vmloh(vus
, vus
);
300 // CHECK: call <4 x i32> @llvm.s390.vmloh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
301 vul
= __builtin_s390_vmlof(vui
, vui
);
302 // CHECK: call <2 x i64> @llvm.s390.vmlof(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
304 si128
= __builtin_s390_vsq(si128
, si128
);
305 // CHECK: call i128 @llvm.s390.vsq(i128 %{{.*}}, i128 %{{.*}})
306 ui128
= __builtin_s390_vsbiq(ui128
, ui128
, ui128
);
307 // CHECK: call i128 @llvm.s390.vsbiq(i128 %{{.*}}, i128 %{{.*}}, i128 %{{.*}})
308 ui128
= __builtin_s390_vscbiq(ui128
, ui128
);
309 // CHECK: call i128 @llvm.s390.vscbiq(i128 %{{.*}}, i128 %{{.*}})
310 ui128
= __builtin_s390_vsbcbiq(ui128
, ui128
, ui128
);
311 // CHECK: call i128 @llvm.s390.vsbcbiq(i128 %{{.*}}, i128 %{{.*}}, i128 %{{.*}})
313 vuc
= __builtin_s390_vscbib(vuc
, vuc
);
314 // CHECK: call <16 x i8> @llvm.s390.vscbib(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
315 vus
= __builtin_s390_vscbih(vus
, vus
);
316 // CHECK: call <8 x i16> @llvm.s390.vscbih(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
317 vui
= __builtin_s390_vscbif(vui
, vui
);
318 // CHECK: call <4 x i32> @llvm.s390.vscbif(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
319 vul
= __builtin_s390_vscbig(vul
, vul
);
320 // CHECK: call <2 x i64> @llvm.s390.vscbig(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
322 vuc
= __builtin_s390_vsldb(vuc
, vuc
, 0);
323 // CHECK: call <16 x i8> @llvm.s390.vsldb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 0)
324 vuc
= __builtin_s390_vsldb(vuc
, vuc
, 15);
325 // CHECK: call <16 x i8> @llvm.s390.vsldb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 15)
327 vuc
= __builtin_s390_vsl(vuc
, vuc
);
328 // CHECK: call <16 x i8> @llvm.s390.vsl(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
329 vuc
= __builtin_s390_vslb(vuc
, vuc
);
330 // CHECK: call <16 x i8> @llvm.s390.vslb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
332 vuc
= __builtin_s390_vsra(vuc
, vuc
);
333 // CHECK: call <16 x i8> @llvm.s390.vsra(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
334 vuc
= __builtin_s390_vsrab(vuc
, vuc
);
335 // CHECK: call <16 x i8> @llvm.s390.vsrab(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
337 vuc
= __builtin_s390_vsrl(vuc
, vuc
);
338 // CHECK: call <16 x i8> @llvm.s390.vsrl(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
339 vuc
= __builtin_s390_vsrlb(vuc
, vuc
);
340 // CHECK: call <16 x i8> @llvm.s390.vsrlb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
342 vui
= __builtin_s390_vsumb(vuc
, vuc
);
343 // CHECK: call <4 x i32> @llvm.s390.vsumb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
344 vui
= __builtin_s390_vsumh(vus
, vus
);
345 // CHECK: call <4 x i32> @llvm.s390.vsumh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
346 vul
= __builtin_s390_vsumgh(vus
, vus
);
347 // CHECK: call <2 x i64> @llvm.s390.vsumgh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
348 vul
= __builtin_s390_vsumgf(vui
, vui
);
349 // CHECK: call <2 x i64> @llvm.s390.vsumgf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
350 ui128
= __builtin_s390_vsumqf(vui
, vui
);
351 // CHECK: call i128 @llvm.s390.vsumqf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
352 ui128
= __builtin_s390_vsumqg(vul
, vul
);
353 // CHECK: call i128 @llvm.s390.vsumqg(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
355 len
= __builtin_s390_vtm(vuc
, vuc
);
356 // CHECK: call i32 @llvm.s390.vtm(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
358 vsc
= __builtin_s390_vceqbs(vuc
, vuc
, &cc
);
359 // CHECK: call { <16 x i8>, i32 } @llvm.s390.vceqbs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
360 vss
= __builtin_s390_vceqhs(vus
, vus
, &cc
);
361 // CHECK: call { <8 x i16>, i32 } @llvm.s390.vceqhs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
362 vsi
= __builtin_s390_vceqfs(vui
, vui
, &cc
);
363 // CHECK: call { <4 x i32>, i32 } @llvm.s390.vceqfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
364 vsl
= __builtin_s390_vceqgs(vul
, vul
, &cc
);
365 // CHECK: call { <2 x i64>, i32 } @llvm.s390.vceqgs(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
367 vsc
= __builtin_s390_vchbs(vsc
, vsc
, &cc
);
368 // CHECK: call { <16 x i8>, i32 } @llvm.s390.vchbs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
369 vss
= __builtin_s390_vchhs(vss
, vss
, &cc
);
370 // CHECK: call { <8 x i16>, i32 } @llvm.s390.vchhs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
371 vsi
= __builtin_s390_vchfs(vsi
, vsi
, &cc
);
372 // CHECK: call { <4 x i32>, i32 } @llvm.s390.vchfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
373 vsl
= __builtin_s390_vchgs(vsl
, vsl
, &cc
);
374 // CHECK: call { <2 x i64>, i32 } @llvm.s390.vchgs(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
376 vsc
= __builtin_s390_vchlbs(vuc
, vuc
, &cc
);
377 // CHECK: call { <16 x i8>, i32 } @llvm.s390.vchlbs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
378 vss
= __builtin_s390_vchlhs(vus
, vus
, &cc
);
379 // CHECK: call { <8 x i16>, i32 } @llvm.s390.vchlhs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
380 vsi
= __builtin_s390_vchlfs(vui
, vui
, &cc
);
381 // CHECK: call { <4 x i32>, i32 } @llvm.s390.vchlfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
382 vsl
= __builtin_s390_vchlgs(vul
, vul
, &cc
);
383 // CHECK: call { <2 x i64>, i32 } @llvm.s390.vchlgs(<2 x i64> %{{.*}}, <2 x i64> %{{.*}})
386 void test_string(void) {
387 vuc
= __builtin_s390_vfaeb(vuc
, vuc
, 0);
388 // CHECK: call <16 x i8> @llvm.s390.vfaeb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 0)
389 vuc
= __builtin_s390_vfaeb(vuc
, vuc
, 15);
390 // CHECK: call <16 x i8> @llvm.s390.vfaeb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 15)
391 vus
= __builtin_s390_vfaeh(vus
, vus
, 0);
392 // CHECK: call <8 x i16> @llvm.s390.vfaeh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 0)
393 vus
= __builtin_s390_vfaeh(vus
, vus
, 15);
394 // CHECK: call <8 x i16> @llvm.s390.vfaeh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 15)
395 vui
= __builtin_s390_vfaef(vui
, vui
, 0);
396 // CHECK: call <4 x i32> @llvm.s390.vfaef(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 0)
397 vui
= __builtin_s390_vfaef(vui
, vui
, 15);
398 // CHECK: call <4 x i32> @llvm.s390.vfaef(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 15)
400 vuc
= __builtin_s390_vfaezb(vuc
, vuc
, 0);
401 // CHECK: call <16 x i8> @llvm.s390.vfaezb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 0)
402 vuc
= __builtin_s390_vfaezb(vuc
, vuc
, 15);
403 // CHECK: call <16 x i8> @llvm.s390.vfaezb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 15)
404 vus
= __builtin_s390_vfaezh(vus
, vus
, 0);
405 // CHECK: call <8 x i16> @llvm.s390.vfaezh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 0)
406 vus
= __builtin_s390_vfaezh(vus
, vus
, 15);
407 // CHECK: call <8 x i16> @llvm.s390.vfaezh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 15)
408 vui
= __builtin_s390_vfaezf(vui
, vui
, 0);
409 // CHECK: call <4 x i32> @llvm.s390.vfaezf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 0)
410 vui
= __builtin_s390_vfaezf(vui
, vui
, 15);
411 // CHECK: call <4 x i32> @llvm.s390.vfaezf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 15)
413 vuc
= __builtin_s390_vfeeb(vuc
, vuc
);
414 // CHECK: call <16 x i8> @llvm.s390.vfeeb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
415 vus
= __builtin_s390_vfeeh(vus
, vus
);
416 // CHECK: call <8 x i16> @llvm.s390.vfeeh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
417 vui
= __builtin_s390_vfeef(vui
, vui
);
418 // CHECK: call <4 x i32> @llvm.s390.vfeef(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
420 vuc
= __builtin_s390_vfeezb(vuc
, vuc
);
421 // CHECK: call <16 x i8> @llvm.s390.vfeezb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
422 vus
= __builtin_s390_vfeezh(vus
, vus
);
423 // CHECK: call <8 x i16> @llvm.s390.vfeezh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
424 vui
= __builtin_s390_vfeezf(vui
, vui
);
425 // CHECK: call <4 x i32> @llvm.s390.vfeezf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
427 vuc
= __builtin_s390_vfeneb(vuc
, vuc
);
428 // CHECK: call <16 x i8> @llvm.s390.vfeneb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
429 vus
= __builtin_s390_vfeneh(vus
, vus
);
430 // CHECK: call <8 x i16> @llvm.s390.vfeneh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
431 vui
= __builtin_s390_vfenef(vui
, vui
);
432 // CHECK: call <4 x i32> @llvm.s390.vfenef(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
434 vuc
= __builtin_s390_vfenezb(vuc
, vuc
);
435 // CHECK: call <16 x i8> @llvm.s390.vfenezb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
436 vus
= __builtin_s390_vfenezh(vus
, vus
);
437 // CHECK: call <8 x i16> @llvm.s390.vfenezh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
438 vui
= __builtin_s390_vfenezf(vui
, vui
);
439 // CHECK: call <4 x i32> @llvm.s390.vfenezf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
441 vuc
= __builtin_s390_vistrb(vuc
);
442 // CHECK: call <16 x i8> @llvm.s390.vistrb(<16 x i8> %{{.*}})
443 vus
= __builtin_s390_vistrh(vus
);
444 // CHECK: call <8 x i16> @llvm.s390.vistrh(<8 x i16> %{{.*}})
445 vui
= __builtin_s390_vistrf(vui
);
446 // CHECK: call <4 x i32> @llvm.s390.vistrf(<4 x i32> %{{.*}})
448 vuc
= __builtin_s390_vstrcb(vuc
, vuc
, vuc
, 0);
449 // CHECK: call <16 x i8> @llvm.s390.vstrcb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 0)
450 vuc
= __builtin_s390_vstrcb(vuc
, vuc
, vuc
, 15);
451 // CHECK: call <16 x i8> @llvm.s390.vstrcb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 15)
452 vus
= __builtin_s390_vstrch(vus
, vus
, vus
, 0);
453 // CHECK: call <8 x i16> @llvm.s390.vstrch(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 0)
454 vus
= __builtin_s390_vstrch(vus
, vus
, vus
, 15);
455 // CHECK: call <8 x i16> @llvm.s390.vstrch(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 15)
456 vui
= __builtin_s390_vstrcf(vui
, vui
, vui
, 0);
457 // CHECK: call <4 x i32> @llvm.s390.vstrcf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 0)
458 vui
= __builtin_s390_vstrcf(vui
, vui
, vui
, 15);
459 // CHECK: call <4 x i32> @llvm.s390.vstrcf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 15)
461 vuc
= __builtin_s390_vstrczb(vuc
, vuc
, vuc
, 0);
462 // CHECK: call <16 x i8> @llvm.s390.vstrczb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 0)
463 vuc
= __builtin_s390_vstrczb(vuc
, vuc
, vuc
, 15);
464 // CHECK: call <16 x i8> @llvm.s390.vstrczb(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 15)
465 vus
= __builtin_s390_vstrczh(vus
, vus
, vus
, 0);
466 // CHECK: call <8 x i16> @llvm.s390.vstrczh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 0)
467 vus
= __builtin_s390_vstrczh(vus
, vus
, vus
, 15);
468 // CHECK: call <8 x i16> @llvm.s390.vstrczh(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 15)
469 vui
= __builtin_s390_vstrczf(vui
, vui
, vui
, 0);
470 // CHECK: call <4 x i32> @llvm.s390.vstrczf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 0)
471 vui
= __builtin_s390_vstrczf(vui
, vui
, vui
, 15);
472 // CHECK: call <4 x i32> @llvm.s390.vstrczf(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 15)
474 vuc
= __builtin_s390_vfaebs(vuc
, vuc
, 0, &cc
);
475 // CHECK: call { <16 x i8>, i32 } @llvm.s390.vfaebs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 0)
476 vuc
= __builtin_s390_vfaebs(vuc
, vuc
, 15, &cc
);
477 // CHECK: call { <16 x i8>, i32 } @llvm.s390.vfaebs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 15)
478 vus
= __builtin_s390_vfaehs(vus
, vus
, 0, &cc
);
479 // CHECK: call { <8 x i16>, i32 } @llvm.s390.vfaehs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 0)
480 vus
= __builtin_s390_vfaehs(vus
, vus
, 15, &cc
);
481 // CHECK: call { <8 x i16>, i32 } @llvm.s390.vfaehs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 15)
482 vui
= __builtin_s390_vfaefs(vui
, vui
, 0, &cc
);
483 // CHECK: call { <4 x i32>, i32 } @llvm.s390.vfaefs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 0)
484 vui
= __builtin_s390_vfaefs(vui
, vui
, 15, &cc
);
485 // CHECK: call { <4 x i32>, i32 } @llvm.s390.vfaefs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 15)
487 vuc
= __builtin_s390_vfaezbs(vuc
, vuc
, 0, &cc
);
488 // CHECK: call { <16 x i8>, i32 } @llvm.s390.vfaezbs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 0)
489 vuc
= __builtin_s390_vfaezbs(vuc
, vuc
, 15, &cc
);
490 // CHECK: call { <16 x i8>, i32 } @llvm.s390.vfaezbs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 15)
491 vus
= __builtin_s390_vfaezhs(vus
, vus
, 0, &cc
);
492 // CHECK: call { <8 x i16>, i32 } @llvm.s390.vfaezhs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 0)
493 vus
= __builtin_s390_vfaezhs(vus
, vus
, 15, &cc
);
494 // CHECK: call { <8 x i16>, i32 } @llvm.s390.vfaezhs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 15)
495 vui
= __builtin_s390_vfaezfs(vui
, vui
, 0, &cc
);
496 // CHECK: call { <4 x i32>, i32 } @llvm.s390.vfaezfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 0)
497 vui
= __builtin_s390_vfaezfs(vui
, vui
, 15, &cc
);
498 // CHECK: call { <4 x i32>, i32 } @llvm.s390.vfaezfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 15)
500 vuc
= __builtin_s390_vfeebs(vuc
, vuc
, &cc
);
501 // CHECK: call { <16 x i8>, i32 } @llvm.s390.vfeebs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
502 vus
= __builtin_s390_vfeehs(vus
, vus
, &cc
);
503 // CHECK: call { <8 x i16>, i32 } @llvm.s390.vfeehs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
504 vui
= __builtin_s390_vfeefs(vui
, vui
, &cc
);
505 // CHECK: call { <4 x i32>, i32 } @llvm.s390.vfeefs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
507 vuc
= __builtin_s390_vfeezbs(vuc
, vuc
, &cc
);
508 // CHECK: call { <16 x i8>, i32 } @llvm.s390.vfeezbs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
509 vus
= __builtin_s390_vfeezhs(vus
, vus
, &cc
);
510 // CHECK: call { <8 x i16>, i32 } @llvm.s390.vfeezhs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
511 vui
= __builtin_s390_vfeezfs(vui
, vui
, &cc
);
512 // CHECK: call { <4 x i32>, i32 } @llvm.s390.vfeezfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
514 vuc
= __builtin_s390_vfenebs(vuc
, vuc
, &cc
);
515 // CHECK: call { <16 x i8>, i32 } @llvm.s390.vfenebs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
516 vus
= __builtin_s390_vfenehs(vus
, vus
, &cc
);
517 // CHECK: call { <8 x i16>, i32 } @llvm.s390.vfenehs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
518 vui
= __builtin_s390_vfenefs(vui
, vui
, &cc
);
519 // CHECK: call { <4 x i32>, i32 } @llvm.s390.vfenefs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
521 vuc
= __builtin_s390_vfenezbs(vuc
, vuc
, &cc
);
522 // CHECK: call { <16 x i8>, i32 } @llvm.s390.vfenezbs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}})
523 vus
= __builtin_s390_vfenezhs(vus
, vus
, &cc
);
524 // CHECK: call { <8 x i16>, i32 } @llvm.s390.vfenezhs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}})
525 vui
= __builtin_s390_vfenezfs(vui
, vui
, &cc
);
526 // CHECK: call { <4 x i32>, i32 } @llvm.s390.vfenezfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}})
528 vuc
= __builtin_s390_vistrbs(vuc
, &cc
);
529 // CHECK: call { <16 x i8>, i32 } @llvm.s390.vistrbs(<16 x i8> %{{.*}})
530 vus
= __builtin_s390_vistrhs(vus
, &cc
);
531 // CHECK: call { <8 x i16>, i32 } @llvm.s390.vistrhs(<8 x i16> %{{.*}})
532 vui
= __builtin_s390_vistrfs(vui
, &cc
);
533 // CHECK: call { <4 x i32>, i32 } @llvm.s390.vistrfs(<4 x i32> %{{.*}})
535 vuc
= __builtin_s390_vstrcbs(vuc
, vuc
, vuc
, 0, &cc
);
536 // CHECK: call { <16 x i8>, i32 } @llvm.s390.vstrcbs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 0)
537 vuc
= __builtin_s390_vstrcbs(vuc
, vuc
, vuc
, 15, &cc
);
538 // CHECK: call { <16 x i8>, i32 } @llvm.s390.vstrcbs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 15)
539 vus
= __builtin_s390_vstrchs(vus
, vus
, vus
, 0, &cc
);
540 // CHECK: call { <8 x i16>, i32 } @llvm.s390.vstrchs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 0)
541 vus
= __builtin_s390_vstrchs(vus
, vus
, vus
, 15, &cc
);
542 // CHECK: call { <8 x i16>, i32 } @llvm.s390.vstrchs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 15)
543 vui
= __builtin_s390_vstrcfs(vui
, vui
, vui
, 0, &cc
);
544 // CHECK: call { <4 x i32>, i32 } @llvm.s390.vstrcfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 0)
545 vui
= __builtin_s390_vstrcfs(vui
, vui
, vui
, 15, &cc
);
546 // CHECK: call { <4 x i32>, i32 } @llvm.s390.vstrcfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 15)
548 vuc
= __builtin_s390_vstrczbs(vuc
, vuc
, vuc
, 0, &cc
);
549 // CHECK: call { <16 x i8>, i32 } @llvm.s390.vstrczbs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 0)
550 vuc
= __builtin_s390_vstrczbs(vuc
, vuc
, vuc
, 15, &cc
);
551 // CHECK: call { <16 x i8>, i32 } @llvm.s390.vstrczbs(<16 x i8> %{{.*}}, <16 x i8> %{{.*}}, <16 x i8> %{{.*}}, i32 15)
552 vus
= __builtin_s390_vstrczhs(vus
, vus
, vus
, 0, &cc
);
553 // CHECK: call { <8 x i16>, i32 } @llvm.s390.vstrczhs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 0)
554 vus
= __builtin_s390_vstrczhs(vus
, vus
, vus
, 15, &cc
);
555 // CHECK: call { <8 x i16>, i32 } @llvm.s390.vstrczhs(<8 x i16> %{{.*}}, <8 x i16> %{{.*}}, <8 x i16> %{{.*}}, i32 15)
556 vui
= __builtin_s390_vstrczfs(vui
, vui
, vui
, 0, &cc
);
557 // CHECK: call { <4 x i32>, i32 } @llvm.s390.vstrczfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 0)
558 vui
= __builtin_s390_vstrczfs(vui
, vui
, vui
, 15, &cc
);
559 // CHECK: call { <4 x i32>, i32 } @llvm.s390.vstrczfs(<4 x i32> %{{.*}}, <4 x i32> %{{.*}}, <4 x i32> %{{.*}}, i32 15)
562 void test_float(void) {
563 vsl
= __builtin_s390_vfcedbs(vd
, vd
, &cc
);
564 // CHECK: call { <2 x i64>, i32 } @llvm.s390.vfcedbs(<2 x double> %{{.*}}, <2 x double> %{{.*}})
565 vsl
= __builtin_s390_vfchdbs(vd
, vd
, &cc
);
566 // CHECK: call { <2 x i64>, i32 } @llvm.s390.vfchdbs(<2 x double> %{{.*}}, <2 x double> %{{.*}})
567 vsl
= __builtin_s390_vfchedbs(vd
, vd
, &cc
);
568 // CHECK: call { <2 x i64>, i32 } @llvm.s390.vfchedbs(<2 x double> %{{.*}}, <2 x double> %{{.*}})
570 vsl
= __builtin_s390_vftcidb(vd
, 0, &cc
);
571 // CHECK: call { <2 x i64>, i32 } @llvm.s390.vftcidb(<2 x double> %{{.*}}, i32 0)
572 vsl
= __builtin_s390_vftcidb(vd
, 4095, &cc
);
573 // CHECK: call { <2 x i64>, i32 } @llvm.s390.vftcidb(<2 x double> %{{.*}}, i32 4095)
575 vd
= __builtin_s390_vfsqdb(vd
);
576 // CHECK: call <2 x double> @llvm.sqrt.v2f64(<2 x double> %{{.*}})
578 vd
= __builtin_s390_vfmadb(vd
, vd
, vd
);
579 // CHECK: call <2 x double> @llvm.fma.v2f64(<2 x double> %{{.*}}, <2 x double> %{{.*}}, <2 x double> %{{.*}})
580 vd
= __builtin_s390_vfmsdb(vd
, vd
, vd
);
581 // CHECK: [[NEG:%[^ ]+]] = fneg <2 x double> %{{.*}}
582 // CHECK: call <2 x double> @llvm.fma.v2f64(<2 x double> %{{.*}}, <2 x double> %{{.*}}, <2 x double> [[NEG]])
584 vd
= __builtin_s390_vflpdb(vd
);
585 // CHECK: call <2 x double> @llvm.fabs.v2f64(<2 x double> %{{.*}})
586 vd
= __builtin_s390_vflndb(vd
);
587 // CHECK: [[ABS:%[^ ]+]] = call <2 x double> @llvm.fabs.v2f64(<2 x double> %{{.*}})
588 // CHECK: fneg <2 x double> [[ABS]]
590 vd
= __builtin_s390_vfidb(vd
, 0, 0);
591 // CHECK: call <2 x double> @llvm.rint.v2f64(<2 x double> %{{.*}})
592 vd
= __builtin_s390_vfidb(vd
, 4, 0);
593 // CHECK: call <2 x double> @llvm.nearbyint.v2f64(<2 x double> %{{.*}})
594 vd
= __builtin_s390_vfidb(vd
, 4, 1);
595 // CHECK: call <2 x double> @llvm.round.v2f64(<2 x double> %{{.*}})
596 vd
= __builtin_s390_vfidb(vd
, 4, 5);
597 // CHECK: call <2 x double> @llvm.trunc.v2f64(<2 x double> %{{.*}})
598 vd
= __builtin_s390_vfidb(vd
, 4, 6);
599 // CHECK: call <2 x double> @llvm.ceil.v2f64(<2 x double> %{{.*}})
600 vd
= __builtin_s390_vfidb(vd
, 4, 7);
601 // CHECK: call <2 x double> @llvm.floor.v2f64(<2 x double> %{{.*}})
602 vd
= __builtin_s390_vfidb(vd
, 4, 4);
603 // CHECK: call <2 x double> @llvm.s390.vfidb(<2 x double> %{{.*}}, i32 4, i32 4)