Silence -Wunused-variable in release builds.
[llvm/stm8.git] / test / CodeGen / ARM / vbits.ll
blob51f9bdf9718b0cf1a5882e63b8f4c7ac316a4783
1 ; RUN: llc < %s -march=arm -mattr=+neon -mcpu=cortex-a8 | FileCheck %s
3 define <8 x i8> @v_andi8(<8 x i8>* %A, <8 x i8>* %B) nounwind {
4 ;CHECK: v_andi8:
5 ;CHECK: vand
6         %tmp1 = load <8 x i8>* %A
7         %tmp2 = load <8 x i8>* %B
8         %tmp3 = and <8 x i8> %tmp1, %tmp2
9         ret <8 x i8> %tmp3
12 define <4 x i16> @v_andi16(<4 x i16>* %A, <4 x i16>* %B) nounwind {
13 ;CHECK: v_andi16:
14 ;CHECK: vand
15         %tmp1 = load <4 x i16>* %A
16         %tmp2 = load <4 x i16>* %B
17         %tmp3 = and <4 x i16> %tmp1, %tmp2
18         ret <4 x i16> %tmp3
21 define <2 x i32> @v_andi32(<2 x i32>* %A, <2 x i32>* %B) nounwind {
22 ;CHECK: v_andi32:
23 ;CHECK: vand
24         %tmp1 = load <2 x i32>* %A
25         %tmp2 = load <2 x i32>* %B
26         %tmp3 = and <2 x i32> %tmp1, %tmp2
27         ret <2 x i32> %tmp3
30 define <1 x i64> @v_andi64(<1 x i64>* %A, <1 x i64>* %B) nounwind {
31 ;CHECK: v_andi64:
32 ;CHECK: vand
33         %tmp1 = load <1 x i64>* %A
34         %tmp2 = load <1 x i64>* %B
35         %tmp3 = and <1 x i64> %tmp1, %tmp2
36         ret <1 x i64> %tmp3
39 define <16 x i8> @v_andQi8(<16 x i8>* %A, <16 x i8>* %B) nounwind {
40 ;CHECK: v_andQi8:
41 ;CHECK: vand
42         %tmp1 = load <16 x i8>* %A
43         %tmp2 = load <16 x i8>* %B
44         %tmp3 = and <16 x i8> %tmp1, %tmp2
45         ret <16 x i8> %tmp3
48 define <8 x i16> @v_andQi16(<8 x i16>* %A, <8 x i16>* %B) nounwind {
49 ;CHECK: v_andQi16:
50 ;CHECK: vand
51         %tmp1 = load <8 x i16>* %A
52         %tmp2 = load <8 x i16>* %B
53         %tmp3 = and <8 x i16> %tmp1, %tmp2
54         ret <8 x i16> %tmp3
57 define <4 x i32> @v_andQi32(<4 x i32>* %A, <4 x i32>* %B) nounwind {
58 ;CHECK: v_andQi32:
59 ;CHECK: vand
60         %tmp1 = load <4 x i32>* %A
61         %tmp2 = load <4 x i32>* %B
62         %tmp3 = and <4 x i32> %tmp1, %tmp2
63         ret <4 x i32> %tmp3
66 define <2 x i64> @v_andQi64(<2 x i64>* %A, <2 x i64>* %B) nounwind {
67 ;CHECK: v_andQi64:
68 ;CHECK: vand
69         %tmp1 = load <2 x i64>* %A
70         %tmp2 = load <2 x i64>* %B
71         %tmp3 = and <2 x i64> %tmp1, %tmp2
72         ret <2 x i64> %tmp3
75 define <8 x i8> @v_bici8(<8 x i8>* %A, <8 x i8>* %B) nounwind {
76 ;CHECK: v_bici8:
77 ;CHECK: vbic
78         %tmp1 = load <8 x i8>* %A
79         %tmp2 = load <8 x i8>* %B
80         %tmp3 = xor <8 x i8> %tmp2, < i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1 >
81         %tmp4 = and <8 x i8> %tmp1, %tmp3
82         ret <8 x i8> %tmp4
85 define <4 x i16> @v_bici16(<4 x i16>* %A, <4 x i16>* %B) nounwind {
86 ;CHECK: v_bici16:
87 ;CHECK: vbic
88         %tmp1 = load <4 x i16>* %A
89         %tmp2 = load <4 x i16>* %B
90         %tmp3 = xor <4 x i16> %tmp2, < i16 -1, i16 -1, i16 -1, i16 -1 >
91         %tmp4 = and <4 x i16> %tmp1, %tmp3
92         ret <4 x i16> %tmp4
95 define <2 x i32> @v_bici32(<2 x i32>* %A, <2 x i32>* %B) nounwind {
96 ;CHECK: v_bici32:
97 ;CHECK: vbic
98         %tmp1 = load <2 x i32>* %A
99         %tmp2 = load <2 x i32>* %B
100         %tmp3 = xor <2 x i32> %tmp2, < i32 -1, i32 -1 >
101         %tmp4 = and <2 x i32> %tmp1, %tmp3
102         ret <2 x i32> %tmp4
105 define <1 x i64> @v_bici64(<1 x i64>* %A, <1 x i64>* %B) nounwind {
106 ;CHECK: v_bici64:
107 ;CHECK: vbic
108         %tmp1 = load <1 x i64>* %A
109         %tmp2 = load <1 x i64>* %B
110         %tmp3 = xor <1 x i64> %tmp2, < i64 -1 >
111         %tmp4 = and <1 x i64> %tmp1, %tmp3
112         ret <1 x i64> %tmp4
115 define <16 x i8> @v_bicQi8(<16 x i8>* %A, <16 x i8>* %B) nounwind {
116 ;CHECK: v_bicQi8:
117 ;CHECK: vbic
118         %tmp1 = load <16 x i8>* %A
119         %tmp2 = load <16 x i8>* %B
120         %tmp3 = xor <16 x i8> %tmp2, < i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1 >
121         %tmp4 = and <16 x i8> %tmp1, %tmp3
122         ret <16 x i8> %tmp4
125 define <8 x i16> @v_bicQi16(<8 x i16>* %A, <8 x i16>* %B) nounwind {
126 ;CHECK: v_bicQi16:
127 ;CHECK: vbic
128         %tmp1 = load <8 x i16>* %A
129         %tmp2 = load <8 x i16>* %B
130         %tmp3 = xor <8 x i16> %tmp2, < i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1 >
131         %tmp4 = and <8 x i16> %tmp1, %tmp3
132         ret <8 x i16> %tmp4
135 define <4 x i32> @v_bicQi32(<4 x i32>* %A, <4 x i32>* %B) nounwind {
136 ;CHECK: v_bicQi32:
137 ;CHECK: vbic
138         %tmp1 = load <4 x i32>* %A
139         %tmp2 = load <4 x i32>* %B
140         %tmp3 = xor <4 x i32> %tmp2, < i32 -1, i32 -1, i32 -1, i32 -1 >
141         %tmp4 = and <4 x i32> %tmp1, %tmp3
142         ret <4 x i32> %tmp4
145 define <2 x i64> @v_bicQi64(<2 x i64>* %A, <2 x i64>* %B) nounwind {
146 ;CHECK: v_bicQi64:
147 ;CHECK: vbic
148         %tmp1 = load <2 x i64>* %A
149         %tmp2 = load <2 x i64>* %B
150         %tmp3 = xor <2 x i64> %tmp2, < i64 -1, i64 -1 >
151         %tmp4 = and <2 x i64> %tmp1, %tmp3
152         ret <2 x i64> %tmp4
155 define <8 x i8> @v_eori8(<8 x i8>* %A, <8 x i8>* %B) nounwind {
156 ;CHECK: v_eori8:
157 ;CHECK: veor
158         %tmp1 = load <8 x i8>* %A
159         %tmp2 = load <8 x i8>* %B
160         %tmp3 = xor <8 x i8> %tmp1, %tmp2
161         ret <8 x i8> %tmp3
164 define <4 x i16> @v_eori16(<4 x i16>* %A, <4 x i16>* %B) nounwind {
165 ;CHECK: v_eori16:
166 ;CHECK: veor
167         %tmp1 = load <4 x i16>* %A
168         %tmp2 = load <4 x i16>* %B
169         %tmp3 = xor <4 x i16> %tmp1, %tmp2
170         ret <4 x i16> %tmp3
173 define <2 x i32> @v_eori32(<2 x i32>* %A, <2 x i32>* %B) nounwind {
174 ;CHECK: v_eori32:
175 ;CHECK: veor
176         %tmp1 = load <2 x i32>* %A
177         %tmp2 = load <2 x i32>* %B
178         %tmp3 = xor <2 x i32> %tmp1, %tmp2
179         ret <2 x i32> %tmp3
182 define <1 x i64> @v_eori64(<1 x i64>* %A, <1 x i64>* %B) nounwind {
183 ;CHECK: v_eori64:
184 ;CHECK: veor
185         %tmp1 = load <1 x i64>* %A
186         %tmp2 = load <1 x i64>* %B
187         %tmp3 = xor <1 x i64> %tmp1, %tmp2
188         ret <1 x i64> %tmp3
191 define <16 x i8> @v_eorQi8(<16 x i8>* %A, <16 x i8>* %B) nounwind {
192 ;CHECK: v_eorQi8:
193 ;CHECK: veor
194         %tmp1 = load <16 x i8>* %A
195         %tmp2 = load <16 x i8>* %B
196         %tmp3 = xor <16 x i8> %tmp1, %tmp2
197         ret <16 x i8> %tmp3
200 define <8 x i16> @v_eorQi16(<8 x i16>* %A, <8 x i16>* %B) nounwind {
201 ;CHECK: v_eorQi16:
202 ;CHECK: veor
203         %tmp1 = load <8 x i16>* %A
204         %tmp2 = load <8 x i16>* %B
205         %tmp3 = xor <8 x i16> %tmp1, %tmp2
206         ret <8 x i16> %tmp3
209 define <4 x i32> @v_eorQi32(<4 x i32>* %A, <4 x i32>* %B) nounwind {
210 ;CHECK: v_eorQi32:
211 ;CHECK: veor
212         %tmp1 = load <4 x i32>* %A
213         %tmp2 = load <4 x i32>* %B
214         %tmp3 = xor <4 x i32> %tmp1, %tmp2
215         ret <4 x i32> %tmp3
218 define <2 x i64> @v_eorQi64(<2 x i64>* %A, <2 x i64>* %B) nounwind {
219 ;CHECK: v_eorQi64:
220 ;CHECK: veor
221         %tmp1 = load <2 x i64>* %A
222         %tmp2 = load <2 x i64>* %B
223         %tmp3 = xor <2 x i64> %tmp1, %tmp2
224         ret <2 x i64> %tmp3
227 define <8 x i8> @v_mvni8(<8 x i8>* %A) nounwind {
228 ;CHECK: v_mvni8:
229 ;CHECK: vmvn
230         %tmp1 = load <8 x i8>* %A
231         %tmp2 = xor <8 x i8> %tmp1, < i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1 >
232         ret <8 x i8> %tmp2
235 define <4 x i16> @v_mvni16(<4 x i16>* %A) nounwind {
236 ;CHECK: v_mvni16:
237 ;CHECK: vmvn
238         %tmp1 = load <4 x i16>* %A
239         %tmp2 = xor <4 x i16> %tmp1, < i16 -1, i16 -1, i16 -1, i16 -1 >
240         ret <4 x i16> %tmp2
243 define <2 x i32> @v_mvni32(<2 x i32>* %A) nounwind {
244 ;CHECK: v_mvni32:
245 ;CHECK: vmvn
246         %tmp1 = load <2 x i32>* %A
247         %tmp2 = xor <2 x i32> %tmp1, < i32 -1, i32 -1 >
248         ret <2 x i32> %tmp2
251 define <1 x i64> @v_mvni64(<1 x i64>* %A) nounwind {
252 ;CHECK: v_mvni64:
253 ;CHECK: vmvn
254         %tmp1 = load <1 x i64>* %A
255         %tmp2 = xor <1 x i64> %tmp1, < i64 -1 >
256         ret <1 x i64> %tmp2
259 define <16 x i8> @v_mvnQi8(<16 x i8>* %A) nounwind {
260 ;CHECK: v_mvnQi8:
261 ;CHECK: vmvn
262         %tmp1 = load <16 x i8>* %A
263         %tmp2 = xor <16 x i8> %tmp1, < i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1 >
264         ret <16 x i8> %tmp2
267 define <8 x i16> @v_mvnQi16(<8 x i16>* %A) nounwind {
268 ;CHECK: v_mvnQi16:
269 ;CHECK: vmvn
270         %tmp1 = load <8 x i16>* %A
271         %tmp2 = xor <8 x i16> %tmp1, < i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1 >
272         ret <8 x i16> %tmp2
275 define <4 x i32> @v_mvnQi32(<4 x i32>* %A) nounwind {
276 ;CHECK: v_mvnQi32:
277 ;CHECK: vmvn
278         %tmp1 = load <4 x i32>* %A
279         %tmp2 = xor <4 x i32> %tmp1, < i32 -1, i32 -1, i32 -1, i32 -1 >
280         ret <4 x i32> %tmp2
283 define <2 x i64> @v_mvnQi64(<2 x i64>* %A) nounwind {
284 ;CHECK: v_mvnQi64:
285 ;CHECK: vmvn
286         %tmp1 = load <2 x i64>* %A
287         %tmp2 = xor <2 x i64> %tmp1, < i64 -1, i64 -1 >
288         ret <2 x i64> %tmp2
291 define <8 x i8> @v_orri8(<8 x i8>* %A, <8 x i8>* %B) nounwind {
292 ;CHECK: v_orri8:
293 ;CHECK: vorr
294         %tmp1 = load <8 x i8>* %A
295         %tmp2 = load <8 x i8>* %B
296         %tmp3 = or <8 x i8> %tmp1, %tmp2
297         ret <8 x i8> %tmp3
300 define <4 x i16> @v_orri16(<4 x i16>* %A, <4 x i16>* %B) nounwind {
301 ;CHECK: v_orri16:
302 ;CHECK: vorr
303         %tmp1 = load <4 x i16>* %A
304         %tmp2 = load <4 x i16>* %B
305         %tmp3 = or <4 x i16> %tmp1, %tmp2
306         ret <4 x i16> %tmp3
309 define <2 x i32> @v_orri32(<2 x i32>* %A, <2 x i32>* %B) nounwind {
310 ;CHECK: v_orri32:
311 ;CHECK: vorr
312         %tmp1 = load <2 x i32>* %A
313         %tmp2 = load <2 x i32>* %B
314         %tmp3 = or <2 x i32> %tmp1, %tmp2
315         ret <2 x i32> %tmp3
318 define <1 x i64> @v_orri64(<1 x i64>* %A, <1 x i64>* %B) nounwind {
319 ;CHECK: v_orri64:
320 ;CHECK: vorr
321         %tmp1 = load <1 x i64>* %A
322         %tmp2 = load <1 x i64>* %B
323         %tmp3 = or <1 x i64> %tmp1, %tmp2
324         ret <1 x i64> %tmp3
327 define <16 x i8> @v_orrQi8(<16 x i8>* %A, <16 x i8>* %B) nounwind {
328 ;CHECK: v_orrQi8:
329 ;CHECK: vorr
330         %tmp1 = load <16 x i8>* %A
331         %tmp2 = load <16 x i8>* %B
332         %tmp3 = or <16 x i8> %tmp1, %tmp2
333         ret <16 x i8> %tmp3
336 define <8 x i16> @v_orrQi16(<8 x i16>* %A, <8 x i16>* %B) nounwind {
337 ;CHECK: v_orrQi16:
338 ;CHECK: vorr
339         %tmp1 = load <8 x i16>* %A
340         %tmp2 = load <8 x i16>* %B
341         %tmp3 = or <8 x i16> %tmp1, %tmp2
342         ret <8 x i16> %tmp3
345 define <4 x i32> @v_orrQi32(<4 x i32>* %A, <4 x i32>* %B) nounwind {
346 ;CHECK: v_orrQi32:
347 ;CHECK: vorr
348         %tmp1 = load <4 x i32>* %A
349         %tmp2 = load <4 x i32>* %B
350         %tmp3 = or <4 x i32> %tmp1, %tmp2
351         ret <4 x i32> %tmp3
354 define <2 x i64> @v_orrQi64(<2 x i64>* %A, <2 x i64>* %B) nounwind {
355 ;CHECK: v_orrQi64:
356 ;CHECK: vorr
357         %tmp1 = load <2 x i64>* %A
358         %tmp2 = load <2 x i64>* %B
359         %tmp3 = or <2 x i64> %tmp1, %tmp2
360         ret <2 x i64> %tmp3
363 define <8 x i8> @v_orni8(<8 x i8>* %A, <8 x i8>* %B) nounwind {
364 ;CHECK: v_orni8:
365 ;CHECK: vorn
366         %tmp1 = load <8 x i8>* %A
367         %tmp2 = load <8 x i8>* %B
368         %tmp3 = xor <8 x i8> %tmp2, < i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1 >
369         %tmp4 = or <8 x i8> %tmp1, %tmp3
370         ret <8 x i8> %tmp4
373 define <4 x i16> @v_orni16(<4 x i16>* %A, <4 x i16>* %B) nounwind {
374 ;CHECK: v_orni16:
375 ;CHECK: vorn
376         %tmp1 = load <4 x i16>* %A
377         %tmp2 = load <4 x i16>* %B
378         %tmp3 = xor <4 x i16> %tmp2, < i16 -1, i16 -1, i16 -1, i16 -1 >
379         %tmp4 = or <4 x i16> %tmp1, %tmp3
380         ret <4 x i16> %tmp4
383 define <2 x i32> @v_orni32(<2 x i32>* %A, <2 x i32>* %B) nounwind {
384 ;CHECK: v_orni32:
385 ;CHECK: vorn
386         %tmp1 = load <2 x i32>* %A
387         %tmp2 = load <2 x i32>* %B
388         %tmp3 = xor <2 x i32> %tmp2, < i32 -1, i32 -1 >
389         %tmp4 = or <2 x i32> %tmp1, %tmp3
390         ret <2 x i32> %tmp4
393 define <1 x i64> @v_orni64(<1 x i64>* %A, <1 x i64>* %B) nounwind {
394 ;CHECK: v_orni64:
395 ;CHECK: vorn
396         %tmp1 = load <1 x i64>* %A
397         %tmp2 = load <1 x i64>* %B
398         %tmp3 = xor <1 x i64> %tmp2, < i64 -1 >
399         %tmp4 = or <1 x i64> %tmp1, %tmp3
400         ret <1 x i64> %tmp4
403 define <16 x i8> @v_ornQi8(<16 x i8>* %A, <16 x i8>* %B) nounwind {
404 ;CHECK: v_ornQi8:
405 ;CHECK: vorn
406         %tmp1 = load <16 x i8>* %A
407         %tmp2 = load <16 x i8>* %B
408         %tmp3 = xor <16 x i8> %tmp2, < i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1 >
409         %tmp4 = or <16 x i8> %tmp1, %tmp3
410         ret <16 x i8> %tmp4
413 define <8 x i16> @v_ornQi16(<8 x i16>* %A, <8 x i16>* %B) nounwind {
414 ;CHECK: v_ornQi16:
415 ;CHECK: vorn
416         %tmp1 = load <8 x i16>* %A
417         %tmp2 = load <8 x i16>* %B
418         %tmp3 = xor <8 x i16> %tmp2, < i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1 >
419         %tmp4 = or <8 x i16> %tmp1, %tmp3
420         ret <8 x i16> %tmp4
423 define <4 x i32> @v_ornQi32(<4 x i32>* %A, <4 x i32>* %B) nounwind {
424 ;CHECK: v_ornQi32:
425 ;CHECK: vorn
426         %tmp1 = load <4 x i32>* %A
427         %tmp2 = load <4 x i32>* %B
428         %tmp3 = xor <4 x i32> %tmp2, < i32 -1, i32 -1, i32 -1, i32 -1 >
429         %tmp4 = or <4 x i32> %tmp1, %tmp3
430         ret <4 x i32> %tmp4
433 define <2 x i64> @v_ornQi64(<2 x i64>* %A, <2 x i64>* %B) nounwind {
434 ;CHECK: v_ornQi64:
435 ;CHECK: vorn
436         %tmp1 = load <2 x i64>* %A
437         %tmp2 = load <2 x i64>* %B
438         %tmp3 = xor <2 x i64> %tmp2, < i64 -1, i64 -1 >
439         %tmp4 = or <2 x i64> %tmp1, %tmp3
440         ret <2 x i64> %tmp4
443 define <8 x i8> @vtsti8(<8 x i8>* %A, <8 x i8>* %B) nounwind {
444 ;CHECK: vtsti8:
445 ;CHECK: vtst.8
446         %tmp1 = load <8 x i8>* %A
447         %tmp2 = load <8 x i8>* %B
448         %tmp3 = and <8 x i8> %tmp1, %tmp2
449         %tmp4 = icmp ne <8 x i8> %tmp3, zeroinitializer
450         %tmp5 = sext <8 x i1> %tmp4 to <8 x i8>
451         ret <8 x i8> %tmp5
454 define <4 x i16> @vtsti16(<4 x i16>* %A, <4 x i16>* %B) nounwind {
455 ;CHECK: vtsti16:
456 ;CHECK: vtst.16
457         %tmp1 = load <4 x i16>* %A
458         %tmp2 = load <4 x i16>* %B
459         %tmp3 = and <4 x i16> %tmp1, %tmp2
460         %tmp4 = icmp ne <4 x i16> %tmp3, zeroinitializer
461         %tmp5 = sext <4 x i1> %tmp4 to <4 x i16>
462         ret <4 x i16> %tmp5
465 define <2 x i32> @vtsti32(<2 x i32>* %A, <2 x i32>* %B) nounwind {
466 ;CHECK: vtsti32:
467 ;CHECK: vtst.32
468         %tmp1 = load <2 x i32>* %A
469         %tmp2 = load <2 x i32>* %B
470         %tmp3 = and <2 x i32> %tmp1, %tmp2
471         %tmp4 = icmp ne <2 x i32> %tmp3, zeroinitializer
472         %tmp5 = sext <2 x i1> %tmp4 to <2 x i32>
473         ret <2 x i32> %tmp5
476 define <16 x i8> @vtstQi8(<16 x i8>* %A, <16 x i8>* %B) nounwind {
477 ;CHECK: vtstQi8:
478 ;CHECK: vtst.8
479         %tmp1 = load <16 x i8>* %A
480         %tmp2 = load <16 x i8>* %B
481         %tmp3 = and <16 x i8> %tmp1, %tmp2
482         %tmp4 = icmp ne <16 x i8> %tmp3, zeroinitializer
483         %tmp5 = sext <16 x i1> %tmp4 to <16 x i8>
484         ret <16 x i8> %tmp5
487 define <8 x i16> @vtstQi16(<8 x i16>* %A, <8 x i16>* %B) nounwind {
488 ;CHECK: vtstQi16:
489 ;CHECK: vtst.16
490         %tmp1 = load <8 x i16>* %A
491         %tmp2 = load <8 x i16>* %B
492         %tmp3 = and <8 x i16> %tmp1, %tmp2
493         %tmp4 = icmp ne <8 x i16> %tmp3, zeroinitializer
494         %tmp5 = sext <8 x i1> %tmp4 to <8 x i16>
495         ret <8 x i16> %tmp5
498 define <4 x i32> @vtstQi32(<4 x i32>* %A, <4 x i32>* %B) nounwind {
499 ;CHECK: vtstQi32:
500 ;CHECK: vtst.32
501         %tmp1 = load <4 x i32>* %A
502         %tmp2 = load <4 x i32>* %B
503         %tmp3 = and <4 x i32> %tmp1, %tmp2
504         %tmp4 = icmp ne <4 x i32> %tmp3, zeroinitializer
505         %tmp5 = sext <4 x i1> %tmp4 to <4 x i32>
506         ret <4 x i32> %tmp5
509 define <8 x i8> @v_orrimm(<8 x i8>* %A) nounwind {
510 ; CHECK: v_orrimm:
511 ; CHECK-NOT: vmov
512 ; CHECK-NOT: vmvn
513 ; CHECK: vorr
514         %tmp1 = load <8 x i8>* %A
515         %tmp3 = or <8 x i8> %tmp1, <i8 0, i8 0, i8 0, i8 1, i8 0, i8 0, i8 0, i8 1>
516         ret <8 x i8> %tmp3
519 define <16 x i8> @v_orrimmQ(<16 x i8>* %A) nounwind {
520 ; CHECK: v_orrimmQ
521 ; CHECK-NOT: vmov
522 ; CHECK-NOT: vmvn
523 ; CHECK: vorr
524         %tmp1 = load <16 x i8>* %A
525         %tmp3 = or <16 x i8> %tmp1, <i8 0, i8 0, i8 0, i8 1, i8 0, i8 0, i8 0, i8 1, i8 0, i8 0, i8 0, i8 1, i8 0, i8 0, i8 0, i8 1>
526         ret <16 x i8> %tmp3
529 define <8 x i8> @v_bicimm(<8 x i8>* %A) nounwind {
530 ; CHECK: v_bicimm:
531 ; CHECK-NOT: vmov
532 ; CHECK-NOT: vmvn
533 ; CHECK: vbic
534         %tmp1 = load <8 x i8>* %A
535         %tmp3 = and <8 x i8> %tmp1, < i8 -1, i8 -1, i8 -1, i8 0, i8 -1, i8 -1, i8 -1, i8 0 >
536         ret <8 x i8> %tmp3
539 define <16 x i8> @v_bicimmQ(<16 x i8>* %A) nounwind {
540 ; CHECK: v_bicimmQ:
541 ; CHECK-NOT: vmov
542 ; CHECK-NOT: vmvn
543 ; CHECK: vbic
544         %tmp1 = load <16 x i8>* %A
545         %tmp3 = and <16 x i8> %tmp1, < i8 -1, i8 -1, i8 -1, i8 0, i8 -1, i8 -1, i8 -1, i8 0, i8 -1, i8 -1, i8 -1, i8 0, i8 -1, i8 -1, i8 -1, i8 0 >
546         ret <16 x i8> %tmp3