Shrink Thumb2 movcc instructions.
[llvm/avr.git] / test / CodeGen / ARM / vbic.ll
blob591f4910006979c1835152eda9e4cd2c53120e38
1 ; RUN: llvm-as < %s | llc -march=arm -mattr=+neon | FileCheck %s
3 define <8 x i8> @v_bici8(<8 x i8>* %A, <8 x i8>* %B) nounwind {
4 ;CHECK: v_bici8:
5 ;CHECK: vbic
6         %tmp1 = load <8 x i8>* %A
7         %tmp2 = load <8 x i8>* %B
8         %tmp3 = xor <8 x i8> %tmp2, < i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1 >
9         %tmp4 = and <8 x i8> %tmp1, %tmp3
10         ret <8 x i8> %tmp4
13 define <4 x i16> @v_bici16(<4 x i16>* %A, <4 x i16>* %B) nounwind {
14 ;CHECK: v_bici16:
15 ;CHECK: vbic
16         %tmp1 = load <4 x i16>* %A
17         %tmp2 = load <4 x i16>* %B
18         %tmp3 = xor <4 x i16> %tmp2, < i16 -1, i16 -1, i16 -1, i16 -1 >
19         %tmp4 = and <4 x i16> %tmp1, %tmp3
20         ret <4 x i16> %tmp4
23 define <2 x i32> @v_bici32(<2 x i32>* %A, <2 x i32>* %B) nounwind {
24 ;CHECK: v_bici32:
25 ;CHECK: vbic
26         %tmp1 = load <2 x i32>* %A
27         %tmp2 = load <2 x i32>* %B
28         %tmp3 = xor <2 x i32> %tmp2, < i32 -1, i32 -1 >
29         %tmp4 = and <2 x i32> %tmp1, %tmp3
30         ret <2 x i32> %tmp4
33 define <1 x i64> @v_bici64(<1 x i64>* %A, <1 x i64>* %B) nounwind {
34 ;CHECK: v_bici64:
35 ;CHECK: vbic
36         %tmp1 = load <1 x i64>* %A
37         %tmp2 = load <1 x i64>* %B
38         %tmp3 = xor <1 x i64> %tmp2, < i64 -1 >
39         %tmp4 = and <1 x i64> %tmp1, %tmp3
40         ret <1 x i64> %tmp4
43 define <16 x i8> @v_bicQi8(<16 x i8>* %A, <16 x i8>* %B) nounwind {
44 ;CHECK: v_bicQi8:
45 ;CHECK: vbic
46         %tmp1 = load <16 x i8>* %A
47         %tmp2 = load <16 x i8>* %B
48         %tmp3 = xor <16 x i8> %tmp2, < i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1 >
49         %tmp4 = and <16 x i8> %tmp1, %tmp3
50         ret <16 x i8> %tmp4
53 define <8 x i16> @v_bicQi16(<8 x i16>* %A, <8 x i16>* %B) nounwind {
54 ;CHECK: v_bicQi16:
55 ;CHECK: vbic
56         %tmp1 = load <8 x i16>* %A
57         %tmp2 = load <8 x i16>* %B
58         %tmp3 = xor <8 x i16> %tmp2, < i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1 >
59         %tmp4 = and <8 x i16> %tmp1, %tmp3
60         ret <8 x i16> %tmp4
63 define <4 x i32> @v_bicQi32(<4 x i32>* %A, <4 x i32>* %B) nounwind {
64 ;CHECK: v_bicQi32:
65 ;CHECK: vbic
66         %tmp1 = load <4 x i32>* %A
67         %tmp2 = load <4 x i32>* %B
68         %tmp3 = xor <4 x i32> %tmp2, < i32 -1, i32 -1, i32 -1, i32 -1 >
69         %tmp4 = and <4 x i32> %tmp1, %tmp3
70         ret <4 x i32> %tmp4
73 define <2 x i64> @v_bicQi64(<2 x i64>* %A, <2 x i64>* %B) nounwind {
74 ;CHECK: v_bicQi64:
75 ;CHECK: vbic
76         %tmp1 = load <2 x i64>* %A
77         %tmp2 = load <2 x i64>* %B
78         %tmp3 = xor <2 x i64> %tmp2, < i64 -1, i64 -1 >
79         %tmp4 = and <2 x i64> %tmp1, %tmp3
80         ret <2 x i64> %tmp4