pass machinemoduleinfo down into getSymbolForDwarfGlobalReference,
[llvm/avr.git] / test / CodeGen / ARM / vand.ll
blob653a70b902450a8331005947fbfd8f2233c37fd7
1 ; RUN: llc < %s -march=arm -mattr=+neon | FileCheck %s
3 define <8 x i8> @v_andi8(<8 x i8>* %A, <8 x i8>* %B) nounwind {
4 ;CHECK: v_andi8:
5 ;CHECK: vand
6         %tmp1 = load <8 x i8>* %A
7         %tmp2 = load <8 x i8>* %B
8         %tmp3 = and <8 x i8> %tmp1, %tmp2
9         ret <8 x i8> %tmp3
12 define <4 x i16> @v_andi16(<4 x i16>* %A, <4 x i16>* %B) nounwind {
13 ;CHECK: v_andi16:
14 ;CHECK: vand
15         %tmp1 = load <4 x i16>* %A
16         %tmp2 = load <4 x i16>* %B
17         %tmp3 = and <4 x i16> %tmp1, %tmp2
18         ret <4 x i16> %tmp3
21 define <2 x i32> @v_andi32(<2 x i32>* %A, <2 x i32>* %B) nounwind {
22 ;CHECK: v_andi32:
23 ;CHECK: vand
24         %tmp1 = load <2 x i32>* %A
25         %tmp2 = load <2 x i32>* %B
26         %tmp3 = and <2 x i32> %tmp1, %tmp2
27         ret <2 x i32> %tmp3
30 define <1 x i64> @v_andi64(<1 x i64>* %A, <1 x i64>* %B) nounwind {
31 ;CHECK: v_andi64:
32 ;CHECK: vand
33         %tmp1 = load <1 x i64>* %A
34         %tmp2 = load <1 x i64>* %B
35         %tmp3 = and <1 x i64> %tmp1, %tmp2
36         ret <1 x i64> %tmp3
39 define <16 x i8> @v_andQi8(<16 x i8>* %A, <16 x i8>* %B) nounwind {
40 ;CHECK: v_andQi8:
41 ;CHECK: vand
42         %tmp1 = load <16 x i8>* %A
43         %tmp2 = load <16 x i8>* %B
44         %tmp3 = and <16 x i8> %tmp1, %tmp2
45         ret <16 x i8> %tmp3
48 define <8 x i16> @v_andQi16(<8 x i16>* %A, <8 x i16>* %B) nounwind {
49 ;CHECK: v_andQi16:
50 ;CHECK: vand
51         %tmp1 = load <8 x i16>* %A
52         %tmp2 = load <8 x i16>* %B
53         %tmp3 = and <8 x i16> %tmp1, %tmp2
54         ret <8 x i16> %tmp3
57 define <4 x i32> @v_andQi32(<4 x i32>* %A, <4 x i32>* %B) nounwind {
58 ;CHECK: v_andQi32:
59 ;CHECK: vand
60         %tmp1 = load <4 x i32>* %A
61         %tmp2 = load <4 x i32>* %B
62         %tmp3 = and <4 x i32> %tmp1, %tmp2
63         ret <4 x i32> %tmp3
66 define <2 x i64> @v_andQi64(<2 x i64>* %A, <2 x i64>* %B) nounwind {
67 ;CHECK: v_andQi64:
68 ;CHECK: vand
69         %tmp1 = load <2 x i64>* %A
70         %tmp2 = load <2 x i64>* %B
71         %tmp3 = and <2 x i64> %tmp1, %tmp2
72         ret <2 x i64> %tmp3