revert a hunk of r82018 that wasn't supposed to go in yet.
[llvm/avr.git] / test / CodeGen / ARM / vorn.ll
blob23cbbf0592cfa6b76ea1358589bd7132020ee755
1 ; RUN: llc < %s -march=arm -mattr=+neon > %t
2 ; RUN: grep vorn %t | count 8
3 ; Note: function names do not include "vorn" to allow simple grep for opcodes
5 define <8 x i8> @v_orni8(<8 x i8>* %A, <8 x i8>* %B) nounwind {
6         %tmp1 = load <8 x i8>* %A
7         %tmp2 = load <8 x i8>* %B
8         %tmp3 = xor <8 x i8> %tmp2, < i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1 >
9         %tmp4 = or <8 x i8> %tmp1, %tmp3
10         ret <8 x i8> %tmp4
13 define <4 x i16> @v_orni16(<4 x i16>* %A, <4 x i16>* %B) nounwind {
14         %tmp1 = load <4 x i16>* %A
15         %tmp2 = load <4 x i16>* %B
16         %tmp3 = xor <4 x i16> %tmp2, < i16 -1, i16 -1, i16 -1, i16 -1 >
17         %tmp4 = or <4 x i16> %tmp1, %tmp3
18         ret <4 x i16> %tmp4
21 define <2 x i32> @v_orni32(<2 x i32>* %A, <2 x i32>* %B) nounwind {
22         %tmp1 = load <2 x i32>* %A
23         %tmp2 = load <2 x i32>* %B
24         %tmp3 = xor <2 x i32> %tmp2, < i32 -1, i32 -1 >
25         %tmp4 = or <2 x i32> %tmp1, %tmp3
26         ret <2 x i32> %tmp4
29 define <1 x i64> @v_orni64(<1 x i64>* %A, <1 x i64>* %B) nounwind {
30         %tmp1 = load <1 x i64>* %A
31         %tmp2 = load <1 x i64>* %B
32         %tmp3 = xor <1 x i64> %tmp2, < i64 -1 >
33         %tmp4 = or <1 x i64> %tmp1, %tmp3
34         ret <1 x i64> %tmp4
37 define <16 x i8> @v_ornQi8(<16 x i8>* %A, <16 x i8>* %B) nounwind {
38         %tmp1 = load <16 x i8>* %A
39         %tmp2 = load <16 x i8>* %B
40         %tmp3 = xor <16 x i8> %tmp2, < i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1, i8 -1 >
41         %tmp4 = or <16 x i8> %tmp1, %tmp3
42         ret <16 x i8> %tmp4
45 define <8 x i16> @v_ornQi16(<8 x i16>* %A, <8 x i16>* %B) nounwind {
46         %tmp1 = load <8 x i16>* %A
47         %tmp2 = load <8 x i16>* %B
48         %tmp3 = xor <8 x i16> %tmp2, < i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1, i16 -1 >
49         %tmp4 = or <8 x i16> %tmp1, %tmp3
50         ret <8 x i16> %tmp4
53 define <4 x i32> @v_ornQi32(<4 x i32>* %A, <4 x i32>* %B) nounwind {
54         %tmp1 = load <4 x i32>* %A
55         %tmp2 = load <4 x i32>* %B
56         %tmp3 = xor <4 x i32> %tmp2, < i32 -1, i32 -1, i32 -1, i32 -1 >
57         %tmp4 = or <4 x i32> %tmp1, %tmp3
58         ret <4 x i32> %tmp4
61 define <2 x i64> @v_ornQi64(<2 x i64>* %A, <2 x i64>* %B) nounwind {
62         %tmp1 = load <2 x i64>* %A
63         %tmp2 = load <2 x i64>* %B
64         %tmp3 = xor <2 x i64> %tmp2, < i64 -1, i64 -1 >
65         %tmp4 = or <2 x i64> %tmp1, %tmp3
66         ret <2 x i64> %tmp4