[ARM] Adjust how NEON shifts are lowered
[llvm-core.git] / test / CodeGen / X86 / vec_insert-7.ll
blob94204ee4c3a1c092ef6acc48bf74fe7b032c67c6
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc < %s -mtriple=i686-apple-darwin9 -mattr=+mmx,+sse4.2 | FileCheck %s --check-prefix=X32
3 ; RUN: llc < %s -mtriple=x86_64-apple-darwin9 -mattr=+mmx,+sse4.2 | FileCheck %s --check-prefix=X64
5 ; MMX insertelement is not available; these are promoted to xmm.
6 ; (Without SSE they are split to two ints, and the code is much better.)
8 define x86_mmx @mmx_movzl(x86_mmx %x) nounwind {
9 ; X32-LABEL: mmx_movzl:
10 ; X32:       ## %bb.0:
11 ; X32-NEXT:    subl $12, %esp
12 ; X32-NEXT:    movl $32, %eax
13 ; X32-NEXT:    movd %eax, %xmm0
14 ; X32-NEXT:    movdq2q %xmm0, %mm0
15 ; X32-NEXT:    addl $12, %esp
16 ; X32-NEXT:    retl
18 ; X64-LABEL: mmx_movzl:
19 ; X64:       ## %bb.0:
20 ; X64-NEXT:    movl $32, %eax
21 ; X64-NEXT:    movq %rax, %xmm0
22 ; X64-NEXT:    retq
23   %tmp = bitcast x86_mmx %x to <2 x i32>
24   %tmp3 = insertelement <2 x i32> %tmp, i32 32, i32 0
25   %tmp8 = insertelement <2 x i32> %tmp3, i32 0, i32 1
26   %tmp9 = bitcast <2 x i32> %tmp8 to x86_mmx
27   ret x86_mmx %tmp9