Handle logical shift right (at least I hope so :) )
[llvm/msp430.git] / test / CodeGen / X86 / vec_shift.ll
blob9c595bc6ef06741058f31b167a138d5981a58da1
1 ; RUN: llvm-as < %s | llc -march=x86 -mattr=+sse2 | grep psllw
2 ; RUN: llvm-as < %s | llc -march=x86 -mattr=+sse2 | grep psrlq
3 ; RUN: llvm-as < %s | llc -march=x86 -mattr=+sse2 | grep psraw
5 define <2 x i64> @t1(<2 x i64> %b1, <2 x i64> %c) nounwind  {
6 entry:
7         %tmp6 = bitcast <2 x i64> %c to <8 x i16>               ; <<8 x i16>> [#uses=1]
8         %tmp8 = bitcast <2 x i64> %b1 to <8 x i16>              ; <<8 x i16>> [#uses=1]
9         %tmp9 = tail call <8 x i16> @llvm.x86.sse2.psll.w( <8 x i16> %tmp8, <8 x i16> %tmp6 ) nounwind readnone                 ; <<8 x i16>> [#uses=1]
10         %tmp10 = bitcast <8 x i16> %tmp9 to <2 x i64>           ; <<2 x i64>> [#uses=1]
11         ret <2 x i64> %tmp10
14 define <2 x i64> @t3(<2 x i64> %b1, i32 %c) nounwind  {
15 entry:
16         %tmp2 = bitcast <2 x i64> %b1 to <8 x i16>              ; <<8 x i16>> [#uses=1]
17         %tmp4 = insertelement <4 x i32> undef, i32 %c, i32 0            ; <<4 x i32>> [#uses=1]
18         %tmp8 = bitcast <4 x i32> %tmp4 to <8 x i16>            ; <<8 x i16>> [#uses=1]
19         %tmp9 = tail call <8 x i16> @llvm.x86.sse2.psra.w( <8 x i16> %tmp2, <8 x i16> %tmp8 )           ; <<8 x i16>> [#uses=1]
20         %tmp11 = bitcast <8 x i16> %tmp9 to <2 x i64>           ; <<2 x i64>> [#uses=1]
21         ret <2 x i64> %tmp11
24 declare <8 x i16> @llvm.x86.sse2.psra.w(<8 x i16>, <8 x i16>) nounwind readnone 
26 define <2 x i64> @t2(<2 x i64> %b1, <2 x i64> %c) nounwind  {
27 entry:
28         %tmp9 = tail call <2 x i64> @llvm.x86.sse2.psrl.q( <2 x i64> %b1, <2 x i64> %c ) nounwind readnone              ; <<2 x i64>> [#uses=1]
29         ret <2 x i64> %tmp9
32 declare <2 x i64> @llvm.x86.sse2.psrl.q(<2 x i64>, <2 x i64>) nounwind readnone 
34 declare <8 x i16> @llvm.x86.sse2.psll.w(<8 x i16>, <8 x i16>) nounwind readnone