Fixed some bugs in register stack pass.
[llvm/zpu.git] / test / CodeGen / X86 / 2008-05-22-FoldUnalignedLoad.ll
blob19a73543c65e627215c0ef745916d77c81787bf8
1 ; RUN: llc < %s -march=x86 -mattr=+sse2 | grep movups | count 2
3 define void @a(<4 x float>* %x) nounwind  {
4 entry:
5         %tmp2 = load <4 x float>* %x, align 1
6         %inv = call <4 x float> @llvm.x86.sse.rcp.ps(<4 x float> %tmp2)
7         store <4 x float> %inv, <4 x float>* %x, align 1
8         ret void
11 declare <4 x float> @llvm.x86.sse.rcp.ps(<4 x float>)