Fixed some bugs in register stack pass.
[llvm/zpu.git] / test / CodeGen / X86 / overlap-shift.ll
blobc1fc041e7d9b97a3322087b29633b4b86cc3aea0
1 ;; X's live range extends beyond the shift, so the register allocator
2 ;; cannot coalesce it with Y.  Because of this, a copy needs to be
3 ;; emitted before the shift to save the register value before it is
4 ;; clobbered.  However, this copy is not needed if the register
5 ;; allocator turns the shift into an LEA.  This also occurs for ADD.
7 ; Check that the shift gets turned into an LEA.
9 ; RUN: llc < %s -march=x86 -x86-asm-syntax=intel | \
10 ; RUN:   not grep {mov E.X, E.X}
12 @G = external global i32                ; <i32*> [#uses=1]
14 define i32 @test1(i32 %X) {
15         %Z = shl i32 %X, 2              ; <i32> [#uses=1]
16         volatile store i32 %Z, i32* @G
17         ret i32 %X