[ARM] Adjust how NEON shifts are lowered
[llvm-core.git] / test / CodeGen / X86 / pr36274.ll
blob97b958c6b683f10c39bd23f8cc724c7121e6c7c3
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc < %s -mtriple=i386-unknown-linux-gnu | FileCheck %s
4 ; This tests is checking for a case where the x86 load-op-store fusion
5 ; misses a dependence between the fused load and a non-fused operand
6 ; to the load causing a cycle. Here the dependence in question comes
7 ; from the carry in input of the adcl.
9 @vx = external local_unnamed_addr global <2 x i32>, align 8
11 define void @pr36274(i32* %somewhere) {
12 ; CHECK-LABEL: pr36274:
13 ; CHECK:       # %bb.0:
14 ; CHECK-NEXT:    movl vx+4, %eax
15 ; CHECK-NEXT:    addl $1, vx
16 ; CHECK-NEXT:    adcl $0, %eax
17 ; CHECK-NEXT:    movl %eax, vx+4
18 ; CHECK-NEXT:    retl
19   %a0  = getelementptr <2 x i32>, <2 x i32>* @vx, i32 0, i32 0
20   %a1  = getelementptr <2 x i32>, <2 x i32>* @vx, i32 0, i32 1
21   %x1  = load volatile i32, i32* %a1, align 4
22   %x0  = load volatile i32, i32* %a0, align 8
23   %vx0 = insertelement <2 x i32> undef, i32 %x0, i32 0
24   %vx1 = insertelement <2 x i32> %vx0, i32 %x1, i32 1
25   %x = bitcast <2 x i32> %vx1 to i64
26   %add = add i64 %x, 1
27   %vadd = bitcast i64 %add to <2 x i32>
28   %vx1_0 = extractelement <2 x i32> %vadd, i32 0
29   %vx1_1 = extractelement <2 x i32> %vadd, i32 1
30   store i32 %vx1_0, i32* %a0, align 8
31   store i32 %vx1_1, i32* %a1, align 4
32   ret void