[ARM] Adjust how NEON shifts are lowered
[llvm-core.git] / test / CodeGen / X86 / pr32420.ll
blob2775760e1b068066d7cc7e7594f82b3cabdbdf7e
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc < %s | FileCheck %s
4 target datalayout = "e-m:o-i64:64-f80:128-n8:16:32:64-S128"
5 target triple = "x86_64-apple-macosx10.12.0"
7 @a = common local_unnamed_addr global i16 0, align 4
8 @b = common local_unnamed_addr global i16 0, align 4
10 define i32 @PR32420() {
11 ; CHECK-LABEL: PR32420:
12 ; CHECK:       ## %bb.0:
13 ; CHECK-NEXT:    movq _a@{{.*}}(%rip), %rcx
14 ; CHECK-NEXT:    movzwl (%rcx), %eax
15 ; CHECK-NEXT:    movl %eax, %edx
16 ; CHECK-NEXT:    shll $12, %edx
17 ; CHECK-NEXT:    movswl %dx, %edx
18 ; CHECK-NEXT:    shrl $12, %edx
19 ; CHECK-NEXT:    movq _b@{{.*}}(%rip), %rsi
20 ; CHECK-NEXT:    orw (%rsi), %dx
21 ; CHECK-NEXT:    movl (%rcx), %ecx
22 ; CHECK-NEXT:    shll $12, %ecx
23 ; CHECK-NEXT:    movswl %cx, %ecx
24 ; CHECK-NEXT:    shrl $12, %ecx
25 ; CHECK-NEXT:    andl %edx, %ecx
26 ; CHECK-NEXT:    movw %cx, (%rsi)
27 ; CHECK-NEXT:    retq
28   %load2 = load i16, i16* @a, align 4
29   %shl3 = shl i16 %load2, 12
30   %ashr4 = ashr i16 %shl3, 12
31   %t2 = load volatile i16, i16* @b, align 4
32   %conv8 = or i16 %t2, %ashr4
33   %load9 = load i16, i16* @a, align 4
34   %shl10 = shl i16 %load9, 12
35   %ashr11 = ashr i16 %shl10, 12
36   %and = and i16 %conv8, %ashr11
37   store i16 %and, i16* @b, align 4
38   %cast1629 = zext i16 %load2 to i32
39   ret i32 %cast1629