[ARM] Adjust how NEON shifts are lowered
[llvm-core.git] / test / CodeGen / X86 / movgs.ll
blob00fc598ec658a1b2019594510df9217facee9d40
1 ; RUN: llc < %s -mtriple=i386-linux-gnu -mcpu=penryn -mattr=sse4.1 | FileCheck %s --check-prefix=X32
2 ; RUN: llc < %s -mtriple=x86_64-linux -mcpu=penryn -mattr=sse4.1 | FileCheck %s --check-prefix=X64
3 ; RUN: llc < %s -mtriple=x86_64-win32 -mcpu=penryn -mattr=sse4.1 | FileCheck %s --check-prefix=X64
5 define i32 @test1() nounwind readonly {
6 ; X32-LABEL: test1:
7 ; X32:       # %bb.0: # %entry
8 ; X32-NEXT:    movl %gs:196, %eax
9 ; X32-NEXT:    movl (%eax), %eax
10 ; X32-NEXT:    retl
12 ; X64-LABEL: test1:
13 ; X64:       # %bb.0: # %entry
14 ; X64-NEXT:    movq %gs:320, %rax
15 ; X64-NEXT:    movl (%rax), %eax
16 ; X64-NEXT:    retq
17 entry:
18         %tmp = load i32*, i32* addrspace(256)* getelementptr (i32*, i32* addrspace(256)* inttoptr (i32 72 to i32* addrspace(256)*), i32 31)             ; <i32*> [#uses=1]
19         %tmp1 = load i32, i32* %tmp             ; <i32> [#uses=1]
20         ret i32 %tmp1
23 define i64 @test2(void (i8*)* addrspace(256)* %tmp8) nounwind {
24 ; X32-LABEL: test2:
25 ; X32:       # %bb.0: # %entry
26 ; X32-NEXT:    subl $12, %esp
27 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
28 ; X32-NEXT:    calll *%gs:(%eax)
29 ; X32-NEXT:    xorl %eax, %eax
30 ; X32-NEXT:    xorl %edx, %edx
31 ; X32-NEXT:    addl $12, %esp
32 ; X32-NEXT:    retl
34 ; X64-LABEL: test2:
35 ; X64:       # %bb.0: # %entry
36 ; X64-NEXT:    {{(subq.*%rsp|pushq)}}
37 ; X64-NEXT:    callq *%gs:(%{{(rcx|rdi)}})
38 ; X64-NEXT:    xorl %eax, %eax
39 ; X64-NEXT:    {{(addq.*%rsp|popq)}}
40 ; X64-NEXT:    retq
41 entry:
42   %tmp9 = load void (i8*)*, void (i8*)* addrspace(256)* %tmp8, align 8
43   tail call void %tmp9(i8* undef) nounwind optsize
44   ret i64 0
47 define <2 x i64> @pmovsxwd_1(i64 addrspace(256)* %p) nounwind readonly {
48 ; X32-LABEL: pmovsxwd_1:
49 ; X32:       # %bb.0: # %entry
50 ; X32-NEXT:    movl {{[0-9]+}}(%esp), %eax
51 ; X32-NEXT:    pmovsxwd %gs:(%eax), %xmm0
52 ; X32-NEXT:    retl
54 ; X64-LABEL: pmovsxwd_1:
55 ; X64:       # %bb.0: # %entry
56 ; X64-NEXT:    pmovsxwd %gs:(%{{(rcx|rdi)}}), %xmm0
57 ; X64-NEXT:    retq
58 entry:
59   %0 = load i64, i64 addrspace(256)* %p
60   %tmp2 = insertelement <2 x i64> zeroinitializer, i64 %0, i32 0
61   %1 = bitcast <2 x i64> %tmp2 to <8 x i16>
62   %2 = shufflevector <8 x i16> %1, <8 x i16> undef, <4 x i32> <i32 0, i32 1, i32 2, i32 3>
63   %3 = sext <4 x i16> %2 to <4 x i32>
64   %4 = bitcast <4 x i32> %3 to <2 x i64>
65   ret <2 x i64> %4
68 ; The two loads here both look identical to selection DAG, except for their
69 ; address spaces.  Make sure they aren't CSE'd.
70 define i32 @test_no_cse() nounwind readonly {
71 ; X32-LABEL: test_no_cse:
72 ; X32:       # %bb.0: # %entry
73 ; X32-NEXT:    movl %gs:196, %eax
74 ; X32-NEXT:    movl (%eax), %eax
75 ; X32-NEXT:    movl %fs:196, %ecx
76 ; X32-NEXT:    addl (%ecx), %eax
77 ; X32-NEXT:    retl
79 ; X64-LABEL: test_no_cse:
80 ; X64:       # %bb.0: # %entry
81 ; X64-NEXT:    movq %gs:320, %rax
82 ; X64-NEXT:    movl (%rax), %eax
83 ; X64-NEXT:    movq %fs:320, %rcx
84 ; X64-NEXT:    addl (%rcx), %eax
85 ; X64-NEXT:    retq
86 entry:
87         %tmp = load i32*, i32* addrspace(256)* getelementptr (i32*, i32* addrspace(256)* inttoptr (i32 72 to i32* addrspace(256)*), i32 31)             ; <i32*> [#uses=1]
88         %tmp1 = load i32, i32* %tmp             ; <i32> [#uses=1]
89         %tmp2 = load i32*, i32* addrspace(257)* getelementptr (i32*, i32* addrspace(257)* inttoptr (i32 72 to i32* addrspace(257)*), i32 31)            ; <i32*> [#uses=1]
90         %tmp3 = load i32, i32* %tmp2            ; <i32> [#uses=1]
91         %tmp4 = add i32 %tmp1, %tmp3
92         ret i32 %tmp4