Run DCE after a LoopFlatten test to reduce spurious output [nfc]
[llvm-project.git] / llvm / test / CodeGen / X86 / memset64-on-x86-32.ll
blobc6eecdcdf99cc52a6ffd030981d7b44fce0f896a
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc < %s -mtriple=i386-unknown-unknown   -mattr=sse4.2 | FileCheck %s --check-prefix=FAST
3 ; RUN: llc < %s -mtriple=i386-unknown-unknown   -mattr=ssse3   | FileCheck %s --check-prefix=SLOW_32
4 ; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=ssse3   | FileCheck %s --check-prefix=SLOW_64
6 define void @bork(ptr nocapture align 4 %dst) nounwind {
7 ; FAST-LABEL: bork:
8 ; FAST:       # %bb.0:
9 ; FAST-NEXT:    movl {{[0-9]+}}(%esp), %eax
10 ; FAST-NEXT:    xorps %xmm0, %xmm0
11 ; FAST-NEXT:    movups %xmm0, 64(%eax)
12 ; FAST-NEXT:    movups %xmm0, 48(%eax)
13 ; FAST-NEXT:    movups %xmm0, 32(%eax)
14 ; FAST-NEXT:    movups %xmm0, 16(%eax)
15 ; FAST-NEXT:    movups %xmm0, (%eax)
16 ; FAST-NEXT:    retl
18 ; SLOW_32-LABEL: bork:
19 ; SLOW_32:       # %bb.0:
20 ; SLOW_32-NEXT:    movl {{[0-9]+}}(%esp), %eax
21 ; SLOW_32-NEXT:    movl $0, 4(%eax)
22 ; SLOW_32-NEXT:    movl $0, (%eax)
23 ; SLOW_32-NEXT:    movl $0, 12(%eax)
24 ; SLOW_32-NEXT:    movl $0, 8(%eax)
25 ; SLOW_32-NEXT:    movl $0, 20(%eax)
26 ; SLOW_32-NEXT:    movl $0, 16(%eax)
27 ; SLOW_32-NEXT:    movl $0, 28(%eax)
28 ; SLOW_32-NEXT:    movl $0, 24(%eax)
29 ; SLOW_32-NEXT:    movl $0, 36(%eax)
30 ; SLOW_32-NEXT:    movl $0, 32(%eax)
31 ; SLOW_32-NEXT:    movl $0, 44(%eax)
32 ; SLOW_32-NEXT:    movl $0, 40(%eax)
33 ; SLOW_32-NEXT:    movl $0, 52(%eax)
34 ; SLOW_32-NEXT:    movl $0, 48(%eax)
35 ; SLOW_32-NEXT:    movl $0, 60(%eax)
36 ; SLOW_32-NEXT:    movl $0, 56(%eax)
37 ; SLOW_32-NEXT:    movl $0, 68(%eax)
38 ; SLOW_32-NEXT:    movl $0, 64(%eax)
39 ; SLOW_32-NEXT:    movl $0, 76(%eax)
40 ; SLOW_32-NEXT:    movl $0, 72(%eax)
41 ; SLOW_32-NEXT:    retl
43 ; SLOW_64-LABEL: bork:
44 ; SLOW_64:       # %bb.0:
45 ; SLOW_64-NEXT:    movq $0, 72(%rdi)
46 ; SLOW_64-NEXT:    movq $0, 64(%rdi)
47 ; SLOW_64-NEXT:    movq $0, 56(%rdi)
48 ; SLOW_64-NEXT:    movq $0, 48(%rdi)
49 ; SLOW_64-NEXT:    movq $0, 40(%rdi)
50 ; SLOW_64-NEXT:    movq $0, 32(%rdi)
51 ; SLOW_64-NEXT:    movq $0, 24(%rdi)
52 ; SLOW_64-NEXT:    movq $0, 16(%rdi)
53 ; SLOW_64-NEXT:    movq $0, 8(%rdi)
54 ; SLOW_64-NEXT:    movq $0, (%rdi)
55 ; SLOW_64-NEXT:    retq
56   call void @llvm.memset.p0.i64(ptr align 4 %dst, i8 0, i64 80, i1 false)
57   ret void
60 declare void @llvm.memset.p0.i64(ptr nocapture, i8, i64, i1) nounwind