[PowerPC] Recommit r314244 with refactoring and off by default
[llvm-core.git] / test / CodeGen / X86 / avx512-mask-zext-bugfix.ll
blob14406da31163754d0170d0ff09a999d68600d0fe
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc < %s -O0 -mtriple=x86_64-apple-darwin -mcpu=skx -fast-isel-abort=1 | FileCheck %s
4 ; ModuleID = 'mask_set.c'
5 source_filename = "mask_set.c"
6 target datalayout = "e-m:e-i64:64-f80:128-n8:16:32:64-S128"
7 target triple = "x86_64-unknown-linux-gnu"
9 declare void @llvm.dbg.declare(metadata, metadata, metadata)
11 ; Function Attrs: nounwind uwtable
12 declare i64 @calc_expected_mask_val(i8* %valp, i32 %el_size, i32 %length)
13 ; Function Attrs: nounwind uwtable
14 declare i32 @check_mask16(i16 zeroext %res_mask, i16 zeroext %exp_mask, i8* %fname, i8* %input)
16 ; Function Attrs: nounwind uwtable
17 define void @test_xmm(i32 %shift, i32 %mulp, <2 x i64> %a,i8* %arraydecay,i8* %fname){
18 ; CHECK-LABEL: test_xmm:
19 ; CHECK:       ## BB#0:
20 ; CHECK-NEXT:    subq $56, %rsp
21 ; CHECK-NEXT:    .cfi_def_cfa_offset 64
22 ; CHECK-NEXT:    movl $2, %esi
23 ; CHECK-NEXT:    movl $8, %eax
24 ; CHECK-NEXT:    vpmovw2m %xmm0, %k0
25 ; CHECK-NEXT:    kmovd %k0, %edi
26 ; CHECK-NEXT:    movb %dil, %r8b
27 ; CHECK-NEXT:    movzbl %r8b, %edi
28 ; CHECK-NEXT:    movw %di, %r9w
29 ; CHECK-NEXT:    movq %rdx, %rdi
30 ; CHECK-NEXT:    movq %rdx, {{[0-9]+}}(%rsp) ## 8-byte Spill
31 ; CHECK-NEXT:    movl %eax, %edx
32 ; CHECK-NEXT:    movw %r9w, {{[0-9]+}}(%rsp) ## 2-byte Spill
33 ; CHECK-NEXT:    movq %rcx, {{[0-9]+}}(%rsp) ## 8-byte Spill
34 ; CHECK-NEXT:    vmovaps %xmm0, {{[0-9]+}}(%rsp) ## 16-byte Spill
35 ; CHECK-NEXT:    callq _calc_expected_mask_val
36 ; CHECK-NEXT:    movw %ax, %r9w
37 ; CHECK-NEXT:    movw {{[0-9]+}}(%rsp), %r10w ## 2-byte Reload
38 ; CHECK-NEXT:    movzwl %r10w, %edi
39 ; CHECK-NEXT:    movzwl %r9w, %esi
40 ; CHECK-NEXT:    movq {{[0-9]+}}(%rsp), %rdx ## 8-byte Reload
41 ; CHECK-NEXT:    movq {{[0-9]+}}(%rsp), %rcx ## 8-byte Reload
42 ; CHECK-NEXT:    callq _check_mask16
43 ; CHECK-NEXT:    movl $4, %esi
44 ; CHECK-NEXT:    vmovaps {{[0-9]+}}(%rsp), %xmm0 ## 16-byte Reload
45 ; CHECK-NEXT:    vpmovd2m %xmm0, %k0
46 ; CHECK-NEXT:    kmovd %k0, %edi
47 ; CHECK-NEXT:    movb %dil, %r8b
48 ; CHECK-NEXT:    movzbl %r8b, %edi
49 ; CHECK-NEXT:    movw %di, %r9w
50 ; CHECK-NEXT:    movq {{[0-9]+}}(%rsp), %rdi ## 8-byte Reload
51 ; CHECK-NEXT:    movl %esi, {{[0-9]+}}(%rsp) ## 4-byte Spill
52 ; CHECK-NEXT:    movl {{[0-9]+}}(%rsp), %edx ## 4-byte Reload
53 ; CHECK-NEXT:    movl %eax, {{[0-9]+}}(%rsp) ## 4-byte Spill
54 ; CHECK-NEXT:    movw %r9w, {{[0-9]+}}(%rsp) ## 2-byte Spill
55 ; CHECK-NEXT:    callq _calc_expected_mask_val
56 ; CHECK-NEXT:    movw %ax, %r9w
57 ; CHECK-NEXT:    movw {{[0-9]+}}(%rsp), %r10w ## 2-byte Reload
58 ; CHECK-NEXT:    movzwl %r10w, %edi
59 ; CHECK-NEXT:    movzwl %r9w, %esi
60 ; CHECK-NEXT:    movq {{[0-9]+}}(%rsp), %rdx ## 8-byte Reload
61 ; CHECK-NEXT:    movq {{[0-9]+}}(%rsp), %rcx ## 8-byte Reload
62 ; CHECK-NEXT:    callq _check_mask16
63 ; CHECK-NEXT:    movl %eax, (%rsp) ## 4-byte Spill
64 ; CHECK-NEXT:    addq $56, %rsp
65 ; CHECK-NEXT:    retq
66   %d2 = bitcast <2 x i64> %a to <8 x i16>
67   %m2 = call i8 @llvm.x86.avx512.cvtw2mask.128(<8 x i16> %d2)
68   %conv7 = zext i8 %m2 to i16
69   %call9 = call i64 @calc_expected_mask_val(i8* %arraydecay, i32 2, i32 8)
70   %conv10 = trunc i64 %call9 to i16
71   %call12 = call i32 @check_mask16(i16 zeroext %conv7, i16 zeroext %conv10, i8* %fname, i8* %arraydecay)
72   %d3 = bitcast <2 x i64> %a to <4 x i32>
73   %m3 = call i8 @llvm.x86.avx512.cvtd2mask.128(<4 x i32> %d3)
74   %conv14 = zext i8 %m3 to i16
75   %call16 = call i64 @calc_expected_mask_val(i8* %arraydecay, i32 4, i32 4)
76   %conv17 = trunc i64 %call16 to i16
77   %call19 = call i32 @check_mask16(i16 zeroext %conv14, i16 zeroext %conv17, i8* %fname, i8* %arraydecay)
78   ret void
81 ; Function Attrs: nounwind readnone
82 declare i8 @llvm.x86.avx512.cvtw2mask.128(<8 x i16>)
84 ; Function Attrs: nounwind readnone
85 declare i8 @llvm.x86.avx512.cvtd2mask.128(<4 x i32>)