1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc < %s -mtriple=i686-unknown-unknown -mattr=+sse3 | FileCheck %s --check-prefix=SSE3
3 ; RUN: llc < %s -mtriple=i686-unknown-unknown -mattr=+sse4.1 | FileCheck %s --check-prefix=SSE41
4 ; RUN: llc < %s -mtriple=i686-unknown-unknown -mattr=+avx | FileCheck %s --check-prefix=AVX-32
5 ; RUN: llc < %s -mtriple=i686-unknown-unknown -mattr=+avx2 | FileCheck %s --check-prefix=AVX-32
6 ; RUN: llc < %s -mtriple=x86_64-unknown-unknown -mattr=+avx2 | FileCheck %s --check-prefix=AVX-64
8 define <3 x i16> @zext_i8(<3 x i8>) {
11 ; SSE3-NEXT: movzbl {{[0-9]+}}(%esp), %eax
12 ; SSE3-NEXT: movd %eax, %xmm0
13 ; SSE3-NEXT: movzbl {{[0-9]+}}(%esp), %eax
14 ; SSE3-NEXT: pinsrw $1, %eax, %xmm0
15 ; SSE3-NEXT: movzbl {{[0-9]+}}(%esp), %eax
16 ; SSE3-NEXT: pinsrw $2, %eax, %xmm0
17 ; SSE3-NEXT: pxor %xmm1, %xmm1
18 ; SSE3-NEXT: pextrw $1, %xmm0, %edx
19 ; SSE3-NEXT: pextrw $2, %xmm0, %ecx
20 ; SSE3-NEXT: punpcklwd {{.*#+}} xmm0 = xmm0[0],xmm1[0],xmm0[1],xmm1[1],xmm0[2],xmm1[2],xmm0[3],xmm1[3]
21 ; SSE3-NEXT: movd %xmm0, %eax
22 ; SSE3-NEXT: # kill: %ax<def> %ax<kill> %eax<kill>
23 ; SSE3-NEXT: # kill: %dx<def> %dx<kill> %edx<kill>
24 ; SSE3-NEXT: # kill: %cx<def> %cx<kill> %ecx<kill>
27 ; SSE41-LABEL: zext_i8:
29 ; SSE41-NEXT: pxor %xmm0, %xmm0
30 ; SSE41-NEXT: pinsrb $0, {{[0-9]+}}(%esp), %xmm0
31 ; SSE41-NEXT: pinsrb $4, {{[0-9]+}}(%esp), %xmm0
32 ; SSE41-NEXT: pinsrb $8, {{[0-9]+}}(%esp), %xmm0
33 ; SSE41-NEXT: movd %xmm0, %eax
34 ; SSE41-NEXT: pextrw $2, %xmm0, %edx
35 ; SSE41-NEXT: pextrw $4, %xmm0, %ecx
36 ; SSE41-NEXT: # kill: %ax<def> %ax<kill> %eax<kill>
37 ; SSE41-NEXT: # kill: %dx<def> %dx<kill> %edx<kill>
38 ; SSE41-NEXT: # kill: %cx<def> %cx<kill> %ecx<kill>
41 ; AVX-32-LABEL: zext_i8:
43 ; AVX-32-NEXT: vpxor %xmm0, %xmm0, %xmm0
44 ; AVX-32-NEXT: vpinsrb $0, {{[0-9]+}}(%esp), %xmm0, %xmm0
45 ; AVX-32-NEXT: vpinsrb $4, {{[0-9]+}}(%esp), %xmm0, %xmm0
46 ; AVX-32-NEXT: vpinsrb $8, {{[0-9]+}}(%esp), %xmm0, %xmm0
47 ; AVX-32-NEXT: vmovd %xmm0, %eax
48 ; AVX-32-NEXT: vpextrw $2, %xmm0, %edx
49 ; AVX-32-NEXT: vpextrw $4, %xmm0, %ecx
50 ; AVX-32-NEXT: # kill: %ax<def> %ax<kill> %eax<kill>
51 ; AVX-32-NEXT: # kill: %dx<def> %dx<kill> %edx<kill>
52 ; AVX-32-NEXT: # kill: %cx<def> %cx<kill> %ecx<kill>
55 ; AVX-64-LABEL: zext_i8:
57 ; AVX-64-NEXT: vmovd %edi, %xmm0
58 ; AVX-64-NEXT: vpinsrd $1, %esi, %xmm0, %xmm0
59 ; AVX-64-NEXT: vpinsrd $2, %edx, %xmm0, %xmm0
60 ; AVX-64-NEXT: vpand {{.*}}(%rip), %xmm0, %xmm0
61 ; AVX-64-NEXT: vmovd %xmm0, %eax
62 ; AVX-64-NEXT: vpextrw $2, %xmm0, %edx
63 ; AVX-64-NEXT: vpextrw $4, %xmm0, %ecx
64 ; AVX-64-NEXT: # kill: %ax<def> %ax<kill> %eax<kill>
65 ; AVX-64-NEXT: # kill: %dx<def> %dx<kill> %edx<kill>
66 ; AVX-64-NEXT: # kill: %cx<def> %cx<kill> %ecx<kill>
68 %2 = zext <3 x i8> %0 to <3 x i16>
72 define <3 x i16> @sext_i8(<3 x i8>) {
73 ; SSE3-LABEL: sext_i8:
75 ; SSE3-NEXT: movzbl {{[0-9]+}}(%esp), %eax
76 ; SSE3-NEXT: movd %eax, %xmm0
77 ; SSE3-NEXT: movzbl {{[0-9]+}}(%esp), %eax
78 ; SSE3-NEXT: pinsrw $1, %eax, %xmm0
79 ; SSE3-NEXT: movzbl {{[0-9]+}}(%esp), %eax
80 ; SSE3-NEXT: pinsrw $2, %eax, %xmm0
81 ; SSE3-NEXT: psllw $8, %xmm0
82 ; SSE3-NEXT: psraw $8, %xmm0
83 ; SSE3-NEXT: punpcklwd {{.*#+}} xmm0 = xmm0[0,0,1,1,2,2,3,3]
84 ; SSE3-NEXT: psrad $16, %xmm0
85 ; SSE3-NEXT: movd %xmm0, %eax
86 ; SSE3-NEXT: pextrw $2, %xmm0, %edx
87 ; SSE3-NEXT: pextrw $4, %xmm0, %ecx
88 ; SSE3-NEXT: # kill: %ax<def> %ax<kill> %eax<kill>
89 ; SSE3-NEXT: # kill: %dx<def> %dx<kill> %edx<kill>
90 ; SSE3-NEXT: # kill: %cx<def> %cx<kill> %ecx<kill>
93 ; SSE41-LABEL: sext_i8:
95 ; SSE41-NEXT: movd {{.*#+}} xmm0 = mem[0],zero,zero,zero
96 ; SSE41-NEXT: pinsrb $4, {{[0-9]+}}(%esp), %xmm0
97 ; SSE41-NEXT: pinsrb $8, {{[0-9]+}}(%esp), %xmm0
98 ; SSE41-NEXT: pslld $24, %xmm0
99 ; SSE41-NEXT: psrad $24, %xmm0
100 ; SSE41-NEXT: movd %xmm0, %eax
101 ; SSE41-NEXT: pextrw $2, %xmm0, %edx
102 ; SSE41-NEXT: pextrw $4, %xmm0, %ecx
103 ; SSE41-NEXT: # kill: %ax<def> %ax<kill> %eax<kill>
104 ; SSE41-NEXT: # kill: %dx<def> %dx<kill> %edx<kill>
105 ; SSE41-NEXT: # kill: %cx<def> %cx<kill> %ecx<kill>
108 ; AVX-32-LABEL: sext_i8:
110 ; AVX-32-NEXT: vmovd {{.*#+}} xmm0 = mem[0],zero,zero,zero
111 ; AVX-32-NEXT: vpinsrb $4, {{[0-9]+}}(%esp), %xmm0, %xmm0
112 ; AVX-32-NEXT: vpinsrb $8, {{[0-9]+}}(%esp), %xmm0, %xmm0
113 ; AVX-32-NEXT: vpslld $24, %xmm0, %xmm0
114 ; AVX-32-NEXT: vpsrad $24, %xmm0, %xmm0
115 ; AVX-32-NEXT: vmovd %xmm0, %eax
116 ; AVX-32-NEXT: vpextrw $2, %xmm0, %edx
117 ; AVX-32-NEXT: vpextrw $4, %xmm0, %ecx
118 ; AVX-32-NEXT: # kill: %ax<def> %ax<kill> %eax<kill>
119 ; AVX-32-NEXT: # kill: %dx<def> %dx<kill> %edx<kill>
120 ; AVX-32-NEXT: # kill: %cx<def> %cx<kill> %ecx<kill>
123 ; AVX-64-LABEL: sext_i8:
125 ; AVX-64-NEXT: vmovd %edi, %xmm0
126 ; AVX-64-NEXT: vpinsrd $1, %esi, %xmm0, %xmm0
127 ; AVX-64-NEXT: vpinsrd $2, %edx, %xmm0, %xmm0
128 ; AVX-64-NEXT: vpslld $24, %xmm0, %xmm0
129 ; AVX-64-NEXT: vpsrad $24, %xmm0, %xmm0
130 ; AVX-64-NEXT: vmovd %xmm0, %eax
131 ; AVX-64-NEXT: vpextrw $2, %xmm0, %edx
132 ; AVX-64-NEXT: vpextrw $4, %xmm0, %ecx
133 ; AVX-64-NEXT: # kill: %ax<def> %ax<kill> %eax<kill>
134 ; AVX-64-NEXT: # kill: %dx<def> %dx<kill> %edx<kill>
135 ; AVX-64-NEXT: # kill: %cx<def> %cx<kill> %ecx<kill>
137 %2 = sext <3 x i8> %0 to <3 x i16>