Use Align for TFL::TransientStackAlignment
[llvm-core.git] / test / CodeGen / X86 / vec_uint_to_fp-fastmath.ll
blob5f4489c5ed2595267fbfcd22449b3246d8ba28e1
1 ; RUN: llc < %s -mtriple=x86_64 -enable-unsafe-fp-math \
2 ; RUN:   | FileCheck %s --check-prefix=CHECK --check-prefix=CST --check-prefix=SSE --check-prefix=SSE2
3 ; RUN: llc < %s -mtriple=x86_64 -enable-unsafe-fp-math -mattr=+sse4.1 \
4 ; RUN:   | FileCheck %s --check-prefix=CHECK --check-prefix=CST --check-prefix=SSE --check-prefix=SSE41
5 ; RUN: llc < %s -mtriple=x86_64 -enable-unsafe-fp-math -mattr=+avx \
6 ; RUN:   | FileCheck %s --check-prefix=CHECK --check-prefix=CST --check-prefix=AVX
7 ; RUN: llc < %s -mtriple=x86_64 -enable-unsafe-fp-math -mattr=+avx2 \
8 ; RUN:   | FileCheck %s --check-prefix=CHECK --check-prefix=AVX2
9 ; RUN: llc < %s -mtriple=x86_64 -enable-unsafe-fp-math -mattr=+avx512f \
10 ; RUN:   | FileCheck %s --check-prefix=CHECK --check-prefix=AVX512F
11 ; RUN: llc < %s -mtriple=x86_64 -enable-unsafe-fp-math -mattr=+avx512vl \
12 ; RUN:   | FileCheck %s --check-prefix=CHECK --check-prefix=AVX512VL
14 ; SSE2: [[MASKCSTADDR:.LCPI[0-9_]+]]:
15 ; SSE2-NEXT: .long 65535 # 0xffff
16 ; SSE2-NEXT: .long 65535 # 0xffff
17 ; SSE2-NEXT: .long 65535 # 0xffff
18 ; SSE2-NEXT: .long 65535 # 0xffff
20 ; CST: [[FPMASKCSTADDR:.LCPI[0-9_]+]]:
21 ; CST-NEXT: .long 1199570944 # float 65536
22 ; CST-NEXT: .long 1199570944 # float 65536
23 ; CST-NEXT: .long 1199570944 # float 65536
24 ; CST-NEXT: .long 1199570944 # float 65536
26 ; AVX2: [[FPMASKCSTADDR:.LCPI[0-9_]+]]:
27 ; AVX2-NEXT: .long 1199570944 # float 65536
29 define <4 x float> @test_uitofp_v4i32_to_v4f32(<4 x i32> %arg) {
30 ; SSE2-LABEL: test_uitofp_v4i32_to_v4f32:
31 ; SSE2:       # %bb.0:
32 ; SSE2-NEXT:    movaps {{.*#+}} xmm1 = [65535,65535,65535,65535]
33 ; SSE2-NEXT:    andps %xmm0, %xmm1
34 ; SSE2-NEXT:    cvtdq2ps %xmm1, %xmm1
35 ; SSE2-NEXT:    psrld $16, %xmm0
36 ; SSE2-NEXT:    cvtdq2ps %xmm0, %xmm0
37 ; SSE2-NEXT:    mulps [[FPMASKCSTADDR]](%rip), %xmm0
38 ; SSE2-NEXT:    addps %xmm1, %xmm0
39 ; SSE2-NEXT:    retq
41 ; SSE41-LABEL: test_uitofp_v4i32_to_v4f32:
42 ; SSE41:       # %bb.0:
43 ; SSE41-NEXT:    pxor %xmm1, %xmm1
44 ; SSE41-NEXT:    pblendw {{.*#+}} xmm1 = xmm0[0],xmm1[1],xmm0[2],xmm1[3],xmm0[4],xmm1[5],xmm0[6],xmm1[7]
45 ; SSE41-NEXT:    cvtdq2ps %xmm1, %xmm1
46 ; SSE41-NEXT:    psrld $16, %xmm0
47 ; SSE41-NEXT:    cvtdq2ps %xmm0, %xmm0
48 ; SSE41-NEXT:    mulps [[FPMASKCSTADDR]](%rip), %xmm0
49 ; SSE41-NEXT:    addps %xmm1, %xmm0
50 ; SSE41-NEXT:    retq
52 ; AVX-LABEL: test_uitofp_v4i32_to_v4f32:
53 ; AVX:       # %bb.0:
54 ; AVX-NEXT:    vpxor %xmm1, %xmm1, %xmm1
55 ; AVX-NEXT:    vpblendw {{.*#+}} xmm1 = xmm0[0],xmm1[1],xmm0[2],xmm1[3],xmm0[4],xmm1[5],xmm0[6],xmm1[7]
56 ; AVX-NEXT:    vcvtdq2ps %xmm1, %xmm1
57 ; AVX-NEXT:    vpsrld $16, %xmm0, %xmm0
58 ; AVX-NEXT:    vcvtdq2ps %xmm0, %xmm0
59 ; AVX-NEXT:    vmulps [[FPMASKCSTADDR]](%rip), %xmm0, %xmm0
60 ; AVX-NEXT:    vaddps %xmm1, %xmm0, %xmm0
61 ; AVX-NEXT:    retq
63 ; AVX2-LABEL: test_uitofp_v4i32_to_v4f32:
64 ; AVX2:       # %bb.0:
65 ; AVX2-NEXT:    vpsrld $16, %xmm0, %xmm1
66 ; AVX2-NEXT:    vcvtdq2ps %xmm1, %xmm1
67 ; AVX2-NEXT:    vbroadcastss [[FPMASKCSTADDR]](%rip), %xmm2
68 ; AVX2-NEXT:    vmulps %xmm2, %xmm1, %xmm1
69 ; AVX2-NEXT:    vxorps %xmm2, %xmm2, %xmm2
70 ; AVX2-NEXT:    vpblendw {{.*#+}} xmm0 = xmm0[0],xmm2[1],xmm0[2],xmm2[3],xmm0[4],xmm2[5],xmm0[6],xmm2[7]
71 ; AVX2-NEXT:    vcvtdq2ps %xmm0, %xmm0
72 ; AVX2-NEXT:    vaddps %xmm0, %xmm1, %xmm0
73 ; AVX2-NEXT:    retq
75 ; AVX512F-LABEL: test_uitofp_v4i32_to_v4f32:
76 ; AVX512F:       # %bb.0:
77 ; AVX512F-NEXT:    # kill
78 ; AVX512F-NEXT:    vcvtudq2ps %zmm0, %zmm0
79 ; AVX512F-NEXT:    # kill
80 ; AVX512F-NEXT:    vzeroupper
81 ; AVX512F-NEXT:    retq
83 ; AVX512VL-LABEL: test_uitofp_v4i32_to_v4f32:
84 ; AVX512VL:       # %bb.0:
85 ; AVX512VL-NEXT:    vcvtudq2ps %xmm0, %xmm0
86 ; AVX512VL-NEXT:    retq
87   %tmp = uitofp <4 x i32> %arg to <4 x float>
88   ret <4 x float> %tmp
91 ; AVX: [[FPMASKCSTADDR_v8:.LCPI[0-9_]+]]:
92 ; AVX-NEXT: .long 1199570944 # float 65536
93 ; AVX-NEXT: .long 1199570944 # float 65536
94 ; AVX-NEXT: .long 1199570944 # float 65536
95 ; AVX-NEXT: .long 1199570944 # float 65536
97 ; AVX: [[MASKCSTADDR_v8:.LCPI[0-9_]+]]:
98 ; AVX-NEXT: .long 65535 # 0xffff
99 ; AVX-NEXT: .long 65535 # 0xffff
100 ; AVX-NEXT: .long 65535 # 0xffff
101 ; AVX-NEXT: .long 65535 # 0xffff
103 ; AVX2: [[FPMASKCSTADDR_v8:.LCPI[0-9_]+]]:
104 ; AVX2-NEXT: .long 1199570944 # float 65536
106 define <8 x float> @test_uitofp_v8i32_to_v8f32(<8 x i32> %arg) {
107 ; SSE2-LABEL: test_uitofp_v8i32_to_v8f32:
108 ; SSE2:       # %bb.0:
109 ; SSE2-NEXT:    movdqa %xmm0, %xmm2
110 ; SSE2-NEXT:    psrld $16, %xmm2
111 ; SSE2-NEXT:    cvtdq2ps %xmm2, %xmm2
112 ; SSE2-NEXT:    movaps {{.*#+}} xmm3 = [6.5536E+4,6.5536E+4,6.5536E+4,6.5536E+4]
113 ; SSE2-NEXT:    mulps %xmm3, %xmm2
114 ; SSE2-NEXT:    movdqa {{.*#+}} xmm4 = [65535,65535,65535,65535]
115 ; SSE2-NEXT:    pand %xmm4, %xmm0
116 ; SSE2-NEXT:    cvtdq2ps %xmm0, %xmm0
117 ; SSE2-NEXT:    addps %xmm2, %xmm0
118 ; SSE2-NEXT:    movdqa %xmm1, %xmm2
119 ; SSE2-NEXT:    psrld $16, %xmm2
120 ; SSE2-NEXT:    cvtdq2ps %xmm2, %xmm2
121 ; SSE2-NEXT:    mulps %xmm3, %xmm2
122 ; SSE2-NEXT:    pand %xmm4, %xmm1
123 ; SSE2-NEXT:    cvtdq2ps %xmm1, %xmm1
124 ; SSE2-NEXT:    addps %xmm2, %xmm1
125 ; SSE2-NEXT:    retq
127 ; SSE41-LABEL: test_uitofp_v8i32_to_v8f32:
128 ; SSE41:       # %bb.0:
129 ; SSE41-NEXT:    movdqa %xmm0, %xmm2
130 ; SSE41-NEXT:    psrld $16, %xmm2
131 ; SSE41-NEXT:    cvtdq2ps %xmm2, %xmm2
132 ; SSE41-NEXT:    movaps {{.*#+}} xmm3 = [6.5536E+4,6.5536E+4,6.5536E+4,6.5536E+4]
133 ; SSE41-NEXT:    mulps %xmm3, %xmm2
134 ; SSE41-NEXT:    pxor %xmm4, %xmm4
135 ; SSE41-NEXT:    pblendw {{.*#+}} xmm0 = xmm0[0],xmm4[1],xmm0[2],xmm4[3],xmm0[4],xmm4[5],xmm0[6],xmm4[7]
136 ; SSE41-NEXT:    cvtdq2ps %xmm0, %xmm0
137 ; SSE41-NEXT:    addps %xmm2, %xmm0
138 ; SSE41-NEXT:    movdqa %xmm1, %xmm2
139 ; SSE41-NEXT:    psrld $16, %xmm2
140 ; SSE41-NEXT:    cvtdq2ps %xmm2, %xmm2
141 ; SSE41-NEXT:    mulps %xmm3, %xmm2
142 ; SSE41-NEXT:    pblendw {{.*#+}} xmm1 = xmm1[0],xmm4[1],xmm1[2],xmm4[3],xmm1[4],xmm4[5],xmm1[6],xmm4[7]
143 ; SSE41-NEXT:    cvtdq2ps %xmm1, %xmm1
144 ; SSE41-NEXT:    addps %xmm2, %xmm1
145 ; SSE41-NEXT:    retq
147 ; AVX-LABEL: test_uitofp_v8i32_to_v8f32:
148 ; AVX:       # %bb.0:
149 ; AVX-NEXT:    vpsrld $16, %xmm0, %xmm1
150 ; AVX-NEXT:    vextractf128 $1, %ymm0, %xmm2
151 ; AVX-NEXT:    vpsrld $16, %xmm2, %xmm2
152 ; AVX-NEXT:    vinsertf128 $1, %xmm2, %ymm1, %ymm1
153 ; AVX-NEXT:    vcvtdq2ps %ymm1, %ymm1
154 ; AVX-NEXT:    vmulps [[FPMASKCSTADDR_v8]](%rip), %ymm1, %ymm1
155 ; AVX-NEXT:    vandps [[MASKCSTADDR_v8]](%rip), %ymm0, %ymm0
156 ; AVX-NEXT:    vcvtdq2ps %ymm0, %ymm0
157 ; AVX-NEXT:    vaddps %ymm0, %ymm1, %ymm0
158 ; AVX-NEXT:    retq
160 ; AVX2-LABEL: test_uitofp_v8i32_to_v8f32:
161 ; AVX2:       # %bb.0:
162 ; AVX2-NEXT:    vpsrld $16, %ymm0, %ymm1
163 ; AVX2-NEXT:    vcvtdq2ps %ymm1, %ymm1
164 ; AVX2-NEXT:    vbroadcastss [[FPMASKCSTADDR_v8]](%rip), %ymm2
165 ; AVX2-NEXT:    vmulps %ymm2, %ymm1, %ymm1
166 ; AVX2-NEXT:    vxorps %xmm2, %xmm2, %xmm2
167 ; AVX2-NEXT:    vpblendw {{.*#+}} ymm0 = ymm0[0],ymm2[1],ymm0[2],ymm2[3],ymm0[4],ymm2[5],ymm0[6],ymm2[7],ymm0[8],ymm2[9],ymm0[10],ymm2[11],ymm0[12],ymm2[13],ymm0[14],ymm2[15]
168 ; AVX2-NEXT:    vcvtdq2ps %ymm0, %ymm0
169 ; AVX2-NEXT:    vaddps %ymm0, %ymm1, %ymm0
170 ; AVX2-NEXT:    retq
172 ; AVX512F-LABEL: test_uitofp_v8i32_to_v8f32:
173 ; AVX512F:       # %bb.0:
174 ; AVX512F-NEXT:    # kill
175 ; AVX512F-NEXT:    vcvtudq2ps %zmm0, %zmm0
176 ; AVX512F-NEXT:    # kill
177 ; AVX512F-NEXT:    retq
179 ; AVX512VL-LABEL: test_uitofp_v8i32_to_v8f32:
180 ; AVX512VL:       # %bb.0:
181 ; AVX512VL-NEXT:    vcvtudq2ps %ymm0, %ymm0
182 ; AVX512VL-NEXT:    retq
183   %tmp = uitofp <8 x i32> %arg to <8 x float>
184   ret <8 x float> %tmp