[RISCV] Add shrinkwrap test cases showing gaps in current impl
[llvm-project.git] / llvm / test / CodeGen / X86 / avx512-mov.ll
blob895317cd73d82e3ac7a13729cd1b85a7f5be8803
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc < %s -mtriple=x86_64-apple-darwin -mcpu=knl --show-mc-encoding| FileCheck %s
4 define i32 @test1(float %x) {
5 ; CHECK-LABEL: test1:
6 ; CHECK:       ## %bb.0:
7 ; CHECK-NEXT:    vmovd %xmm0, %eax ## EVEX TO VEX Compression encoding: [0xc5,0xf9,0x7e,0xc0]
8 ; CHECK-NEXT:    retq ## encoding: [0xc3]
9    %res = bitcast float %x to i32
10    ret i32 %res
13 define <4 x i32> @test2(i32 %x) {
14 ; CHECK-LABEL: test2:
15 ; CHECK:       ## %bb.0:
16 ; CHECK-NEXT:    vmovd %edi, %xmm0 ## EVEX TO VEX Compression encoding: [0xc5,0xf9,0x6e,0xc7]
17 ; CHECK-NEXT:    retq ## encoding: [0xc3]
18    %res = insertelement <4 x i32>undef, i32 %x, i32 0
19    ret <4 x i32>%res
22 define <2 x i64> @test3(i64 %x) {
23 ; CHECK-LABEL: test3:
24 ; CHECK:       ## %bb.0:
25 ; CHECK-NEXT:    vmovq %rdi, %xmm0 ## EVEX TO VEX Compression encoding: [0xc4,0xe1,0xf9,0x6e,0xc7]
26 ; CHECK-NEXT:    retq ## encoding: [0xc3]
27    %res = insertelement <2 x i64>undef, i64 %x, i32 0
28    ret <2 x i64>%res
31 define <4 x i32> @test4(ptr %x) {
32 ; CHECK-LABEL: test4:
33 ; CHECK:       ## %bb.0:
34 ; CHECK-NEXT:    vmovss {{.*#+}} xmm0 = mem[0],zero,zero,zero
35 ; CHECK-NEXT:    ## EVEX TO VEX Compression encoding: [0xc5,0xfa,0x10,0x07]
36 ; CHECK-NEXT:    retq ## encoding: [0xc3]
37    %y = load i32, ptr %x
38    %res = insertelement <4 x i32>undef, i32 %y, i32 0
39    ret <4 x i32>%res
42 define void @test5(float %x, ptr %y) {
43 ; CHECK-LABEL: test5:
44 ; CHECK:       ## %bb.0:
45 ; CHECK-NEXT:    vmovss %xmm0, (%rdi) ## EVEX TO VEX Compression encoding: [0xc5,0xfa,0x11,0x07]
46 ; CHECK-NEXT:    retq ## encoding: [0xc3]
47    store float %x, ptr %y, align 4
48    ret void
51 define void @test6(double %x, ptr %y) {
52 ; CHECK-LABEL: test6:
53 ; CHECK:       ## %bb.0:
54 ; CHECK-NEXT:    vmovsd %xmm0, (%rdi) ## EVEX TO VEX Compression encoding: [0xc5,0xfb,0x11,0x07]
55 ; CHECK-NEXT:    retq ## encoding: [0xc3]
56    store double %x, ptr %y, align 8
57    ret void
60 define float @test7(ptr %x) {
61 ; CHECK-LABEL: test7:
62 ; CHECK:       ## %bb.0:
63 ; CHECK-NEXT:    vmovss {{.*#+}} xmm0 = mem[0],zero,zero,zero
64 ; CHECK-NEXT:    ## EVEX TO VEX Compression encoding: [0xc5,0xfa,0x10,0x07]
65 ; CHECK-NEXT:    retq ## encoding: [0xc3]
66    %y = load i32, ptr %x
67    %res = bitcast i32 %y to float
68    ret float %res
71 define i32 @test8(<4 x i32> %x) {
72 ; CHECK-LABEL: test8:
73 ; CHECK:       ## %bb.0:
74 ; CHECK-NEXT:    vmovd %xmm0, %eax ## EVEX TO VEX Compression encoding: [0xc5,0xf9,0x7e,0xc0]
75 ; CHECK-NEXT:    retq ## encoding: [0xc3]
76    %res = extractelement <4 x i32> %x, i32 0
77    ret i32 %res
80 define i64 @test9(<2 x i64> %x) {
81 ; CHECK-LABEL: test9:
82 ; CHECK:       ## %bb.0:
83 ; CHECK-NEXT:    vmovq %xmm0, %rax ## EVEX TO VEX Compression encoding: [0xc4,0xe1,0xf9,0x7e,0xc0]
84 ; CHECK-NEXT:    retq ## encoding: [0xc3]
85    %res = extractelement <2 x i64> %x, i32 0
86    ret i64 %res
89 define <4 x i32> @test10(ptr %x) {
90 ; CHECK-LABEL: test10:
91 ; CHECK:       ## %bb.0:
92 ; CHECK-NEXT:    vmovss {{.*#+}} xmm0 = mem[0],zero,zero,zero
93 ; CHECK-NEXT:    ## EVEX TO VEX Compression encoding: [0xc5,0xfa,0x10,0x07]
94 ; CHECK-NEXT:    retq ## encoding: [0xc3]
95    %y = load i32, ptr %x, align 4
96    %res = insertelement <4 x i32>zeroinitializer, i32 %y, i32 0
97    ret <4 x i32>%res
100 define <4 x float> @test11(ptr %x) {
101 ; CHECK-LABEL: test11:
102 ; CHECK:       ## %bb.0:
103 ; CHECK-NEXT:    vmovss {{.*#+}} xmm0 = mem[0],zero,zero,zero
104 ; CHECK-NEXT:    ## EVEX TO VEX Compression encoding: [0xc5,0xfa,0x10,0x07]
105 ; CHECK-NEXT:    retq ## encoding: [0xc3]
106    %y = load float, ptr %x, align 4
107    %res = insertelement <4 x float>zeroinitializer, float %y, i32 0
108    ret <4 x float>%res
111 define <2 x double> @test12(ptr %x) {
112 ; CHECK-LABEL: test12:
113 ; CHECK:       ## %bb.0:
114 ; CHECK-NEXT:    vmovsd {{.*#+}} xmm0 = mem[0],zero
115 ; CHECK-NEXT:    ## EVEX TO VEX Compression encoding: [0xc5,0xfb,0x10,0x07]
116 ; CHECK-NEXT:    retq ## encoding: [0xc3]
117    %y = load double, ptr %x, align 8
118    %res = insertelement <2 x double>zeroinitializer, double %y, i32 0
119    ret <2 x double>%res
122 define <2 x i64> @test13(i64 %x) {
123 ; CHECK-LABEL: test13:
124 ; CHECK:       ## %bb.0:
125 ; CHECK-NEXT:    vmovq %rdi, %xmm0 ## EVEX TO VEX Compression encoding: [0xc4,0xe1,0xf9,0x6e,0xc7]
126 ; CHECK-NEXT:    retq ## encoding: [0xc3]
127    %res = insertelement <2 x i64>zeroinitializer, i64 %x, i32 0
128    ret <2 x i64>%res
131 define <4 x i32> @test14(i32 %x) {
132 ; CHECK-LABEL: test14:
133 ; CHECK:       ## %bb.0:
134 ; CHECK-NEXT:    vmovd %edi, %xmm0 ## EVEX TO VEX Compression encoding: [0xc5,0xf9,0x6e,0xc7]
135 ; CHECK-NEXT:    retq ## encoding: [0xc3]
136    %res = insertelement <4 x i32>zeroinitializer, i32 %x, i32 0
137    ret <4 x i32>%res
140 define <4 x i32> @test15(ptr %x) {
141 ; CHECK-LABEL: test15:
142 ; CHECK:       ## %bb.0:
143 ; CHECK-NEXT:    vmovss {{.*#+}} xmm0 = mem[0],zero,zero,zero
144 ; CHECK-NEXT:    ## EVEX TO VEX Compression encoding: [0xc5,0xfa,0x10,0x07]
145 ; CHECK-NEXT:    retq ## encoding: [0xc3]
146    %y = load i32, ptr %x, align 4
147    %res = insertelement <4 x i32>zeroinitializer, i32 %y, i32 0
148    ret <4 x i32>%res
151 define <16 x i32> @test16(ptr %addr) {
152 ; CHECK-LABEL: test16:
153 ; CHECK:       ## %bb.0:
154 ; CHECK-NEXT:    vmovups (%rdi), %zmm0 ## encoding: [0x62,0xf1,0x7c,0x48,0x10,0x07]
155 ; CHECK-NEXT:    retq ## encoding: [0xc3]
156   %res = load <16 x i32>, ptr %addr, align 1
157   ret <16 x i32>%res
160 define <16 x i32> @test17(ptr %addr) {
161 ; CHECK-LABEL: test17:
162 ; CHECK:       ## %bb.0:
163 ; CHECK-NEXT:    vmovaps (%rdi), %zmm0 ## encoding: [0x62,0xf1,0x7c,0x48,0x28,0x07]
164 ; CHECK-NEXT:    retq ## encoding: [0xc3]
165   %res = load <16 x i32>, ptr %addr, align 64
166   ret <16 x i32>%res
169 define void @test18(ptr %addr, <8 x i64> %data) {
170 ; CHECK-LABEL: test18:
171 ; CHECK:       ## %bb.0:
172 ; CHECK-NEXT:    vmovaps %zmm0, (%rdi) ## encoding: [0x62,0xf1,0x7c,0x48,0x29,0x07]
173 ; CHECK-NEXT:    retq ## encoding: [0xc3]
174   store <8 x i64>%data, ptr %addr, align 64
175   ret void
178 define void @test19(ptr %addr, <16 x i32> %data) {
179 ; CHECK-LABEL: test19:
180 ; CHECK:       ## %bb.0:
181 ; CHECK-NEXT:    vmovups %zmm0, (%rdi) ## encoding: [0x62,0xf1,0x7c,0x48,0x11,0x07]
182 ; CHECK-NEXT:    retq ## encoding: [0xc3]
183   store <16 x i32>%data, ptr %addr, align 1
184   ret void
187 define void @test20(ptr %addr, <16 x i32> %data) {
188 ; CHECK-LABEL: test20:
189 ; CHECK:       ## %bb.0:
190 ; CHECK-NEXT:    vmovaps %zmm0, (%rdi) ## encoding: [0x62,0xf1,0x7c,0x48,0x29,0x07]
191 ; CHECK-NEXT:    retq ## encoding: [0xc3]
192   store <16 x i32>%data, ptr %addr, align 64
193   ret void
196 define  <8 x i64> @test21(ptr %addr) {
197 ; CHECK-LABEL: test21:
198 ; CHECK:       ## %bb.0:
199 ; CHECK-NEXT:    vmovaps (%rdi), %zmm0 ## encoding: [0x62,0xf1,0x7c,0x48,0x28,0x07]
200 ; CHECK-NEXT:    retq ## encoding: [0xc3]
201   %res = load <8 x i64>, ptr %addr, align 64
202   ret <8 x i64>%res
205 define void @test22(ptr %addr, <8 x i64> %data) {
206 ; CHECK-LABEL: test22:
207 ; CHECK:       ## %bb.0:
208 ; CHECK-NEXT:    vmovups %zmm0, (%rdi) ## encoding: [0x62,0xf1,0x7c,0x48,0x11,0x07]
209 ; CHECK-NEXT:    retq ## encoding: [0xc3]
210   store <8 x i64>%data, ptr %addr, align 1
211   ret void
214 define <8 x i64> @test23(ptr %addr) {
215 ; CHECK-LABEL: test23:
216 ; CHECK:       ## %bb.0:
217 ; CHECK-NEXT:    vmovups (%rdi), %zmm0 ## encoding: [0x62,0xf1,0x7c,0x48,0x10,0x07]
218 ; CHECK-NEXT:    retq ## encoding: [0xc3]
219   %res = load <8 x i64>, ptr %addr, align 1
220   ret <8 x i64>%res
223 define void @test24(ptr %addr, <8 x double> %data) {
224 ; CHECK-LABEL: test24:
225 ; CHECK:       ## %bb.0:
226 ; CHECK-NEXT:    vmovaps %zmm0, (%rdi) ## encoding: [0x62,0xf1,0x7c,0x48,0x29,0x07]
227 ; CHECK-NEXT:    retq ## encoding: [0xc3]
228   store <8 x double>%data, ptr %addr, align 64
229   ret void
232 define <8 x double> @test25(ptr %addr) {
233 ; CHECK-LABEL: test25:
234 ; CHECK:       ## %bb.0:
235 ; CHECK-NEXT:    vmovaps (%rdi), %zmm0 ## encoding: [0x62,0xf1,0x7c,0x48,0x28,0x07]
236 ; CHECK-NEXT:    retq ## encoding: [0xc3]
237   %res = load <8 x double>, ptr %addr, align 64
238   ret <8 x double>%res
241 define void @test26(ptr %addr, <16 x float> %data) {
242 ; CHECK-LABEL: test26:
243 ; CHECK:       ## %bb.0:
244 ; CHECK-NEXT:    vmovaps %zmm0, (%rdi) ## encoding: [0x62,0xf1,0x7c,0x48,0x29,0x07]
245 ; CHECK-NEXT:    retq ## encoding: [0xc3]
246   store <16 x float>%data, ptr %addr, align 64
247   ret void
250 define <16 x float> @test27(ptr %addr) {
251 ; CHECK-LABEL: test27:
252 ; CHECK:       ## %bb.0:
253 ; CHECK-NEXT:    vmovaps (%rdi), %zmm0 ## encoding: [0x62,0xf1,0x7c,0x48,0x28,0x07]
254 ; CHECK-NEXT:    retq ## encoding: [0xc3]
255   %res = load <16 x float>, ptr %addr, align 64
256   ret <16 x float>%res
259 define void @test28(ptr %addr, <8 x double> %data) {
260 ; CHECK-LABEL: test28:
261 ; CHECK:       ## %bb.0:
262 ; CHECK-NEXT:    vmovups %zmm0, (%rdi) ## encoding: [0x62,0xf1,0x7c,0x48,0x11,0x07]
263 ; CHECK-NEXT:    retq ## encoding: [0xc3]
264   store <8 x double>%data, ptr %addr, align 1
265   ret void
268 define <8 x double> @test29(ptr %addr) {
269 ; CHECK-LABEL: test29:
270 ; CHECK:       ## %bb.0:
271 ; CHECK-NEXT:    vmovups (%rdi), %zmm0 ## encoding: [0x62,0xf1,0x7c,0x48,0x10,0x07]
272 ; CHECK-NEXT:    retq ## encoding: [0xc3]
273   %res = load <8 x double>, ptr %addr, align 1
274   ret <8 x double>%res
277 define void @test30(ptr %addr, <16 x float> %data) {
278 ; CHECK-LABEL: test30:
279 ; CHECK:       ## %bb.0:
280 ; CHECK-NEXT:    vmovups %zmm0, (%rdi) ## encoding: [0x62,0xf1,0x7c,0x48,0x11,0x07]
281 ; CHECK-NEXT:    retq ## encoding: [0xc3]
282   store <16 x float>%data, ptr %addr, align 1
283   ret void
286 define <16 x float> @test31(ptr %addr) {
287 ; CHECK-LABEL: test31:
288 ; CHECK:       ## %bb.0:
289 ; CHECK-NEXT:    vmovups (%rdi), %zmm0 ## encoding: [0x62,0xf1,0x7c,0x48,0x10,0x07]
290 ; CHECK-NEXT:    retq ## encoding: [0xc3]
291   %res = load <16 x float>, ptr %addr, align 1
292   ret <16 x float>%res
295 define <16 x i32> @test32(ptr %addr, <16 x i32> %old, <16 x i32> %mask1) {
296 ; CHECK-LABEL: test32:
297 ; CHECK:       ## %bb.0:
298 ; CHECK-NEXT:    vptestmd %zmm1, %zmm1, %k1 ## encoding: [0x62,0xf2,0x75,0x48,0x27,0xc9]
299 ; CHECK-NEXT:    vmovdqa32 (%rdi), %zmm0 {%k1} ## encoding: [0x62,0xf1,0x7d,0x49,0x6f,0x07]
300 ; CHECK-NEXT:    retq ## encoding: [0xc3]
301   %mask = icmp ne <16 x i32> %mask1, zeroinitializer
302   %r = load <16 x i32>, ptr %addr, align 64
303   %res = select <16 x i1> %mask, <16 x i32> %r, <16 x i32> %old
304   ret <16 x i32>%res
307 define <16 x i32> @test33(ptr %addr, <16 x i32> %old, <16 x i32> %mask1) {
308 ; CHECK-LABEL: test33:
309 ; CHECK:       ## %bb.0:
310 ; CHECK-NEXT:    vptestmd %zmm1, %zmm1, %k1 ## encoding: [0x62,0xf2,0x75,0x48,0x27,0xc9]
311 ; CHECK-NEXT:    vmovdqu32 (%rdi), %zmm0 {%k1} ## encoding: [0x62,0xf1,0x7e,0x49,0x6f,0x07]
312 ; CHECK-NEXT:    retq ## encoding: [0xc3]
313   %mask = icmp ne <16 x i32> %mask1, zeroinitializer
314   %r = load <16 x i32>, ptr %addr, align 1
315   %res = select <16 x i1> %mask, <16 x i32> %r, <16 x i32> %old
316   ret <16 x i32>%res
319 define <16 x i32> @test34(ptr %addr, <16 x i32> %mask1) {
320 ; CHECK-LABEL: test34:
321 ; CHECK:       ## %bb.0:
322 ; CHECK-NEXT:    vptestmd %zmm0, %zmm0, %k1 ## encoding: [0x62,0xf2,0x7d,0x48,0x27,0xc8]
323 ; CHECK-NEXT:    vmovdqa32 (%rdi), %zmm0 {%k1} {z} ## encoding: [0x62,0xf1,0x7d,0xc9,0x6f,0x07]
324 ; CHECK-NEXT:    retq ## encoding: [0xc3]
325   %mask = icmp ne <16 x i32> %mask1, zeroinitializer
326   %r = load <16 x i32>, ptr %addr, align 64
327   %res = select <16 x i1> %mask, <16 x i32> %r, <16 x i32> zeroinitializer
328   ret <16 x i32>%res
331 define <16 x i32> @test35(ptr %addr, <16 x i32> %mask1) {
332 ; CHECK-LABEL: test35:
333 ; CHECK:       ## %bb.0:
334 ; CHECK-NEXT:    vptestmd %zmm0, %zmm0, %k1 ## encoding: [0x62,0xf2,0x7d,0x48,0x27,0xc8]
335 ; CHECK-NEXT:    vmovdqu32 (%rdi), %zmm0 {%k1} {z} ## encoding: [0x62,0xf1,0x7e,0xc9,0x6f,0x07]
336 ; CHECK-NEXT:    retq ## encoding: [0xc3]
337   %mask = icmp ne <16 x i32> %mask1, zeroinitializer
338   %r = load <16 x i32>, ptr %addr, align 1
339   %res = select <16 x i1> %mask, <16 x i32> %r, <16 x i32> zeroinitializer
340   ret <16 x i32>%res
343 define <8 x i64> @test36(ptr %addr, <8 x i64> %old, <8 x i64> %mask1) {
344 ; CHECK-LABEL: test36:
345 ; CHECK:       ## %bb.0:
346 ; CHECK-NEXT:    vptestmq %zmm1, %zmm1, %k1 ## encoding: [0x62,0xf2,0xf5,0x48,0x27,0xc9]
347 ; CHECK-NEXT:    vmovdqa64 (%rdi), %zmm0 {%k1} ## encoding: [0x62,0xf1,0xfd,0x49,0x6f,0x07]
348 ; CHECK-NEXT:    retq ## encoding: [0xc3]
349   %mask = icmp ne <8 x i64> %mask1, zeroinitializer
350   %r = load <8 x i64>, ptr %addr, align 64
351   %res = select <8 x i1> %mask, <8 x i64> %r, <8 x i64> %old
352   ret <8 x i64>%res
355 define <8 x i64> @test37(ptr %addr, <8 x i64> %old, <8 x i64> %mask1) {
356 ; CHECK-LABEL: test37:
357 ; CHECK:       ## %bb.0:
358 ; CHECK-NEXT:    vptestmq %zmm1, %zmm1, %k1 ## encoding: [0x62,0xf2,0xf5,0x48,0x27,0xc9]
359 ; CHECK-NEXT:    vmovdqu64 (%rdi), %zmm0 {%k1} ## encoding: [0x62,0xf1,0xfe,0x49,0x6f,0x07]
360 ; CHECK-NEXT:    retq ## encoding: [0xc3]
361   %mask = icmp ne <8 x i64> %mask1, zeroinitializer
362   %r = load <8 x i64>, ptr %addr, align 1
363   %res = select <8 x i1> %mask, <8 x i64> %r, <8 x i64> %old
364   ret <8 x i64>%res
367 define <8 x i64> @test38(ptr %addr, <8 x i64> %mask1) {
368 ; CHECK-LABEL: test38:
369 ; CHECK:       ## %bb.0:
370 ; CHECK-NEXT:    vptestmq %zmm0, %zmm0, %k1 ## encoding: [0x62,0xf2,0xfd,0x48,0x27,0xc8]
371 ; CHECK-NEXT:    vmovdqa64 (%rdi), %zmm0 {%k1} {z} ## encoding: [0x62,0xf1,0xfd,0xc9,0x6f,0x07]
372 ; CHECK-NEXT:    retq ## encoding: [0xc3]
373   %mask = icmp ne <8 x i64> %mask1, zeroinitializer
374   %r = load <8 x i64>, ptr %addr, align 64
375   %res = select <8 x i1> %mask, <8 x i64> %r, <8 x i64> zeroinitializer
376   ret <8 x i64>%res
379 define <8 x i64> @test39(ptr %addr, <8 x i64> %mask1) {
380 ; CHECK-LABEL: test39:
381 ; CHECK:       ## %bb.0:
382 ; CHECK-NEXT:    vptestmq %zmm0, %zmm0, %k1 ## encoding: [0x62,0xf2,0xfd,0x48,0x27,0xc8]
383 ; CHECK-NEXT:    vmovdqu64 (%rdi), %zmm0 {%k1} {z} ## encoding: [0x62,0xf1,0xfe,0xc9,0x6f,0x07]
384 ; CHECK-NEXT:    retq ## encoding: [0xc3]
385   %mask = icmp ne <8 x i64> %mask1, zeroinitializer
386   %r = load <8 x i64>, ptr %addr, align 1
387   %res = select <8 x i1> %mask, <8 x i64> %r, <8 x i64> zeroinitializer
388   ret <8 x i64>%res
391 define <16 x float> @test40(ptr %addr, <16 x float> %old, <16 x float> %mask1) {
392 ; CHECK-LABEL: test40:
393 ; CHECK:       ## %bb.0:
394 ; CHECK-NEXT:    vxorps %xmm2, %xmm2, %xmm2 ## encoding: [0xc5,0xe8,0x57,0xd2]
395 ; CHECK-NEXT:    vcmpneq_oqps %zmm2, %zmm1, %k1 ## encoding: [0x62,0xf1,0x74,0x48,0xc2,0xca,0x0c]
396 ; CHECK-NEXT:    vmovaps (%rdi), %zmm0 {%k1} ## encoding: [0x62,0xf1,0x7c,0x49,0x28,0x07]
397 ; CHECK-NEXT:    retq ## encoding: [0xc3]
398   %mask = fcmp one <16 x float> %mask1, zeroinitializer
399   %r = load <16 x float>, ptr %addr, align 64
400   %res = select <16 x i1> %mask, <16 x float> %r, <16 x float> %old
401   ret <16 x float>%res
404 define <16 x float> @test41(ptr %addr, <16 x float> %old, <16 x float> %mask1) {
405 ; CHECK-LABEL: test41:
406 ; CHECK:       ## %bb.0:
407 ; CHECK-NEXT:    vxorps %xmm2, %xmm2, %xmm2 ## encoding: [0xc5,0xe8,0x57,0xd2]
408 ; CHECK-NEXT:    vcmpneq_oqps %zmm2, %zmm1, %k1 ## encoding: [0x62,0xf1,0x74,0x48,0xc2,0xca,0x0c]
409 ; CHECK-NEXT:    vmovups (%rdi), %zmm0 {%k1} ## encoding: [0x62,0xf1,0x7c,0x49,0x10,0x07]
410 ; CHECK-NEXT:    retq ## encoding: [0xc3]
411   %mask = fcmp one <16 x float> %mask1, zeroinitializer
412   %r = load <16 x float>, ptr %addr, align 1
413   %res = select <16 x i1> %mask, <16 x float> %r, <16 x float> %old
414   ret <16 x float>%res
417 define <16 x float> @test42(ptr %addr, <16 x float> %mask1) {
418 ; CHECK-LABEL: test42:
419 ; CHECK:       ## %bb.0:
420 ; CHECK-NEXT:    vxorps %xmm1, %xmm1, %xmm1 ## encoding: [0xc5,0xf0,0x57,0xc9]
421 ; CHECK-NEXT:    vcmpneq_oqps %zmm1, %zmm0, %k1 ## encoding: [0x62,0xf1,0x7c,0x48,0xc2,0xc9,0x0c]
422 ; CHECK-NEXT:    vmovaps (%rdi), %zmm0 {%k1} {z} ## encoding: [0x62,0xf1,0x7c,0xc9,0x28,0x07]
423 ; CHECK-NEXT:    retq ## encoding: [0xc3]
424   %mask = fcmp one <16 x float> %mask1, zeroinitializer
425   %r = load <16 x float>, ptr %addr, align 64
426   %res = select <16 x i1> %mask, <16 x float> %r, <16 x float> zeroinitializer
427   ret <16 x float>%res
430 define <16 x float> @test43(ptr %addr, <16 x float> %mask1) {
431 ; CHECK-LABEL: test43:
432 ; CHECK:       ## %bb.0:
433 ; CHECK-NEXT:    vxorps %xmm1, %xmm1, %xmm1 ## encoding: [0xc5,0xf0,0x57,0xc9]
434 ; CHECK-NEXT:    vcmpneq_oqps %zmm1, %zmm0, %k1 ## encoding: [0x62,0xf1,0x7c,0x48,0xc2,0xc9,0x0c]
435 ; CHECK-NEXT:    vmovups (%rdi), %zmm0 {%k1} {z} ## encoding: [0x62,0xf1,0x7c,0xc9,0x10,0x07]
436 ; CHECK-NEXT:    retq ## encoding: [0xc3]
437   %mask = fcmp one <16 x float> %mask1, zeroinitializer
438   %r = load <16 x float>, ptr %addr, align 1
439   %res = select <16 x i1> %mask, <16 x float> %r, <16 x float> zeroinitializer
440   ret <16 x float>%res
443 define <8 x double> @test44(ptr %addr, <8 x double> %old, <8 x double> %mask1) {
444 ; CHECK-LABEL: test44:
445 ; CHECK:       ## %bb.0:
446 ; CHECK-NEXT:    vxorpd %xmm2, %xmm2, %xmm2 ## encoding: [0xc5,0xe9,0x57,0xd2]
447 ; CHECK-NEXT:    vcmpneq_oqpd %zmm2, %zmm1, %k1 ## encoding: [0x62,0xf1,0xf5,0x48,0xc2,0xca,0x0c]
448 ; CHECK-NEXT:    vmovapd (%rdi), %zmm0 {%k1} ## encoding: [0x62,0xf1,0xfd,0x49,0x28,0x07]
449 ; CHECK-NEXT:    retq ## encoding: [0xc3]
450   %mask = fcmp one <8 x double> %mask1, zeroinitializer
451   %r = load <8 x double>, ptr %addr, align 64
452   %res = select <8 x i1> %mask, <8 x double> %r, <8 x double> %old
453   ret <8 x double>%res
456 define <8 x double> @test45(ptr %addr, <8 x double> %old, <8 x double> %mask1) {
457 ; CHECK-LABEL: test45:
458 ; CHECK:       ## %bb.0:
459 ; CHECK-NEXT:    vxorpd %xmm2, %xmm2, %xmm2 ## encoding: [0xc5,0xe9,0x57,0xd2]
460 ; CHECK-NEXT:    vcmpneq_oqpd %zmm2, %zmm1, %k1 ## encoding: [0x62,0xf1,0xf5,0x48,0xc2,0xca,0x0c]
461 ; CHECK-NEXT:    vmovupd (%rdi), %zmm0 {%k1} ## encoding: [0x62,0xf1,0xfd,0x49,0x10,0x07]
462 ; CHECK-NEXT:    retq ## encoding: [0xc3]
463   %mask = fcmp one <8 x double> %mask1, zeroinitializer
464   %r = load <8 x double>, ptr %addr, align 1
465   %res = select <8 x i1> %mask, <8 x double> %r, <8 x double> %old
466   ret <8 x double>%res
469 define <8 x double> @test46(ptr %addr, <8 x double> %mask1) {
470 ; CHECK-LABEL: test46:
471 ; CHECK:       ## %bb.0:
472 ; CHECK-NEXT:    vxorpd %xmm1, %xmm1, %xmm1 ## encoding: [0xc5,0xf1,0x57,0xc9]
473 ; CHECK-NEXT:    vcmpneq_oqpd %zmm1, %zmm0, %k1 ## encoding: [0x62,0xf1,0xfd,0x48,0xc2,0xc9,0x0c]
474 ; CHECK-NEXT:    vmovapd (%rdi), %zmm0 {%k1} {z} ## encoding: [0x62,0xf1,0xfd,0xc9,0x28,0x07]
475 ; CHECK-NEXT:    retq ## encoding: [0xc3]
476   %mask = fcmp one <8 x double> %mask1, zeroinitializer
477   %r = load <8 x double>, ptr %addr, align 64
478   %res = select <8 x i1> %mask, <8 x double> %r, <8 x double> zeroinitializer
479   ret <8 x double>%res
482 define <8 x double> @test47(ptr %addr, <8 x double> %mask1) {
483 ; CHECK-LABEL: test47:
484 ; CHECK:       ## %bb.0:
485 ; CHECK-NEXT:    vxorpd %xmm1, %xmm1, %xmm1 ## encoding: [0xc5,0xf1,0x57,0xc9]
486 ; CHECK-NEXT:    vcmpneq_oqpd %zmm1, %zmm0, %k1 ## encoding: [0x62,0xf1,0xfd,0x48,0xc2,0xc9,0x0c]
487 ; CHECK-NEXT:    vmovupd (%rdi), %zmm0 {%k1} {z} ## encoding: [0x62,0xf1,0xfd,0xc9,0x10,0x07]
488 ; CHECK-NEXT:    retq ## encoding: [0xc3]
489   %mask = fcmp one <8 x double> %mask1, zeroinitializer
490   %r = load <8 x double>, ptr %addr, align 1
491   %res = select <8 x i1> %mask, <8 x double> %r, <8 x double> zeroinitializer
492   ret <8 x double>%res