[RISCV] Add shrinkwrap test cases showing gaps in current impl
[llvm-project.git] / llvm / test / CodeGen / X86 / avx-vbroadcast.ll
blob0bfd8921e8b42a85490f2c8319767f1a51c73b19
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc < %s -mtriple=i686-apple-darwin -mattr=+avx,+mmx | FileCheck %s --check-prefix=X86
3 ; RUN: llc < %s -mtriple=x86_64-apple-darwin -mattr=+avx,+mmx | FileCheck %s --check-prefix=X64
5 define <4 x i64> @A(ptr %ptr) nounwind uwtable readnone ssp {
6 ; X86-LABEL: A:
7 ; X86:       ## %bb.0: ## %entry
8 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %eax
9 ; X86-NEXT:    vbroadcastsd (%eax), %ymm0
10 ; X86-NEXT:    retl
12 ; X64-LABEL: A:
13 ; X64:       ## %bb.0: ## %entry
14 ; X64-NEXT:    vbroadcastsd (%rdi), %ymm0
15 ; X64-NEXT:    retq
16 entry:
17   %q = load i64, ptr %ptr, align 8
18   %vecinit.i = insertelement <4 x i64> undef, i64 %q, i32 0
19   %vecinit2.i = insertelement <4 x i64> %vecinit.i, i64 %q, i32 1
20   %vecinit4.i = insertelement <4 x i64> %vecinit2.i, i64 %q, i32 2
21   %vecinit6.i = insertelement <4 x i64> %vecinit4.i, i64 %q, i32 3
22   ret <4 x i64> %vecinit6.i
25 define <4 x i64> @A2(ptr %ptr, ptr %ptr2) nounwind uwtable readnone ssp {
26 ; X86-LABEL: A2:
27 ; X86:       ## %bb.0: ## %entry
28 ; X86-NEXT:    pushl %esi
29 ; X86-NEXT:    .cfi_def_cfa_offset 8
30 ; X86-NEXT:    .cfi_offset %esi, -8
31 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %eax
32 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %ecx
33 ; X86-NEXT:    movl (%ecx), %edx
34 ; X86-NEXT:    movl 4(%ecx), %esi
35 ; X86-NEXT:    vbroadcastsd (%ecx), %ymm0
36 ; X86-NEXT:    movl %edx, (%eax)
37 ; X86-NEXT:    movl %esi, 4(%eax)
38 ; X86-NEXT:    popl %esi
39 ; X86-NEXT:    retl
41 ; X64-LABEL: A2:
42 ; X64:       ## %bb.0: ## %entry
43 ; X64-NEXT:    movq (%rdi), %rax
44 ; X64-NEXT:    movq %rax, (%rsi)
45 ; X64-NEXT:    vmovq %rax, %xmm0
46 ; X64-NEXT:    vpshufd {{.*#+}} xmm0 = xmm0[0,1,0,1]
47 ; X64-NEXT:    vinsertf128 $1, %xmm0, %ymm0, %ymm0
48 ; X64-NEXT:    retq
49 entry:
50   %q = load i64, ptr %ptr, align 8
51   store i64 %q, ptr %ptr2, align 8 ; to create a chain to prevent broadcast
52   %vecinit.i = insertelement <4 x i64> undef, i64 %q, i32 0
53   %vecinit2.i = insertelement <4 x i64> %vecinit.i, i64 %q, i32 1
54   %vecinit4.i = insertelement <4 x i64> %vecinit2.i, i64 %q, i32 2
55   %vecinit6.i = insertelement <4 x i64> %vecinit4.i, i64 %q, i32 3
56   ret <4 x i64> %vecinit6.i
59 define <8 x i32> @B(ptr %ptr) nounwind uwtable readnone ssp {
60 ; X86-LABEL: B:
61 ; X86:       ## %bb.0: ## %entry
62 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %eax
63 ; X86-NEXT:    vbroadcastss (%eax), %ymm0
64 ; X86-NEXT:    retl
66 ; X64-LABEL: B:
67 ; X64:       ## %bb.0: ## %entry
68 ; X64-NEXT:    vbroadcastss (%rdi), %ymm0
69 ; X64-NEXT:    retq
70 entry:
71   %q = load i32, ptr %ptr, align 4
72   %vecinit.i = insertelement <8 x i32> undef, i32 %q, i32 0
73   %vecinit2.i = insertelement <8 x i32> %vecinit.i, i32 %q, i32 1
74   %vecinit4.i = insertelement <8 x i32> %vecinit2.i, i32 %q, i32 2
75   %vecinit6.i = insertelement <8 x i32> %vecinit4.i, i32 %q, i32 3
76   ret <8 x i32> %vecinit6.i
79 define <8 x i32> @B2(ptr %ptr) nounwind uwtable readnone ssp {
80 ; X86-LABEL: B2:
81 ; X86:       ## %bb.0: ## %entry
82 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %eax
83 ; X86-NEXT:    vbroadcastss (%eax), %ymm0
84 ; X86-NEXT:    retl
86 ; X64-LABEL: B2:
87 ; X64:       ## %bb.0: ## %entry
88 ; X64-NEXT:    vbroadcastss (%rdi), %ymm0
89 ; X64-NEXT:    retq
90 entry:
91   %q = load i32, ptr %ptr, align 4
92   %vecinit.i = insertelement <8 x i32> undef, i32 %q, i32 0
93   %vecinit2.i = insertelement <8 x i32> %vecinit.i, i32 %q, i32 1
94   %vecinit4.i = insertelement <8 x i32> %vecinit2.i, i32 %q, i32 2
95   %vecinit6.i = insertelement <8 x i32> %vecinit4.i, i32 %q, i32 3
96   %vecinit8.i = insertelement <8 x i32> %vecinit6.i, i32 %q, i32 4
97   %vecinit10.i = insertelement <8 x i32> %vecinit8.i, i32 %q, i32 5
98   %vecinit12.i = insertelement <8 x i32> %vecinit10.i, i32 %q, i32 6
99   %vecinit14.i = insertelement <8 x i32> %vecinit12.i, i32 %q, i32 7
100   ret <8 x i32> %vecinit14.i
103 define <8 x i32> @B3(ptr %ptr, ptr %ptr2) nounwind uwtable readnone ssp {
104 ; X86-LABEL: B3:
105 ; X86:       ## %bb.0: ## %entry
106 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %eax
107 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %ecx
108 ; X86-NEXT:    movl (%ecx), %ecx
109 ; X86-NEXT:    movl %ecx, (%eax)
110 ; X86-NEXT:    vmovd %ecx, %xmm0
111 ; X86-NEXT:    vpshufd {{.*#+}} xmm0 = xmm0[0,0,0,0]
112 ; X86-NEXT:    vinsertf128 $1, %xmm0, %ymm0, %ymm0
113 ; X86-NEXT:    retl
115 ; X64-LABEL: B3:
116 ; X64:       ## %bb.0: ## %entry
117 ; X64-NEXT:    movl (%rdi), %eax
118 ; X64-NEXT:    movl %eax, (%rsi)
119 ; X64-NEXT:    vmovd %eax, %xmm0
120 ; X64-NEXT:    vpshufd {{.*#+}} xmm0 = xmm0[0,0,0,0]
121 ; X64-NEXT:    vinsertf128 $1, %xmm0, %ymm0, %ymm0
122 ; X64-NEXT:    retq
123 entry:
124   %q = load i32, ptr %ptr, align 4
125   store i32 %q, ptr %ptr2, align 4 ; to create a chain to prevent broadcast
126   %vecinit.i = insertelement <8 x i32> undef, i32 %q, i32 0
127   %vecinit2.i = insertelement <8 x i32> %vecinit.i, i32 %q, i32 1
128   %vecinit4.i = insertelement <8 x i32> %vecinit2.i, i32 %q, i32 2
129   %vecinit6.i = insertelement <8 x i32> %vecinit4.i, i32 %q, i32 3
130   %vecinit8.i = insertelement <8 x i32> %vecinit6.i, i32 %q, i32 4
131   %vecinit10.i = insertelement <8 x i32> %vecinit8.i, i32 %q, i32 5
132   %vecinit12.i = insertelement <8 x i32> %vecinit10.i, i32 %q, i32 6
133   %vecinit14.i = insertelement <8 x i32> %vecinit12.i, i32 %q, i32 7
134   ret <8 x i32> %vecinit14.i
137 define <4 x double> @C(ptr %ptr) nounwind uwtable readnone ssp {
138 ; X86-LABEL: C:
139 ; X86:       ## %bb.0: ## %entry
140 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %eax
141 ; X86-NEXT:    vbroadcastsd (%eax), %ymm0
142 ; X86-NEXT:    retl
144 ; X64-LABEL: C:
145 ; X64:       ## %bb.0: ## %entry
146 ; X64-NEXT:    vbroadcastsd (%rdi), %ymm0
147 ; X64-NEXT:    retq
148 entry:
149   %q = load double, ptr %ptr, align 8
150   %vecinit.i = insertelement <4 x double> undef, double %q, i32 0
151   %vecinit2.i = insertelement <4 x double> %vecinit.i, double %q, i32 1
152   %vecinit4.i = insertelement <4 x double> %vecinit2.i, double %q, i32 2
153   %vecinit6.i = insertelement <4 x double> %vecinit4.i, double %q, i32 3
154   ret <4 x double> %vecinit6.i
157 define <4 x double> @C2(ptr %ptr, ptr %ptr2) nounwind uwtable readnone ssp {
158 ; X86-LABEL: C2:
159 ; X86:       ## %bb.0: ## %entry
160 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %eax
161 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %ecx
162 ; X86-NEXT:    vbroadcastsd (%ecx), %ymm0
163 ; X86-NEXT:    vmovlps %xmm0, (%eax)
164 ; X86-NEXT:    retl
166 ; X64-LABEL: C2:
167 ; X64:       ## %bb.0: ## %entry
168 ; X64-NEXT:    vbroadcastsd (%rdi), %ymm0
169 ; X64-NEXT:    vmovlps %xmm0, (%rsi)
170 ; X64-NEXT:    retq
171 entry:
172   %q = load double, ptr %ptr, align 8
173   store double %q, ptr %ptr2, align 8 ; to create a chain to prevent broadcast
174   %vecinit.i = insertelement <4 x double> undef, double %q, i32 0
175   %vecinit2.i = insertelement <4 x double> %vecinit.i, double %q, i32 1
176   %vecinit4.i = insertelement <4 x double> %vecinit2.i, double %q, i32 2
177   %vecinit6.i = insertelement <4 x double> %vecinit4.i, double %q, i32 3
178   ret <4 x double> %vecinit6.i
181 define <8 x float> @D(ptr %ptr) nounwind uwtable readnone ssp {
182 ; X86-LABEL: D:
183 ; X86:       ## %bb.0: ## %entry
184 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %eax
185 ; X86-NEXT:    vbroadcastss (%eax), %ymm0
186 ; X86-NEXT:    retl
188 ; X64-LABEL: D:
189 ; X64:       ## %bb.0: ## %entry
190 ; X64-NEXT:    vbroadcastss (%rdi), %ymm0
191 ; X64-NEXT:    retq
192 entry:
193   %q = load float, ptr %ptr, align 4
194   %vecinit.i = insertelement <8 x float> undef, float %q, i32 0
195   %vecinit2.i = insertelement <8 x float> %vecinit.i, float %q, i32 1
196   %vecinit4.i = insertelement <8 x float> %vecinit2.i, float %q, i32 2
197   %vecinit6.i = insertelement <8 x float> %vecinit4.i, float %q, i32 3
198   ret <8 x float> %vecinit6.i
201 define <8 x float> @D2(ptr %ptr) nounwind uwtable readnone ssp {
202 ; X86-LABEL: D2:
203 ; X86:       ## %bb.0: ## %entry
204 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %eax
205 ; X86-NEXT:    vbroadcastss (%eax), %ymm0
206 ; X86-NEXT:    retl
208 ; X64-LABEL: D2:
209 ; X64:       ## %bb.0: ## %entry
210 ; X64-NEXT:    vbroadcastss (%rdi), %ymm0
211 ; X64-NEXT:    retq
212 entry:
213   %q = load float, ptr %ptr, align 4
214   %vecinit.i = insertelement <8 x float> undef, float %q, i32 0
215   %vecinit2.i = insertelement <8 x float> %vecinit.i, float %q, i32 1
216   %vecinit4.i = insertelement <8 x float> %vecinit2.i, float %q, i32 2
217   %vecinit6.i = insertelement <8 x float> %vecinit4.i, float %q, i32 3
218   %vecinit8.i = insertelement <8 x float> %vecinit6.i, float %q, i32 4
219   %vecinit10.i = insertelement <8 x float> %vecinit8.i, float %q, i32 5
220   %vecinit12.i = insertelement <8 x float> %vecinit10.i, float %q, i32 6
221   %vecinit14.i = insertelement <8 x float> %vecinit12.i, float %q, i32 7
222   ret <8 x float> %vecinit14.i
225 define <8 x float> @D3(ptr %ptr, ptr %ptr2) nounwind uwtable readnone ssp {
226 ; X86-LABEL: D3:
227 ; X86:       ## %bb.0: ## %entry
228 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %eax
229 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %ecx
230 ; X86-NEXT:    vbroadcastss (%ecx), %ymm0
231 ; X86-NEXT:    vmovss %xmm0, (%eax)
232 ; X86-NEXT:    retl
234 ; X64-LABEL: D3:
235 ; X64:       ## %bb.0: ## %entry
236 ; X64-NEXT:    vbroadcastss (%rdi), %ymm0
237 ; X64-NEXT:    vmovss %xmm0, (%rsi)
238 ; X64-NEXT:    retq
239 entry:
240   %q = load float, ptr %ptr, align 4
241   store float %q, ptr %ptr2, align 4 ; to create a chain to prevent broadcast
242   %vecinit.i = insertelement <8 x float> undef, float %q, i32 0
243   %vecinit2.i = insertelement <8 x float> %vecinit.i, float %q, i32 1
244   %vecinit4.i = insertelement <8 x float> %vecinit2.i, float %q, i32 2
245   %vecinit6.i = insertelement <8 x float> %vecinit4.i, float %q, i32 3
246   %vecinit8.i = insertelement <8 x float> %vecinit6.i, float %q, i32 4
247   %vecinit10.i = insertelement <8 x float> %vecinit8.i, float %q, i32 5
248   %vecinit12.i = insertelement <8 x float> %vecinit10.i, float %q, i32 6
249   %vecinit14.i = insertelement <8 x float> %vecinit12.i, float %q, i32 7
250   ret <8 x float> %vecinit14.i
253 ;;;; 128-bit versions
255 define <4 x float> @e(ptr %ptr) nounwind uwtable readnone ssp {
256 ; X86-LABEL: e:
257 ; X86:       ## %bb.0: ## %entry
258 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %eax
259 ; X86-NEXT:    vbroadcastss (%eax), %xmm0
260 ; X86-NEXT:    retl
262 ; X64-LABEL: e:
263 ; X64:       ## %bb.0: ## %entry
264 ; X64-NEXT:    vbroadcastss (%rdi), %xmm0
265 ; X64-NEXT:    retq
266 entry:
267   %q = load float, ptr %ptr, align 4
268   %vecinit.i = insertelement <4 x float> undef, float %q, i32 0
269   %vecinit2.i = insertelement <4 x float> %vecinit.i, float %q, i32 1
270   %vecinit4.i = insertelement <4 x float> %vecinit2.i, float %q, i32 2
271   %vecinit6.i = insertelement <4 x float> %vecinit4.i, float %q, i32 3
272   ret <4 x float> %vecinit6.i
275 define <4 x float> @e2(ptr %ptr, ptr %ptr2) nounwind uwtable readnone ssp {
276 ; X86-LABEL: e2:
277 ; X86:       ## %bb.0: ## %entry
278 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %eax
279 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %ecx
280 ; X86-NEXT:    vbroadcastss (%ecx), %xmm0
281 ; X86-NEXT:    vmovss %xmm0, (%eax)
282 ; X86-NEXT:    retl
284 ; X64-LABEL: e2:
285 ; X64:       ## %bb.0: ## %entry
286 ; X64-NEXT:    vbroadcastss (%rdi), %xmm0
287 ; X64-NEXT:    vmovss %xmm0, (%rsi)
288 ; X64-NEXT:    retq
289 entry:
290   %q = load float, ptr %ptr, align 4
291   store float %q, ptr %ptr2, align 4 ; to create a chain to prevent broadcast
292   %vecinit.i = insertelement <4 x float> undef, float %q, i32 0
293   %vecinit2.i = insertelement <4 x float> %vecinit.i, float %q, i32 1
294   %vecinit4.i = insertelement <4 x float> %vecinit2.i, float %q, i32 2
295   %vecinit6.i = insertelement <4 x float> %vecinit4.i, float %q, i32 3
296   ret <4 x float> %vecinit6.i
299 ; Don't broadcast constants on pre-AVX2 hardware.
300 define <4 x float> @_e2(ptr %ptr) nounwind uwtable readnone ssp {
301 ; X86-LABEL: _e2:
302 ; X86:       ## %bb.0: ## %entry
303 ; X86-NEXT:    vbroadcastss {{.*#+}} xmm0 = [-7.8125E-3,-7.8125E-3,-7.8125E-3,-7.8125E-3]
304 ; X86-NEXT:    retl
306 ; X64-LABEL: _e2:
307 ; X64:       ## %bb.0: ## %entry
308 ; X64-NEXT:    vbroadcastss {{.*#+}} xmm0 = [-7.8125E-3,-7.8125E-3,-7.8125E-3,-7.8125E-3]
309 ; X64-NEXT:    retq
310 entry:
311    %vecinit.i = insertelement <4 x float> undef, float       0xbf80000000000000, i32 0
312   %vecinit2.i = insertelement <4 x float> %vecinit.i, float  0xbf80000000000000, i32 1
313   %vecinit4.i = insertelement <4 x float> %vecinit2.i, float 0xbf80000000000000, i32 2
314   %vecinit6.i = insertelement <4 x float> %vecinit4.i, float 0xbf80000000000000, i32 3
315   ret <4 x float> %vecinit6.i
319 define <4 x i32> @F(ptr %ptr) nounwind uwtable readnone ssp {
320 ; X86-LABEL: F:
321 ; X86:       ## %bb.0: ## %entry
322 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %eax
323 ; X86-NEXT:    vbroadcastss (%eax), %xmm0
324 ; X86-NEXT:    retl
326 ; X64-LABEL: F:
327 ; X64:       ## %bb.0: ## %entry
328 ; X64-NEXT:    vbroadcastss (%rdi), %xmm0
329 ; X64-NEXT:    retq
330 entry:
331   %q = load i32, ptr %ptr, align 4
332   %vecinit.i = insertelement <4 x i32> undef, i32 %q, i32 0
333   %vecinit2.i = insertelement <4 x i32> %vecinit.i, i32 %q, i32 1
334   %vecinit4.i = insertelement <4 x i32> %vecinit2.i, i32 %q, i32 2
335   %vecinit6.i = insertelement <4 x i32> %vecinit4.i, i32 %q, i32 3
336   ret <4 x i32> %vecinit6.i
339 define <4 x i32> @F2(ptr %ptr, ptr %ptr2) nounwind uwtable readnone ssp {
340 ; X86-LABEL: F2:
341 ; X86:       ## %bb.0: ## %entry
342 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %eax
343 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %ecx
344 ; X86-NEXT:    movl (%ecx), %ecx
345 ; X86-NEXT:    movl %ecx, (%eax)
346 ; X86-NEXT:    vmovd %ecx, %xmm0
347 ; X86-NEXT:    vpshufd {{.*#+}} xmm0 = xmm0[0,0,0,0]
348 ; X86-NEXT:    retl
350 ; X64-LABEL: F2:
351 ; X64:       ## %bb.0: ## %entry
352 ; X64-NEXT:    movl (%rdi), %eax
353 ; X64-NEXT:    movl %eax, (%rsi)
354 ; X64-NEXT:    vmovd %eax, %xmm0
355 ; X64-NEXT:    vpshufd {{.*#+}} xmm0 = xmm0[0,0,0,0]
356 ; X64-NEXT:    retq
357 entry:
358   %q = load i32, ptr %ptr, align 4
359   store i32 %q, ptr %ptr2, align 4 ; to create a chain to prevent broadcast
360   %vecinit.i = insertelement <4 x i32> undef, i32 %q, i32 0
361   %vecinit2.i = insertelement <4 x i32> %vecinit.i, i32 %q, i32 1
362   %vecinit4.i = insertelement <4 x i32> %vecinit2.i, i32 %q, i32 2
363   %vecinit6.i = insertelement <4 x i32> %vecinit4.i, i32 %q, i32 3
364   ret <4 x i32> %vecinit6.i
367 ; FIXME: Pointer adjusted broadcasts
369 define <4 x i32> @load_splat_4i32_4i32_1111(ptr %ptr) nounwind uwtable readnone ssp {
370 ; X86-LABEL: load_splat_4i32_4i32_1111:
371 ; X86:       ## %bb.0: ## %entry
372 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %eax
373 ; X86-NEXT:    vpermilps {{.*#+}} xmm0 = mem[1,1,1,1]
374 ; X86-NEXT:    retl
376 ; X64-LABEL: load_splat_4i32_4i32_1111:
377 ; X64:       ## %bb.0: ## %entry
378 ; X64-NEXT:    vpermilps {{.*#+}} xmm0 = mem[1,1,1,1]
379 ; X64-NEXT:    retq
380 entry:
381   %ld = load <4 x i32>, ptr %ptr
382   %ret = shufflevector <4 x i32> %ld, <4 x i32> undef, <4 x i32> <i32 1, i32 1, i32 1, i32 1>
383   ret <4 x i32> %ret
386 define <8 x i32> @load_splat_8i32_4i32_33333333(ptr %ptr) nounwind uwtable readnone ssp {
387 ; X86-LABEL: load_splat_8i32_4i32_33333333:
388 ; X86:       ## %bb.0: ## %entry
389 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %eax
390 ; X86-NEXT:    vbroadcastss 12(%eax), %ymm0
391 ; X86-NEXT:    retl
393 ; X64-LABEL: load_splat_8i32_4i32_33333333:
394 ; X64:       ## %bb.0: ## %entry
395 ; X64-NEXT:    vbroadcastss 12(%rdi), %ymm0
396 ; X64-NEXT:    retq
397 entry:
398   %ld = load <4 x i32>, ptr %ptr
399   %ret = shufflevector <4 x i32> %ld, <4 x i32> undef, <8 x i32> <i32 3, i32 3, i32 3, i32 3, i32 3, i32 3, i32 3, i32 3>
400   ret <8 x i32> %ret
403 define <8 x i32> @load_splat_8i32_8i32_55555555(ptr %ptr) nounwind uwtable readnone ssp {
404 ; X86-LABEL: load_splat_8i32_8i32_55555555:
405 ; X86:       ## %bb.0: ## %entry
406 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %eax
407 ; X86-NEXT:    vbroadcastss 20(%eax), %ymm0
408 ; X86-NEXT:    retl
410 ; X64-LABEL: load_splat_8i32_8i32_55555555:
411 ; X64:       ## %bb.0: ## %entry
412 ; X64-NEXT:    vbroadcastss 20(%rdi), %ymm0
413 ; X64-NEXT:    retq
414 entry:
415   %ld = load <8 x i32>, ptr %ptr
416   %ret = shufflevector <8 x i32> %ld, <8 x i32> undef, <8 x i32> <i32 5, i32 5, i32 5, i32 5, i32 5, i32 5, i32 5, i32 5>
417   ret <8 x i32> %ret
420 define <4 x float> @load_splat_4f32_4f32_1111(ptr %ptr) nounwind uwtable readnone ssp {
421 ; X86-LABEL: load_splat_4f32_4f32_1111:
422 ; X86:       ## %bb.0: ## %entry
423 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %eax
424 ; X86-NEXT:    vbroadcastss 4(%eax), %xmm0
425 ; X86-NEXT:    retl
427 ; X64-LABEL: load_splat_4f32_4f32_1111:
428 ; X64:       ## %bb.0: ## %entry
429 ; X64-NEXT:    vbroadcastss 4(%rdi), %xmm0
430 ; X64-NEXT:    retq
431 entry:
432   %ld = load <4 x float>, ptr %ptr
433   %ret = shufflevector <4 x float> %ld, <4 x float> undef, <4 x i32> <i32 1, i32 1, i32 1, i32 1>
434   ret <4 x float> %ret
437 define <8 x float> @load_splat_8f32_4f32_33333333(ptr %ptr) nounwind uwtable readnone ssp {
438 ; X86-LABEL: load_splat_8f32_4f32_33333333:
439 ; X86:       ## %bb.0: ## %entry
440 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %eax
441 ; X86-NEXT:    vbroadcastss 12(%eax), %ymm0
442 ; X86-NEXT:    retl
444 ; X64-LABEL: load_splat_8f32_4f32_33333333:
445 ; X64:       ## %bb.0: ## %entry
446 ; X64-NEXT:    vbroadcastss 12(%rdi), %ymm0
447 ; X64-NEXT:    retq
448 entry:
449   %ld = load <4 x float>, ptr %ptr
450   %ret = shufflevector <4 x float> %ld, <4 x float> undef, <8 x i32> <i32 3, i32 3, i32 3, i32 3, i32 3, i32 3, i32 3, i32 3>
451   ret <8 x float> %ret
454 define <8 x float> @load_splat_8f32_8f32_55555555(ptr %ptr) nounwind uwtable readnone ssp {
455 ; X86-LABEL: load_splat_8f32_8f32_55555555:
456 ; X86:       ## %bb.0: ## %entry
457 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %eax
458 ; X86-NEXT:    vbroadcastss 20(%eax), %ymm0
459 ; X86-NEXT:    retl
461 ; X64-LABEL: load_splat_8f32_8f32_55555555:
462 ; X64:       ## %bb.0: ## %entry
463 ; X64-NEXT:    vbroadcastss 20(%rdi), %ymm0
464 ; X64-NEXT:    retq
465 entry:
466   %ld = load <8 x float>, ptr %ptr
467   %ret = shufflevector <8 x float> %ld, <8 x float> undef, <8 x i32> <i32 5, i32 5, i32 5, i32 5, i32 5, i32 5, i32 5, i32 5>
468   ret <8 x float> %ret
471 define <2 x i64> @load_splat_2i64_2i64_1111(ptr %ptr) nounwind uwtable readnone ssp {
472 ; X86-LABEL: load_splat_2i64_2i64_1111:
473 ; X86:       ## %bb.0: ## %entry
474 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %eax
475 ; X86-NEXT:    vpermilps {{.*#+}} xmm0 = mem[2,3,2,3]
476 ; X86-NEXT:    retl
478 ; X64-LABEL: load_splat_2i64_2i64_1111:
479 ; X64:       ## %bb.0: ## %entry
480 ; X64-NEXT:    vpermilps {{.*#+}} xmm0 = mem[2,3,2,3]
481 ; X64-NEXT:    retq
482 entry:
483   %ld = load <2 x i64>, ptr %ptr
484   %ret = shufflevector <2 x i64> %ld, <2 x i64> undef, <2 x i32> <i32 1, i32 1>
485   ret <2 x i64> %ret
488 define <4 x i64> @load_splat_4i64_2i64_1111(ptr %ptr) nounwind uwtable readnone ssp {
489 ; X86-LABEL: load_splat_4i64_2i64_1111:
490 ; X86:       ## %bb.0: ## %entry
491 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %eax
492 ; X86-NEXT:    vbroadcastsd 8(%eax), %ymm0
493 ; X86-NEXT:    retl
495 ; X64-LABEL: load_splat_4i64_2i64_1111:
496 ; X64:       ## %bb.0: ## %entry
497 ; X64-NEXT:    vbroadcastsd 8(%rdi), %ymm0
498 ; X64-NEXT:    retq
499 entry:
500   %ld = load <2 x i64>, ptr %ptr
501   %ret = shufflevector <2 x i64> %ld, <2 x i64> undef, <4 x i32> <i32 1, i32 1, i32 1, i32 1>
502   ret <4 x i64> %ret
505 define <4 x i64> @load_splat_4i64_4i64_2222(ptr %ptr) nounwind uwtable readnone ssp {
506 ; X86-LABEL: load_splat_4i64_4i64_2222:
507 ; X86:       ## %bb.0: ## %entry
508 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %eax
509 ; X86-NEXT:    vbroadcastsd 16(%eax), %ymm0
510 ; X86-NEXT:    retl
512 ; X64-LABEL: load_splat_4i64_4i64_2222:
513 ; X64:       ## %bb.0: ## %entry
514 ; X64-NEXT:    vbroadcastsd 16(%rdi), %ymm0
515 ; X64-NEXT:    retq
516 entry:
517   %ld = load <4 x i64>, ptr %ptr
518   %ret = shufflevector <4 x i64> %ld, <4 x i64> undef, <4 x i32> <i32 2, i32 2, i32 2, i32 2>
519   ret <4 x i64> %ret
522 define <2 x double> @load_splat_2f64_2f64_1111(ptr %ptr) nounwind uwtable readnone ssp {
523 ; X86-LABEL: load_splat_2f64_2f64_1111:
524 ; X86:       ## %bb.0: ## %entry
525 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %eax
526 ; X86-NEXT:    vmovddup {{.*#+}} xmm0 = mem[0,0]
527 ; X86-NEXT:    retl
529 ; X64-LABEL: load_splat_2f64_2f64_1111:
530 ; X64:       ## %bb.0: ## %entry
531 ; X64-NEXT:    vmovddup {{.*#+}} xmm0 = mem[0,0]
532 ; X64-NEXT:    retq
533 entry:
534   %ld = load <2 x double>, ptr %ptr
535   %ret = shufflevector <2 x double> %ld, <2 x double> undef, <2 x i32> <i32 1, i32 1>
536   ret <2 x double> %ret
539 define <4 x double> @load_splat_4f64_2f64_1111(ptr %ptr) nounwind uwtable readnone ssp {
540 ; X86-LABEL: load_splat_4f64_2f64_1111:
541 ; X86:       ## %bb.0: ## %entry
542 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %eax
543 ; X86-NEXT:    vbroadcastsd 8(%eax), %ymm0
544 ; X86-NEXT:    retl
546 ; X64-LABEL: load_splat_4f64_2f64_1111:
547 ; X64:       ## %bb.0: ## %entry
548 ; X64-NEXT:    vbroadcastsd 8(%rdi), %ymm0
549 ; X64-NEXT:    retq
550 entry:
551   %ld = load <2 x double>, ptr %ptr
552   %ret = shufflevector <2 x double> %ld, <2 x double> undef, <4 x i32> <i32 1, i32 1, i32 1, i32 1>
553   ret <4 x double> %ret
556 define <4 x double> @load_splat_4f64_4f64_2222(ptr %ptr) nounwind uwtable readnone ssp {
557 ; X86-LABEL: load_splat_4f64_4f64_2222:
558 ; X86:       ## %bb.0: ## %entry
559 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %eax
560 ; X86-NEXT:    vbroadcastsd 16(%eax), %ymm0
561 ; X86-NEXT:    retl
563 ; X64-LABEL: load_splat_4f64_4f64_2222:
564 ; X64:       ## %bb.0: ## %entry
565 ; X64-NEXT:    vbroadcastsd 16(%rdi), %ymm0
566 ; X64-NEXT:    retq
567 entry:
568   %ld = load <4 x double>, ptr %ptr
569   %ret = shufflevector <4 x double> %ld, <4 x double> undef, <4 x i32> <i32 2, i32 2, i32 2, i32 2>
570   ret <4 x double> %ret
573 ; Unsupported vbroadcasts
575 define <2 x i64> @G(ptr %ptr) nounwind uwtable readnone ssp {
576 ; X86-LABEL: G:
577 ; X86:       ## %bb.0: ## %entry
578 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %eax
579 ; X86-NEXT:    vmovddup {{.*#+}} xmm0 = mem[0,0]
580 ; X86-NEXT:    retl
582 ; X64-LABEL: G:
583 ; X64:       ## %bb.0: ## %entry
584 ; X64-NEXT:    vmovddup {{.*#+}} xmm0 = mem[0,0]
585 ; X64-NEXT:    retq
586 entry:
587   %q = load i64, ptr %ptr, align 8
588   %vecinit.i = insertelement <2 x i64> undef, i64 %q, i32 0
589   %vecinit2.i = insertelement <2 x i64> %vecinit.i, i64 %q, i32 1
590   ret <2 x i64> %vecinit2.i
593 define <2 x i64> @G2(ptr %ptr, ptr %ptr2) nounwind uwtable readnone ssp {
594 ; X86-LABEL: G2:
595 ; X86:       ## %bb.0: ## %entry
596 ; X86-NEXT:    pushl %esi
597 ; X86-NEXT:    .cfi_def_cfa_offset 8
598 ; X86-NEXT:    .cfi_offset %esi, -8
599 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %eax
600 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %ecx
601 ; X86-NEXT:    movl (%ecx), %edx
602 ; X86-NEXT:    movl 4(%ecx), %esi
603 ; X86-NEXT:    vmovddup {{.*#+}} xmm0 = mem[0,0]
604 ; X86-NEXT:    movl %edx, (%eax)
605 ; X86-NEXT:    movl %esi, 4(%eax)
606 ; X86-NEXT:    popl %esi
607 ; X86-NEXT:    retl
609 ; X64-LABEL: G2:
610 ; X64:       ## %bb.0: ## %entry
611 ; X64-NEXT:    movq (%rdi), %rax
612 ; X64-NEXT:    movq %rax, (%rsi)
613 ; X64-NEXT:    vmovq %rax, %xmm0
614 ; X64-NEXT:    vpshufd {{.*#+}} xmm0 = xmm0[0,1,0,1]
615 ; X64-NEXT:    retq
616 entry:
617   %q = load i64, ptr %ptr, align 8
618   store i64 %q, ptr %ptr2, align 8 ; to create a chain to prevent broadcast
619   %vecinit.i = insertelement <2 x i64> undef, i64 %q, i32 0
620   %vecinit2.i = insertelement <2 x i64> %vecinit.i, i64 %q, i32 1
621   ret <2 x i64> %vecinit2.i
624 define <4 x i32> @H(<4 x i32> %a) {
625 ; X86-LABEL: H:
626 ; X86:       ## %bb.0: ## %entry
627 ; X86-NEXT:    vshufps {{.*#+}} xmm0 = xmm0[1,1,1,1]
628 ; X86-NEXT:    retl
630 ; X64-LABEL: H:
631 ; X64:       ## %bb.0: ## %entry
632 ; X64-NEXT:    vshufps {{.*#+}} xmm0 = xmm0[1,1,1,1]
633 ; X64-NEXT:    retq
634 entry:
635   %x = shufflevector <4 x i32> %a, <4 x i32> undef, <4 x i32> <i32 1, i32 undef, i32 undef, i32 undef>
636   ret <4 x i32> %x
639 define <2 x double> @I(ptr %ptr) nounwind uwtable readnone ssp {
640 ; X86-LABEL: I:
641 ; X86:       ## %bb.0: ## %entry
642 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %eax
643 ; X86-NEXT:    vmovddup {{.*#+}} xmm0 = mem[0,0]
644 ; X86-NEXT:    retl
646 ; X64-LABEL: I:
647 ; X64:       ## %bb.0: ## %entry
648 ; X64-NEXT:    vmovddup {{.*#+}} xmm0 = mem[0,0]
649 ; X64-NEXT:    retq
650 entry:
651   %q = load double, ptr %ptr, align 4
652   %vecinit.i = insertelement <2 x double> undef, double %q, i32 0
653   %vecinit2.i = insertelement <2 x double> %vecinit.i, double %q, i32 1
654   ret <2 x double> %vecinit2.i
657 define <2 x double> @I2(ptr %ptr, ptr %ptr2) nounwind uwtable readnone ssp {
658 ; X86-LABEL: I2:
659 ; X86:       ## %bb.0: ## %entry
660 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %eax
661 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %ecx
662 ; X86-NEXT:    vmovddup {{.*#+}} xmm0 = mem[0,0]
663 ; X86-NEXT:    vmovlps %xmm0, (%eax)
664 ; X86-NEXT:    retl
666 ; X64-LABEL: I2:
667 ; X64:       ## %bb.0: ## %entry
668 ; X64-NEXT:    vmovddup {{.*#+}} xmm0 = mem[0,0]
669 ; X64-NEXT:    vmovlps %xmm0, (%rsi)
670 ; X64-NEXT:    retq
671 entry:
672   %q = load double, ptr %ptr, align 4
673   store double %q, ptr %ptr2, align 4 ; to create a chain to prevent broadcast
674   %vecinit.i = insertelement <2 x double> undef, double %q, i32 0
675   %vecinit2.i = insertelement <2 x double> %vecinit.i, double %q, i32 1
676   ret <2 x double> %vecinit2.i
679 define <4 x float> @_RR(ptr %ptr, ptr %k) nounwind uwtable readnone ssp {
680 ; X86-LABEL: _RR:
681 ; X86:       ## %bb.0: ## %entry
682 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %eax
683 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %ecx
684 ; X86-NEXT:    vbroadcastss (%ecx), %xmm0
685 ; X86-NEXT:    movl (%eax), %eax
686 ; X86-NEXT:    movl %eax, (%eax)
687 ; X86-NEXT:    retl
689 ; X64-LABEL: _RR:
690 ; X64:       ## %bb.0: ## %entry
691 ; X64-NEXT:    vbroadcastss (%rdi), %xmm0
692 ; X64-NEXT:    movl (%rsi), %eax
693 ; X64-NEXT:    movl %eax, (%rax)
694 ; X64-NEXT:    retq
695 entry:
696   %q = load float, ptr %ptr, align 4
697   %vecinit.i = insertelement <4 x float> undef, float %q, i32 0
698   %vecinit2.i = insertelement <4 x float> %vecinit.i, float %q, i32 1
699   %vecinit4.i = insertelement <4 x float> %vecinit2.i, float %q, i32 2
700   %vecinit6.i = insertelement <4 x float> %vecinit4.i, float %q, i32 3
701   ; force a chain
702   %j = load i32, ptr %k, align 4
703   store i32 %j, ptr undef
704   ret <4 x float> %vecinit6.i
707 define <4 x float> @_RR2(ptr %ptr, ptr %k) nounwind uwtable readnone ssp {
708 ; X86-LABEL: _RR2:
709 ; X86:       ## %bb.0: ## %entry
710 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %eax
711 ; X86-NEXT:    vbroadcastss (%eax), %xmm0
712 ; X86-NEXT:    retl
714 ; X64-LABEL: _RR2:
715 ; X64:       ## %bb.0: ## %entry
716 ; X64-NEXT:    vbroadcastss (%rdi), %xmm0
717 ; X64-NEXT:    retq
718 entry:
719   %q = load float, ptr %ptr, align 4
720   %v = insertelement <4 x float> undef, float %q, i32 0
721   %t = shufflevector <4 x float> %v, <4 x float> undef, <4 x i32> zeroinitializer
722   ret <4 x float> %t
725 ; These tests check that a vbroadcast instruction is used when we have a splat
726 ; formed from a concat_vectors (via the shufflevector) of two BUILD_VECTORs
727 ; (via the insertelements).
729 define <8 x float> @splat_concat1(ptr %p) {
730 ; X86-LABEL: splat_concat1:
731 ; X86:       ## %bb.0:
732 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %eax
733 ; X86-NEXT:    vbroadcastss (%eax), %ymm0
734 ; X86-NEXT:    retl
736 ; X64-LABEL: splat_concat1:
737 ; X64:       ## %bb.0:
738 ; X64-NEXT:    vbroadcastss (%rdi), %ymm0
739 ; X64-NEXT:    retq
740   %1 = load float, ptr %p, align 4
741   %2 = insertelement <4 x float> undef, float %1, i32 0
742   %3 = insertelement <4 x float> %2, float %1, i32 1
743   %4 = insertelement <4 x float> %3, float %1, i32 2
744   %5 = insertelement <4 x float> %4, float %1, i32 3
745   %6 = shufflevector <4 x float> %5, <4 x float> undef, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 0, i32 1, i32 2, i32 3>
746   ret <8 x float> %6
749 define <8 x float> @splat_concat2(ptr %p) {
750 ; X86-LABEL: splat_concat2:
751 ; X86:       ## %bb.0:
752 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %eax
753 ; X86-NEXT:    vbroadcastss (%eax), %ymm0
754 ; X86-NEXT:    retl
756 ; X64-LABEL: splat_concat2:
757 ; X64:       ## %bb.0:
758 ; X64-NEXT:    vbroadcastss (%rdi), %ymm0
759 ; X64-NEXT:    retq
760   %1 = load float, ptr %p, align 4
761   %2 = insertelement <4 x float> undef, float %1, i32 0
762   %3 = insertelement <4 x float> %2, float %1, i32 1
763   %4 = insertelement <4 x float> %3, float %1, i32 2
764   %5 = insertelement <4 x float> %4, float %1, i32 3
765   %6 = insertelement <4 x float> undef, float %1, i32 0
766   %7 = insertelement <4 x float> %6, float %1, i32 1
767   %8 = insertelement <4 x float> %7, float %1, i32 2
768   %9 = insertelement <4 x float> %8, float %1, i32 3
769   %10 = shufflevector <4 x float> %5, <4 x float> %9, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 4, i32 5, i32 6, i32 7>
770   ret <8 x float> %10
773 define <4 x double> @splat_concat3(ptr %p) {
774 ; X86-LABEL: splat_concat3:
775 ; X86:       ## %bb.0:
776 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %eax
777 ; X86-NEXT:    vbroadcastsd (%eax), %ymm0
778 ; X86-NEXT:    retl
780 ; X64-LABEL: splat_concat3:
781 ; X64:       ## %bb.0:
782 ; X64-NEXT:    vbroadcastsd (%rdi), %ymm0
783 ; X64-NEXT:    retq
784   %1 = load double, ptr %p, align 8
785   %2 = insertelement <2 x double> undef, double %1, i32 0
786   %3 = insertelement <2 x double> %2, double %1, i32 1
787   %4 = shufflevector <2 x double> %3, <2 x double> undef, <4 x i32> <i32 0, i32 1, i32 0, i32 1>
788   ret <4 x double> %4
791 define <4 x double> @splat_concat4(ptr %p) {
792 ; X86-LABEL: splat_concat4:
793 ; X86:       ## %bb.0:
794 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %eax
795 ; X86-NEXT:    vbroadcastsd (%eax), %ymm0
796 ; X86-NEXT:    retl
798 ; X64-LABEL: splat_concat4:
799 ; X64:       ## %bb.0:
800 ; X64-NEXT:    vbroadcastsd (%rdi), %ymm0
801 ; X64-NEXT:    retq
802   %1 = load double, ptr %p, align 8
803   %2 = insertelement <2 x double> undef, double %1, i32 0
804   %3 = insertelement <2 x double> %2, double %1, i32 1
805   %4 = insertelement <2 x double> undef, double %1, i32 0
806   %5 = insertelement <2 x double> %2, double %1, i32 1
807   %6 = shufflevector <2 x double> %3, <2 x double> %5, <4 x i32> <i32 0, i32 1, i32 2, i32 3>
808   ret <4 x double> %6
811 ; PR34041
812 define <4 x double> @broadcast_shuffle_1000(ptr %p) {
813 ; X86-LABEL: broadcast_shuffle_1000:
814 ; X86:       ## %bb.0:
815 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %eax
816 ; X86-NEXT:    vbroadcastsd (%eax), %ymm0
817 ; X86-NEXT:    retl
819 ; X64-LABEL: broadcast_shuffle_1000:
820 ; X64:       ## %bb.0:
821 ; X64-NEXT:    vbroadcastsd (%rdi), %ymm0
822 ; X64-NEXT:    retq
823   %1 = load double, ptr %p
824   %2 = insertelement <2 x double> undef, double %1, i32 0
825   %3 = shufflevector <2 x double> %2, <2 x double> undef, <4 x i32> <i32 1, i32 0, i32 0, i32 0>
826   ret <4 x double> %3
829 define <4 x double> @broadcast_shuffle1032(ptr %p) {
830 ; X86-LABEL: broadcast_shuffle1032:
831 ; X86:       ## %bb.0:
832 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %eax
833 ; X86-NEXT:    vbroadcastsd (%eax), %ymm0
834 ; X86-NEXT:    retl
836 ; X64-LABEL: broadcast_shuffle1032:
837 ; X64:       ## %bb.0:
838 ; X64-NEXT:    vbroadcastsd (%rdi), %ymm0
839 ; X64-NEXT:    retq
840   %1 = load double, ptr %p
841   %2 = insertelement <2 x double> undef, double %1, i32 1
842   %3 = insertelement <2 x double> undef, double %1, i32 0
843   %4 = shufflevector <2 x double> %2, <2 x double> %3, <4 x i32> <i32 1, i32 0, i32 3, i32 2>
844   ret <4 x double> %4
847 define void @broadcast_v16i32(ptr %a, ptr %b) {
848 ; X86-LABEL: broadcast_v16i32:
849 ; X86:       ## %bb.0:
850 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %eax
851 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %ecx
852 ; X86-NEXT:    vbroadcastss (%ecx), %ymm0
853 ; X86-NEXT:    vmovups %ymm0, 32(%eax)
854 ; X86-NEXT:    vmovups %ymm0, (%eax)
855 ; X86-NEXT:    vzeroupper
856 ; X86-NEXT:    retl
858 ; X64-LABEL: broadcast_v16i32:
859 ; X64:       ## %bb.0:
860 ; X64-NEXT:    vbroadcastss (%rdi), %ymm0
861 ; X64-NEXT:    vmovups %ymm0, 32(%rsi)
862 ; X64-NEXT:    vmovups %ymm0, (%rsi)
863 ; X64-NEXT:    vzeroupper
864 ; X64-NEXT:    retq
865   %1 = load i32, ptr %a, align 4
866   %2 = insertelement <8 x i32> undef, i32 %1, i32 0
867   %3 = shufflevector <8 x i32> %2, <8 x i32> undef, <8 x i32> zeroinitializer
868   %4 = shufflevector <8 x i32> undef, <8 x i32> %3, <16 x i32> <i32 0, i32 8, i32 1, i32 9, i32 2, i32 10, i32 3, i32 11, i32 4, i32 12, i32 5, i32 13, i32 6, i32 14, i32 7, i32 15>
869   store <16 x i32> %4, ptr %b, align 4
870   ret void
874 ; Broadcast scale factor for xyz vector - slp will have vectorized xy.
876 define double @broadcast_scale_xyz(ptr nocapture readonly, ptr nocapture readonly) nounwind {
877 ; X86-LABEL: broadcast_scale_xyz:
878 ; X86:       ## %bb.0:
879 ; X86-NEXT:    subl $12, %esp
880 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %eax
881 ; X86-NEXT:    movl {{[0-9]+}}(%esp), %ecx
882 ; X86-NEXT:    vmovddup {{.*#+}} xmm0 = mem[0,0]
883 ; X86-NEXT:    vmulpd (%eax), %xmm0, %xmm1
884 ; X86-NEXT:    vmulsd 16(%eax), %xmm0, %xmm0
885 ; X86-NEXT:    vshufpd {{.*#+}} xmm2 = xmm1[1,0]
886 ; X86-NEXT:    vaddsd %xmm2, %xmm1, %xmm1
887 ; X86-NEXT:    vaddsd %xmm1, %xmm0, %xmm0
888 ; X86-NEXT:    vmovsd %xmm0, (%esp)
889 ; X86-NEXT:    fldl (%esp)
890 ; X86-NEXT:    addl $12, %esp
891 ; X86-NEXT:    retl
893 ; X64-LABEL: broadcast_scale_xyz:
894 ; X64:       ## %bb.0:
895 ; X64-NEXT:    vmovddup {{.*#+}} xmm0 = mem[0,0]
896 ; X64-NEXT:    vmulpd (%rsi), %xmm0, %xmm1
897 ; X64-NEXT:    vmulsd 16(%rsi), %xmm0, %xmm0
898 ; X64-NEXT:    vshufpd {{.*#+}} xmm2 = xmm1[1,0]
899 ; X64-NEXT:    vaddsd %xmm2, %xmm1, %xmm1
900 ; X64-NEXT:    vaddsd %xmm1, %xmm0, %xmm0
901 ; X64-NEXT:    retq
902   %3 = load <2 x double>, ptr %1, align 8
903   %4 = getelementptr inbounds double, ptr %1, i64 2
904   %5 = load double, ptr %4, align 8
905   %6 = load double, ptr %0, align 8
906   %7 = insertelement <2 x double> undef, double %6, i32 0
907   %8 = shufflevector <2 x double> %7, <2 x double> undef, <2 x i32> zeroinitializer
908   %9 = fmul <2 x double> %3, %8
909   %10 = fmul double %5, %6
910   %11 = extractelement <2 x double> %9, i32 0
911   %12 = extractelement <2 x double> %9, i32 1
912   %13 = fadd double %11, %12
913   %14 = fadd double %10, %13
914   ret double %14
918 ; Broadcast v2f32 non-uniform constant via vmovddup
920 define void @fmul_by_v2f32_broadcast() nounwind {
921 ; X86-LABEL: fmul_by_v2f32_broadcast:
922 ; X86:       ## %bb.0:
923 ; X86-NEXT:    vmovddup {{.*#+}} xmm0 = [3.1E+1,0.0E+0,3.1E+1,0.0E+0]
924 ; X86-NEXT:    ## xmm0 = mem[0,0]
925 ; X86-NEXT:    ## implicit-def: $xmm1
926 ; X86-NEXT:    .p2align 4
927 ; X86-NEXT:  LBB42_1: ## =>This Inner Loop Header: Depth=1
928 ; X86-NEXT:    vmovsd {{.*#+}} xmm2 = mem[0],zero
929 ; X86-NEXT:    vmulps %xmm0, %xmm2, %xmm2
930 ; X86-NEXT:    vmovlps %xmm2, (%eax)
931 ; X86-NEXT:    vmulps %xmm0, %xmm1, %xmm1
932 ; X86-NEXT:    vmovlps %xmm1, (%eax)
933 ; X86-NEXT:    jmp LBB42_1
935 ; X64-LABEL: fmul_by_v2f32_broadcast:
936 ; X64:       ## %bb.0:
937 ; X64-NEXT:    vmovddup {{.*#+}} xmm0 = [3.1E+1,0.0E+0,3.1E+1,0.0E+0]
938 ; X64-NEXT:    ## xmm0 = mem[0,0]
939 ; X64-NEXT:    ## implicit-def: $xmm1
940 ; X64-NEXT:    .p2align 4
941 ; X64-NEXT:  LBB42_1: ## =>This Inner Loop Header: Depth=1
942 ; X64-NEXT:    vmovsd {{.*#+}} xmm2 = mem[0],zero
943 ; X64-NEXT:    vmulps %xmm0, %xmm2, %xmm2
944 ; X64-NEXT:    vmovlps %xmm2, (%rax)
945 ; X64-NEXT:    vmulps %xmm0, %xmm1, %xmm1
946 ; X64-NEXT:    vmovlps %xmm1, (%rax)
947 ; X64-NEXT:    jmp LBB42_1
948   br label %1
950   %2 = phi <2 x float> [ undef, %0 ], [ %5, %1 ]
951   %3 = load <2 x float>, ptr poison, align 8
952   %4 = fmul <2 x float> %3, <float 3.100000e+01, float 0.000000e+00>
953   store <2 x float> %4, ptr poison, align 8
954   %5 = fmul <2 x float> %2, <float 3.100000e+01, float 0.000000e+00>
955   store <2 x float> %5, ptr poison, align 8
956   br label %1
960 ; When VBROADCAST replaces an existing load, ensure it still respects lifetime dependencies.
962 define float @broadcast_lifetime() nounwind {
963 ; X86-LABEL: broadcast_lifetime:
964 ; X86:       ## %bb.0:
965 ; X86-NEXT:    pushl %esi
966 ; X86-NEXT:    subl $40, %esp
967 ; X86-NEXT:    leal {{[0-9]+}}(%esp), %esi
968 ; X86-NEXT:    movl %esi, (%esp)
969 ; X86-NEXT:    calll _gfunc
970 ; X86-NEXT:    vmovss {{.*#+}} xmm0 = mem[0],zero,zero,zero
971 ; X86-NEXT:    vmovss %xmm0, {{[-0-9]+}}(%e{{[sb]}}p) ## 4-byte Spill
972 ; X86-NEXT:    movl %esi, (%esp)
973 ; X86-NEXT:    calll _gfunc
974 ; X86-NEXT:    vmovss {{.*#+}} xmm0 = mem[0],zero,zero,zero
975 ; X86-NEXT:    vsubss {{[-0-9]+}}(%e{{[sb]}}p), %xmm0, %xmm0 ## 4-byte Folded Reload
976 ; X86-NEXT:    vmovss %xmm0, {{[0-9]+}}(%esp)
977 ; X86-NEXT:    flds {{[0-9]+}}(%esp)
978 ; X86-NEXT:    addl $40, %esp
979 ; X86-NEXT:    popl %esi
980 ; X86-NEXT:    retl
982 ; X64-LABEL: broadcast_lifetime:
983 ; X64:       ## %bb.0:
984 ; X64-NEXT:    subq $40, %rsp
985 ; X64-NEXT:    leaq {{[0-9]+}}(%rsp), %rdi
986 ; X64-NEXT:    callq _gfunc
987 ; X64-NEXT:    vmovss {{.*#+}} xmm0 = mem[0],zero,zero,zero
988 ; X64-NEXT:    vmovss %xmm0, {{[-0-9]+}}(%r{{[sb]}}p) ## 4-byte Spill
989 ; X64-NEXT:    leaq {{[0-9]+}}(%rsp), %rdi
990 ; X64-NEXT:    callq _gfunc
991 ; X64-NEXT:    vmovss {{.*#+}} xmm0 = mem[0],zero,zero,zero
992 ; X64-NEXT:    vsubss {{[-0-9]+}}(%r{{[sb]}}p), %xmm0, %xmm0 ## 4-byte Folded Reload
993 ; X64-NEXT:    addq $40, %rsp
994 ; X64-NEXT:    retq
995   %1 = alloca <4 x float>, align 16
996   %2 = alloca <4 x float>, align 16
998   call void @llvm.lifetime.start.p0(i64 16, ptr %1)
999   call void @gfunc(ptr %1)
1000   %3 = load <4 x float>, ptr %1, align 16
1001   call void @llvm.lifetime.end.p0(i64 16, ptr %1)
1003   call void @llvm.lifetime.start.p0(i64 16, ptr %2)
1004   call void @gfunc(ptr %2)
1005   %4 = load <4 x float>, ptr %2, align 16
1006   call void @llvm.lifetime.end.p0(i64 16, ptr %2)
1008   %5 = extractelement <4 x float> %3, i32 1
1009   %6 = extractelement <4 x float> %4, i32 1
1010   %7 = fsub float %6, %5
1011   ret float %7
1014 define <8 x i16> @broadcast_x86_mmx(<1 x i64> %tmp) nounwind {
1015 ; X86-LABEL: broadcast_x86_mmx:
1016 ; X86:       ## %bb.0: ## %bb
1017 ; X86-NEXT:    vmovddup {{.*#+}} xmm0 = mem[0,0]
1018 ; X86-NEXT:    retl
1020 ; X64-LABEL: broadcast_x86_mmx:
1021 ; X64:       ## %bb.0: ## %bb
1022 ; X64-NEXT:    vmovq %rdi, %xmm0
1023 ; X64-NEXT:    vpshufd {{.*#+}} xmm0 = xmm0[0,1,0,1]
1024 ; X64-NEXT:    retq
1026   %tmp1 = bitcast <1 x i64> %tmp to i64
1027   %tmp2 = insertelement <2 x i64> undef, i64 %tmp1, i32 0
1028   %tmp3 = bitcast <2 x i64> %tmp2 to <8 x i16>
1029   %tmp4 = shufflevector <8 x i16> %tmp3, <8 x i16> poison, <8 x i32> <i32 0, i32 1, i32 2, i32 3, i32 0, i32 1, i32 2, i32 3>
1030   ret <8 x i16> %tmp4
1033 declare void @gfunc(ptr)
1034 declare void @llvm.lifetime.start.p0(i64, ptr)
1035 declare void @llvm.lifetime.end.p0(i64, ptr)