1 ; RUN: llc -march=hexagon < %s | FileCheck %s
3 @l = external global <32 x i32>
4 @k = external global <16 x i32>
5 @h = external global <16 x i32>
6 @n = external global i64
7 @m = external global i32
10 ; CHECK: v{{[0-9]+}}:{{[0-9]+}}.w = vrmpy(v{{[0-9]+}}:{{[0-9]+}}.ub,r{{[0-9]+}}.b,#1)
11 define void @test1(<32 x i32> %a, i32 %b) #0 {
13 %0 = tail call <32 x i32> @llvm.hexagon.V6.vrmpybusi(<32 x i32> %a, i32 %b, i32 1)
14 store <32 x i32> %0, <32 x i32>* @l, align 128
19 ; CHECK: v{{[0-9]+}}:{{[0-9]+}}.uw = vrsad(v{{[0-9]+}}:{{[0-9]+}}.ub,r{{[0-9]+}}.ub,#1)
20 define void @test2(<32 x i32> %a, i32 %b) #0 {
22 %0 = tail call <32 x i32> @llvm.hexagon.V6.vrsadubi(<32 x i32> %a, i32 %b, i32 1)
23 store <32 x i32> %0, <32 x i32>* @l, align 128
28 ; CHECK: v{{[0-9]+}}:{{[0-9]+}}.uw = vrmpy(v{{[0-9]+}}:{{[0-9]+}}.ub,r{{[0-9]+}}.ub,#1)
29 define void @test3(<32 x i32> %a, i32 %b) #0 {
31 %0 = tail call <32 x i32> @llvm.hexagon.V6.vrmpyubi(<32 x i32> %a, i32 %b, i32 1)
32 store <32 x i32> %0, <32 x i32>* @l, align 128
37 ; CHECK: v{{[0-9]+}}:{{[0-9]+}}.w += vrmpy(v{{[0-9]+}}:{{[0-9]+}}.ub,r{{[0-9]+}}.b,#1)
38 define void @test4(<32 x i32> %a, <32 x i32> %b, i32 %c) #0 {
40 %0 = tail call <32 x i32> @llvm.hexagon.V6.vrmpybusi.acc(<32 x i32> %a, <32 x i32> %b, i32 %c, i32 1)
41 store <32 x i32> %0, <32 x i32>* @l, align 128
46 ; CHECK: v{{[0-9]+}}:{{[0-9]+}}.uw += vrsad(v{{[0-9]+}}:{{[0-9]+}}.ub,r{{[0-9]+}}.ub,#1)
47 define void @test5(<32 x i32> %a, <32 x i32> %b, i32 %c) #0 {
49 %0 = tail call <32 x i32> @llvm.hexagon.V6.vrsadubi.acc(<32 x i32> %a, <32 x i32> %b, i32 %c, i32 1)
50 store <32 x i32> %0, <32 x i32>* @l, align 128
55 ; CHECK: v{{[0-9]+}}:{{[0-9]+}}.uw += vrmpy(v{{[0-9]+}}:{{[0-9]+}}.ub,r{{[0-9]+}}.ub,#0)
56 define void @test6(<32 x i32> %a, <32 x i32> %b, i32 %c) #0 {
58 %0 = tail call <32 x i32> @llvm.hexagon.V6.vrmpyubi.acc(<32 x i32> %a, <32 x i32> %b, i32 %c, i32 0)
59 store <32 x i32> %0, <32 x i32>* @l, align 128
64 ; CHECK: v{{[0-9]+}} = valign(v{{[0-9]+}},v{{[0-9]+}},r{{[0-9]+}})
65 define void @test7(<16 x i32> %a, <16 x i32> %b, i32 %c) #0 {
67 %0 = tail call <16 x i32> @llvm.hexagon.V6.valignb(<16 x i32> %a, <16 x i32> %b, i32 %c)
68 store <16 x i32> %0, <16 x i32>* @k, align 64
73 ; CHECK: v{{[0-9]+}} = vlalign(v{{[0-9]+}},v{{[0-9]+}},r{{[0-9]+}})
74 define void @test8(<16 x i32> %a, <16 x i32> %b, i32 %c) #0 {
76 %0 = tail call <16 x i32> @llvm.hexagon.V6.vlalignb(<16 x i32> %a, <16 x i32> %b, i32 %c)
77 store <16 x i32> %0, <16 x i32>* @k, align 64
82 ; CHECK: v{{[0-9]+}}.h = vasr(v{{[0-9]+}}.w,v{{[0-9]+}}.w,r{{[0-9]+}})
83 define void @test9(<16 x i32> %a, <16 x i32> %b, i32 %c) #0 {
85 %0 = tail call <16 x i32> @llvm.hexagon.V6.vasrwh(<16 x i32> %a, <16 x i32> %b, i32 %c)
86 store <16 x i32> %0, <16 x i32>* @k, align 64
90 ; CHECK-LABEL: test10:
91 ; CHECK: v{{[0-9]+}}.h = vasr(v{{[0-9]+}}.w,v{{[0-9]+}}.w,r{{[0-9]+}}):sat
92 define void @test10(<16 x i32> %a, <16 x i32> %b, i32 %c) #0 {
94 %0 = tail call <16 x i32> @llvm.hexagon.V6.vasrwhsat(<16 x i32> %a, <16 x i32> %b, i32 %c)
95 store <16 x i32> %0, <16 x i32>* @k, align 64
99 ; CHECK-LABEL: test11:
100 ; CHECK: v{{[0-9]+}}.h = vasr(v{{[0-9]+}}.w,v{{[0-9]+}}.w,r{{[0-9]+}}):rnd:sat
101 define void @test11(<16 x i32> %a, <16 x i32> %b, i32 %c) #0 {
103 %0 = tail call <16 x i32> @llvm.hexagon.V6.vasrwhrndsat(<16 x i32> %a, <16 x i32> %b, i32 %c)
104 store <16 x i32> %0, <16 x i32>* @k, align 64
108 ; CHECK-LABEL: test12:
109 ; CHECK: v{{[0-9]+}}.uh = vasr(v{{[0-9]+}}.w,v{{[0-9]+}}.w,r{{[0-9]+}}):sat
110 define void @test12(<16 x i32> %a, <16 x i32> %b, i32 %c) #0 {
112 %0 = tail call <16 x i32> @llvm.hexagon.V6.vasrwuhsat(<16 x i32> %a, <16 x i32> %b, i32 %c)
113 store <16 x i32> %0, <16 x i32>* @k, align 64
117 ; CHECK-LABEL: test13:
118 ; CHECK: v{{[0-9]+}}.ub = vasr(v{{[0-9]+}}.h,v{{[0-9]+}}.h,r{{[0-9]+}}):sat
119 define void @test13(<16 x i32> %a, <16 x i32> %b, i32 %c) #0 {
121 %0 = tail call <16 x i32> @llvm.hexagon.V6.vasrhubsat(<16 x i32> %a, <16 x i32> %b, i32 %c)
122 store <16 x i32> %0, <16 x i32>* @k, align 64
126 ; CHECK-LABEL: test14:
127 ; CHECK: v{{[0-9]+}}.ub = vasr(v{{[0-9]+}}.h,v{{[0-9]+}}.h,r{{[0-9]+}}):rnd:sat
128 define void @test14(<16 x i32> %a, <16 x i32> %b, i32 %c) #0 {
130 %0 = tail call <16 x i32> @llvm.hexagon.V6.vasrhubrndsat(<16 x i32> %a, <16 x i32> %b, i32 %c)
131 store <16 x i32> %0, <16 x i32>* @k, align 64
135 ; CHECK-LABEL: test15:
136 ; CHECK: v{{[0-9]+}}.b = vasr(v{{[0-9]+}}.h,v{{[0-9]+}}.h,r{{[0-9]+}}):rnd:sat
137 define void @test15(<16 x i32> %a, <16 x i32> %b, i32 %c) #0 {
139 %0 = tail call <16 x i32> @llvm.hexagon.V6.vasrhbrndsat(<16 x i32> %a, <16 x i32> %b, i32 %c)
140 store <16 x i32> %0, <16 x i32>* @k, align 64
144 ; CHECK-LABEL: test16:
145 ; CHECK: v{{[0-9]+}}:{{[0-9]+}}.h |= vunpacko(v{{[0-9]+}}.b)
146 define void @test16(<32 x i32> %a, <16 x i32> %b) #0 {
148 %0 = tail call <32 x i32> @llvm.hexagon.V6.vunpackob(<32 x i32> %a, <16 x i32> %b)
149 store <32 x i32> %0, <32 x i32>* @l, align 128
153 ; CHECK-LABEL: test17:
154 ; CHECK: v{{[0-9]+}}:{{[0-9]+}}.w |= vunpacko(v{{[0-9]+}}.h)
155 define void @test17(<32 x i32> %a, <16 x i32> %b) #0 {
157 %0 = tail call <32 x i32> @llvm.hexagon.V6.vunpackoh(<32 x i32> %a, <16 x i32> %b)
158 store <32 x i32> %0, <32 x i32>* @l, align 128
162 ; CHECK-LABEL: test18:
163 ; CHECK: v{{[0-9]+}} = valign(v{{[0-9]+}},v{{[0-9]+}},#3)
164 define void @test18(<16 x i32> %a, <16 x i32> %b) #0 {
166 %0 = tail call <16 x i32> @llvm.hexagon.V6.valignbi(<16 x i32> %a, <16 x i32> %b, i32 3)
167 store <16 x i32> %0, <16 x i32>* @k, align 64
171 ; CHECK-LABEL: test19:
172 ; CHECK: v{{[0-9]+}} = vlalign(v{{[0-9]+}},v{{[0-9]+}},#3)
173 define void @test19(<16 x i32> %a, <16 x i32> %b) #0 {
175 %0 = tail call <16 x i32> @llvm.hexagon.V6.vlalignbi(<16 x i32> %a, <16 x i32> %b, i32 3)
176 store <16 x i32> %0, <16 x i32>* @k, align 64
180 ; CHECK-LABEL: test20:
181 ; CHECK: v{{[0-9]+}} = vmux(q{{[0-3]+}},v{{[0-9]+}},v{{[0-9]+}})
182 define void @test20(<16 x i32> %a, <16 x i32> %b, <16 x i32> %c) #0 {
184 %0 = bitcast <16 x i32> %a to <512 x i1>
185 %1 = tail call <16 x i32> @llvm.hexagon.V6.vmux(<512 x i1> %0, <16 x i32> %b, <16 x i32> %c)
186 store <16 x i32> %1, <16 x i32>* @k, align 64
190 ; CHECK-LABEL: test21:
191 ; CHECK: q{{[0-3]+}} = and(q{{[0-3]+}},q{{[0-3]+}})
192 define void @test21(<16 x i32> %a, <16 x i32> %b) #0 {
194 %0 = bitcast <16 x i32> %a to <512 x i1>
195 %1 = bitcast <16 x i32> %b to <512 x i1>
196 %2 = tail call <512 x i1> @llvm.hexagon.V6.pred.and(<512 x i1> %0, <512 x i1> %1)
197 store <512 x i1> %2, <512 x i1>* bitcast (<16 x i32>* @h to <512 x i1>*), align 64
201 ; CHECK-LABEL: test22:
202 ; CHECK: q{{[0-3]+}} = or(q{{[0-3]+}},q{{[0-3]+}})
203 define void @test22(<16 x i32> %a, <16 x i32> %b) #0 {
205 %0 = bitcast <16 x i32> %a to <512 x i1>
206 %1 = bitcast <16 x i32> %b to <512 x i1>
207 %2 = tail call <512 x i1> @llvm.hexagon.V6.pred.or(<512 x i1> %0, <512 x i1> %1)
208 store <512 x i1> %2, <512 x i1>* bitcast (<16 x i32>* @h to <512 x i1>*), align 64
212 ; CHECK-LABEL: test23:
213 ; CHECK: q{{[0-3]+}} = not(q{{[0-3]+}})
214 define void @test23(<16 x i32> %a) #0 {
216 %0 = bitcast <16 x i32> %a to <512 x i1>
217 %1 = tail call <512 x i1> @llvm.hexagon.V6.pred.not(<512 x i1> %0)
218 store <512 x i1> %1, <512 x i1>* bitcast (<16 x i32>* @h to <512 x i1>*), align 64
222 ; CHECK-LABEL: test24:
223 ; CHECK: q{{[0-3]+}} = xor(q{{[0-3]+}},q{{[0-3]+}})
224 define void @test24(<16 x i32> %a, <16 x i32> %b) #0 {
226 %0 = bitcast <16 x i32> %a to <512 x i1>
227 %1 = bitcast <16 x i32> %b to <512 x i1>
228 %2 = tail call <512 x i1> @llvm.hexagon.V6.pred.xor(<512 x i1> %0, <512 x i1> %1)
229 store <512 x i1> %2, <512 x i1>* bitcast (<16 x i32>* @h to <512 x i1>*), align 64
233 ; CHECK-LABEL: test25:
234 ; CHECK: q{{[0-3]+}} = or(q{{[0-3]+}},!q{{[0-3]+}})
235 define void @test25(<16 x i32> %a, <16 x i32> %b) #0 {
237 %0 = bitcast <16 x i32> %a to <512 x i1>
238 %1 = bitcast <16 x i32> %b to <512 x i1>
239 %2 = tail call <512 x i1> @llvm.hexagon.V6.pred.or.n(<512 x i1> %0, <512 x i1> %1)
240 store <512 x i1> %2, <512 x i1>* bitcast (<16 x i32>* @h to <512 x i1>*), align 64
244 ; CHECK-LABEL: test26:
245 ; CHECK: q{{[0-3]+}} = and(q{{[0-3]+}},!q{{[0-3]+}})
246 define void @test26(<16 x i32> %a, <16 x i32> %b) #0 {
248 %0 = bitcast <16 x i32> %a to <512 x i1>
249 %1 = bitcast <16 x i32> %b to <512 x i1>
250 %2 = tail call <512 x i1> @llvm.hexagon.V6.pred.and.n(<512 x i1> %0, <512 x i1> %1)
251 store <512 x i1> %2, <512 x i1>* bitcast (<16 x i32>* @h to <512 x i1>*), align 64
255 ; CHECK-LABEL: test27:
256 ; CHECK: q{{[0-3]+}} = vcmp.gt(v{{[0-9]+}}.ub,v{{[0-9]+}}.ub)
257 define void @test27(<16 x i32> %a, <16 x i32> %b) #0 {
259 %0 = tail call <512 x i1> @llvm.hexagon.V6.vgtub(<16 x i32> %a, <16 x i32> %b)
260 store <512 x i1> %0, <512 x i1>* bitcast (<16 x i32>* @k to <512 x i1>*), align 64
264 ; CHECK-LABEL: test28:
265 ; CHECK: q{{[0-3]+}} = vcmp.gt(v{{[0-9]+}}.h,v{{[0-9]+}}.h)
266 define void @test28(<16 x i32> %a, <16 x i32> %b) #0 {
268 %0 = tail call <512 x i1> @llvm.hexagon.V6.vgth(<16 x i32> %a, <16 x i32> %b)
269 store <512 x i1> %0, <512 x i1>* bitcast (<16 x i32>* @k to <512 x i1>*), align 64
273 ; CHECK-LABEL: test29:
274 ; CHECK: q{{[0-3]+}} = vcmp.eq(v{{[0-9]+}}.h,v{{[0-9]+}}.h)
275 define void @test29(<16 x i32> %a, <16 x i32> %b) #0 {
277 %0 = tail call <512 x i1> @llvm.hexagon.V6.veqh(<16 x i32> %a, <16 x i32> %b)
278 store <512 x i1> %0, <512 x i1>* bitcast (<16 x i32>* @k to <512 x i1>*), align 64
282 ; CHECK-LABEL: test30:
283 ; CHECK: q{{[0-3]+}} = vcmp.gt(v{{[0-9]+}}.w,v{{[0-9]+}}.w)
284 define void @test30(<16 x i32> %a, <16 x i32> %b) #0 {
286 %0 = tail call <512 x i1> @llvm.hexagon.V6.vgtw(<16 x i32> %a, <16 x i32> %b)
287 store <512 x i1> %0, <512 x i1>* bitcast (<16 x i32>* @k to <512 x i1>*), align 64
291 ; CHECK-LABEL: test31:
292 ; CHECK: q{{[0-3]+}} = vcmp.eq(v{{[0-9]+}}.w,v{{[0-9]+}}.w)
293 define void @test31(<16 x i32> %a, <16 x i32> %b) #0 {
295 %0 = tail call <512 x i1> @llvm.hexagon.V6.veqw(<16 x i32> %a, <16 x i32> %b)
296 store <512 x i1> %0, <512 x i1>* bitcast (<16 x i32>* @k to <512 x i1>*), align 64
300 ; CHECK-LABEL: test32:
301 ; CHECK: q{{[0-3]+}} = vcmp.gt(v{{[0-9]+}}.uh,v{{[0-9]+}}.uh)
302 define void @test32(<16 x i32> %a, <16 x i32> %b) #0 {
304 %0 = tail call <512 x i1> @llvm.hexagon.V6.vgtuh(<16 x i32> %a, <16 x i32> %b)
305 store <512 x i1> %0, <512 x i1>* bitcast (<16 x i32>* @k to <512 x i1>*), align 64
309 ; CHECK-LABEL: test33:
310 ; CHECK: v{{[0-9]+}} |= vand(q{{[0-3]+}},r{{[0-9]+}})
311 define void @test33(<16 x i32> %a, <16 x i32> %b, i32 %c) #0 {
313 %0 = bitcast <16 x i32> %b to <512 x i1>
314 %1 = tail call <16 x i32> @llvm.hexagon.V6.vandqrt.acc(<16 x i32> %a, <512 x i1> %0, i32 %c)
315 store <16 x i32> %1, <16 x i32>* @h, align 64
319 ; CHECK-LABEL: test34:
320 ; CHECK: q{{[0-3]+}} |= vand(v{{[0-9]+}},r{{[0-9]+}})
321 define void @test34(<16 x i32> %a, <16 x i32> %b, i32 %c) #0 {
323 %0 = bitcast <16 x i32> %a to <512 x i1>
324 %1 = tail call <512 x i1> @llvm.hexagon.V6.vandvrt.acc(<512 x i1> %0, <16 x i32> %b, i32 %c)
325 store <512 x i1> %1, <512 x i1>* bitcast (<16 x i32>* @k to <512 x i1>*), align 64
329 ; CHECK-LABEL: test35:
330 ; CHECK: v{{[0-9]+}} = vand(q{{[0-3]+}},r{{[0-9]+}})
331 define void @test35(<16 x i32> %a, i32 %b) #0 {
333 %0 = bitcast <16 x i32> %a to <512 x i1>
334 %1 = tail call <16 x i32> @llvm.hexagon.V6.vandqrt(<512 x i1> %0, i32 %b)
335 store <16 x i32> %1, <16 x i32>* @h, align 64
339 ; CHECK-LABEL: test36:
340 ; CHECK: q{{[0-3]+}} = vand(v{{[0-9]+}},r{{[0-9]+}})
341 define void @test36(<16 x i32> %a, i32 %b) #0 {
343 %0 = tail call <512 x i1> @llvm.hexagon.V6.vandvrt(<16 x i32> %a, i32 %b)
344 store <512 x i1> %0, <512 x i1>* bitcast (<16 x i32>* @k to <512 x i1>*), align 64
348 ; CHECK-LABEL: test37:
349 ; CHECK: r{{[0-9]+}}:{{[0-9]+}} = rol(r{{[0-9]+}}:{{[0-9]+}},#38)
350 define void @test37(i64 %a) #0 {
352 %0 = tail call i64 @llvm.hexagon.S6.rol.i.p(i64 %a, i32 38)
353 store i64 %0, i64* @n, align 8
357 ; CHECK-LABEL: test38:
358 ; CHECK: r{{[0-9]+}}:{{[0-9]+}} += rol(r{{[0-9]+}}:{{[0-9]+}},#36)
359 define void @test38(i64 %a, i64 %b) #0 {
361 %0 = tail call i64 @llvm.hexagon.S6.rol.i.p.acc(i64 %a, i64 %b, i32 36)
362 store i64 %0, i64* @n, align 8
366 ; CHECK-LABEL: test39:
367 ; CHECK: r{{[0-9]+}}:{{[0-9]+}} &= rol(r{{[0-9]+}}:{{[0-9]+}},#25)
368 define void @test39(i64 %a, i64 %b) #0 {
370 %0 = tail call i64 @llvm.hexagon.S6.rol.i.p.and(i64 %a, i64 %b, i32 25)
371 store i64 %0, i64* @n, align 8
375 ; CHECK-LABEL: test40:
376 ; CHECK: r{{[0-9]+}}:{{[0-9]+}} -= rol(r{{[0-9]+}}:{{[0-9]+}},#20)
377 define void @test40(i64 %a, i64 %b) #0 {
379 %0 = tail call i64 @llvm.hexagon.S6.rol.i.p.nac(i64 %a, i64 %b, i32 20)
380 store i64 %0, i64* @n, align 8
384 ; CHECK-LABEL: test41:
385 ; CHECK: r{{[0-9]+}}:{{[0-9]+}} |= rol(r{{[0-9]+}}:{{[0-9]+}},#22)
386 define void @test41(i64 %a, i64 %b) #0 {
388 %0 = tail call i64 @llvm.hexagon.S6.rol.i.p.or(i64 %a, i64 %b, i32 22)
389 store i64 %0, i64* @n, align 8
393 ; CHECK-LABEL: test42:
394 ; CHECK: r{{[0-9]+}}:{{[0-9]+}} ^= rol(r{{[0-9]+}}:{{[0-9]+}},#25)
395 define void @test42(i64 %a, i64 %b) #0 {
397 %0 = tail call i64 @llvm.hexagon.S6.rol.i.p.xacc(i64 %a, i64 %b, i32 25)
398 store i64 %0, i64* @n, align 8
402 ; CHECK-LABEL: test43:
403 ; CHECK: r{{[0-9]+}} = rol(r{{[0-9]+}},#14)
404 define void @test43(i32 %a) #0 {
406 %0 = tail call i32 @llvm.hexagon.S6.rol.i.r(i32 %a, i32 14)
407 %conv = sext i32 %0 to i64
408 store i64 %conv, i64* @n, align 8
412 ; CHECK-LABEL: test44:
413 ; CHECK: r{{[0-9]+}} += rol(r{{[0-9]+}},#12)
414 define void @test44(i32 %a, i32 %b) #0 {
416 %0 = tail call i32 @llvm.hexagon.S6.rol.i.r.acc(i32 %a, i32 %b, i32 12)
417 store i32 %0, i32* @m, align 4
421 ; CHECK-LABEL: test45:
422 ; CHECK: r{{[0-9]+}} &= rol(r{{[0-9]+}},#18)
423 define void @test45(i32 %a, i32 %b) #0 {
425 %0 = tail call i32 @llvm.hexagon.S6.rol.i.r.and(i32 %a, i32 %b, i32 18)
426 store i32 %0, i32* @m, align 4
430 ; CHECK-LABEL: test46:
431 ; CHECK: r{{[0-9]+}} -= rol(r{{[0-9]+}},#31)
432 define void @test46(i32 %a, i32 %b) #0 {
434 %0 = tail call i32 @llvm.hexagon.S6.rol.i.r.nac(i32 %a, i32 %b, i32 31)
435 store i32 %0, i32* @m, align 4
439 ; CHECK-LABEL: test47:
440 ; CHECK: r{{[0-9]+}} |= rol(r{{[0-9]+}},#30)
441 define void @test47(i32 %a, i32 %b) #0 {
443 %0 = tail call i32 @llvm.hexagon.S6.rol.i.r.or(i32 %a, i32 %b, i32 30)
444 store i32 %0, i32* @m, align 4
448 ; CHECK-LABEL: test48:
449 ; CHECK: r{{[0-9]+}} ^= rol(r{{[0-9]+}},#31)
450 define void @test48(i32 %a, i32 %b) #0 {
452 %0 = tail call i32 @llvm.hexagon.S6.rol.i.r.xacc(i32 %a, i32 %b, i32 31)
453 store i32 %0, i32* @m, align 4
457 ; CHECK-LABEL: test49:
458 ; CHECK: r{{[0-9]+}} = vextract(v{{[0-9]+}},r{{[0-9]+}})
459 define void @test49(<16 x i32> %a, i32 %b) #0 {
461 %0 = tail call i32 @llvm.hexagon.V6.extractw(<16 x i32> %a, i32 %b)
462 store i32 %0, i32* @m, align 4
466 ; CHECK-LABEL: test50:
467 ; CHECK: v{{[0-9]+}} = vsplat(r{{[0-9]+}})
468 define void @test50(i32 %a) #0 {
470 %0 = tail call <16 x i32> @llvm.hexagon.V6.lvsplatw(i32 %a)
471 store <16 x i32> %0, <16 x i32>* @k, align 64
475 ; CHECK-LABEL: test51:
476 ; CHECK: q{{[0-3]}} = vsetq(r{{[0-9]+}})
477 define void @test51(i32 %a) #0 {
479 %0 = tail call <512 x i1> @llvm.hexagon.V6.pred.scalar2(i32 %a)
480 store <512 x i1> %0, <512 x i1>* bitcast (<16 x i32>* @k to <512 x i1>*), align 64
484 ; CHECK-LABEL: test52:
485 ; CHECK: v{{[0-9]+}}.b = vlut32(v{{[0-9]+}}.b,v{{[0-9]+}}.b,r{{[0-9]+}})
486 define void @test52(<16 x i32> %a, <16 x i32> %b, i32 %c) #0 {
488 %0 = tail call <16 x i32> @llvm.hexagon.V6.vlutvvb(<16 x i32> %a, <16 x i32> %b, i32 %c)
489 store <16 x i32> %0, <16 x i32>* @k, align 64
493 ; CHECK-LABEL: test53:
494 ; CHECK: v{{[0-9]+}}.b |= vlut32(v{{[0-9]+}}.b,v{{[0-9]+}}.b,r{{[0-9]+}})
495 define void @test53(<16 x i32> %a, <16 x i32> %b, <16 x i32> %c, i32 %d) #0 {
497 %0 = tail call <16 x i32> @llvm.hexagon.V6.vlutvvb.oracc(<16 x i32> %a, <16 x i32> %b, <16 x i32> %c, i32 %d)
498 store <16 x i32> %0, <16 x i32>* @k, align 64
502 ; CHECK-LABEL: test54:
503 ; CHECK: v{{[0-9]+}}:{{[0-9]+}}.h |= vlut16(v{{[0-9]+}}.b,v{{[0-9]+}}.h,r{{[0-9]+}})
504 define void @test54(<32 x i32> %a, <16 x i32> %b, <16 x i32> %c, i32 %d) #0 {
506 %0 = tail call <32 x i32> @llvm.hexagon.V6.vlutvwh.oracc(<32 x i32> %a, <16 x i32> %b, <16 x i32> %c, i32 %d)
507 store <32 x i32> %0, <32 x i32>* @l, align 128
511 ; CHECK-LABEL: test55:
512 ; CHECK: v{{[0-9]+}}:{{[0-9]+}}.h = vlut16(v{{[0-9]+}}.b,v{{[0-9]+}}.h,r{{[0-9]+}})
513 define void @test55(<16 x i32> %a, <16 x i32> %b, i32 %l) #0 {
515 %0 = tail call <32 x i32> @llvm.hexagon.V6.vlutvwh(<16 x i32> %a, <16 x i32> %b, i32 %l)
516 store <32 x i32> %0, <32 x i32>* @l, align 128
520 ; CHECK-LABEL: test56:
521 ; CHECK: v{{[0-9]+}}.w = vinsert(r{{[0-9]+}})
522 define void @test56(i32 %b) #0 {
524 %0 = load <16 x i32>, <16 x i32>* @k, align 64
525 %1 = tail call <16 x i32> @llvm.hexagon.V6.vinsertwr(<16 x i32> %0, i32 %b)
526 store <16 x i32> %1, <16 x i32>* @k, align 64
530 declare <32 x i32> @llvm.hexagon.V6.vrmpybusi(<32 x i32>, i32, i32) #0
531 declare <32 x i32> @llvm.hexagon.V6.vrsadubi(<32 x i32>, i32, i32) #0
532 declare <32 x i32> @llvm.hexagon.V6.vrmpyubi(<32 x i32>, i32, i32) #0
533 declare <32 x i32> @llvm.hexagon.V6.vrmpybusi.acc(<32 x i32>, <32 x i32>, i32, i32) #0
534 declare <32 x i32> @llvm.hexagon.V6.vrsadubi.acc(<32 x i32>, <32 x i32>, i32, i32) #0
535 declare <32 x i32> @llvm.hexagon.V6.vrmpyubi.acc(<32 x i32>, <32 x i32>, i32, i32) #0
536 declare <16 x i32> @llvm.hexagon.V6.valignb(<16 x i32>, <16 x i32>, i32) #0
537 declare <16 x i32> @llvm.hexagon.V6.vlalignb(<16 x i32>, <16 x i32>, i32) #0
538 declare <16 x i32> @llvm.hexagon.V6.vasrwh(<16 x i32>, <16 x i32>, i32) #0
539 declare <16 x i32> @llvm.hexagon.V6.vasrwhsat(<16 x i32>, <16 x i32>, i32) #0
540 declare <16 x i32> @llvm.hexagon.V6.vasrwhrndsat(<16 x i32>, <16 x i32>, i32) #0
541 declare <16 x i32> @llvm.hexagon.V6.vasrwuhsat(<16 x i32>, <16 x i32>, i32) #0
542 declare <16 x i32> @llvm.hexagon.V6.vasrhubsat(<16 x i32>, <16 x i32>, i32) #0
543 declare <16 x i32> @llvm.hexagon.V6.vasrhubrndsat(<16 x i32>, <16 x i32>, i32) #0
544 declare <16 x i32> @llvm.hexagon.V6.vasrhbrndsat(<16 x i32>, <16 x i32>, i32) #0
545 declare <32 x i32> @llvm.hexagon.V6.vunpackob(<32 x i32>, <16 x i32>) #0
546 declare <32 x i32> @llvm.hexagon.V6.vunpackoh(<32 x i32>, <16 x i32>) #0
547 declare <16 x i32> @llvm.hexagon.V6.valignbi(<16 x i32>, <16 x i32>, i32) #0
548 declare <16 x i32> @llvm.hexagon.V6.vlalignbi(<16 x i32>, <16 x i32>, i32) #0
549 declare <16 x i32> @llvm.hexagon.V6.vmux(<512 x i1>, <16 x i32>, <16 x i32>) #0
550 declare <512 x i1> @llvm.hexagon.V6.pred.and(<512 x i1>, <512 x i1>) #0
551 declare <512 x i1> @llvm.hexagon.V6.pred.or(<512 x i1>, <512 x i1>) #0
552 declare <512 x i1> @llvm.hexagon.V6.pred.not(<512 x i1>) #0
553 declare <512 x i1> @llvm.hexagon.V6.pred.xor(<512 x i1>, <512 x i1>) #0
554 declare <512 x i1> @llvm.hexagon.V6.pred.or.n(<512 x i1>, <512 x i1>) #0
555 declare <512 x i1> @llvm.hexagon.V6.pred.and.n(<512 x i1>, <512 x i1>) #0
556 declare <512 x i1> @llvm.hexagon.V6.vgtub(<16 x i32>, <16 x i32>) #0
557 declare <512 x i1> @llvm.hexagon.V6.vgth(<16 x i32>, <16 x i32>) #0
558 declare <512 x i1> @llvm.hexagon.V6.veqh(<16 x i32>, <16 x i32>) #0
559 declare <512 x i1> @llvm.hexagon.V6.vgtw(<16 x i32>, <16 x i32>) #0
560 declare <512 x i1> @llvm.hexagon.V6.veqw(<16 x i32>, <16 x i32>) #0
561 declare <512 x i1> @llvm.hexagon.V6.vgtuh(<16 x i32>, <16 x i32>) #0
562 declare <16 x i32> @llvm.hexagon.V6.vandqrt.acc(<16 x i32>, <512 x i1>, i32) #0
563 declare <512 x i1> @llvm.hexagon.V6.vandvrt.acc(<512 x i1>, <16 x i32>, i32) #0
564 declare <16 x i32> @llvm.hexagon.V6.vandqrt(<512 x i1>, i32) #0
565 declare <512 x i1> @llvm.hexagon.V6.vandvrt(<16 x i32>, i32) #0
566 declare i64 @llvm.hexagon.S6.rol.i.p(i64, i32) #0
567 declare i64 @llvm.hexagon.S6.rol.i.p.acc(i64, i64, i32) #0
568 declare i64 @llvm.hexagon.S6.rol.i.p.and(i64, i64, i32) #0
569 declare i64 @llvm.hexagon.S6.rol.i.p.nac(i64, i64, i32) #0
570 declare i64 @llvm.hexagon.S6.rol.i.p.or(i64, i64, i32) #0
571 declare i64 @llvm.hexagon.S6.rol.i.p.xacc(i64, i64, i32) #0
572 declare i32 @llvm.hexagon.S6.rol.i.r(i32, i32) #0
573 declare i32 @llvm.hexagon.S6.rol.i.r.acc(i32, i32, i32) #0
574 declare i32 @llvm.hexagon.S6.rol.i.r.and(i32, i32, i32) #0
575 declare i32 @llvm.hexagon.S6.rol.i.r.nac(i32, i32, i32) #0
576 declare i32 @llvm.hexagon.S6.rol.i.r.or(i32, i32, i32) #0
577 declare i32 @llvm.hexagon.S6.rol.i.r.xacc(i32, i32, i32) #0
578 declare i32 @llvm.hexagon.V6.extractw(<16 x i32>, i32) #0
579 declare <16 x i32> @llvm.hexagon.V6.lvsplatw(i32) #0
580 declare <512 x i1> @llvm.hexagon.V6.pred.scalar2(i32) #0
581 declare <16 x i32> @llvm.hexagon.V6.vlutvvb(<16 x i32>, <16 x i32>, i32) #0
582 declare <32 x i32> @llvm.hexagon.V6.vlutvwh(<16 x i32>, <16 x i32>, i32) #0
583 declare <16 x i32> @llvm.hexagon.V6.vlutvvb.oracc(<16 x i32>, <16 x i32>, <16 x i32>, i32) #0
584 declare <32 x i32> @llvm.hexagon.V6.vlutvwh.oracc(<32 x i32>, <16 x i32>, <16 x i32>, i32) #0
585 declare <16 x i32> @llvm.hexagon.V6.vinsertwr(<16 x i32>, i32) #0
587 attributes #0 = { nounwind readnone "target-cpu"="hexagonv60" "target-features"="+hvxv60,+hvx-length64b" }