1 ; RUN: llc -march=hexagon -mattr=+hvxv60,+hvx-length64b < %s | FileCheck %s
3 ; Test that we generate code for the vector byte enabled store intrinsics.
6 ; CHECK: if (q{{[0-3]}}) vmem(r{{[0-9]+}}+#0) = v{{[0-9]+}}
8 define void @f0(<16 x i32> %a0, ptr %a1, <16 x i32> %a2) local_unnamed_addr {
10 %v0 = tail call <64 x i1> @llvm.hexagon.V6.vandvrt(<16 x i32> %a0, i32 -1)
11 tail call void @llvm.hexagon.V6.vS32b.qpred.ai(<64 x i1> %v0, ptr %a1, <16 x i32> %a2)
15 ; Function Attrs: argmemonly nounwind
16 declare void @llvm.hexagon.V6.vS32b.qpred.ai(<64 x i1>, ptr, <16 x i32>) #0
19 ; CHECK: if (!q{{[0-3]}}) vmem(r{{[0-9]+}}+#0) = v{{[0-9]+}}
21 define void @f1(<16 x i32> %a0, ptr %a1, <16 x i32> %a2) local_unnamed_addr {
23 %v0 = tail call <64 x i1> @llvm.hexagon.V6.vandvrt(<16 x i32> %a0, i32 -1)
24 tail call void @llvm.hexagon.V6.vS32b.nqpred.ai(<64 x i1> %v0, ptr %a1, <16 x i32> %a2)
28 ; Function Attrs: argmemonly nounwind
29 declare void @llvm.hexagon.V6.vS32b.nqpred.ai(<64 x i1>, ptr, <16 x i32>) #0
32 ; CHECK: if (q{{[0-3]}}) vmem(r{{[0-9]+}}+#0):nt = v{{[0-9]+}}
34 define void @f2(<16 x i32> %a0, ptr %a1, <16 x i32> %a2) local_unnamed_addr {
36 %v0 = tail call <64 x i1> @llvm.hexagon.V6.vandvrt(<16 x i32> %a0, i32 -1)
37 tail call void @llvm.hexagon.V6.vS32b.nt.qpred.ai(<64 x i1> %v0, ptr %a1, <16 x i32> %a2)
41 ; Function Attrs: argmemonly nounwind
42 declare void @llvm.hexagon.V6.vS32b.nt.qpred.ai(<64 x i1>, ptr, <16 x i32>) #0
45 ; CHECK: if (!q{{[0-3]}}) vmem(r{{[0-9]+}}+#0):nt = v{{[0-9]+}}
47 define void @f3(<16 x i32> %a0, ptr %a1, <16 x i32> %a2) local_unnamed_addr {
49 %v0 = tail call <64 x i1> @llvm.hexagon.V6.vandvrt(<16 x i32> %a0, i32 -1)
50 tail call void @llvm.hexagon.V6.vS32b.nt.nqpred.ai(<64 x i1> %v0, ptr %a1, <16 x i32> %a2)
54 declare void @llvm.hexagon.V6.vS32b.nt.nqpred.ai(<64 x i1>, ptr, <16 x i32>) #0
55 declare <64 x i1> @llvm.hexagon.V6.vandvrt(<16 x i32>, i32) #1
57 attributes #0 = { argmemonly nounwind }
58 attributes #1 = { nounwind readnone }