1 ; RUN: llc -march=hexagon -enable-unsafe-fp-math -enable-pipeliner \
2 ; RUN: -pipeliner-prune-deps=false -stats -o /dev/null < %s
5 ; Test that checks we dont crash when SWP a loop with lots of Phis, and
6 ; the Phi operand refer to Phis from the same loop.
8 ; Function Attrs: nounwind
9 define void @f0(ptr nocapture %a0, ptr nocapture %a1) #0 {
11 %v0 = alloca [400 x float], align 4
12 %v1 = getelementptr inbounds float, ptr %a1, i32 1
13 %v2 = getelementptr inbounds float, ptr %a1, i32 2
14 %v3 = getelementptr inbounds float, ptr %a1, i32 3
15 %v4 = getelementptr inbounds float, ptr %a1, i32 4
16 %v5 = getelementptr inbounds float, ptr %a1, i32 5
17 %v6 = getelementptr inbounds float, ptr %a1, i32 6
18 %v7 = getelementptr inbounds float, ptr %a1, i32 7
19 %v8 = getelementptr inbounds float, ptr %a1, i32 8
20 %v9 = getelementptr inbounds float, ptr %a1, i32 9
21 %v10 = getelementptr inbounds float, ptr %a1, i32 10
22 %v11 = getelementptr inbounds float, ptr %a1, i32 11
23 %v12 = getelementptr inbounds float, ptr %a1, i32 12
24 %v13 = getelementptr inbounds float, ptr %a1, i32 13
25 %v14 = getelementptr inbounds float, ptr %a1, i32 14
26 %v15 = getelementptr inbounds float, ptr %a1, i32 15
27 %v16 = getelementptr inbounds float, ptr %a1, i32 16
28 %v17 = load float, ptr %a1, align 4
29 %v18 = load float, ptr %v1, align 4
30 %v19 = load float, ptr %v2, align 4
31 %v20 = load float, ptr %v3, align 4
32 %v21 = load float, ptr %v4, align 4
33 %v22 = load float, ptr %v5, align 4
34 %v23 = load float, ptr %v6, align 4
35 %v24 = load float, ptr %v7, align 4
36 %v25 = load float, ptr %v8, align 4
37 %v26 = load float, ptr %v9, align 4
38 %v27 = load float, ptr %v10, align 4
39 %v28 = load float, ptr %v11, align 4
40 %v29 = load float, ptr %v12, align 4
41 %v30 = load float, ptr %v13, align 4
42 %v31 = load float, ptr %v14, align 4
43 %v32 = load float, ptr %v15, align 4
44 %v33 = load float, ptr %v16, align 4
47 b1: ; preds = %b1, %b0
48 %v34 = phi float [ undef, %b0 ], [ %v103, %b1 ]
49 %v35 = phi float [ undef, %b0 ], [ %v34, %b1 ]
50 %v36 = phi float [ undef, %b0 ], [ %v35, %b1 ]
51 %v37 = phi float [ undef, %b0 ], [ %v36, %b1 ]
52 %v38 = phi float [ undef, %b0 ], [ %v37, %b1 ]
53 %v39 = phi float [ undef, %b0 ], [ %v38, %b1 ]
54 %v40 = phi float [ undef, %b0 ], [ %v39, %b1 ]
55 %v41 = phi float [ undef, %b0 ], [ %v40, %b1 ]
56 %v42 = phi float [ undef, %b0 ], [ %v41, %b1 ]
57 %v43 = phi float [ undef, %b0 ], [ %v42, %b1 ]
58 %v44 = phi float [ undef, %b0 ], [ %v43, %b1 ]
59 %v45 = phi float [ undef, %b0 ], [ %v44, %b1 ]
60 %v46 = phi float [ undef, %b0 ], [ %v45, %b1 ]
61 %v47 = phi float [ undef, %b0 ], [ %v46, %b1 ]
62 %v48 = phi float [ undef, %b0 ], [ %v47, %b1 ]
63 %v49 = phi float [ undef, %b0 ], [ %v48, %b1 ]
64 %v50 = phi float [ %v33, %b0 ], [ %v105, %b1 ]
65 %v51 = phi float [ %v32, %b0 ], [ %v100, %b1 ]
66 %v52 = phi float [ %v31, %b0 ], [ %v98, %b1 ]
67 %v53 = phi float [ %v30, %b0 ], [ %v96, %b1 ]
68 %v54 = phi float [ %v29, %b0 ], [ %v94, %b1 ]
69 %v55 = phi float [ %v28, %b0 ], [ %v92, %b1 ]
70 %v56 = phi float [ %v27, %b0 ], [ %v90, %b1 ]
71 %v57 = phi float [ %v26, %b0 ], [ %v88, %b1 ]
72 %v58 = phi float [ %v25, %b0 ], [ %v86, %b1 ]
73 %v59 = phi float [ %v24, %b0 ], [ %v84, %b1 ]
74 %v60 = phi float [ %v23, %b0 ], [ %v82, %b1 ]
75 %v61 = phi float [ %v22, %b0 ], [ %v80, %b1 ]
76 %v62 = phi float [ %v21, %b0 ], [ %v78, %b1 ]
77 %v63 = phi float [ %v20, %b0 ], [ %v76, %b1 ]
78 %v64 = phi float [ %v19, %b0 ], [ %v74, %b1 ]
79 %v65 = phi float [ %v18, %b0 ], [ %v72, %b1 ]
80 %v66 = phi float [ %v17, %b0 ], [ %v69, %b1 ]
81 %v67 = phi i32 [ 0, %b0 ], [ %v70, %b1 ]
82 %v68 = fmul float %v49, %v49
83 %v69 = fadd float %v66, %v68
84 %v70 = add nsw i32 %v67, 1
85 %v71 = fmul float %v49, %v48
86 %v72 = fadd float %v65, %v71
87 %v73 = fmul float %v49, %v47
88 %v74 = fadd float %v64, %v73
89 %v75 = fmul float %v49, %v46
90 %v76 = fadd float %v63, %v75
91 %v77 = fmul float %v49, %v45
92 %v78 = fadd float %v62, %v77
93 %v79 = fmul float %v49, %v44
94 %v80 = fadd float %v61, %v79
95 %v81 = fmul float %v49, %v43
96 %v82 = fadd float %v60, %v81
97 %v83 = fmul float %v49, %v42
98 %v84 = fadd float %v59, %v83
99 %v85 = fmul float %v49, %v41
100 %v86 = fadd float %v58, %v85
101 %v87 = fmul float %v49, %v40
102 %v88 = fadd float %v57, %v87
103 %v89 = fmul float %v49, %v39
104 %v90 = fadd float %v56, %v89
105 %v91 = fmul float %v49, %v38
106 %v92 = fadd float %v55, %v91
107 %v93 = fmul float %v49, %v37
108 %v94 = fadd float %v54, %v93
109 %v95 = fmul float %v49, %v36
110 %v96 = fadd float %v53, %v95
111 %v97 = fmul float %v49, %v35
112 %v98 = fadd float %v52, %v97
113 %v99 = fmul float %v49, %v34
114 %v100 = fadd float %v51, %v99
115 %v101 = add nsw i32 %v67, 16
116 %v102 = getelementptr inbounds [400 x float], ptr %v0, i32 0, i32 %v101
117 %v103 = load float, ptr %v102, align 4, !tbaa !0
118 %v104 = fmul float %v49, %v103
119 %v105 = fadd float %v50, %v104
120 %v106 = icmp eq i32 %v70, 384
121 br i1 %v106, label %b2, label %b1
124 store float %v69, ptr %a1, align 4
125 store float %v72, ptr %v1, align 4
126 store float %v74, ptr %v2, align 4
127 store float %v76, ptr %v3, align 4
128 store float %v78, ptr %v4, align 4
129 store float %v80, ptr %v5, align 4
130 store float %v82, ptr %v6, align 4
131 store float %v84, ptr %v7, align 4
132 store float %v86, ptr %v8, align 4
133 store float %v88, ptr %v9, align 4
134 store float %v90, ptr %v10, align 4
135 store float %v92, ptr %v11, align 4
136 store float %v94, ptr %v12, align 4
137 store float %v96, ptr %v13, align 4
138 store float %v98, ptr %v14, align 4
139 store float %v100, ptr %v15, align 4
140 store float %v105, ptr %v16, align 4
141 %v107 = fcmp olt float %v69, 1.000000e+00
142 br i1 %v107, label %b3, label %b4
145 store float 1.000000e+00, ptr %a1, align 4, !tbaa !0
148 b4: ; preds = %b3, %b2
152 attributes #0 = { nounwind "target-cpu"="hexagonv55" }
154 !0 = !{!1, !1, i64 0}
156 !2 = !{!"omnipotent char", !3}
157 !3 = !{!"Simple C/C++ TBAA"}