1 ; Test 64-bit additions of constants to memory.
3 ; RUN: llc < %s -mtriple=s390x-linux-gnu | FileCheck %s
8 define zeroext i1 @f1(i64 *%ptr) {
10 ; CHECK: agsi 0(%r2), 1
11 ; CHECK: ipm [[REG:%r[0-5]]]
12 ; CHECK: afi [[REG]], 1342177280
13 ; CHECK: risbg %r2, [[REG]], 63, 191, 33
15 %a = load i64, i64 *%ptr
16 %t = call {i64, i1} @llvm.sadd.with.overflow.i64(i64 %a, i64 1)
17 %val = extractvalue {i64, i1} %t, 0
18 %obit = extractvalue {i64, i1} %t, 1
19 store i64 %val, i64 *%ptr
23 ; Check the high end of the constant range.
24 define zeroext i1 @f2(i64 *%ptr) {
26 ; CHECK: agsi 0(%r2), 127
27 ; CHECK: ipm [[REG:%r[0-5]]]
28 ; CHECK: afi [[REG]], 1342177280
29 ; CHECK: risbg %r2, [[REG]], 63, 191, 33
31 %a = load i64, i64 *%ptr
32 %t = call {i64, i1} @llvm.sadd.with.overflow.i64(i64 %a, i64 127)
33 %val = extractvalue {i64, i1} %t, 0
34 %obit = extractvalue {i64, i1} %t, 1
35 store i64 %val, i64 *%ptr
39 ; Check the next constant up, which must use an addition and a store.
40 define zeroext i1 @f3(i64 %dummy, i64 *%ptr) {
42 ; CHECK: lg [[VAL:%r[0-5]]], 0(%r3)
43 ; CHECK: aghi [[VAL]], 128
44 ; CHECK-DAG: stg [[VAL]], 0(%r3)
45 ; CHECK-DAG: ipm [[REG:%r[0-5]]]
46 ; CHECK-DAG: afi [[REG]], 1342177280
47 ; CHECK-DAG: risbg %r2, [[REG]], 63, 191, 33
49 %a = load i64, i64 *%ptr
50 %t = call {i64, i1} @llvm.sadd.with.overflow.i64(i64 %a, i64 128)
51 %val = extractvalue {i64, i1} %t, 0
52 %obit = extractvalue {i64, i1} %t, 1
53 store i64 %val, i64 *%ptr
57 ; Check the low end of the constant range.
58 define zeroext i1 @f4(i64 *%ptr) {
60 ; CHECK: agsi 0(%r2), -128
61 ; CHECK: ipm [[REG:%r[0-5]]]
62 ; CHECK: afi [[REG]], 1342177280
63 ; CHECK: risbg %r2, [[REG]], 63, 191, 33
65 %a = load i64, i64 *%ptr
66 %t = call {i64, i1} @llvm.sadd.with.overflow.i64(i64 %a, i64 -128)
67 %val = extractvalue {i64, i1} %t, 0
68 %obit = extractvalue {i64, i1} %t, 1
69 store i64 %val, i64 *%ptr
73 ; Check the next value down, with the same comment as f3.
74 define zeroext i1 @f5(i64 %dummy, i64 *%ptr) {
76 ; CHECK: lg [[VAL:%r[0-5]]], 0(%r3)
77 ; CHECK: aghi [[VAL]], -129
78 ; CHECK-DAG: stg [[VAL]], 0(%r3)
79 ; CHECK-DAG: ipm [[REG:%r[0-5]]]
80 ; CHECK-DAG: afi [[REG]], 1342177280
81 ; CHECK-DAG: risbg %r2, [[REG]], 63, 191, 33
83 %a = load i64, i64 *%ptr
84 %t = call {i64, i1} @llvm.sadd.with.overflow.i64(i64 %a, i64 -129)
85 %val = extractvalue {i64, i1} %t, 0
86 %obit = extractvalue {i64, i1} %t, 1
87 store i64 %val, i64 *%ptr
91 ; Check the high end of the aligned AGSI range.
92 define zeroext i1 @f6(i64 *%base) {
94 ; CHECK: agsi 524280(%r2), 1
95 ; CHECK: ipm [[REG:%r[0-5]]]
96 ; CHECK: afi [[REG]], 1342177280
97 ; CHECK: risbg %r2, [[REG]], 63, 191, 33
99 %ptr = getelementptr i64, i64 *%base, i64 65535
100 %a = load i64, i64 *%ptr
101 %t = call {i64, i1} @llvm.sadd.with.overflow.i64(i64 %a, i64 1)
102 %val = extractvalue {i64, i1} %t, 0
103 %obit = extractvalue {i64, i1} %t, 1
104 store i64 %val, i64 *%ptr
108 ; Check the next word up, which must use separate address logic.
109 ; Other sequences besides this one would be OK.
110 define zeroext i1 @f7(i64 *%base) {
112 ; CHECK: agfi %r2, 524288
113 ; CHECK: agsi 0(%r2), 1
114 ; CHECK: ipm [[REG:%r[0-5]]]
115 ; CHECK: afi [[REG]], 1342177280
116 ; CHECK: risbg %r2, [[REG]], 63, 191, 33
118 %ptr = getelementptr i64, i64 *%base, i64 65536
119 %a = load i64, i64 *%ptr
120 %t = call {i64, i1} @llvm.sadd.with.overflow.i64(i64 %a, i64 1)
121 %val = extractvalue {i64, i1} %t, 0
122 %obit = extractvalue {i64, i1} %t, 1
123 store i64 %val, i64 *%ptr
127 ; Check the low end of the AGSI range.
128 define zeroext i1 @f8(i64 *%base) {
130 ; CHECK: agsi -524288(%r2), 1
131 ; CHECK: ipm [[REG:%r[0-5]]]
132 ; CHECK: afi [[REG]], 1342177280
133 ; CHECK: risbg %r2, [[REG]], 63, 191, 33
135 %ptr = getelementptr i64, i64 *%base, i64 -65536
136 %a = load i64, i64 *%ptr
137 %t = call {i64, i1} @llvm.sadd.with.overflow.i64(i64 %a, i64 1)
138 %val = extractvalue {i64, i1} %t, 0
139 %obit = extractvalue {i64, i1} %t, 1
140 store i64 %val, i64 *%ptr
144 ; Check the next word down, which must use separate address logic.
145 ; Other sequences besides this one would be OK.
146 define zeroext i1 @f9(i64 *%base) {
148 ; CHECK: agfi %r2, -524296
149 ; CHECK: agsi 0(%r2), 1
150 ; CHECK: ipm [[REG:%r[0-5]]]
151 ; CHECK: afi [[REG]], 1342177280
152 ; CHECK: risbg %r2, [[REG]], 63, 191, 33
154 %ptr = getelementptr i64, i64 *%base, i64 -65537
155 %a = load i64, i64 *%ptr
156 %t = call {i64, i1} @llvm.sadd.with.overflow.i64(i64 %a, i64 1)
157 %val = extractvalue {i64, i1} %t, 0
158 %obit = extractvalue {i64, i1} %t, 1
159 store i64 %val, i64 *%ptr
163 ; Check that AGSI does not allow indices.
164 define zeroext i1 @f10(i64 %base, i64 %index) {
166 ; CHECK: agr %r2, %r3
167 ; CHECK: agsi 4(%r2), 1
168 ; CHECK: ipm [[REG:%r[0-5]]]
169 ; CHECK: afi [[REG]], 1342177280
170 ; CHECK: risbg %r2, [[REG]], 63, 191, 33
172 %add1 = add i64 %base, %index
173 %add2 = add i64 %add1, 4
174 %ptr = inttoptr i64 %add2 to i64 *
175 %a = load i64, i64 *%ptr
176 %t = call {i64, i1} @llvm.sadd.with.overflow.i64(i64 %a, i64 1)
177 %val = extractvalue {i64, i1} %t, 0
178 %obit = extractvalue {i64, i1} %t, 1
179 store i64 %val, i64 *%ptr
183 ; Check that adding 127 to a spilled value can use AGSI.
184 define zeroext i1 @f11(i64 *%ptr, i64 %sel) {
186 ; CHECK: agsi {{[0-9]+}}(%r15), 127
189 %val0 = load volatile i64, i64 *%ptr
190 %val1 = load volatile i64, i64 *%ptr
191 %val2 = load volatile i64, i64 *%ptr
192 %val3 = load volatile i64, i64 *%ptr
193 %val4 = load volatile i64, i64 *%ptr
194 %val5 = load volatile i64, i64 *%ptr
195 %val6 = load volatile i64, i64 *%ptr
196 %val7 = load volatile i64, i64 *%ptr
197 %val8 = load volatile i64, i64 *%ptr
198 %val9 = load volatile i64, i64 *%ptr
199 %val10 = load volatile i64, i64 *%ptr
200 %val11 = load volatile i64, i64 *%ptr
201 %val12 = load volatile i64, i64 *%ptr
202 %val13 = load volatile i64, i64 *%ptr
203 %val14 = load volatile i64, i64 *%ptr
204 %val15 = load volatile i64, i64 *%ptr
206 %test = icmp ne i64 %sel, 0
207 br i1 %test, label %add, label %store
210 %t0 = call {i64, i1} @llvm.sadd.with.overflow.i64(i64 %val0, i64 127)
211 %add0 = extractvalue {i64, i1} %t0, 0
212 %obit0 = extractvalue {i64, i1} %t0, 1
213 %t1 = call {i64, i1} @llvm.sadd.with.overflow.i64(i64 %val1, i64 127)
214 %add1 = extractvalue {i64, i1} %t1, 0
215 %obit1 = extractvalue {i64, i1} %t1, 1
216 %res1 = or i1 %obit0, %obit1
217 %t2 = call {i64, i1} @llvm.sadd.with.overflow.i64(i64 %val2, i64 127)
218 %add2 = extractvalue {i64, i1} %t2, 0
219 %obit2 = extractvalue {i64, i1} %t2, 1
220 %res2 = or i1 %res1, %obit2
221 %t3 = call {i64, i1} @llvm.sadd.with.overflow.i64(i64 %val3, i64 127)
222 %add3 = extractvalue {i64, i1} %t3, 0
223 %obit3 = extractvalue {i64, i1} %t3, 1
224 %res3 = or i1 %res2, %obit3
225 %t4 = call {i64, i1} @llvm.sadd.with.overflow.i64(i64 %val4, i64 127)
226 %add4 = extractvalue {i64, i1} %t4, 0
227 %obit4 = extractvalue {i64, i1} %t4, 1
228 %res4 = or i1 %res3, %obit4
229 %t5 = call {i64, i1} @llvm.sadd.with.overflow.i64(i64 %val5, i64 127)
230 %add5 = extractvalue {i64, i1} %t5, 0
231 %obit5 = extractvalue {i64, i1} %t5, 1
232 %res5 = or i1 %res4, %obit5
233 %t6 = call {i64, i1} @llvm.sadd.with.overflow.i64(i64 %val6, i64 127)
234 %add6 = extractvalue {i64, i1} %t6, 0
235 %obit6 = extractvalue {i64, i1} %t6, 1
236 %res6 = or i1 %res5, %obit6
237 %t7 = call {i64, i1} @llvm.sadd.with.overflow.i64(i64 %val7, i64 127)
238 %add7 = extractvalue {i64, i1} %t7, 0
239 %obit7 = extractvalue {i64, i1} %t7, 1
240 %res7 = or i1 %res6, %obit7
241 %t8 = call {i64, i1} @llvm.sadd.with.overflow.i64(i64 %val8, i64 127)
242 %add8 = extractvalue {i64, i1} %t8, 0
243 %obit8 = extractvalue {i64, i1} %t8, 1
244 %res8 = or i1 %res7, %obit8
245 %t9 = call {i64, i1} @llvm.sadd.with.overflow.i64(i64 %val9, i64 127)
246 %add9 = extractvalue {i64, i1} %t9, 0
247 %obit9 = extractvalue {i64, i1} %t9, 1
248 %res9 = or i1 %res8, %obit9
249 %t10 = call {i64, i1} @llvm.sadd.with.overflow.i64(i64 %val10, i64 127)
250 %add10 = extractvalue {i64, i1} %t10, 0
251 %obit10 = extractvalue {i64, i1} %t10, 1
252 %res10 = or i1 %res9, %obit10
253 %t11 = call {i64, i1} @llvm.sadd.with.overflow.i64(i64 %val11, i64 127)
254 %add11 = extractvalue {i64, i1} %t11, 0
255 %obit11 = extractvalue {i64, i1} %t11, 1
256 %res11 = or i1 %res10, %obit11
257 %t12 = call {i64, i1} @llvm.sadd.with.overflow.i64(i64 %val12, i64 127)
258 %add12 = extractvalue {i64, i1} %t12, 0
259 %obit12 = extractvalue {i64, i1} %t12, 1
260 %res12 = or i1 %res11, %obit12
261 %t13 = call {i64, i1} @llvm.sadd.with.overflow.i64(i64 %val13, i64 127)
262 %add13 = extractvalue {i64, i1} %t13, 0
263 %obit13 = extractvalue {i64, i1} %t13, 1
264 %res13 = or i1 %res12, %obit13
265 %t14 = call {i64, i1} @llvm.sadd.with.overflow.i64(i64 %val14, i64 127)
266 %add14 = extractvalue {i64, i1} %t14, 0
267 %obit14 = extractvalue {i64, i1} %t14, 1
268 %res14 = or i1 %res13, %obit14
269 %t15 = call {i64, i1} @llvm.sadd.with.overflow.i64(i64 %val15, i64 127)
270 %add15 = extractvalue {i64, i1} %t15, 0
271 %obit15 = extractvalue {i64, i1} %t15, 1
272 %res15 = or i1 %res14, %obit15
277 %new0 = phi i64 [ %val0, %entry ], [ %add0, %add ]
278 %new1 = phi i64 [ %val1, %entry ], [ %add1, %add ]
279 %new2 = phi i64 [ %val2, %entry ], [ %add2, %add ]
280 %new3 = phi i64 [ %val3, %entry ], [ %add3, %add ]
281 %new4 = phi i64 [ %val4, %entry ], [ %add4, %add ]
282 %new5 = phi i64 [ %val5, %entry ], [ %add5, %add ]
283 %new6 = phi i64 [ %val6, %entry ], [ %add6, %add ]
284 %new7 = phi i64 [ %val7, %entry ], [ %add7, %add ]
285 %new8 = phi i64 [ %val8, %entry ], [ %add8, %add ]
286 %new9 = phi i64 [ %val9, %entry ], [ %add9, %add ]
287 %new10 = phi i64 [ %val10, %entry ], [ %add10, %add ]
288 %new11 = phi i64 [ %val11, %entry ], [ %add11, %add ]
289 %new12 = phi i64 [ %val12, %entry ], [ %add12, %add ]
290 %new13 = phi i64 [ %val13, %entry ], [ %add13, %add ]
291 %new14 = phi i64 [ %val14, %entry ], [ %add14, %add ]
292 %new15 = phi i64 [ %val15, %entry ], [ %add15, %add ]
293 %res = phi i1 [ 0, %entry ], [ %res15, %add ]
295 store volatile i64 %new0, i64 *%ptr
296 store volatile i64 %new1, i64 *%ptr
297 store volatile i64 %new2, i64 *%ptr
298 store volatile i64 %new3, i64 *%ptr
299 store volatile i64 %new4, i64 *%ptr
300 store volatile i64 %new5, i64 *%ptr
301 store volatile i64 %new6, i64 *%ptr
302 store volatile i64 %new7, i64 *%ptr
303 store volatile i64 %new8, i64 *%ptr
304 store volatile i64 %new9, i64 *%ptr
305 store volatile i64 %new10, i64 *%ptr
306 store volatile i64 %new11, i64 *%ptr
307 store volatile i64 %new12, i64 *%ptr
308 store volatile i64 %new13, i64 *%ptr
309 store volatile i64 %new14, i64 *%ptr
310 store volatile i64 %new15, i64 *%ptr
315 ; Check that adding -128 to a spilled value can use AGSI.
316 define zeroext i1 @f12(i64 *%ptr, i64 %sel) {
318 ; CHECK: agsi {{[0-9]+}}(%r15), -128
321 %val0 = load volatile i64, i64 *%ptr
322 %val1 = load volatile i64, i64 *%ptr
323 %val2 = load volatile i64, i64 *%ptr
324 %val3 = load volatile i64, i64 *%ptr
325 %val4 = load volatile i64, i64 *%ptr
326 %val5 = load volatile i64, i64 *%ptr
327 %val6 = load volatile i64, i64 *%ptr
328 %val7 = load volatile i64, i64 *%ptr
329 %val8 = load volatile i64, i64 *%ptr
330 %val9 = load volatile i64, i64 *%ptr
331 %val10 = load volatile i64, i64 *%ptr
332 %val11 = load volatile i64, i64 *%ptr
333 %val12 = load volatile i64, i64 *%ptr
334 %val13 = load volatile i64, i64 *%ptr
335 %val14 = load volatile i64, i64 *%ptr
336 %val15 = load volatile i64, i64 *%ptr
338 %test = icmp ne i64 %sel, 0
339 br i1 %test, label %add, label %store
342 %t0 = call {i64, i1} @llvm.sadd.with.overflow.i64(i64 %val0, i64 -128)
343 %add0 = extractvalue {i64, i1} %t0, 0
344 %obit0 = extractvalue {i64, i1} %t0, 1
345 %t1 = call {i64, i1} @llvm.sadd.with.overflow.i64(i64 %val1, i64 -128)
346 %add1 = extractvalue {i64, i1} %t1, 0
347 %obit1 = extractvalue {i64, i1} %t1, 1
348 %res1 = or i1 %obit0, %obit1
349 %t2 = call {i64, i1} @llvm.sadd.with.overflow.i64(i64 %val2, i64 -128)
350 %add2 = extractvalue {i64, i1} %t2, 0
351 %obit2 = extractvalue {i64, i1} %t2, 1
352 %res2 = or i1 %res1, %obit2
353 %t3 = call {i64, i1} @llvm.sadd.with.overflow.i64(i64 %val3, i64 -128)
354 %add3 = extractvalue {i64, i1} %t3, 0
355 %obit3 = extractvalue {i64, i1} %t3, 1
356 %res3 = or i1 %res2, %obit3
357 %t4 = call {i64, i1} @llvm.sadd.with.overflow.i64(i64 %val4, i64 -128)
358 %add4 = extractvalue {i64, i1} %t4, 0
359 %obit4 = extractvalue {i64, i1} %t4, 1
360 %res4 = or i1 %res3, %obit4
361 %t5 = call {i64, i1} @llvm.sadd.with.overflow.i64(i64 %val5, i64 -128)
362 %add5 = extractvalue {i64, i1} %t5, 0
363 %obit5 = extractvalue {i64, i1} %t5, 1
364 %res5 = or i1 %res4, %obit5
365 %t6 = call {i64, i1} @llvm.sadd.with.overflow.i64(i64 %val6, i64 -128)
366 %add6 = extractvalue {i64, i1} %t6, 0
367 %obit6 = extractvalue {i64, i1} %t6, 1
368 %res6 = or i1 %res5, %obit6
369 %t7 = call {i64, i1} @llvm.sadd.with.overflow.i64(i64 %val7, i64 -128)
370 %add7 = extractvalue {i64, i1} %t7, 0
371 %obit7 = extractvalue {i64, i1} %t7, 1
372 %res7 = or i1 %res6, %obit7
373 %t8 = call {i64, i1} @llvm.sadd.with.overflow.i64(i64 %val8, i64 -128)
374 %add8 = extractvalue {i64, i1} %t8, 0
375 %obit8 = extractvalue {i64, i1} %t8, 1
376 %res8 = or i1 %res7, %obit8
377 %t9 = call {i64, i1} @llvm.sadd.with.overflow.i64(i64 %val9, i64 -128)
378 %add9 = extractvalue {i64, i1} %t9, 0
379 %obit9 = extractvalue {i64, i1} %t9, 1
380 %res9 = or i1 %res8, %obit9
381 %t10 = call {i64, i1} @llvm.sadd.with.overflow.i64(i64 %val10, i64 -128)
382 %add10 = extractvalue {i64, i1} %t10, 0
383 %obit10 = extractvalue {i64, i1} %t10, 1
384 %res10 = or i1 %res9, %obit10
385 %t11 = call {i64, i1} @llvm.sadd.with.overflow.i64(i64 %val11, i64 -128)
386 %add11 = extractvalue {i64, i1} %t11, 0
387 %obit11 = extractvalue {i64, i1} %t11, 1
388 %res11 = or i1 %res10, %obit11
389 %t12 = call {i64, i1} @llvm.sadd.with.overflow.i64(i64 %val12, i64 -128)
390 %add12 = extractvalue {i64, i1} %t12, 0
391 %obit12 = extractvalue {i64, i1} %t12, 1
392 %res12 = or i1 %res11, %obit12
393 %t13 = call {i64, i1} @llvm.sadd.with.overflow.i64(i64 %val13, i64 -128)
394 %add13 = extractvalue {i64, i1} %t13, 0
395 %obit13 = extractvalue {i64, i1} %t13, 1
396 %res13 = or i1 %res12, %obit13
397 %t14 = call {i64, i1} @llvm.sadd.with.overflow.i64(i64 %val14, i64 -128)
398 %add14 = extractvalue {i64, i1} %t14, 0
399 %obit14 = extractvalue {i64, i1} %t14, 1
400 %res14 = or i1 %res13, %obit14
401 %t15 = call {i64, i1} @llvm.sadd.with.overflow.i64(i64 %val15, i64 -128)
402 %add15 = extractvalue {i64, i1} %t15, 0
403 %obit15 = extractvalue {i64, i1} %t15, 1
404 %res15 = or i1 %res14, %obit15
409 %new0 = phi i64 [ %val0, %entry ], [ %add0, %add ]
410 %new1 = phi i64 [ %val1, %entry ], [ %add1, %add ]
411 %new2 = phi i64 [ %val2, %entry ], [ %add2, %add ]
412 %new3 = phi i64 [ %val3, %entry ], [ %add3, %add ]
413 %new4 = phi i64 [ %val4, %entry ], [ %add4, %add ]
414 %new5 = phi i64 [ %val5, %entry ], [ %add5, %add ]
415 %new6 = phi i64 [ %val6, %entry ], [ %add6, %add ]
416 %new7 = phi i64 [ %val7, %entry ], [ %add7, %add ]
417 %new8 = phi i64 [ %val8, %entry ], [ %add8, %add ]
418 %new9 = phi i64 [ %val9, %entry ], [ %add9, %add ]
419 %new10 = phi i64 [ %val10, %entry ], [ %add10, %add ]
420 %new11 = phi i64 [ %val11, %entry ], [ %add11, %add ]
421 %new12 = phi i64 [ %val12, %entry ], [ %add12, %add ]
422 %new13 = phi i64 [ %val13, %entry ], [ %add13, %add ]
423 %new14 = phi i64 [ %val14, %entry ], [ %add14, %add ]
424 %new15 = phi i64 [ %val15, %entry ], [ %add15, %add ]
425 %res = phi i1 [ 0, %entry ], [ %res15, %add ]
427 store volatile i64 %new0, i64 *%ptr
428 store volatile i64 %new1, i64 *%ptr
429 store volatile i64 %new2, i64 *%ptr
430 store volatile i64 %new3, i64 *%ptr
431 store volatile i64 %new4, i64 *%ptr
432 store volatile i64 %new5, i64 *%ptr
433 store volatile i64 %new6, i64 *%ptr
434 store volatile i64 %new7, i64 *%ptr
435 store volatile i64 %new8, i64 *%ptr
436 store volatile i64 %new9, i64 *%ptr
437 store volatile i64 %new10, i64 *%ptr
438 store volatile i64 %new11, i64 *%ptr
439 store volatile i64 %new12, i64 *%ptr
440 store volatile i64 %new13, i64 *%ptr
441 store volatile i64 %new14, i64 *%ptr
442 store volatile i64 %new15, i64 *%ptr
447 ; Check using the overflow result for a branch.
448 define void @f13(i64 *%ptr) {
450 ; CHECK: agsi 0(%r2), 1
453 %a = load i64, i64 *%ptr
454 %t = call {i64, i1} @llvm.sadd.with.overflow.i64(i64 %a, i64 1)
455 %val = extractvalue {i64, i1} %t, 0
456 %obit = extractvalue {i64, i1} %t, 1
457 store i64 %val, i64 *%ptr
458 br i1 %obit, label %call, label %exit
468 ; ... and the same with the inverted direction.
469 define void @f14(i64 *%ptr) {
471 ; CHECK: agsi 0(%r2), 1
472 ; CHECK: jgno foo@PLT
474 %a = load i64, i64 *%ptr
475 %t = call {i64, i1} @llvm.sadd.with.overflow.i64(i64 %a, i64 1)
476 %val = extractvalue {i64, i1} %t, 0
477 %obit = extractvalue {i64, i1} %t, 1
478 store i64 %val, i64 *%ptr
479 br i1 %obit, label %exit, label %call
489 declare {i64, i1} @llvm.sadd.with.overflow.i64(i64, i64) nounwind readnone