[InstCombine] Signed saturation patterns
[llvm-core.git] / test / Analysis / GlobalsModRef / volatile-instrs.ll
blob85d2e887e1cbb6100ae952cabade55969448b6ac
1 ; RUN: opt < %s -basicaa -dse -S | FileCheck %s
3 target datalayout = "e-p:64:64:64-i1:8:8-i8:8:8-i16:16:16-i32:32:32-i64:64:64-f32:32:32-f64:64:64-v64:64:64-v128:128:128-a0:0:64-s0:64:64-f80:128:128-n8:16:32:64-S128"
4 target triple = "x86_64-apple-macosx10.8.0"
6 %struct.anon = type { i32, i32, i32 }
7 @b = global %struct.anon { i32 1, i32 0, i32 0 }, align 4
8 @c = common global i32 0, align 4
9 @a = common global %struct.anon zeroinitializer, align 4
10 @.str = private unnamed_addr constant [4 x i8] c"%d\0A\00", align 1
12 declare i32 @printf(i8* nocapture, ...) nounwind
13 declare void @llvm.memcpy.p0i8.p0i8.i64(i8* nocapture, i8* nocapture, i64, i1) nounwind
16 ; Make sure that the initial memcpy call does not go away
17 ; because the volatile load is in the way. PR12899
19 ; CHECK: main_entry:
20 ; CHECK-NEXT: tail call void @llvm.memcpy.p0i8.p0i8.i64
22 define i32 @main() nounwind uwtable ssp {
23 main_entry:
24   tail call void @llvm.memcpy.p0i8.p0i8.i64(i8* align 4 bitcast (%struct.anon* @b to i8*), i8* align 4 bitcast (%struct.anon* @a to i8*), i64 12, i1 false)
25   %0 = load volatile i32, i32* getelementptr inbounds (%struct.anon, %struct.anon* @b, i64 0, i32 0), align 4
26   store i32 %0, i32* @c, align 4
27   tail call void @llvm.memcpy.p0i8.p0i8.i64(i8* align 4 bitcast (%struct.anon* @b to i8*), i8* align 4 bitcast (%struct.anon* @a to i8*), i64 12, i1 false) nounwind
28   %call = tail call i32 (i8*, ...) @printf(i8* getelementptr inbounds ([4 x i8], [4 x i8]* @.str, i64 0, i64 0), i32 %0) nounwind
29   ret i32 0