[DAGCombiner] Add target hook function to decide folding (mul (add x, c1), c2)
[llvm-project.git] / llvm / test / Transforms / Inline / byref-align.ll
blob4a94bd8bfe13af8849a4729fd6d590181c1cb884
1 ; NOTE: Assertions have been autogenerated by utils/update_test_checks.py UTC_ARGS: --function-signature
2 ; RUN: opt -inline -preserve-alignment-assumptions-during-inlining -S < %s | FileCheck %s
3 target datalayout = "e-p:64:64:64-i1:8:8-i8:8:8-i16:16:16-i32:32:32-i64:64:64-f32:32:32-f64:64:64-v64:64:64-v128:128:128-a0:0:64-s0:64:64-f80:128:128-n8:16:32:64-S128"
4 target triple = "x86_64-unknown-linux-gnu"
6 ; Test behavior of inserted alignment assumptions with byref. There is
7 ; no implied copy to a higher alignment, so an alignment assume call
8 ; should be inserted.
9 define void @byref_callee(float* align(128) byref(float) nocapture %a, float* %b) #0 {
10 ; CHECK-LABEL: define {{[^@]+}}@byref_callee
11 ; CHECK-SAME: (float* nocapture byref(float) align 128 [[A:%.*]], float* [[B:%.*]]) [[ATTR0:#.*]] {
12 ; CHECK-NEXT:  entry:
13 ; CHECK-NEXT:    [[LOAD:%.*]] = load float, float* [[A]], align 4
14 ; CHECK-NEXT:    [[B_IDX:%.*]] = getelementptr inbounds float, float* [[B]], i64 8
15 ; CHECK-NEXT:    [[ADD:%.*]] = fadd float [[LOAD]], 2.000000e+00
16 ; CHECK-NEXT:    store float [[ADD]], float* [[B_IDX]], align 4
17 ; CHECK-NEXT:    ret void
19 entry:
20   %load = load float, float* %a, align 4
21   %b.idx = getelementptr inbounds float, float* %b, i64 8
22   %add = fadd float %load, 2.0
23   store float %add, float* %b.idx, align 4
24   ret void
27 define void @byref_caller(float* nocapture align 64 %a, float* %b) #0 {
28 ; CHECK-LABEL: define {{[^@]+}}@byref_caller
29 ; CHECK-SAME: (float* nocapture align 64 [[A:%.*]], float* [[B:%.*]]) [[ATTR0]] {
30 ; CHECK-NEXT:  entry:
31 ; CHECK-NEXT:    call void @llvm.assume(i1 true) [ "align"(float* [[A]], i64 128) ]
32 ; CHECK-NEXT:    [[LOAD_I:%.*]] = load float, float* [[A]], align 4
33 ; CHECK-NEXT:    [[B_IDX_I:%.*]] = getelementptr inbounds float, float* [[B]], i64 8
34 ; CHECK-NEXT:    [[ADD_I:%.*]] = fadd float [[LOAD_I]], 2.000000e+00
35 ; CHECK-NEXT:    store float [[ADD_I]], float* [[B_IDX_I]], align 4
36 ; CHECK-NEXT:    [[CALLER_LOAD:%.*]] = load float, float* [[B]], align 4
37 ; CHECK-NEXT:    [[ARRAYIDX:%.*]] = getelementptr inbounds float, float* [[A]], i64 7
38 ; CHECK-NEXT:    store float [[CALLER_LOAD]], float* [[ARRAYIDX]], align 4
39 ; CHECK-NEXT:    ret void
41 entry:
42   call void @byref_callee(float* align(128) byref(float) %a, float* %b)
43   %caller.load = load float, float* %b, align 4
44   %arrayidx = getelementptr inbounds float, float* %a, i64 7
45   store float %caller.load, float* %arrayidx, align 4
46   ret void
49 attributes #0 = { nounwind uwtable }