[AMDGPU] Infer amdgpu-no-flat-scratch-init attribute in AMDGPUAttributor (#94647)
[llvm-project.git] / llvm / test / Analysis / ScalarEvolution / sext-add-inreg.ll
blob1a51172edf0f3e3ca0a5c8b03f4f093569260b98
1 ; NOTE: Assertions have been autogenerated by utils/update_analyze_test_checks.py UTC_ARGS: --version 2
2 ; RUN: opt < %s -disable-output "-passes=print<scalar-evolution>" 2>&1 | FileCheck %s
4 define i64 @test64(i64 %a) {
5 ; CHECK-LABEL: 'test64'
6 ; CHECK-NEXT:  Classifying expressions for: @test64
7 ; CHECK-NEXT:    %add = shl i64 %a, 8
8 ; CHECK-NEXT:    --> (256 * %a) U: [0,-255) S: [-9223372036854775808,9223372036854775553)
9 ; CHECK-NEXT:    %shl = add i64 %add, 256
10 ; CHECK-NEXT:    --> (256 + (256 * %a)) U: [0,-255) S: [-9223372036854775808,9223372036854775553)
11 ; CHECK-NEXT:    %ashr = ashr exact i64 %shl, 8
12 ; CHECK-NEXT:    --> (sext i56 (1 + (trunc i64 %a to i56)) to i64) U: [-36028797018963968,36028797018963968) S: [-36028797018963968,36028797018963968)
13 ; CHECK-NEXT:  Determining loop execution counts for: @test64
15   %add = shl i64 %a, 8
16   %shl = add i64 %add, 256
17   %ashr = ashr exact i64 %shl, 8
18   ret i64 %ashr
21 define i128 @test128(i128 %a) {
22 ; CHECK-LABEL: 'test128'
23 ; CHECK-NEXT:  Classifying expressions for: @test128
24 ; CHECK-NEXT:    %shl = shl i128 %a, 4
25 ; CHECK-NEXT:    --> (16 * %a) U: [0,-15) S: [-170141183460469231731687303715884105728,170141183460469231731687303715884105713)
26 ; CHECK-NEXT:    %add = add i128 %shl, -55
27 ; CHECK-NEXT:    --> (-55 + (16 * %a)) U: [-55,-70) S: [170141183460469231731687303715884105673,170141183460469231731687303715884105658)
28 ; CHECK-NEXT:    %ashr = ashr i128 %add, 4
29 ; CHECK-NEXT:    --> (sext i124 (-4 + (trunc i128 %a to i124)) to i128) U: [-10633823966279326983230456482242756608,10633823966279326983230456482242756608) S: [-10633823966279326983230456482242756608,10633823966279326983230456482242756608)
30 ; CHECK-NEXT:  Determining loop execution counts for: @test128
32   %shl = shl i128 %a, 4
33   %add = add i128 %shl, -55
34   %ashr = ashr i128 %add, 4
35   ret i128 %ashr