Run DCE after a LoopFlatten test to reduce spurious output [nfc]
[llvm-project.git] / llvm / test / CodeGen / AMDGPU / GlobalISel / smrd.ll
blobc040c912b9ff7961a16930dfc9546d6738361def
1 ; RUN: llc < %s -march=amdgcn -mcpu=tahiti -show-mc-encoding -verify-machineinstrs -global-isel | FileCheck --check-prefixes=SI,GCN %s
2 ; RUN: llc < %s -march=amdgcn -mcpu=bonaire -show-mc-encoding -verify-machineinstrs -global-isel | FileCheck --check-prefixes=CI,GCN,SICIVI %s
3 ; RUN: llc < %s -march=amdgcn -mcpu=tonga -show-mc-encoding -verify-machineinstrs -global-isel | FileCheck --check-prefixes=VI,GCN,SICIVI %s
4 ; RUN: llc -march=amdgcn -mcpu=gfx900 -show-mc-encoding -verify-machineinstrs -global-isel < %s | FileCheck --check-prefixes=GFX9_10,GCN,VIGFX9_10,SIVIGFX9_10  %s
5 ; RUN: llc -march=amdgcn -mcpu=gfx1010 -show-mc-encoding -verify-machineinstrs -global-isel < %s | FileCheck --check-prefixes=GFX9_10,GCN,VIGFX9_10,SIVIGFX9_10  %s
7 ; SMRD load with an immediate offset.
8 ; GCN-LABEL: {{^}}smrd0:
9 ; SICI: s_load_dword s{{[0-9]}}, s[{{[0-9]:[0-9]}}], 0x1 ; encoding: [0x01
10 ; VIGFX9_10: s_load_dword s{{[0-9]}}, s[{{[0-9]:[0-9]}}], 0x4
11 define amdgpu_kernel void @smrd0(ptr addrspace(4) %ptr) {
12 entry:
13   %0 = getelementptr i32, ptr addrspace(4) %ptr, i64 1
14   %1 = load i32, ptr addrspace(4) %0
15   store i32 %1, ptr addrspace(1) undef
16   ret void
19 ; SMRD load with the largest possible immediate offset.
20 ; GCN-LABEL: {{^}}smrd1:
21 ; SICI: s_load_dword s{{[0-9]}}, s[{{[0-9]:[0-9]}}], 0xff ; encoding: [0xff,0x{{[0-9]+[137]}}
22 ; VIGFX9_10: s_load_dword s{{[0-9]}}, s[{{[0-9]:[0-9]}}], 0x3fc
23 define amdgpu_kernel void @smrd1(ptr addrspace(4) %ptr) {
24 entry:
25   %0 = getelementptr i32, ptr addrspace(4) %ptr, i64 255
26   %1 = load i32, ptr addrspace(4) %0
27   store i32 %1, ptr addrspace(1) undef
28   ret void
31 ; SMRD load with an offset greater than the largest possible immediate.
32 ; GCN-LABEL: {{^}}smrd2:
33 ; SI: s_movk_i32 s[[OFFSET:[0-9]]], 0x400
34 ; SI: s_load_dword s{{[0-9]}}, s[{{[0-9]:[0-9]}}], s[[OFFSET]] ; encoding: [0x0[[OFFSET]]
35 ; CI: s_load_dword s{{[0-9]}}, s[{{[0-9]:[0-9]}}], 0x100
36 ; VIGFX9_10: s_load_dword s{{[0-9]}}, s[{{[0-9]:[0-9]}}], 0x400
37 ; GCN: s_endpgm
38 define amdgpu_kernel void @smrd2(ptr addrspace(4) %ptr) {
39 entry:
40   %0 = getelementptr i32, ptr addrspace(4) %ptr, i64 256
41   %1 = load i32, ptr addrspace(4) %0
42   store i32 %1, ptr addrspace(1) undef
43   ret void
46 ; SMRD load with a 64-bit offset
47 ; GCN-LABEL: {{^}}smrd3:
48 ; FIXME: There are too many copies here because we don't fold immediates
49 ;        through REG_SEQUENCE
50 ; XSI: s_load_dwordx2 s[{{[0-9]:[0-9]}}], s[{{[0-9]:[0-9]}}], 0xb ; encoding: [0x0b
51 ; TODO: Add VI checks
52 ; XGCN: s_endpgm
53 define amdgpu_kernel void @smrd3(ptr addrspace(4) %ptr) {
54 entry:
55   %0 = getelementptr i32, ptr addrspace(4) %ptr, i64 4294967296 ; 2 ^ 32
56   %1 = load i32, ptr addrspace(4) %0
57   store i32 %1, ptr addrspace(1) undef
58   ret void
61 ; SMRD load with the largest possible immediate offset on VI
62 ; GCN-LABEL: {{^}}smrd4:
63 ; SI: s_mov_b32 [[OFFSET:s[0-9]+]], 0xffffc
64 ; SI: s_load_dword s{{[0-9]}}, s[{{[0-9]:[0-9]}}], [[OFFSET]]
65 ; CI: s_load_dword s{{[0-9]}}, s[{{[0-9]:[0-9]}}], 0x3ffff
66 ; VI: s_load_dword s{{[0-9]}}, s[{{[0-9]:[0-9]}}], 0xffffc
67 ; GFX9_10: s_mov_b32 [[OFFSET:s[0-9]+]], 0xffffc
68 ; GFX9_10: s_load_dword s{{[0-9]}}, s[{{[0-9]:[0-9]}}], [[OFFSET]]
69 define amdgpu_kernel void @smrd4(ptr addrspace(4) %ptr) {
70 entry:
71   %0 = getelementptr i32, ptr addrspace(4) %ptr, i64 262143
72   %1 = load i32, ptr addrspace(4) %0
73   store i32 %1, ptr addrspace(1) undef
74   ret void
77 ; SMRD load with an offset greater than the largest possible immediate on VI
78 ; GCN-LABEL: {{^}}smrd5:
79 ; SIVIGFX9_10: s_mov_b32 [[OFFSET:s[0-9]+]], 0x100000
80 ; SIVIGFX9_10: s_load_dword s{{[0-9]}}, s[{{[0-9]:[0-9]}}], [[OFFSET]]
81 ; CI: s_load_dword s{{[0-9]}}, s[{{[0-9]:[0-9]}}], 0x40000
82 ; GCN: s_endpgm
83 define amdgpu_kernel void @smrd5(ptr addrspace(4) %ptr) {
84 entry:
85   %0 = getelementptr i32, ptr addrspace(4) %ptr, i64 262144
86   %1 = load i32, ptr addrspace(4) %0
87   store i32 %1, ptr addrspace(1) undef
88   ret void
91 ; GFX9_10 can use a signed immediate byte offset
92 ; GCN-LABEL: {{^}}smrd6:
93 ; SICIVI: s_add_u32 s{{[0-9]}}, s{{[0-9]}}, -4
94 ; SICIVI: s_load_dword s{{[0-9]}}, s[{{[0-9]:[0-9]}}], 0x0
95 ; GFX9_10: s_load_dword s{{[0-9]}}, s[{{[0-9]:[0-9]}}], -0x4
96 define amdgpu_kernel void @smrd6(ptr addrspace(1) %out, ptr addrspace(4) %ptr) #0 {
97 entry:
98   %tmp = getelementptr i32, ptr addrspace(4) %ptr, i64 -1
99   %tmp1 = load i32, ptr addrspace(4) %tmp
100   store i32 %tmp1, ptr addrspace(1) %out
101   ret void
104 ; Don't use a negative SGPR offset
105 ; GCN-LABEL: {{^}}smrd7:
106 ; GCN: s_add_u32 s{{[0-9]}}, s{{[0-9]}}, 0xffe00000
107 ; SICIVI: s_load_dword s{{[0-9]}}, s[{{[0-9]:[0-9]}}], 0x0
108 ; GFX9_10: s_load_dword s{{[0-9]}}, s[{{[0-9]:[0-9]}}], 0x0
109 define amdgpu_kernel void @smrd7(ptr addrspace(1) %out, ptr addrspace(4) %ptr) #0 {
110 entry:
111   %tmp = getelementptr i32, ptr addrspace(4) %ptr, i64 -524288
112   %tmp1 = load i32, ptr addrspace(4) %tmp
113   store i32 %tmp1, ptr addrspace(1) %out
114   ret void