[InstCombine] Signed saturation patterns
[llvm-complete.git] / test / CodeGen / AMDGPU / llvm.amdgcn.groupstaticsize.ll
blob3224d8a3594ad8ddec6ef56904262c88b73b8bcf
1 ; RUN: llc -march=amdgcn -mcpu=tahiti -verify-machineinstrs < %s | FileCheck -check-prefixes=CHECK,NOHSA %s
2 ; RUN: llc -mtriple=amdgcn--amdhsa -mcpu=kaveri -verify-machineinstrs < %s | FileCheck -check-prefixes=CHECK,HSA %s
3 ; RUN: llc -mtriple=amdgcn--amdhsa -mcpu=fiji -verify-machineinstrs < %s | FileCheck -check-prefixes=CHECK,HSA %s
5 @lds0 = addrspace(3) global [512 x float] undef, align 4
6 @lds1 = addrspace(3) global [256 x float] undef, align 4
8 @large = addrspace(3) global [4096 x i32] undef, align 4
10 ; CHECK-LABEL: {{^}}groupstaticsize_test0:
11 ; NOHSA: v_mov_b32_e32 v{{[0-9]+}}, llvm.amdgcn.groupstaticsize@abs32@lo
12 ; HSA: v_mov_b32_e32 v{{[0-9]+}}, 0x800{{$}}
13 define amdgpu_kernel void @groupstaticsize_test0(float addrspace(1)* %out, i32 addrspace(1)* %lds_size) #0 {
14   %tid.x = tail call i32 @llvm.amdgcn.workitem.id.x() #1
15   %idx.0 = add nsw i32 %tid.x, 64
16   %static_lds_size = call i32 @llvm.amdgcn.groupstaticsize() #1
17   store i32 %static_lds_size, i32 addrspace(1)* %lds_size, align 4
18   %arrayidx0 = getelementptr inbounds [512 x float], [512 x float] addrspace(3)* @lds0, i32 0, i32 %idx.0
19   %val0 = load float, float addrspace(3)* %arrayidx0, align 4
20   store float %val0, float addrspace(1)* %out, align 4
22   ret void
25 ; CHECK-LABEL: {{^}}groupstaticsize_test1:
26 ; NOHSA: v_mov_b32_e32 v{{[0-9]+}}, llvm.amdgcn.groupstaticsize@abs32@lo
27 ; HSA: v_mov_b32_e32 v{{[0-9]+}}, 0xc00{{$}}
28 define amdgpu_kernel void @groupstaticsize_test1(float addrspace(1)* %out, i32 %cond, i32 addrspace(1)* %lds_size) {
29 entry:
30   %static_lds_size = call i32 @llvm.amdgcn.groupstaticsize() #1
31   store i32 %static_lds_size, i32 addrspace(1)* %lds_size, align 4
32   %tid.x = tail call i32 @llvm.amdgcn.workitem.id.x() #1
33   %idx.0 = add nsw i32 %tid.x, 64
34   %tmp = icmp eq i32 %cond, 0
35   br i1 %tmp, label %if, label %else
37 if:                                               ; preds = %entry
38   %arrayidx0 = getelementptr inbounds [512 x float], [512 x float] addrspace(3)* @lds0, i32 0, i32 %idx.0
39   %val0 = load float, float addrspace(3)* %arrayidx0, align 4
40   store float %val0, float addrspace(1)* %out, align 4
41   br label %endif
43 else:                                             ; preds = %entry
44   %arrayidx1 = getelementptr inbounds [256 x float], [256 x float] addrspace(3)* @lds1, i32 0, i32 %idx.0
45   %val1 = load float, float addrspace(3)* %arrayidx1, align 4
46   store float %val1, float addrspace(1)* %out, align 4
47   br label %endif
49 endif:                                            ; preds = %else, %if
50   ret void
53 ; Exceeds 16-bit simm limit of s_movk_i32
54 ; CHECK-LABEL: {{^}}large_groupstaticsize:
55 ; NOHSA: v_mov_b32_e32 v{{[0-9]+}}, llvm.amdgcn.groupstaticsize@abs32@lo
56 ; HSA: v_mov_b32_e32 [[REG:v[0-9]+]], 0x4000{{$}}
57 define amdgpu_kernel void @large_groupstaticsize(i32 addrspace(1)* %size, i32 %idx) #0 {
58   %gep = getelementptr inbounds [4096 x i32], [4096 x i32] addrspace(3)* @large, i32 0, i32 %idx
59   store volatile i32 0, i32 addrspace(3)* %gep
60   %static_lds_size = call i32 @llvm.amdgcn.groupstaticsize()
61   store i32 %static_lds_size, i32 addrspace(1)* %size
62   ret void
65 declare i32 @llvm.amdgcn.groupstaticsize() #1
66 declare i32 @llvm.amdgcn.workitem.id.x() #1
68 attributes #0 = { nounwind }
69 attributes #1 = { nounwind readnone }