[ARM] More MVE compare vector splat combines for ANDs
[llvm-complete.git] / test / CodeGen / AMDGPU / llvm.amdgcn.readlane.ll
blobf4f48d3b2c4cbacecd6ee927f37a5977041509a2
1 ; RUN: llc -mtriple=amdgcn--amdhsa -mcpu=fiji -verify-machineinstrs < %s | FileCheck -enable-var-scope %s
3 declare i32 @llvm.amdgcn.readlane(i32, i32) #0
5 ; CHECK-LABEL: {{^}}test_readlane_sreg_sreg:
6 ; CHECK-NOT: v_readlane_b32
7 define amdgpu_kernel void @test_readlane_sreg_sreg(i32 %src0, i32 %src1) #1 {
8   %readlane = call i32 @llvm.amdgcn.readlane(i32 %src0, i32 %src1)
9   call void asm sideeffect "; use $0", "s"(i32 %readlane)
10   ret void
13 ; CHECK-LABEL: {{^}}test_readlane_vreg_sreg:
14 ; CHECK: v_readlane_b32 s{{[0-9]+}}, v{{[0-9]+}}, s{{[0-9]+}}
15 define amdgpu_kernel void @test_readlane_vreg_sreg(i32 %src0, i32 %src1) #1 {
16   %vgpr = call i32 asm sideeffect "; def $0", "=v"()
17   %readlane = call i32 @llvm.amdgcn.readlane(i32 %vgpr, i32 %src1)
18   call void asm sideeffect "; use $0", "s"(i32 %readlane)
19   ret void
22 ; CHECK-LABEL: {{^}}test_readlane_imm_sreg:
23 ; CHECK-NOT: v_readlane_b32
24 define amdgpu_kernel void @test_readlane_imm_sreg(i32 addrspace(1)* %out, i32 %src1) #1 {
25   %readlane = call i32 @llvm.amdgcn.readlane(i32 32, i32 %src1)
26   store i32 %readlane, i32 addrspace(1)* %out, align 4
27   ret void
30 ; CHECK-LABEL: {{^}}test_readlane_vregs:
31 ; CHECK: v_readfirstlane_b32 [[LANE:s[0-9]+]], v{{[0-9]+}}
32 ; CHECK: v_readlane_b32 s{{[0-9]+}}, v{{[0-9]+}}, [[LANE]]
33 define amdgpu_kernel void @test_readlane_vregs(i32 addrspace(1)* %out, <2 x i32> addrspace(1)* %in) #1 {
34   %tid = call i32 @llvm.amdgcn.workitem.id.x()
35   %gep.in = getelementptr <2 x i32>, <2 x i32> addrspace(1)* %in, i32 %tid
36   %args = load <2 x i32>, <2 x i32> addrspace(1)* %gep.in
37   %value = extractelement <2 x i32> %args, i32 0
38   %lane = extractelement <2 x i32> %args, i32 1
39   %readlane = call i32 @llvm.amdgcn.readlane(i32 %value, i32 %lane)
40   store i32 %readlane, i32 addrspace(1)* %out, align 4
41   ret void
44 ; TODO: m0 should be folded.
45 ; CHECK-LABEL: {{^}}test_readlane_m0_sreg:
46 ; CHECK: s_mov_b32 m0, -1
47 ; CHECK: s_mov_b32 [[COPY_M0:s[0-9]+]], m0
48 ; CHECK: v_mov_b32_e32 [[VVAL:v[0-9]]], [[COPY_M0]]
49 ; CHECK: flat_store_dword v{{\[[0-9]+:[0-9]+\]}}, [[VVAL]]
50 define amdgpu_kernel void @test_readlane_m0_sreg(i32 addrspace(1)* %out, i32 %src1) #1 {
51   %m0 = call i32 asm "s_mov_b32 m0, -1", "={m0}"()
52   %readlane = call i32 @llvm.amdgcn.readlane(i32 %m0, i32 %src1)
53   store i32 %readlane, i32 addrspace(1)* %out, align 4
54   ret void
57 ; CHECK-LABEL: {{^}}test_readlane_vgpr_imm:
58 ; CHECK: v_readlane_b32 s{{[0-9]+}}, v{{[0-9]+}}, 32
59 define amdgpu_kernel void @test_readlane_vgpr_imm(i32 addrspace(1)* %out) #1 {
60   %vgpr = call i32 asm sideeffect "; def $0", "=v"()
61   %readlane = call i32 @llvm.amdgcn.readlane(i32 %vgpr, i32 32) #0
62   store i32 %readlane, i32 addrspace(1)* %out, align 4
63   ret void
66 ; CHECK-LABEL: {{^}}test_readlane_copy_from_sgpr:
67 ; CHECK: ;;#ASMSTART
68 ; CHECK-NEXT: s_mov_b32 [[SGPR:s[0-9]+]]
69 ; CHECK: ;;#ASMEND
70 ; CHECK-NOT: [[SGPR]]
71 ; CHECK-NOT: readlane
72 ; CHECK: v_mov_b32_e32 [[VCOPY:v[0-9]+]], [[SGPR]]
73 ; CHECK: flat_store_dword v{{\[[0-9]+:[0-9]+\]}}, [[VCOPY]]
74 define amdgpu_kernel void @test_readlane_copy_from_sgpr(i32 addrspace(1)* %out) #1 {
75   %sgpr = call i32 asm "s_mov_b32 $0, 0", "=s"()
76   %readfirstlane = call i32 @llvm.amdgcn.readlane(i32 %sgpr, i32 7)
77   store i32 %readfirstlane, i32 addrspace(1)* %out, align 4
78   ret void
81 declare i32 @llvm.amdgcn.workitem.id.x() #2
83 attributes #0 = { nounwind readnone convergent }
84 attributes #1 = { nounwind }
85 attributes #2 = { nounwind readnone }