Revert rGe6ccb57bb3f6b761f2310e97fd6ca99eff42f73e "[SLP] Add cost model for `llvm...
[llvm-project.git] / llvm / test / CodeGen / AMDGPU / fptoui.f16.ll
blobbf8677b1439521894f298fb0afc8a7ac6a23fb80
1 ; RUN: llc -amdgpu-scalarize-global-loads=false -march=amdgcn -mcpu=tahiti -verify-machineinstrs -enable-unsafe-fp-math < %s | FileCheck -check-prefix=GCN -check-prefix=SI %s
2 ; RUN: llc -amdgpu-scalarize-global-loads=false -march=amdgcn -mcpu=fiji -mattr=-flat-for-global -verify-machineinstrs -enable-unsafe-fp-math < %s | FileCheck -check-prefix=GCN -check-prefix=VI %s
4 ; GCN-LABEL: {{^}}fptoui_f16_to_i16
5 ; GCN: buffer_load_ushort v[[A_F16:[0-9]+]]
6 ; SI: v_cvt_f32_f16_e32 v[[A_F32:[0-9]+]], v[[A_F16]]
7 ; SI: v_cvt_u32_f32_e32 v[[R_I16:[0-9]+]], v[[A_F32]]
8 ; VI: v_cvt_u16_f16_e32 v[[R_I16:[0-9]+]], v[[A_F16]]
9 ; GCN: buffer_store_short v[[R_I16]]
10 ; GCN: s_endpgm
11 define amdgpu_kernel void @fptoui_f16_to_i16(
12     i16 addrspace(1)* %r,
13     half addrspace(1)* %a) {
14 entry:
15   %a.val = load half, half addrspace(1)* %a
16   %r.val = fptoui half %a.val to i16
17   store i16 %r.val, i16 addrspace(1)* %r
18   ret void
21 ; GCN-LABEL: {{^}}fptoui_f16_to_i32
22 ; GCN: buffer_load_ushort v[[A_F16:[0-9]+]]
23 ; GCN: v_cvt_f32_f16_e32 v[[A_F32:[0-9]+]], v[[A_F16]]
24 ; GCN: v_cvt_u32_f32_e32 v[[R_I32:[0-9]+]], v[[A_F32]]
25 ; GCN: buffer_store_dword v[[R_I32]]
26 ; GCN: s_endpgm
27 define amdgpu_kernel void @fptoui_f16_to_i32(
28     i32 addrspace(1)* %r,
29     half addrspace(1)* %a) {
30 entry:
31   %a.val = load half, half addrspace(1)* %a
32   %r.val = fptoui half %a.val to i32
33   store i32 %r.val, i32 addrspace(1)* %r
34   ret void
37 ; Need to make sure we promote f16 to f32 when converting f16 to i64. Existing
38 ; test checks code generated for 'i64 = fp_to_uint f32'.
40 ; GCN-LABEL: {{^}}fptoui_f16_to_i64
41 ; GCN: buffer_load_ushort v[[A_F16:[0-9]+]]
42 ; GCN: v_mov_b32_e32 v[[R_I64_High:[0-9]+]], 0
43 ; GCN: v_cvt_f32_f16_e32 v[[A_F32:[0-9]+]], v[[A_F16]]
44 ; GCN: v_cvt_u32_f32_e32 v[[R_I64_Low:[0-9]+]], v[[A_F32]]
45 ; GCN: buffer_store_dwordx2 v[[[R_I64_Low]]{{\:}}[[R_I64_High]]]
46 ; GCN: s_endpgm
47 define amdgpu_kernel void @fptoui_f16_to_i64(
48     i64 addrspace(1)* %r,
49     half addrspace(1)* %a) {
50 entry:
51   %a.val = load half, half addrspace(1)* %a
52   %r.val = fptoui half %a.val to i64
53   store i64 %r.val, i64 addrspace(1)* %r
54   ret void
57 ; GCN-LABEL: {{^}}fptoui_v2f16_to_v2i16
58 ; GCN:     buffer_load_dword v[[A_V2_F16:[0-9]+]]
60 ; SI:     v_lshrrev_b32_e32 v[[A_F16_1:[0-9]+]], 16, v[[A_V2_F16]]
61 ; SI-DAG: v_cvt_f32_f16_e32 v[[A_F32_1:[0-9]+]], v[[A_F16_1]]
62 ; SI-DAG: v_cvt_f32_f16_e32 v[[A_F32_0:[0-9]+]], v[[A_V2_F16]]
63 ; SI:      v_cvt_u32_f32_e32 v[[R_I16_1:[0-9]+]], v[[A_F32_1]]
64 ; SI:      v_cvt_u32_f32_e32 v[[R_I16_0:[0-9]+]], v[[A_F32_0]]
65 ; SI:     v_lshlrev_b32_e32 v[[R_I16_HI:[0-9]+]], 16, v[[R_I16_1]]
66 ; SI:     v_or_b32_e32 v[[R_V2_I16:[0-9]+]], v[[R_I16_0]], v[[R_I16_HI]]
68 ; VI:     v_cvt_u16_f16_e32 v[[A_U16_1:[0-9]+]], v[[A_V2_F16]]
69 ; VI:     v_cvt_u16_f16_sdwa v[[R_U16_0:[0-9]+]], v[[A_V2_F16]] dst_sel:WORD_1 dst_unused:UNUSED_PAD src0_sel:WORD_1
70 ; VI:     v_or_b32_sdwa v[[R_V2_I16:[0-9]+]], v[[A_U16_1]], v[[R_U16_0]] dst_sel:DWORD dst_unused:UNUSED_PAD src0_sel:WORD_0 src1_sel:DWORD
72 ; GCN:     buffer_store_dword v[[R_V2_I16]]
73 ; GCN:     s_endpgm
75 define amdgpu_kernel void @fptoui_v2f16_to_v2i16(
76     <2 x i16> addrspace(1)* %r,
77     <2 x half> addrspace(1)* %a) {
78 entry:
79   %a.val = load <2 x half>, <2 x half> addrspace(1)* %a
80   %r.val = fptoui <2 x half> %a.val to <2 x i16>
81   store <2 x i16> %r.val, <2 x i16> addrspace(1)* %r
82   ret void
85 ; GCN-LABEL: {{^}}fptoui_v2f16_to_v2i32
86 ; GCN: buffer_load_dword
87 ; GCN: v_cvt_f32_f16_e32
88 ; SI: v_cvt_f32_f16_e32
89 ; VI: v_cvt_f32_f16_sdwa
90 ; GCN: v_cvt_u32_f32_e32
91 ; GCN: v_cvt_u32_f32_e32
92 ; GCN: buffer_store_dwordx2
93 ; GCN: s_endpgm
94 define amdgpu_kernel void @fptoui_v2f16_to_v2i32(
95     <2 x i32> addrspace(1)* %r,
96     <2 x half> addrspace(1)* %a) {
97 entry:
98   %a.val = load <2 x half>, <2 x half> addrspace(1)* %a
99   %r.val = fptoui <2 x half> %a.val to <2 x i32>
100   store <2 x i32> %r.val, <2 x i32> addrspace(1)* %r
101   ret void
104 ; Need to make sure we promote f16 to f32 when converting f16 to i64. Existing
105 ; test checks code generated for 'i64 = fp_to_uint f32'.
107 ; GCN-LABEL: {{^}}fptoui_v2f16_to_v2i64
108 ; GCN: buffer_load_dword v[[A_F16_0:[0-9]+]]
109 ; GCN: v_mov_b32_e32 v[[R_I64_1_High:[0-9]+]], 0
110 ; SI: v_lshrrev_b32_e32 v[[A_F16_1:[0-9]+]], 16, v[[A_F16_0]]
111 ; SI: v_cvt_f32_f16_e32 v[[A_F32_0:[0-9]+]], v[[A_F16_0]]
112 ; SI: v_cvt_f32_f16_e32 v[[A_F32_1:[0-9]+]], v[[A_F16_1]]
113 ; SI: v_cvt_u32_f32_e32 v[[R_I64_0_Low:[0-9]+]], v[[A_F32_0]]
114 ; SI: v_cvt_u32_f32_e32 v[[R_I64_1_Low:[0-9]+]], v[[A_F32_1]]
115 ; VI: v_cvt_f32_f16_e32 v[[A_F32_0:[0-9]+]], v[[A_F16_0]]
116 ; VI: v_cvt_f32_f16_sdwa v[[A_F32_1:[0-9]+]], v[[A_F16_0]] dst_sel:DWORD dst_unused:UNUSED_PAD src0_sel:WORD_1
117 ; VI: v_cvt_u32_f32_e32 v[[R_I64_0_Low:[0-9]+]], v[[A_F32_0]]
118 ; VI: v_cvt_u32_f32_e32 v[[R_I64_1_Low:[0-9]+]], v[[A_F32_1]]
119 ; GCN: v_mov_b32_e32 v[[R_I64_0_High:[0-9]+]], 0
120 ; GCN: buffer_store_dwordx4 v[[[R_I64_0_Low]]{{\:}}[[R_I64_1_High]]]
121 ; GCN: s_endpgm
122 define amdgpu_kernel void @fptoui_v2f16_to_v2i64(
123     <2 x i64> addrspace(1)* %r,
124     <2 x half> addrspace(1)* %a) {
125 entry:
126   %a.val = load <2 x half>, <2 x half> addrspace(1)* %a
127   %r.val = fptoui <2 x half> %a.val to <2 x i64>
128   store <2 x i64> %r.val, <2 x i64> addrspace(1)* %r
129   ret void
132 ; GCN-LABEL: {{^}}fptoui_f16_to_i1:
133 ; SI: v_cvt_f32_f16_e32 v{{[0-9]+}}, s{{[0-9]+}}
134 ; SI: v_cmp_eq_f32_e32 vcc, 1.0, v{{[0-9]+}}
135 ; SI: v_cndmask_b32_e64 v{{[0-9]+}}, 0, 1, vcc
136 ; VI: v_cmp_eq_f16_e64 s{{\[[0-9]+:[0-9]+\]}}, 1.0, s{{[0-9]+}}
137 ; VI: v_cndmask_b32_e64 v{{[0-9]+}}, 0, 1, s[4:5]
138 define amdgpu_kernel void @fptoui_f16_to_i1(i1 addrspace(1)* %out, half %in) {
139 entry:
140   %conv = fptoui half %in to i1
141   store i1 %conv, i1 addrspace(1)* %out
142   ret void