[InstCombine] Signed saturation patterns
[llvm-complete.git] / test / CodeGen / AMDGPU / cross-block-use-is-not-abi-copy.ll
blob019beea0ab175e165ec2704351c2a1a4ad6ba246
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc -mtriple=amdgcn-amd-amdhsa -mcpu=gfx900 -verify-machineinstrs < %s | FileCheck -check-prefix=GCN %s
4 ; SelectionDAG builder was using the IR value kind to decide how to
5 ; split the types for copyToRegs/copyFromRegs in all contexts. This
6 ; was incorrect if the ABI-like value such as a call was used outside
7 ; of the block. The value in that case is not used directly, but
8 ; through another set of copies to potentially different register
9 ; types in the parent block.
11 ; This would then end up producing inconsistent pairs of copies with
12 ; the wrong sizes when the vector type result from the call was split
13 ; into multiple pieces, but expected to be a single register in the
14 ; cross-block copy.
16 ; This isn't exactly ideal for AMDGPU, since in reality the
17 ; intermediate vector register type is undesirable anyway, but it
18 ; requires more work to be able to split all vector copies in all
19 ; contexts.
21 ; This was only an issue if the value was used directly in another
22 ; block. If there was an intermediate operation or a phi it was fine,
23 ; since that didn't look like an ABI copy.
26 define float @call_split_type_used_outside_block_v2f32() #0 {
27 ; GCN-LABEL: call_split_type_used_outside_block_v2f32:
28 ; GCN:       ; %bb.0: ; %bb0
29 ; GCN-NEXT:    s_waitcnt vmcnt(0) expcnt(0) lgkmcnt(0)
30 ; GCN-NEXT:    s_or_saveexec_b64 s[4:5], -1
31 ; GCN-NEXT:    buffer_store_dword v32, off, s[0:3], s32 ; 4-byte Folded Spill
32 ; GCN-NEXT:    s_mov_b64 exec, s[4:5]
33 ; GCN-NEXT:    v_writelane_b32 v32, s34, 2
34 ; GCN-NEXT:    v_writelane_b32 v32, s30, 0
35 ; GCN-NEXT:    s_mov_b32 s34, s32
36 ; GCN-NEXT:    s_add_u32 s32, s32, 0x400
37 ; GCN-NEXT:    s_getpc_b64 s[4:5]
38 ; GCN-NEXT:    s_add_u32 s4, s4, func_v2f32@rel32@lo+4
39 ; GCN-NEXT:    s_addc_u32 s5, s5, func_v2f32@rel32@hi+4
40 ; GCN-NEXT:    v_writelane_b32 v32, s31, 1
41 ; GCN-NEXT:    s_swappc_b64 s[30:31], s[4:5]
42 ; GCN-NEXT:    v_readlane_b32 s4, v32, 0
43 ; GCN-NEXT:    v_readlane_b32 s5, v32, 1
44 ; GCN-NEXT:    s_sub_u32 s32, s32, 0x400
45 ; GCN-NEXT:    v_readlane_b32 s34, v32, 2
46 ; GCN-NEXT:    s_or_saveexec_b64 s[6:7], -1
47 ; GCN-NEXT:    buffer_load_dword v32, off, s[0:3], s32 ; 4-byte Folded Reload
48 ; GCN-NEXT:    s_mov_b64 exec, s[6:7]
49 ; GCN-NEXT:    s_waitcnt vmcnt(0)
50 ; GCN-NEXT:    s_setpc_b64 s[4:5]
51 bb0:
52   %split.ret.type = call <2 x float> @func_v2f32()
53   br label %bb1
55 bb1:
56   %extract = extractelement <2 x float> %split.ret.type, i32 0
57   ret float %extract
60 define float @call_split_type_used_outside_block_v3f32() #0 {
61 ; GCN-LABEL: call_split_type_used_outside_block_v3f32:
62 ; GCN:       ; %bb.0: ; %bb0
63 ; GCN-NEXT:    s_waitcnt vmcnt(0) expcnt(0) lgkmcnt(0)
64 ; GCN-NEXT:    s_or_saveexec_b64 s[4:5], -1
65 ; GCN-NEXT:    buffer_store_dword v32, off, s[0:3], s32 ; 4-byte Folded Spill
66 ; GCN-NEXT:    s_mov_b64 exec, s[4:5]
67 ; GCN-NEXT:    v_writelane_b32 v32, s34, 2
68 ; GCN-NEXT:    v_writelane_b32 v32, s30, 0
69 ; GCN-NEXT:    s_mov_b32 s34, s32
70 ; GCN-NEXT:    s_add_u32 s32, s32, 0x400
71 ; GCN-NEXT:    s_getpc_b64 s[4:5]
72 ; GCN-NEXT:    s_add_u32 s4, s4, func_v3f32@rel32@lo+4
73 ; GCN-NEXT:    s_addc_u32 s5, s5, func_v3f32@rel32@hi+4
74 ; GCN-NEXT:    v_writelane_b32 v32, s31, 1
75 ; GCN-NEXT:    s_swappc_b64 s[30:31], s[4:5]
76 ; GCN-NEXT:    v_readlane_b32 s4, v32, 0
77 ; GCN-NEXT:    v_readlane_b32 s5, v32, 1
78 ; GCN-NEXT:    s_sub_u32 s32, s32, 0x400
79 ; GCN-NEXT:    v_readlane_b32 s34, v32, 2
80 ; GCN-NEXT:    s_or_saveexec_b64 s[6:7], -1
81 ; GCN-NEXT:    buffer_load_dword v32, off, s[0:3], s32 ; 4-byte Folded Reload
82 ; GCN-NEXT:    s_mov_b64 exec, s[6:7]
83 ; GCN-NEXT:    s_waitcnt vmcnt(0)
84 ; GCN-NEXT:    s_setpc_b64 s[4:5]
85 bb0:
86   %split.ret.type = call <3 x float> @func_v3f32()
87   br label %bb1
89 bb1:
90   %extract = extractelement <3 x float> %split.ret.type, i32 0
91   ret float %extract
94 define half @call_split_type_used_outside_block_v4f16() #0 {
95 ; GCN-LABEL: call_split_type_used_outside_block_v4f16:
96 ; GCN:       ; %bb.0: ; %bb0
97 ; GCN-NEXT:    s_waitcnt vmcnt(0) expcnt(0) lgkmcnt(0)
98 ; GCN-NEXT:    s_or_saveexec_b64 s[4:5], -1
99 ; GCN-NEXT:    buffer_store_dword v32, off, s[0:3], s32 ; 4-byte Folded Spill
100 ; GCN-NEXT:    s_mov_b64 exec, s[4:5]
101 ; GCN-NEXT:    v_writelane_b32 v32, s34, 2
102 ; GCN-NEXT:    v_writelane_b32 v32, s30, 0
103 ; GCN-NEXT:    s_mov_b32 s34, s32
104 ; GCN-NEXT:    s_add_u32 s32, s32, 0x400
105 ; GCN-NEXT:    s_getpc_b64 s[4:5]
106 ; GCN-NEXT:    s_add_u32 s4, s4, func_v4f16@rel32@lo+4
107 ; GCN-NEXT:    s_addc_u32 s5, s5, func_v4f16@rel32@hi+4
108 ; GCN-NEXT:    v_writelane_b32 v32, s31, 1
109 ; GCN-NEXT:    s_swappc_b64 s[30:31], s[4:5]
110 ; GCN-NEXT:    v_readlane_b32 s4, v32, 0
111 ; GCN-NEXT:    v_readlane_b32 s5, v32, 1
112 ; GCN-NEXT:    s_sub_u32 s32, s32, 0x400
113 ; GCN-NEXT:    v_readlane_b32 s34, v32, 2
114 ; GCN-NEXT:    s_or_saveexec_b64 s[6:7], -1
115 ; GCN-NEXT:    buffer_load_dword v32, off, s[0:3], s32 ; 4-byte Folded Reload
116 ; GCN-NEXT:    s_mov_b64 exec, s[6:7]
117 ; GCN-NEXT:    s_waitcnt vmcnt(0)
118 ; GCN-NEXT:    s_setpc_b64 s[4:5]
119 bb0:
120   %split.ret.type = call <4 x half> @func_v4f16()
121   br label %bb1
123 bb1:
124   %extract = extractelement <4 x half> %split.ret.type, i32 0
125   ret half %extract
128 define { i32, half } @call_split_type_used_outside_block_struct() #0 {
129 ; GCN-LABEL: call_split_type_used_outside_block_struct:
130 ; GCN:       ; %bb.0: ; %bb0
131 ; GCN-NEXT:    s_waitcnt vmcnt(0) expcnt(0) lgkmcnt(0)
132 ; GCN-NEXT:    s_or_saveexec_b64 s[4:5], -1
133 ; GCN-NEXT:    buffer_store_dword v32, off, s[0:3], s32 ; 4-byte Folded Spill
134 ; GCN-NEXT:    s_mov_b64 exec, s[4:5]
135 ; GCN-NEXT:    v_writelane_b32 v32, s34, 2
136 ; GCN-NEXT:    v_writelane_b32 v32, s30, 0
137 ; GCN-NEXT:    s_mov_b32 s34, s32
138 ; GCN-NEXT:    s_add_u32 s32, s32, 0x400
139 ; GCN-NEXT:    s_getpc_b64 s[4:5]
140 ; GCN-NEXT:    s_add_u32 s4, s4, func_struct@rel32@lo+4
141 ; GCN-NEXT:    s_addc_u32 s5, s5, func_struct@rel32@hi+4
142 ; GCN-NEXT:    v_writelane_b32 v32, s31, 1
143 ; GCN-NEXT:    s_swappc_b64 s[30:31], s[4:5]
144 ; GCN-NEXT:    v_readlane_b32 s4, v32, 0
145 ; GCN-NEXT:    v_readlane_b32 s5, v32, 1
146 ; GCN-NEXT:    v_mov_b32_e32 v1, v4
147 ; GCN-NEXT:    s_sub_u32 s32, s32, 0x400
148 ; GCN-NEXT:    v_readlane_b32 s34, v32, 2
149 ; GCN-NEXT:    s_or_saveexec_b64 s[6:7], -1
150 ; GCN-NEXT:    buffer_load_dword v32, off, s[0:3], s32 ; 4-byte Folded Reload
151 ; GCN-NEXT:    s_mov_b64 exec, s[6:7]
152 ; GCN-NEXT:    s_waitcnt vmcnt(0)
153 ; GCN-NEXT:    s_setpc_b64 s[4:5]
154 bb0:
155   %split.ret.type = call { <4 x i32>, <4 x half> } @func_struct()
156   br label %bb1
158 bb1:
159   %val0 = extractvalue { <4 x i32>, <4 x half> } %split.ret.type, 0
160   %val1 = extractvalue { <4 x i32>, <4 x half> } %split.ret.type, 1
161   %extract0 = extractelement <4 x i32> %val0, i32 0
162   %extract1 = extractelement <4 x half> %val1, i32 0
163   %ins0 = insertvalue { i32, half } undef, i32 %extract0, 0
164   %ins1 = insertvalue { i32, half } %ins0, half %extract1, 1
165   ret { i32, half } %ins1
168 define amdgpu_kernel void @v3i16_registers(i1 %cond) #0 {
169 ; GCN-LABEL: v3i16_registers:
170 ; GCN:       ; %bb.0: ; %entry
171 ; GCN-NEXT:    s_load_dword s4, s[4:5], 0x0
172 ; GCN-NEXT:    s_mov_b32 s33, s9
173 ; GCN-NEXT:    s_add_u32 flat_scratch_lo, s6, s33
174 ; GCN-NEXT:    s_addc_u32 flat_scratch_hi, s7, 0
175 ; GCN-NEXT:    s_mov_b32 s32, s33
176 ; GCN-NEXT:    s_waitcnt lgkmcnt(0)
177 ; GCN-NEXT:    s_and_b32 s4, 1, s4
178 ; GCN-NEXT:    v_cmp_eq_u32_e64 s[4:5], s4, 1
179 ; GCN-NEXT:    s_and_b64 vcc, exec, s[4:5]
180 ; GCN-NEXT:    s_cbranch_vccz BB4_2
181 ; GCN-NEXT:  ; %bb.1:
182 ; GCN-NEXT:    s_mov_b32 s4, 0
183 ; GCN-NEXT:    s_mov_b32 s5, s4
184 ; GCN-NEXT:    v_mov_b32_e32 v0, s4
185 ; GCN-NEXT:    v_mov_b32_e32 v1, s5
186 ; GCN-NEXT:    s_branch BB4_3
187 ; GCN-NEXT:  BB4_2: ; %if.else
188 ; GCN-NEXT:    s_getpc_b64 s[4:5]
189 ; GCN-NEXT:    s_add_u32 s4, s4, func_v3i16@rel32@lo+4
190 ; GCN-NEXT:    s_addc_u32 s5, s5, func_v3i16@rel32@hi+4
191 ; GCN-NEXT:    s_swappc_b64 s[30:31], s[4:5]
192 ; GCN-NEXT:  BB4_3: ; %if.end
193 ; GCN-NEXT:    global_store_short v[0:1], v1, off
194 ; GCN-NEXT:    global_store_dword v[0:1], v0, off
195 ; GCN-NEXT:    s_endpgm
196 entry:
197   br i1 %cond, label %if.then, label %if.else
199 if.then:                                          ; preds = %entry
200   br label %if.end
202 if.else:                                          ; preds = %entry
203   %call6 = tail call <3 x i16> @func_v3i16() #0
204   br label %if.end
206 if.end:                                           ; preds = %if.else, %if.then
207   %call6.sink = phi <3 x i16> [ %call6, %if.else ], [ undef, %if.then ]
208   store <3 x i16> %call6.sink, <3 x i16> addrspace(1)* undef
209   ret void
212 define amdgpu_kernel void @v3f16_registers(i1 %cond) #0 {
213 ; GCN-LABEL: v3f16_registers:
214 ; GCN:       ; %bb.0: ; %entry
215 ; GCN-NEXT:    s_load_dword s4, s[4:5], 0x0
216 ; GCN-NEXT:    s_mov_b32 s33, s9
217 ; GCN-NEXT:    s_add_u32 flat_scratch_lo, s6, s33
218 ; GCN-NEXT:    s_addc_u32 flat_scratch_hi, s7, 0
219 ; GCN-NEXT:    s_mov_b32 s32, s33
220 ; GCN-NEXT:    s_waitcnt lgkmcnt(0)
221 ; GCN-NEXT:    s_and_b32 s4, 1, s4
222 ; GCN-NEXT:    v_cmp_eq_u32_e64 s[4:5], s4, 1
223 ; GCN-NEXT:    s_and_b64 vcc, exec, s[4:5]
224 ; GCN-NEXT:    s_cbranch_vccz BB5_2
225 ; GCN-NEXT:  ; %bb.1:
226 ; GCN-NEXT:    s_mov_b32 s4, 0
227 ; GCN-NEXT:    s_mov_b32 s5, s4
228 ; GCN-NEXT:    v_mov_b32_e32 v0, s4
229 ; GCN-NEXT:    v_mov_b32_e32 v1, s5
230 ; GCN-NEXT:    s_branch BB5_3
231 ; GCN-NEXT:  BB5_2: ; %if.else
232 ; GCN-NEXT:    s_getpc_b64 s[4:5]
233 ; GCN-NEXT:    s_add_u32 s4, s4, func_v3f16@rel32@lo+4
234 ; GCN-NEXT:    s_addc_u32 s5, s5, func_v3f16@rel32@hi+4
235 ; GCN-NEXT:    s_swappc_b64 s[30:31], s[4:5]
236 ; GCN-NEXT:  BB5_3: ; %if.end
237 ; GCN-NEXT:    global_store_short v[0:1], v1, off
238 ; GCN-NEXT:    global_store_dword v[0:1], v0, off
239 ; GCN-NEXT:    s_endpgm
240 entry:
241   br i1 %cond, label %if.then, label %if.else
243 if.then:                                          ; preds = %entry
244   br label %if.end
246 if.else:                                          ; preds = %entry
247   %call6 = tail call <3 x half> @func_v3f16() #0
248   br label %if.end
250 if.end:                                           ; preds = %if.else, %if.then
251   %call6.sink = phi <3 x half> [ %call6, %if.else ], [ undef, %if.then ]
252   store <3 x half> %call6.sink, <3 x half> addrspace(1)* undef
253   ret void
256 declare hidden <2 x float> @func_v2f32() #0
257 declare hidden <3 x float> @func_v3f32() #0
258 declare hidden <4 x float> @func_v4f32() #0
259 declare hidden <4 x half> @func_v4f16() #0
260 declare hidden <3 x i16> @func_v3i16()
261 declare hidden <3 x half> @func_v3f16()
263 declare hidden { <4 x i32>, <4 x half> } @func_struct() #0
265 attributes #0 = { nounwind}