1 // RUN: %clang_cc1 %s -flax-vector-conversions=none -ffreestanding -triple=x86_64 -target-feature +avx10.2-256 \
2 // RUN: -emit-llvm -o - -Wno-invalid-feature-combination -Wall -Werror | FileCheck %s
3 // RUN: %clang_cc1 %s -flax-vector-conversions=none -ffreestanding -triple=i386 -target-feature +avx10.2-256 \
4 // RUN: -emit-llvm -o - -Wno-invalid-feature-combination -Wall -Werror | FileCheck %s
8 __m128bh
test_mm_minmaxne_pbh(__m128bh __A
, __m128bh __B
) {
9 // CHECK-LABEL: @test_mm_minmaxne_pbh(
10 // CHECK: call <8 x bfloat> @llvm.x86.avx10.vminmaxnepbf16128(
11 return _mm_minmaxne_pbh(__A
, __B
, 127);
14 __m128bh
test_mm_mask_minmaxne_pbh(__m128bh __A
, __mmask8 __B
, __m128bh __C
, __m128bh __D
) {
15 // CHECK-LABEL: @test_mm_mask_minmaxne_pbh(
16 // CHECK: call <8 x bfloat> @llvm.x86.avx10.vminmaxnepbf16128(
17 // CHECK: select <8 x i1> %{{.*}}, <8 x bfloat> %{{.*}}, <8 x bfloat> %{{.*}}
18 return _mm_mask_minmaxne_pbh(__A
, __B
, __C
, __D
, 127);
21 __m128bh
test_mm_maskz_minmaxne_pbh(__mmask8 __A
, __m128bh __B
, __m128bh __C
) {
22 // CHECK-LABEL: @test_mm_maskz_minmaxne_pbh(
23 // CHECK: call <8 x bfloat> @llvm.x86.avx10.vminmaxnepbf16128(
24 // CHECK: zeroinitializer
25 // CHECK: select <8 x i1> %{{.*}}, <8 x bfloat> %{{.*}}, <8 x bfloat> %{{.*}}
26 return _mm_maskz_minmaxne_pbh(__A
, __B
, __C
, 127);
29 __m256bh
test_mm256_minmaxne_pbh(__m256bh __A
, __m256bh __B
) {
30 // CHECK-LABEL: @test_mm256_minmaxne_pbh(
31 // CHECK: call <16 x bfloat> @llvm.x86.avx10.vminmaxnepbf16256(
32 return _mm256_minmaxne_pbh(__A
, __B
, 127);
35 __m256bh
test_mm256_mask_minmaxne_pbh(__m256bh __A
, __mmask16 __B
, __m256bh __C
, __m256bh __D
) {
36 // CHECK-LABEL: @test_mm256_mask_minmaxne_pbh(
37 // CHECK: call <16 x bfloat> @llvm.x86.avx10.vminmaxnepbf16256(
38 // CHECK: select <16 x i1> %{{.*}}, <16 x bfloat> %{{.*}}, <16 x bfloat> %{{.*}}
39 return _mm256_mask_minmaxne_pbh(__A
, __B
, __C
, __D
, 127);
42 __m256bh
test_mm256_maskz_minmaxne_pbh(__mmask16 __A
, __m256bh __B
, __m256bh __C
) {
43 // CHECK-LABEL: @test_mm256_maskz_minmaxne_pbh(
44 // CHECK: call <16 x bfloat> @llvm.x86.avx10.vminmaxnepbf16256(
45 // CHECK: zeroinitializer
46 // CHECK: select <16 x i1> %{{.*}}, <16 x bfloat> %{{.*}}, <16 x bfloat> %{{.*}}
47 return _mm256_maskz_minmaxne_pbh(__A
, __B
, __C
, 127);
50 __m128d
test_mm_minmax_pd(__m128d __A
, __m128d __B
) {
51 // CHECK-LABEL: @test_mm_minmax_pd(
52 // CHECK: call <2 x double> @llvm.x86.avx10.mask.vminmaxpd128(
53 return _mm_minmax_pd(__A
, __B
, 127);
56 __m128d
test_mm_mask_minmax_pd(__m128d __A
, __mmask8 __B
, __m128d __C
, __m128d __D
) {
57 // CHECK-LABEL: @test_mm_mask_minmax_pd(
58 // CHECK: call <2 x double> @llvm.x86.avx10.mask.vminmaxpd128(
59 return _mm_mask_minmax_pd(__A
, __B
, __C
, __D
, 127);
62 __m128d
test_mm_maskz_minmax_pd(__mmask8 __A
, __m128d __B
, __m128d __C
) {
63 // CHECK-LABEL: @test_mm_maskz_minmax_pd(
64 // CHECK: call <2 x double> @llvm.x86.avx10.mask.vminmaxpd128(
65 return _mm_maskz_minmax_pd(__A
, __B
, __C
, 127);
68 __m256d
test_mm256_minmax_pd(__m256d __A
, __m256d __B
) {
69 // CHECK-LABEL: @test_mm256_minmax_pd(
70 // CHECK: call <4 x double> @llvm.x86.avx10.mask.vminmaxpd256.round(
71 return _mm256_minmax_pd(__A
, __B
, 127);
74 __m256d
test_mm256_mask_minmax_pd(__m256d __A
, __mmask8 __B
, __m256d __C
, __m256d __D
) {
75 // CHECK-LABEL: @test_mm256_mask_minmax_pd(
76 // CHECK: call <4 x double> @llvm.x86.avx10.mask.vminmaxpd256.round(
77 return _mm256_mask_minmax_pd(__A
, __B
, __C
, __D
, 127);
80 __m256d
test_mm256_maskz_minmax_pd(__mmask8 __A
, __m256d __B
, __m256d __C
) {
81 // CHECK-LABEL: @test_mm256_maskz_minmax_pd(
82 // CHECK: call <4 x double> @llvm.x86.avx10.mask.vminmaxpd256.round(
83 return _mm256_maskz_minmax_pd(__A
, __B
, __C
, 127);
86 __m256d
test_mm256_minmax_round_pd(__m256d __A
, __m256d __B
) {
87 // CHECK-LABEL: @test_mm256_minmax_round_pd(
88 // CHECK: call <4 x double> @llvm.x86.avx10.mask.vminmaxpd256.round(
89 return _mm256_minmax_round_pd(__A
, __B
, 127, _MM_FROUND_NO_EXC
);
92 __m256d
test_mm256_mask_minmax_round_pd(__m256d __A
, __mmask8 __B
, __m256d __C
, __m256d __D
) {
93 // CHECK-LABEL: @test_mm256_mask_minmax_round_pd(
94 // CHECK: call <4 x double> @llvm.x86.avx10.mask.vminmaxpd256.round(
95 return _mm256_mask_minmax_round_pd(__A
, __B
, __C
, __D
, 127, _MM_FROUND_NO_EXC
);
98 __m256d
test_mm256_maskz_minmax_round_pd(__mmask8 __A
, __m256d __B
, __m256d __C
) {
99 // CHECK-LABEL: @test_mm256_maskz_minmax_round_pd(
100 // CHECK: call <4 x double> @llvm.x86.avx10.mask.vminmaxpd256.round(
101 return _mm256_maskz_minmax_round_pd(__A
, __B
, __C
, 127, _MM_FROUND_NO_EXC
);
104 __m128h
test_mm_minmax_ph(__m128h __A
, __m128h __B
) {
105 // CHECK-LABEL: @test_mm_minmax_ph(
106 // CHECK: call <8 x half> @llvm.x86.avx10.mask.vminmaxph128(
107 return _mm_minmax_ph(__A
, __B
, 127);
110 __m128h
test_mm_mask_minmax_ph(__m128h __A
, __mmask8 __B
, __m128h __C
, __m128h __D
) {
111 // CHECK-LABEL: @test_mm_mask_minmax_ph(
112 // CHECK: call <8 x half> @llvm.x86.avx10.mask.vminmaxph128(
113 return _mm_mask_minmax_ph(__A
, __B
, __C
, __D
, 127);
116 __m128h
test_mm_maskz_minmax_ph(__mmask8 __A
, __m128h __B
, __m128h __C
) {
117 // CHECK-LABEL: @test_mm_maskz_minmax_ph(
118 // CHECK: call <8 x half> @llvm.x86.avx10.mask.vminmaxph128(
119 return _mm_maskz_minmax_ph(__A
, __B
, __C
, 127);
122 __m256h
test_mm256_minmax_ph(__m256h __A
, __m256h __B
) {
123 // CHECK-LABEL: @test_mm256_minmax_ph(
124 // CHECK: call <16 x half> @llvm.x86.avx10.mask.vminmaxph256.round(
125 return _mm256_minmax_ph(__A
, __B
, 127);
128 __m256h
test_mm256_mask_minmax_ph(__m256h __A
, __mmask16 __B
, __m256h __C
, __m256h __D
) {
129 // CHECK-LABEL: @test_mm256_mask_minmax_ph(
130 // CHECK: call <16 x half> @llvm.x86.avx10.mask.vminmaxph256.round(
131 return _mm256_mask_minmax_ph(__A
, __B
, __C
, __D
, 127);
134 __m256h
test_mm256_maskz_minmax_ph(__mmask16 __A
, __m256h __B
, __m256h __C
) {
135 // CHECK-LABEL: @test_mm256_maskz_minmax_ph(
136 // CHECK: call <16 x half> @llvm.x86.avx10.mask.vminmaxph256.round(
137 return _mm256_maskz_minmax_ph(__A
, __B
, __C
, 127);
140 __m256h
test_mm256_minmax_round_ph(__m256h __A
, __m256h __B
) {
141 // CHECK-LABEL: @test_mm256_minmax_round_ph(
142 // CHECK: call <16 x half> @llvm.x86.avx10.mask.vminmaxph256.round(
143 return _mm256_minmax_round_ph(__A
, __B
, 127, _MM_FROUND_NO_EXC
);
146 __m256h
test_mm256_mask_minmax_round_ph(__m256h __A
, __mmask16 __B
, __m256h __C
, __m256h __D
) {
147 // CHECK-LABEL: @test_mm256_mask_minmax_round_ph(
148 // CHECK: call <16 x half> @llvm.x86.avx10.mask.vminmaxph256.round(
149 return _mm256_mask_minmax_round_ph(__A
, __B
, __C
, __D
, 127, _MM_FROUND_NO_EXC
);
152 __m256h
test_mm256_maskz_minmax_round_ph(__mmask16 __A
, __m256h __B
, __m256h __C
) {
153 // CHECK-LABEL: @test_mm256_maskz_minmax_round_ph(
154 // CHECK: call <16 x half> @llvm.x86.avx10.mask.vminmaxph256.round(
155 return _mm256_maskz_minmax_round_ph(__A
, __B
, __C
, 127, _MM_FROUND_NO_EXC
);
158 __m128
test_mm_minmax_ps(__m128 __A
, __m128 __B
) {
159 // CHECK-LABEL: @test_mm_minmax_ps(
160 // CHECK: call <4 x float> @llvm.x86.avx10.mask.vminmaxps128(
161 return _mm_minmax_ps(__A
, __B
, 127);
164 __m128
test_mm_mask_minmax_ps(__m128 __A
, __mmask8 __B
, __m128 __C
, __m128 __D
) {
165 // CHECK-LABEL: @test_mm_mask_minmax_ps(
166 // CHECK: call <4 x float> @llvm.x86.avx10.mask.vminmaxps128(
167 return _mm_mask_minmax_ps(__A
, __B
, __C
, __D
, 127);
170 __m128
test_mm_maskz_minmax_ps(__mmask8 __A
, __m128 __B
, __m128 __C
) {
171 // CHECK-LABEL: @test_mm_maskz_minmax_ps(
172 // CHECK: call <4 x float> @llvm.x86.avx10.mask.vminmaxps128(
173 return _mm_maskz_minmax_ps(__A
, __B
, __C
, 127);
176 __m256
test_mm256_minmax_ps(__m256 __A
, __m256 __B
) {
177 // CHECK-LABEL: @test_mm256_minmax_ps(
178 // CHECK: call <8 x float> @llvm.x86.avx10.mask.vminmaxps256.round(
179 return _mm256_minmax_ps(__A
, __B
, 127);
182 __m256
test_mm256_mask_minmax_ps(__m256 __A
, __mmask8 __B
, __m256 __C
, __m256 __D
) {
183 // CHECK-LABEL: @test_mm256_mask_minmax_ps(
184 // CHECK: call <8 x float> @llvm.x86.avx10.mask.vminmaxps256.round(
185 return _mm256_mask_minmax_ps(__A
, __B
, __C
, __D
, 127);
188 __m256
test_mm256_maskz_minmax_ps(__mmask8 __A
, __m256 __B
, __m256 __C
) {
189 // CHECK-LABEL: @test_mm256_maskz_minmax_ps(
190 // CHECK: call <8 x float> @llvm.x86.avx10.mask.vminmaxps256.round(
191 return _mm256_maskz_minmax_ps(__A
, __B
, __C
, 127);
194 __m256
test_mm256_minmax_round_ps(__m256 __A
, __m256 __B
) {
195 // CHECK-LABEL: @test_mm256_minmax_round_ps(
196 // CHECK: call <8 x float> @llvm.x86.avx10.mask.vminmaxps256.round(
197 return _mm256_minmax_round_ps(__A
, __B
, 127, _MM_FROUND_NO_EXC
);
200 __m256
test_mm256_mask_minmax_round_ps(__m256 __A
, __mmask8 __B
, __m256 __C
, __m256 __D
) {
201 // CHECK-LABEL: @test_mm256_mask_minmax_round_ps(
202 // CHECK: call <8 x float> @llvm.x86.avx10.mask.vminmaxps256.round(
203 return _mm256_mask_minmax_round_ps(__A
, __B
, __C
, __D
, 127, _MM_FROUND_NO_EXC
);
206 __m256
test_mm256_maskz_minmax_round_ps(__mmask8 __A
, __m256 __B
, __m256 __C
) {
207 // CHECK-LABEL: @test_mm256_maskz_minmax_round_ps(
208 // CHECK: call <8 x float> @llvm.x86.avx10.mask.vminmaxps256.round(
209 return _mm256_maskz_minmax_round_ps(__A
, __B
, __C
, 127, _MM_FROUND_NO_EXC
);
212 __m128d
test_mm_minmax_sd(__m128d __A
, __m128d __B
) {
213 // CHECK-LABEL: @test_mm_minmax_sd(
214 // CHECK: call <2 x double> @llvm.x86.avx10.mask.vminmaxsd.round(
215 return _mm_minmax_sd(__A
, __B
, 127);
218 __m128d
test_mm_mask_minmax_sd(__m128d __A
, __mmask8 __B
, __m128d __C
, __m128d __D
) {
219 // CHECK-LABEL: @test_mm_mask_minmax_sd(
220 // CHECK: call <2 x double> @llvm.x86.avx10.mask.vminmaxsd.round(
221 return _mm_mask_minmax_sd(__A
, __B
, __C
, __D
, 127);
224 __m128d
test_mm_maskz_minmax_sd(__mmask8 __A
, __m128d __B
, __m128d __C
) {
225 // CHECK-LABEL: @test_mm_maskz_minmax_sd(
226 // CHECK: call <2 x double> @llvm.x86.avx10.mask.vminmaxsd.round(
227 return _mm_maskz_minmax_sd(__A
, __B
, __C
, 127);
230 __m128d
test_mm_minmax_round_sd(__m128d __A
, __m128d __B
) {
231 // CHECK-LABEL: @test_mm_minmax_round_sd(
232 // CHECK: call <2 x double> @llvm.x86.avx10.mask.vminmaxsd.round(
233 return _mm_minmax_round_sd(__A
, __B
, 127, _MM_FROUND_NO_EXC
);
236 __m128d
test_mm_mask_minmax_round_sd(__m128d __A
, __mmask8 __B
, __m128d __C
, __m128d __D
) {
237 // CHECK-LABEL: @test_mm_mask_minmax_round_sd(
238 // CHECK: call <2 x double> @llvm.x86.avx10.mask.vminmaxsd.round(
239 return _mm_mask_minmax_round_sd(__A
, __B
, __C
, __D
, 127, _MM_FROUND_NO_EXC
);
242 __m128d
test_mm_maskz_minmax_round_sd(__mmask8 __A
, __m128d __B
, __m128d __C
) {
243 // CHECK-LABEL: @test_mm_maskz_minmax_round_sd(
244 // CHECK: call <2 x double> @llvm.x86.avx10.mask.vminmaxsd.round(
245 return _mm_maskz_minmax_round_sd(__A
, __B
, __C
, 127, _MM_FROUND_NO_EXC
);
248 __m128h
test_mm_minmax_sh(__m128h __A
, __m128h __B
) {
249 // CHECK-LABEL: @test_mm_minmax_sh(
250 // CHECK: call <8 x half> @llvm.x86.avx10.mask.vminmaxsh.round(
251 return _mm_minmax_sh(__A
, __B
, 127);
254 __m128h
test_mm_mask_minmax_sh(__m128h __A
, __mmask8 __B
, __m128h __C
, __m128h __D
) {
255 // CHECK-LABEL: @test_mm_mask_minmax_sh(
256 // CHECK: call <8 x half> @llvm.x86.avx10.mask.vminmaxsh.round(
257 return _mm_mask_minmax_sh(__A
, __B
, __C
, __D
, 127);
260 __m128h
test_mm_maskz_minmax_sh(__mmask8 __A
, __m128h __B
, __m128h __C
) {
261 // CHECK-LABEL: @test_mm_maskz_minmax_sh(
262 // CHECK: call <8 x half> @llvm.x86.avx10.mask.vminmaxsh.round(
263 return _mm_maskz_minmax_sh(__A
, __B
, __C
, 127);
266 __m128h
test_mm_minmax_round_sh(__m128h __A
, __m128h __B
) {
267 // CHECK-LABEL: @test_mm_minmax_round_sh(
268 // CHECK: call <8 x half> @llvm.x86.avx10.mask.vminmaxsh.round(
269 return _mm_minmax_round_sh(__A
, __B
, 127, _MM_FROUND_NO_EXC
);
272 __m128h
test_mm_mask_minmax_round_sh(__m128h __A
, __mmask8 __B
, __m128h __C
, __m128h __D
) {
273 // CHECK-LABEL: @test_mm_mask_minmax_round_sh(
274 // CHECK: call <8 x half> @llvm.x86.avx10.mask.vminmaxsh.round(
275 return _mm_mask_minmax_round_sh(__A
, __B
, __C
, __D
, 127, _MM_FROUND_NO_EXC
);
278 __m128h
test_mm_maskz_minmax_round_sh(__mmask8 __A
, __m128h __B
, __m128h __C
) {
279 // CHECK-LABEL: @test_mm_maskz_minmax_round_sh(
280 // CHECK: call <8 x half> @llvm.x86.avx10.mask.vminmaxsh.round(
281 return _mm_maskz_minmax_round_sh(__A
, __B
, __C
, 127, _MM_FROUND_NO_EXC
);
284 __m128
test_mm_minmax_ss(__m128 __A
, __m128 __B
) {
285 // CHECK-LABEL: @test_mm_minmax_ss(
286 // CHECK: call <4 x float> @llvm.x86.avx10.mask.vminmaxss.round(
287 return _mm_minmax_ss(__A
, __B
, 127);
290 __m128
test_mm_mask_minmax_ss(__m128 __A
, __mmask8 __B
, __m128 __C
, __m128 __D
) {
291 // CHECK-LABEL: @test_mm_mask_minmax_ss(
292 // CHECK: call <4 x float> @llvm.x86.avx10.mask.vminmaxss.round(
293 return _mm_mask_minmax_ss(__A
, __B
, __C
, __D
, 127);
296 __m128
test_mm_maskz_minmax_ss(__mmask8 __A
, __m128 __B
, __m128 __C
) {
297 // CHECK-LABEL: @test_mm_maskz_minmax_ss(
298 // CHECK: call <4 x float> @llvm.x86.avx10.mask.vminmaxss.round(
299 return _mm_maskz_minmax_ss(__A
, __B
, __C
, 127);
302 __m128
test_mm_minmax_round_ss(__m128 __A
, __m128 __B
) {
303 // CHECK-LABEL: @test_mm_minmax_round_ss(
304 // CHECK: call <4 x float> @llvm.x86.avx10.mask.vminmaxss.round(
305 return _mm_minmax_round_ss(__A
, __B
, 127, _MM_FROUND_NO_EXC
);
308 __m128
test_mm_mask_minmax_round_ss(__m128 __A
, __mmask8 __B
, __m128 __C
, __m128 __D
) {
309 // CHECK-LABEL: @test_mm_mask_minmax_round_ss(
310 // CHECK: call <4 x float> @llvm.x86.avx10.mask.vminmaxss.round(
311 return _mm_mask_minmax_round_ss(__A
, __B
, __C
, __D
, 127, _MM_FROUND_NO_EXC
);
314 __m128
test_mm_maskz_minmax_round_ss(__mmask8 __A
, __m128 __B
, __m128 __C
) {
315 // CHECK-LABEL: @test_mm_maskz_minmax_round_ss(
316 // CHECK: call <4 x float> @llvm.x86.avx10.mask.vminmaxss.round(
317 return _mm_maskz_minmax_round_ss(__A
, __B
, __C
, 127, _MM_FROUND_NO_EXC
);