[X86] combineTargetShuffle - commute VPERMV3 shuffles so any load is on the RHS
[llvm-project.git] / llvm / test / CodeGen / SystemZ / fp-strict-conv-08.ll
blob2cbcf2a2ef0a33d2d05744f792abd762ed76594b
1 ; Test strict conversions of unsigned i64s to floating-point values (z10 only).
3 ; RUN: llc < %s -mtriple=s390x-linux-gnu -mcpu=z10 | FileCheck %s
5 declare float @llvm.experimental.constrained.uitofp.f32.i64(i64, metadata, metadata)
6 declare double @llvm.experimental.constrained.uitofp.f64.i64(i64, metadata, metadata)
7 declare fp128 @llvm.experimental.constrained.uitofp.f128.i64(i64, metadata, metadata)
9 ; Test i64->f32.  There's no native support for unsigned i64-to-fp conversions,
10 ; but we should be able to implement them using signed i64-to-fp conversions.
11 define float @f1(i64 %i) #0 {
12 ; CHECK-LABEL: f1:
13 ; CHECK: cegbr
14 ; CHECK: aebr
15 ; CHECK: br %r14
16   %conv = call float @llvm.experimental.constrained.uitofp.f32.i64(i64 %i,
17                                                metadata !"round.dynamic",
18                                                metadata !"fpexcept.strict") #0
19   ret float %conv
22 ; Test i64->f64.
23 define double @f2(i64 %i) #0 {
24 ; CHECK-LABEL: f2:
25 ; CHECK: cdgbr
26 ; CHECK: adbr
27 ; CHECK: br %r14
28   %conv = call double @llvm.experimental.constrained.uitofp.f64.i64(i64 %i,
29                                                metadata !"round.dynamic",
30                                                metadata !"fpexcept.strict") #0
31   ret double %conv
34 ; Test i64->f128.
35 define void @f3(i64 %i, ptr %dst) #0 {
36 ; CHECK-LABEL: f3:
37 ; CHECK: cxgbr
38 ; CHECK: axbr
39 ; CHECK: br %r14
40   %conv = call fp128 @llvm.experimental.constrained.uitofp.f128.i64(i64 %i,
41                                                metadata !"round.dynamic",
42                                                metadata !"fpexcept.strict") #0
43   store fp128 %conv, ptr %dst
44   ret void
47 attributes #0 = { strictfp }