Bump version to 19.1.0-rc3
[llvm-project.git] / llvm / test / CodeGen / AArch64 / sched-movprfx.ll
blob9e88d1659d45fceff8865dc632af72ed934665e7
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc -mtriple aarch64 -mcpu=tsv110 -mattr=+sve < %s  | FileCheck %s
4 ; Check that the movprfx intrinsic does not prevent load instructions from
5 ; being scheduled together. As load instructions have long latency, expected
6 ; be preferentially issued.
9 ; NOTE: The unused paramter ensures z0/z1 is free, avoiding the antidependence for schedule.
10 define <vscale x 2 x i64> @and_i64_zero(<vscale x 2 x i1> %pg, <vscale x 2 x i64> %a, <vscale x 2 x i64> %b, <vscale x 2 x i64> %c, ptr %base) {
11 ; CHECK-LABEL: and_i64_zero:
12 ; CHECK:       // %bb.0:
13 ; CHECK-NEXT:    ld1d { z1.d }, p0/z, [x0]
14 ; CHECK-NEXT:    ptrue p1.d
15 ; CHECK-NEXT:    movprfx z0, z2
16 ; CHECK-NEXT:    abs z0.d, p1/m, z2.d
17 ; CHECK-NEXT:    add z0.d, z0.d, z1.d
18 ; CHECK-NEXT:    ret
19   %data0 = tail call <vscale x 2 x i64> @llvm.abs.nxv2i64(<vscale x 2 x i64> %c, i1 0)
20   %data1 = call <vscale x 2 x i64> @llvm.masked.load.nxv2i64(ptr %base,
21                                                             i32 1,
22                                                             <vscale x 2 x i1> %pg,
23                                                             <vscale x 2 x i64> undef)
24   %out = add <vscale x 2 x i64> %data0, %data1
25   ret <vscale x 2 x i64> %out
28 declare <vscale x 2 x i64> @llvm.abs.nxv2i64(<vscale x 2 x i64>, i1)
29 declare <vscale x 2 x i64> @llvm.masked.load.nxv2i64(ptr, i32, <vscale x 2 x i1>, <vscale x 2 x i64>)