Bump version to 19.1.0-rc3
[llvm-project.git] / llvm / test / CodeGen / AArch64 / arm64-patchpoint-scratch-regs.ll
blob04bfe9b4d9d718d034d0944e33624aeff94d2f2f
1 ; RUN: llc -mtriple=arm64-apple-darwin -enable-misched=0 -mcpu=cyclone < %s | FileCheck %s
3 ; Test that scratch registers are spilled around patchpoints
4 ; CHECK: InlineAsm End
5 ; CHECK-NEXT: mov x{{[0-9]+}}, x16
6 ; CHECK-NEXT: mov x{{[0-9]+}}, x17
7 ; CHECK-NEXT: Ltmp
8 ; CHECK-NEXT: nop
9 define void @clobberScratch(ptr %p) {
10   %v = load i32, ptr %p
11   tail call void asm sideeffect "nop", "~{x0},~{x1},~{x2},~{x3},~{x4},~{x5},~{x6},~{x7},~{x8},~{x9},~{x10},~{x11},~{x12},~{x13},~{x14},~{x15},~{x18},~{x19},~{x20},~{x21},~{x22},~{x23},~{x24},~{x25},~{x26},~{x27},~{x28},~{x29},~{x30},~{x31}"() nounwind
12   tail call void (i64, i32, ptr, i32, ...) @llvm.experimental.patchpoint.void(i64 5, i32 20, ptr null, i32 0, ptr %p, i32 %v)
13   store i32 %v, ptr %p
14   ret void
17 declare void @llvm.experimental.patchpoint.void(i64, i32, ptr, i32, ...)