[ARM] More MVE compare vector splat combines for ANDs
[llvm-complete.git] / test / CodeGen / AArch64 / GlobalISel / select-cmpxchg.mir
blob345c21d18fde04087a83b34d21c2b41f7f629d05
1 # NOTE: Assertions have been autogenerated by utils/update_mir_test_checks.py
2 # RUN: llc -mtriple=aarch64-- -mattr=+lse -run-pass=instruction-select -verify-machineinstrs %s -o - | FileCheck %s
4 --- |
5   target datalayout = "e-m:o-i64:64-i128:128-n32:64-S128"
7   define void @cmpxchg_i32(i64* %addr) { ret void }
8   define void @cmpxchg_i64(i64* %addr) { ret void }
9 ...
11 ---
12 name:            cmpxchg_i32
13 legalized:       true
14 regBankSelected: true
16 body:             |
17   bb.0:
18     liveins: $x0
20     ; CHECK-LABEL: name: cmpxchg_i32
21     ; CHECK: [[COPY:%[0-9]+]]:gpr64sp = COPY $x0
22     ; CHECK: [[CMP:%[0-9]+]]:gpr32 = MOVi32imm 0
23     ; CHECK: [[CST:%[0-9]+]]:gpr32 = MOVi32imm 1
24     ; CHECK: [[RES:%[0-9]+]]:gpr32 = CASW [[CMP]], [[CST]], [[COPY]] :: (load store monotonic 4 on %ir.addr)
25     ; CHECK: $w0 = COPY [[RES]]
26     %0:gpr(p0) = COPY $x0
27     %1:gpr(s32) = G_CONSTANT i32 0
28     %2:gpr(s32) = G_CONSTANT i32 1
29     %3:gpr(s32) = G_ATOMIC_CMPXCHG %0, %1, %2 :: (load store monotonic 4 on %ir.addr)
30     $w0 = COPY %3(s32)
31 ...
33 ---
34 name:            cmpxchg_i64
35 legalized:       true
36 regBankSelected: true
38 body:             |
39   bb.0:
40     liveins: $x0
42     ; CHECK-LABEL: name: cmpxchg_i64
43     ; CHECK: [[COPY:%[0-9]+]]:gpr64sp = COPY $x0
44     ; CHECK: [[CMP:%[0-9]+]]:gpr64 = MOVi64imm 0
45     ; CHECK: [[CST:%[0-9]+]]:gpr64 = MOVi64imm 1
46     ; CHECK: [[RES:%[0-9]+]]:gpr64 = CASX [[CMP]], [[CST]], [[COPY]] :: (load store monotonic 8 on %ir.addr)
47     ; CHECK: $x0 = COPY [[RES]]
48     %0:gpr(p0) = COPY $x0
49     %1:gpr(s64) = G_CONSTANT i64 0
50     %2:gpr(s64) = G_CONSTANT i64 1
51     %3:gpr(s64) = G_ATOMIC_CMPXCHG %0, %1, %2 :: (load store monotonic 8 on %ir.addr)
52     $x0 = COPY %3(s64)
53 ...