Bump version to 19.1.0-rc3
[llvm-project.git] / llvm / test / CodeGen / SPARC / 64atomics.ll
blobfeb37fdae52b03c13c6817f3047fea65d4afc824
1 ; RUN: llc < %s -march=sparc -mcpu=v9 -verify-machineinstrs | FileCheck %s --check-prefixes=SPARC,SPARC32
2 ; RUN: llc < %s -march=sparcv9 -verify-machineinstrs | FileCheck %s --check-prefixes=SPARC,SPARC64
4 ; SPARC-LABEL: test_atomic_i64
5 ; SPARC32:       __atomic_load_8
6 ; SPARC64:       ldx [%o0]
7 ; SPARC64:       membar
8 ; SPARC64:       ldx [%o1]
9 ; SPARC64:       membar
10 ; SPARC64:       membar
11 ; SPARC64:       stx {{.+}}, [%o2]
12 define i64 @test_atomic_i64(ptr %ptr1, ptr %ptr2, ptr %ptr3) {
13 entry:
14   %0 = load atomic i64, ptr %ptr1 acquire, align 8
15   %1 = load atomic i64, ptr %ptr2 acquire, align 8
16   %2 = add i64 %0, %1
17   store atomic i64 %2, ptr %ptr3 release, align 8
18   ret i64 %2
21 ; SPARC-LABEL: test_cmpxchg_i64
22 ; SPARC32:       __atomic_compare_exchange_8
23 ; SPARC64:       mov 123, [[R:%[gilo][0-7]]]
24 ; SPARC64:       casx [%o1], %o0, [[R]]
26 define i64 @test_cmpxchg_i64(i64 %a, ptr %ptr) {
27 entry:
28   %pair = cmpxchg ptr %ptr, i64 %a, i64 123 monotonic monotonic
29   %b = extractvalue { i64, i1 } %pair, 0
30   ret i64 %b
33 ; SPARC-LABEL: test_swap_i64
34 ; SPARC32:       __atomic_exchange_8
35 ; SPARC64:       casx [%o1],
37 define i64 @test_swap_i64(i64 %a, ptr %ptr) {
38 entry:
39   %b = atomicrmw xchg ptr %ptr, i64 42 monotonic
40   ret i64 %b
43 ; SPARC-LABEL: test_load_sub_64
44 ; SPARC32: __atomic_fetch_sub_8
45 ; SPARC64: membar
46 ; SPARC64: sub
47 ; SPARC64: casx [%o0]
48 ; SPARC64: membar
49 define zeroext i64 @test_load_sub_64(ptr %p, i64 zeroext %v) {
50 entry:
51   %0 = atomicrmw sub ptr %p, i64 %v seq_cst
52   ret i64 %0
55 ; SPARC-LABEL: test_load_max_64
56 ; SPARC32: __atomic_compare_exchange_8
57 ; SPARC64: membar
58 ; SPARC64: cmp
59 ; SPARC64: movg %xcc
60 ; SPARC64: casx [%o0]
61 ; SPARC64: membar
62 define zeroext i64 @test_load_max_64(ptr %p, i64 zeroext %v) {
63 entry:
64   %0 = atomicrmw max ptr %p, i64 %v seq_cst
65   ret i64 %0