[ARM] More MVE compare vector splat combines for ANDs
[llvm-complete.git] / test / CodeGen / RISCV / mem64.ll
blob32669e8aef36bfe56876288c365fd8e07e11c41a
1 ; NOTE: Assertions have been autogenerated by utils/update_llc_test_checks.py
2 ; RUN: llc -mtriple=riscv64 -verify-machineinstrs < %s \
3 ; RUN:   | FileCheck -check-prefix=RV64I %s
5 ; Check indexed and unindexed, sext, zext and anyext loads
7 define i64 @lb(i8 *%a) nounwind {
8 ; RV64I-LABEL: lb:
9 ; RV64I:       # %bb.0:
10 ; RV64I-NEXT:    lb a1, 0(a0)
11 ; RV64I-NEXT:    lb a0, 1(a0)
12 ; RV64I-NEXT:    ret
13   %1 = getelementptr i8, i8* %a, i32 1
14   %2 = load i8, i8* %1
15   %3 = sext i8 %2 to i64
16   ; the unused load will produce an anyext for selection
17   %4 = load volatile i8, i8* %a
18   ret i64 %3
21 define i64 @lh(i16 *%a) nounwind {
22 ; RV64I-LABEL: lh:
23 ; RV64I:       # %bb.0:
24 ; RV64I-NEXT:    lh a1, 0(a0)
25 ; RV64I-NEXT:    lh a0, 4(a0)
26 ; RV64I-NEXT:    ret
27   %1 = getelementptr i16, i16* %a, i32 2
28   %2 = load i16, i16* %1
29   %3 = sext i16 %2 to i64
30   ; the unused load will produce an anyext for selection
31   %4 = load volatile i16, i16* %a
32   ret i64 %3
35 define i64 @lw(i32 *%a) nounwind {
36 ; RV64I-LABEL: lw:
37 ; RV64I:       # %bb.0:
38 ; RV64I-NEXT:    lw a1, 0(a0)
39 ; RV64I-NEXT:    lw a0, 12(a0)
40 ; RV64I-NEXT:    ret
41   %1 = getelementptr i32, i32* %a, i32 3
42   %2 = load i32, i32* %1
43   %3 = sext i32 %2 to i64
44   ; the unused load will produce an anyext for selection
45   %4 = load volatile i32, i32* %a
46   ret i64 %3
49 define i64 @lbu(i8 *%a) nounwind {
50 ; RV64I-LABEL: lbu:
51 ; RV64I:       # %bb.0:
52 ; RV64I-NEXT:    lbu a1, 0(a0)
53 ; RV64I-NEXT:    lbu a0, 4(a0)
54 ; RV64I-NEXT:    add a0, a0, a1
55 ; RV64I-NEXT:    ret
56   %1 = getelementptr i8, i8* %a, i32 4
57   %2 = load i8, i8* %1
58   %3 = zext i8 %2 to i64
59   %4 = load volatile i8, i8* %a
60   %5 = zext i8 %4 to i64
61   %6 = add i64 %3, %5
62   ret i64 %6
65 define i64 @lhu(i16 *%a) nounwind {
66 ; RV64I-LABEL: lhu:
67 ; RV64I:       # %bb.0:
68 ; RV64I-NEXT:    lhu a1, 0(a0)
69 ; RV64I-NEXT:    lhu a0, 10(a0)
70 ; RV64I-NEXT:    add a0, a0, a1
71 ; RV64I-NEXT:    ret
72   %1 = getelementptr i16, i16* %a, i32 5
73   %2 = load i16, i16* %1
74   %3 = zext i16 %2 to i64
75   %4 = load volatile i16, i16* %a
76   %5 = zext i16 %4 to i64
77   %6 = add i64 %3, %5
78   ret i64 %6
81 define i64 @lwu(i32 *%a) nounwind {
82 ; RV64I-LABEL: lwu:
83 ; RV64I:       # %bb.0:
84 ; RV64I-NEXT:    lwu a1, 0(a0)
85 ; RV64I-NEXT:    lwu a0, 24(a0)
86 ; RV64I-NEXT:    add a0, a0, a1
87 ; RV64I-NEXT:    ret
88   %1 = getelementptr i32, i32* %a, i32 6
89   %2 = load i32, i32* %1
90   %3 = zext i32 %2 to i64
91   %4 = load volatile i32, i32* %a
92   %5 = zext i32 %4 to i64
93   %6 = add i64 %3, %5
94   ret i64 %6
97 ; Check indexed and unindexed stores
99 define void @sb(i8 *%a, i8 %b) nounwind {
100 ; RV64I-LABEL: sb:
101 ; RV64I:       # %bb.0:
102 ; RV64I-NEXT:    sb a1, 7(a0)
103 ; RV64I-NEXT:    sb a1, 0(a0)
104 ; RV64I-NEXT:    ret
105   store i8 %b, i8* %a
106   %1 = getelementptr i8, i8* %a, i32 7
107   store i8 %b, i8* %1
108   ret void
111 define void @sh(i16 *%a, i16 %b) nounwind {
112 ; RV64I-LABEL: sh:
113 ; RV64I:       # %bb.0:
114 ; RV64I-NEXT:    sh a1, 16(a0)
115 ; RV64I-NEXT:    sh a1, 0(a0)
116 ; RV64I-NEXT:    ret
117   store i16 %b, i16* %a
118   %1 = getelementptr i16, i16* %a, i32 8
119   store i16 %b, i16* %1
120   ret void
123 define void @sw(i32 *%a, i32 %b) nounwind {
124 ; RV64I-LABEL: sw:
125 ; RV64I:       # %bb.0:
126 ; RV64I-NEXT:    sw a1, 36(a0)
127 ; RV64I-NEXT:    sw a1, 0(a0)
128 ; RV64I-NEXT:    ret
129   store i32 %b, i32* %a
130   %1 = getelementptr i32, i32* %a, i32 9
131   store i32 %b, i32* %1
132   ret void
135 ; 64-bit loads and stores
137 define i64 @ld(i64 *%a) nounwind {
138 ; RV64I-LABEL: ld:
139 ; RV64I:       # %bb.0:
140 ; RV64I-NEXT:    ld a1, 0(a0)
141 ; RV64I-NEXT:    ld a0, 80(a0)
142 ; RV64I-NEXT:    ret
143   %1 = getelementptr i64, i64* %a, i32 10
144   %2 = load i64, i64* %1
145   %3 = load volatile i64, i64* %a
146   ret i64 %2
149 define void @sd(i64 *%a, i64 %b) nounwind {
150 ; RV64I-LABEL: sd:
151 ; RV64I:       # %bb.0:
152 ; RV64I-NEXT:    sd a1, 88(a0)
153 ; RV64I-NEXT:    sd a1, 0(a0)
154 ; RV64I-NEXT:    ret
155   store i64 %b, i64* %a
156   %1 = getelementptr i64, i64* %a, i32 11
157   store i64 %b, i64* %1
158   ret void
161 ; Check load and store to an i1 location
162 define i64 @load_sext_zext_anyext_i1(i1 *%a) nounwind {
163 ; RV64I-LABEL: load_sext_zext_anyext_i1:
164 ; RV64I:       # %bb.0:
165 ; RV64I-NEXT:    lb a1, 0(a0)
166 ; RV64I-NEXT:    lbu a1, 1(a0)
167 ; RV64I-NEXT:    lbu a0, 2(a0)
168 ; RV64I-NEXT:    sub a0, a0, a1
169 ; RV64I-NEXT:    ret
170   ; sextload i1
171   %1 = getelementptr i1, i1* %a, i32 1
172   %2 = load i1, i1* %1
173   %3 = sext i1 %2 to i64
174   ; zextload i1
175   %4 = getelementptr i1, i1* %a, i32 2
176   %5 = load i1, i1* %4
177   %6 = zext i1 %5 to i64
178   %7 = add i64 %3, %6
179   ; extload i1 (anyext). Produced as the load is unused.
180   %8 = load volatile i1, i1* %a
181   ret i64 %7
184 define i16 @load_sext_zext_anyext_i1_i16(i1 *%a) nounwind {
185 ; RV64I-LABEL: load_sext_zext_anyext_i1_i16:
186 ; RV64I:       # %bb.0:
187 ; RV64I-NEXT:    lb a1, 0(a0)
188 ; RV64I-NEXT:    lbu a1, 1(a0)
189 ; RV64I-NEXT:    lbu a0, 2(a0)
190 ; RV64I-NEXT:    sub a0, a0, a1
191 ; RV64I-NEXT:    ret
192   ; sextload i1
193   %1 = getelementptr i1, i1* %a, i32 1
194   %2 = load i1, i1* %1
195   %3 = sext i1 %2 to i16
196   ; zextload i1
197   %4 = getelementptr i1, i1* %a, i32 2
198   %5 = load i1, i1* %4
199   %6 = zext i1 %5 to i16
200   %7 = add i16 %3, %6
201   ; extload i1 (anyext). Produced as the load is unused.
202   %8 = load volatile i1, i1* %a
203   ret i16 %7
206 ; Check load and store to a global
207 @G = global i64 0
209 define i64 @ld_sd_global(i64 %a) nounwind {
210 ; RV64I-LABEL: ld_sd_global:
211 ; RV64I:       # %bb.0:
212 ; RV64I-NEXT:    lui a2, %hi(G)
213 ; RV64I-NEXT:    ld a1, %lo(G)(a2)
214 ; RV64I-NEXT:    sd a0, %lo(G)(a2)
215 ; RV64I-NEXT:    addi a2, a2, %lo(G)
216 ; RV64I-NEXT:    ld a3, 72(a2)
217 ; RV64I-NEXT:    sd a0, 72(a2)
218 ; RV64I-NEXT:    mv a0, a1
219 ; RV64I-NEXT:    ret
220   %1 = load volatile i64, i64* @G
221   store i64 %a, i64* @G
222   %2 = getelementptr i64, i64* @G, i64 9
223   %3 = load volatile i64, i64* %2
224   store i64 %a, i64* %2
225   ret i64 %1