[NFC][RemoveDIs] Prefer iterators over inst-pointers in InstCombine
[llvm-project.git] / llvm / test / CodeGen / AArch64 / GlobalISel / prelegalizercombiner-sextload-from-sextinreg.mir
blobb9a4a5fb580ee726a9c07640412995355e991da8
1 # NOTE: Assertions have been autogenerated by utils/update_mir_test_checks.py
2 # RUN: llc -mtriple aarch64 -run-pass=aarch64-prelegalizer-combiner -verify-machineinstrs %s -o - | FileCheck %s
3 ---
4 name:            sextload_from_inreg
5 alignment:       4
6 tracksRegLiveness: true
7 liveins:
8   - { reg: '$x0' }
9 body:             |
10   bb.1:
11     liveins: $x0
13     ; CHECK-LABEL: name: sextload_from_inreg
14     ; CHECK: liveins: $x0
15     ; CHECK: [[COPY:%[0-9]+]]:_(p0) = COPY $x0
16     ; CHECK: [[SEXTLOAD:%[0-9]+]]:_(s16) = G_SEXTLOAD [[COPY]](p0) :: (load (s8), align 2)
17     ; CHECK: [[ANYEXT:%[0-9]+]]:_(s32) = G_ANYEXT [[SEXTLOAD]](s16)
18     ; CHECK: $w0 = COPY [[ANYEXT]](s32)
19     ; CHECK: RET_ReallyLR implicit $w0
20     %0:_(p0) = COPY $x0
21     %1:_(s16) = G_LOAD %0(p0) :: (load (s16))
22     %2:_(s16) = G_SEXT_INREG %1, 8
23     %3:_(s32) = G_ANYEXT %2(s16)
24     $w0 = COPY %3(s32)
25     RET_ReallyLR implicit $w0
27 ...
28 ---
29 name:            sextload_from_inreg_across_store
30 alignment:       4
31 tracksRegLiveness: true
32 liveins:
33   - { reg: '$x0' }
34 body:             |
35   bb.1:
36     liveins: $x0
37     ; Check that the extend gets folded into the load, not the other way around, which
38     ; could cause mem dependence violations.
39     ; CHECK-LABEL: name: sextload_from_inreg_across_store
40     ; CHECK: liveins: $x0
41     ; CHECK: [[COPY:%[0-9]+]]:_(p0) = COPY $x0
42     ; CHECK: [[SEXTLOAD:%[0-9]+]]:_(s16) = G_SEXTLOAD [[COPY]](p0) :: (load (s8), align 2)
43     ; CHECK: G_STORE [[COPY]](p0), [[COPY]](p0) :: (store (p0))
44     ; CHECK: [[ANYEXT:%[0-9]+]]:_(s32) = G_ANYEXT [[SEXTLOAD]](s16)
45     ; CHECK: $w0 = COPY [[ANYEXT]](s32)
46     ; CHECK: RET_ReallyLR implicit $w0
47     %0:_(p0) = COPY $x0
48     %1:_(s16) = G_LOAD %0(p0) :: (load (s16))
49     G_STORE %0(p0), %0(p0) :: (store (p0))
50     %2:_(s16) = G_SEXT_INREG %1, 8
51     %3:_(s32) = G_ANYEXT %2(s16)
52     $w0 = COPY %3(s32)
53     RET_ReallyLR implicit $w0
55 ...
56 ---
57 name:            non_pow_2_inreg
58 alignment:       4
59 tracksRegLiveness: true
60 liveins:
61   - { reg: '$x0' }
62 body:             |
63   bb.1:
64     liveins: $x0
66     ; CHECK-LABEL: name: non_pow_2_inreg
67     ; CHECK: liveins: $x0
68     ; CHECK: [[COPY:%[0-9]+]]:_(p0) = COPY $x0
69     ; CHECK: [[LOAD:%[0-9]+]]:_(s32) = G_LOAD [[COPY]](p0) :: (load (s32))
70     ; CHECK: [[SEXT_INREG:%[0-9]+]]:_(s32) = G_SEXT_INREG [[LOAD]], 24
71     ; CHECK: $w0 = COPY [[SEXT_INREG]](s32)
72     ; CHECK: RET_ReallyLR implicit $w0
73     %0:_(p0) = COPY $x0
74     %1:_(s32) = G_LOAD %0(p0) :: (load (s32))
75     %2:_(s32) = G_SEXT_INREG %1, 24
76     $w0 = COPY %2(s32)
77     RET_ReallyLR implicit $w0
79 ...
80 ---
81 name:            atomic
82 alignment:       4
83 tracksRegLiveness: true
84 liveins:
85   - { reg: '$x0' }
86 body:             |
87   bb.1:
88     liveins: $x0
90     ; CHECK-LABEL: name: atomic
91     ; CHECK: liveins: $x0
92     ; CHECK: [[COPY:%[0-9]+]]:_(p0) = COPY $x0
93     ; CHECK: [[LOAD:%[0-9]+]]:_(s16) = G_LOAD [[COPY]](p0) :: (load acquire (s16))
94     ; CHECK: [[SEXT_INREG:%[0-9]+]]:_(s16) = G_SEXT_INREG [[LOAD]], 8
95     ; CHECK: [[ANYEXT:%[0-9]+]]:_(s32) = G_ANYEXT [[SEXT_INREG]](s16)
96     ; CHECK: $w0 = COPY [[ANYEXT]](s32)
97     ; CHECK: RET_ReallyLR implicit $w0
98     %0:_(p0) = COPY $x0
99     %1:_(s16) = G_LOAD %0(p0) :: (load acquire (s16))
100     %2:_(s16) = G_SEXT_INREG %1, 8
101     %3:_(s32) = G_ANYEXT %2(s16)
102     $w0 = COPY %3(s32)
103     RET_ReallyLR implicit $w0
107 name:            volatile
108 alignment:       4
109 tracksRegLiveness: true
110 liveins:
111   - { reg: '$x0' }
112 body:             |
113   bb.1:
114     liveins: $x0
116     ; CHECK-LABEL: name: volatile
117     ; CHECK: liveins: $x0
118     ; CHECK: [[COPY:%[0-9]+]]:_(p0) = COPY $x0
119     ; CHECK: [[LOAD:%[0-9]+]]:_(s16) = G_LOAD [[COPY]](p0) :: (volatile load (s16))
120     ; CHECK: [[SEXT_INREG:%[0-9]+]]:_(s16) = G_SEXT_INREG [[LOAD]], 8
121     ; CHECK: [[ANYEXT:%[0-9]+]]:_(s32) = G_ANYEXT [[SEXT_INREG]](s16)
122     ; CHECK: $w0 = COPY [[ANYEXT]](s32)
123     ; CHECK: RET_ReallyLR implicit $w0
124     %0:_(p0) = COPY $x0
125     %1:_(s16) = G_LOAD %0(p0) :: (volatile load (s16))
126     %2:_(s16) = G_SEXT_INREG %1, 8
127     %3:_(s32) = G_ANYEXT %2(s16)
128     $w0 = COPY %3(s32)
129     RET_ReallyLR implicit $w0