[NFC][RemoveDIs] Prefer iterators over inst-pointers in InstCombine
[llvm-project.git] / llvm / test / CodeGen / AArch64 / GlobalISel / prelegalizer-combiner-binop-reassoc.mir
blobf1676e48e5113e09e7c27c65c01089d6157e1f1b
1 # NOTE: Assertions have been autogenerated by utils/update_mir_test_checks.py
2 # RUN: llc -run-pass=aarch64-prelegalizer-combiner -verify-machineinstrs -mtriple aarch64-unknown-unknown %s -o - | FileCheck %s
4 # Combins: (Opc (Opc X, C1), C2) -> (Opc X, (Opc C1, C2))
5 ---
6 name:            test1_add_move_inner_cst_to_fold
7 alignment:       4
8 tracksRegLiveness: true
9 liveins:
10   - { reg: '$x0' }
11 body:             |
12   bb.1:
13     liveins: $x0
15     ; CHECK-LABEL: name: test1_add_move_inner_cst_to_fold
16     ; CHECK: liveins: $x0
17     ; CHECK-NEXT: {{  $}}
18     ; CHECK-NEXT: %x:_(s64) = COPY $x0
19     ; CHECK-NEXT: [[C:%[0-9]+]]:_(s64) = G_CONSTANT i64 88
20     ; CHECK-NEXT: %add_outer:_(s64) = G_ADD %x, [[C]]
21     ; CHECK-NEXT: $x0 = COPY %add_outer(s64)
22     ; CHECK-NEXT: RET_ReallyLR implicit $x0
23     %x:_(s64) = COPY $x0
24     %C1:_(s64) = G_CONSTANT i64 64
25     %C2:_(s64) = G_CONSTANT i64 24
26     %add_inner:_(s64) = G_ADD %x, %C1
27     %add_outer:_(s64) = G_ADD %add_inner, %C2
28     $x0 = COPY %add_outer
29     RET_ReallyLR implicit $x0
31 ...
33 # (op (op x, c1), y) -> (op (op x, y), c1)
34 ---
35 name:            test2_add_move_inner_cst_to_rhs
36 alignment:       4
37 tracksRegLiveness: true
38 liveins:
39   - { reg: '$x0' }
40 body:             |
41   bb.1:
42     liveins: $x0, $x1
44     ; CHECK-LABEL: name: test2_add_move_inner_cst_to_rhs
45     ; CHECK: liveins: $x0, $x1
46     ; CHECK-NEXT: {{  $}}
47     ; CHECK-NEXT: %x:_(s64) = COPY $x0
48     ; CHECK-NEXT: %C1:_(s64) = G_CONSTANT i64 64
49     ; CHECK-NEXT: %y:_(s64) = COPY $x1
50     ; CHECK-NEXT: [[ADD:%[0-9]+]]:_(s64) = G_ADD %x, %y
51     ; CHECK-NEXT: %add_outer:_(s64) = G_ADD [[ADD]], %C1
52     ; CHECK-NEXT: $x0 = COPY %add_outer(s64)
53     ; CHECK-NEXT: RET_ReallyLR implicit $x0
54     %x:_(s64) = COPY $x0
55     %C1:_(s64) = G_CONSTANT i64 64
56     %y:_(s64) = COPY $x1
57     %add_inner:_(s64) = G_ADD %x, %C1
58     %add_outer:_(s64) = G_ADD %add_inner, %y
59     $x0 = COPY %add_outer
60     RET_ReallyLR implicit $x0
62 ...
63 ---
64 name:            test2_add_move_inner_cst_to_rhs_multiuse
65 alignment:       4
66 tracksRegLiveness: true
67 liveins:
68   - { reg: '$x0' }
69 body:             |
70   bb.1:
71     liveins: $x0, $x1
73     ; CHECK-LABEL: name: test2_add_move_inner_cst_to_rhs_multiuse
74     ; CHECK: liveins: $x0, $x1
75     ; CHECK-NEXT: {{  $}}
76     ; CHECK-NEXT: %x:_(s64) = COPY $x0
77     ; CHECK-NEXT: %C1:_(s64) = G_CONSTANT i64 64
78     ; CHECK-NEXT: %y:_(s64) = COPY $x1
79     ; CHECK-NEXT: %add_inner:_(s64) = G_ADD %x, %C1
80     ; CHECK-NEXT: %add_outer:_(s64) = G_ADD %add_inner, %y
81     ; CHECK-NEXT: $x0 = COPY %add_outer(s64)
82     ; CHECK-NEXT: $x1 = COPY %add_inner(s64)
83     ; CHECK-NEXT: RET_ReallyLR implicit $x0
84     %x:_(s64) = COPY $x0
85     %C1:_(s64) = G_CONSTANT i64 64
86     %y:_(s64) = COPY $x1
87     %add_inner:_(s64) = G_ADD %x, %C1
88     %add_outer:_(s64) = G_ADD %add_inner, %y
89     $x0 = COPY %add_outer
90     $x1 = COPY %add_inner
91     RET_ReallyLR implicit $x0
93 ...
94 ---
95 name:            test2_add_move_inner_cst_to_rhs_vector
96 alignment:       4
97 tracksRegLiveness: true
98 liveins:
99   - { reg: '$x0' }
100 body:             |
101   bb.1:
102     liveins: $q0, $q1
104     ; CHECK-LABEL: name: test2_add_move_inner_cst_to_rhs_vector
105     ; CHECK: liveins: $q0, $q1
106     ; CHECK-NEXT: {{  $}}
107     ; CHECK-NEXT: %x:_(<2 x s64>) = COPY $q0
108     ; CHECK-NEXT: %C1:_(s64) = G_CONSTANT i64 64
109     ; CHECK-NEXT: %VEC_C1:_(<2 x s64>) = G_BUILD_VECTOR %C1(s64), %C1(s64)
110     ; CHECK-NEXT: %y:_(<2 x s64>) = COPY $q1
111     ; CHECK-NEXT: [[ADD:%[0-9]+]]:_(<2 x s64>) = G_ADD %x, %y
112     ; CHECK-NEXT: %add_outer:_(<2 x s64>) = G_ADD [[ADD]], %VEC_C1
113     ; CHECK-NEXT: $q0 = COPY %add_outer(<2 x s64>)
114     ; CHECK-NEXT: RET_ReallyLR implicit $q0
115     %x:_(<2 x s64>) = COPY $q0
116     %C1:_(s64) = G_CONSTANT i64 64
117     %VEC_C1:_(<2 x s64>) = G_BUILD_VECTOR %C1, %C1
118     %y:_(<2 x s64>) = COPY $q1
119     %add_inner:_(<2 x s64>) = G_ADD %x, %VEC_C1
120     %add_outer:_(<2 x s64>) = G_ADD %add_inner, %y
121     $q0 = COPY %add_outer
122     RET_ReallyLR implicit $q0