1 // REQUIRES: mips-registered-target
2 // RUN: %clang_cc1 -triple mips-unknown-linux-gnu -emit-llvm %s \
3 // RUN: -target-feature +msa -target-feature +fp64 \
4 // RUN: -mfloat-abi hard -o - | FileCheck %s
8 typedef __fp16 v8f16
__attribute__ ((vector_size(16)));
11 v16i8 v16i8_a
= (v16i8
) {0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15};
12 v16i8 v16i8_b
= (v16i8
) {1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16};
14 v8i16 v8i16_a
= (v8i16
) {0, 1, 2, 3, 4, 5, 6, 7};
15 v8i16 v8i16_b
= (v8i16
) {1, 2, 3, 4, 5, 6, 7, 8};
17 v4i32 v4i32_a
= (v4i32
) {0, 1, 2, 3};
18 v4i32 v4i32_b
= (v4i32
) {1, 2, 3, 4};
20 v2i64 v2i64_a
= (v2i64
) {0, 1};
21 v2i64 v2i64_b
= (v2i64
) {1, 2};
24 v16u8 v16u8_a
= (v16u8
) {0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15};
25 v16u8 v16u8_b
= (v16u8
) {1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16};
27 v8u16 v8u16_a
= (v8u16
) {0, 1, 2, 3, 4, 5, 6, 7};
28 v8u16 v8u16_b
= (v8u16
) {1, 2, 3, 4, 5, 6, 7, 8};
30 v4u32 v4u32_a
= (v4u32
) {0, 1, 2, 3};
31 v4u32 v4u32_b
= (v4u32
) {1, 2, 3, 4};
33 v2u64 v2u64_a
= (v2u64
) {0, 1};
34 v2u64 v2u64_b
= (v2u64
) {1, 2};
37 v8f16 v8f16_a
= (v8f16
) {0.5, 1, 2, 3, 4, 5, 6, 7};
38 v8f16 v8f16_b
= (v8f16
) {1.5, 2, 3, 4, 5, 6, 7, 8};
40 v4f32 v4f32_a
= (v4f32
) {0.5, 1, 2, 3};
41 v4f32 v4f32_b
= (v4f32
) {1.5, 2, 3, 4};
43 v2f64 v2f64_a
= (v2f64
) {0.5, 1};
44 v2f64 v2f64_b
= (v2f64
) {1.5, 2};
51 v16i8_r
= __msa_add_a_b(v16i8_a
, v16i8_b
); // CHECK: call <16 x i8> @llvm.mips.add.a.b(
52 v8i16_r
= __msa_add_a_h(v8i16_a
, v8i16_b
); // CHECK: call <8 x i16> @llvm.mips.add.a.h(
53 v4i32_r
= __msa_add_a_w(v4i32_a
, v4i32_b
); // CHECK: call <4 x i32> @llvm.mips.add.a.w(
54 v2i64_r
= __msa_add_a_d(v2i64_a
, v2i64_b
); // CHECK: call <2 x i64> @llvm.mips.add.a.d(
56 v16i8_r
= __msa_adds_a_b(v16i8_a
, v16i8_b
); // CHECK: call <16 x i8> @llvm.mips.adds.a.b(
57 v8i16_r
= __msa_adds_a_h(v8i16_a
, v8i16_b
); // CHECK: call <8 x i16> @llvm.mips.adds.a.h(
58 v4i32_r
= __msa_adds_a_w(v4i32_a
, v4i32_b
); // CHECK: call <4 x i32> @llvm.mips.adds.a.w(
59 v2i64_r
= __msa_adds_a_d(v2i64_a
, v2i64_b
); // CHECK: call <2 x i64> @llvm.mips.adds.a.d(
61 v16i8_r
= __msa_adds_s_b(v16i8_a
, v16i8_b
); // CHECK: call <16 x i8> @llvm.mips.adds.s.b(
62 v8i16_r
= __msa_adds_s_h(v8i16_a
, v8i16_b
); // CHECK: call <8 x i16> @llvm.mips.adds.s.h(
63 v4i32_r
= __msa_adds_s_w(v4i32_a
, v4i32_b
); // CHECK: call <4 x i32> @llvm.mips.adds.s.w(
64 v2i64_r
= __msa_adds_s_d(v2i64_a
, v2i64_b
); // CHECK: call <2 x i64> @llvm.mips.adds.s.d(
66 v16u8_r
= __msa_adds_u_b(v16u8_a
, v16u8_b
); // CHECK: call <16 x i8> @llvm.mips.adds.u.b(
67 v8u16_r
= __msa_adds_u_h(v8u16_a
, v8u16_b
); // CHECK: call <8 x i16> @llvm.mips.adds.u.h(
68 v4u32_r
= __msa_adds_u_w(v4u32_a
, v4u32_b
); // CHECK: call <4 x i32> @llvm.mips.adds.u.w(
69 v2u64_r
= __msa_adds_u_d(v2u64_a
, v2u64_b
); // CHECK: call <2 x i64> @llvm.mips.adds.u.d(
71 v16i8_r
= __msa_addv_b(v16i8_a
, v16i8_b
); // CHECK: call <16 x i8> @llvm.mips.addv.b(
72 v8i16_r
= __msa_addv_h(v8i16_a
, v8i16_b
); // CHECK: call <8 x i16> @llvm.mips.addv.h(
73 v4i32_r
= __msa_addv_w(v4i32_a
, v4i32_b
); // CHECK: call <4 x i32> @llvm.mips.addv.w(
74 v2i64_r
= __msa_addv_d(v2i64_a
, v2i64_b
); // CHECK: call <2 x i64> @llvm.mips.addv.d(
76 v16u8_r
= __msa_addv_b(v16u8_a
, v16u8_b
); // CHECK: call <16 x i8> @llvm.mips.addv.b(
77 v8u16_r
= __msa_addv_h(v8u16_a
, v8u16_b
); // CHECK: call <8 x i16> @llvm.mips.addv.h(
78 v4u32_r
= __msa_addv_w(v4u32_a
, v4u32_b
); // CHECK: call <4 x i32> @llvm.mips.addv.w(
79 v2u64_r
= __msa_addv_d(v2u64_a
, v2u64_b
); // CHECK: call <2 x i64> @llvm.mips.addv.d(
81 v16i8_r
= __msa_addvi_b(v16i8_a
, 25); // CHECK: call <16 x i8> @llvm.mips.addvi.b(
82 v8i16_r
= __msa_addvi_h(v8i16_a
, 25); // CHECK: call <8 x i16> @llvm.mips.addvi.h(
83 v4i32_r
= __msa_addvi_w(v4i32_a
, 25); // CHECK: call <4 x i32> @llvm.mips.addvi.w(
84 v2i64_r
= __msa_addvi_d(v2i64_a
, 25); // CHECK: call <2 x i64> @llvm.mips.addvi.d(
86 v16u8_r
= __msa_addvi_b(v16u8_a
, 25); // CHECK: call <16 x i8> @llvm.mips.addvi.b(
87 v8u16_r
= __msa_addvi_h(v8u16_a
, 25); // CHECK: call <8 x i16> @llvm.mips.addvi.h(
88 v4u32_r
= __msa_addvi_w(v4u32_a
, 25); // CHECK: call <4 x i32> @llvm.mips.addvi.w(
89 v2u64_r
= __msa_addvi_d(v2u64_a
, 25); // CHECK: call <2 x i64> @llvm.mips.addvi.d(
91 v16i8_r
= __msa_and_v(v16i8_a
, v16i8_b
); // CHECK: call <16 x i8> @llvm.mips.and.v(
92 v8i16_r
= __msa_and_v(v8i16_a
, v8i16_b
); // CHECK: call <16 x i8> @llvm.mips.and.v(
93 v4i32_r
= __msa_and_v(v4i32_a
, v4i32_b
); // CHECK: call <16 x i8> @llvm.mips.and.v(
94 v2i64_r
= __msa_and_v(v2i64_a
, v2i64_b
); // CHECK: call <16 x i8> @llvm.mips.and.v(
96 v16i8_r
= __msa_andi_b(v16i8_a
, 25); // CHECK: call <16 x i8> @llvm.mips.andi.b(
97 v8i16_r
= __msa_andi_b(v8i16_a
, 25); // CHECK: call <16 x i8> @llvm.mips.andi.b(
98 v4i32_r
= __msa_andi_b(v4i32_a
, 25); // CHECK: call <16 x i8> @llvm.mips.andi.b(
99 v2i64_r
= __msa_andi_b(v2i64_a
, 25); // CHECK: call <16 x i8> @llvm.mips.andi.b(
101 v16u8_r
= __msa_andi_b(v16u8_a
, 25); // CHECK: call <16 x i8> @llvm.mips.andi.b(
102 v8u16_r
= __msa_andi_b(v8u16_a
, 25); // CHECK: call <16 x i8> @llvm.mips.andi.b(
103 v4u32_r
= __msa_andi_b(v4u32_a
, 25); // CHECK: call <16 x i8> @llvm.mips.andi.b(
104 v2u64_r
= __msa_andi_b(v2u64_a
, 25); // CHECK: call <16 x i8> @llvm.mips.andi.b(
106 v16i8_r
= __msa_asub_s_b(v16i8_a
, v16i8_b
); // CHECK: call <16 x i8> @llvm.mips.asub.s.b(
107 v8i16_r
= __msa_asub_s_h(v8i16_a
, v8i16_b
); // CHECK: call <8 x i16> @llvm.mips.asub.s.h(
108 v4i32_r
= __msa_asub_s_w(v4i32_a
, v4i32_b
); // CHECK: call <4 x i32> @llvm.mips.asub.s.w(
109 v2i64_r
= __msa_asub_s_d(v2i64_a
, v2i64_b
); // CHECK: call <2 x i64> @llvm.mips.asub.s.d(
111 v16u8_r
= __msa_asub_u_b(v16u8_a
, v16u8_b
); // CHECK: call <16 x i8> @llvm.mips.asub.u.b(
112 v8u16_r
= __msa_asub_u_h(v8u16_a
, v8u16_b
); // CHECK: call <8 x i16> @llvm.mips.asub.u.h(
113 v4u32_r
= __msa_asub_u_w(v4u32_a
, v4u32_b
); // CHECK: call <4 x i32> @llvm.mips.asub.u.w(
114 v2u64_r
= __msa_asub_u_d(v2u64_a
, v2u64_b
); // CHECK: call <2 x i64> @llvm.mips.asub.u.d(
116 v16i8_r
= __msa_ave_s_b(v16i8_a
, v16i8_b
); // CHECK: call <16 x i8> @llvm.mips.ave.s.b(
117 v8i16_r
= __msa_ave_s_h(v8i16_a
, v8i16_b
); // CHECK: call <8 x i16> @llvm.mips.ave.s.h(
118 v4i32_r
= __msa_ave_s_w(v4i32_a
, v4i32_b
); // CHECK: call <4 x i32> @llvm.mips.ave.s.w(
119 v2i64_r
= __msa_ave_s_d(v2i64_a
, v2i64_b
); // CHECK: call <2 x i64> @llvm.mips.ave.s.d(
121 v16u8_r
= __msa_ave_u_b(v16u8_a
, v16u8_b
); // CHECK: call <16 x i8> @llvm.mips.ave.u.b(
122 v8u16_r
= __msa_ave_u_h(v8u16_a
, v8u16_b
); // CHECK: call <8 x i16> @llvm.mips.ave.u.h(
123 v4u32_r
= __msa_ave_u_w(v4u32_a
, v4u32_b
); // CHECK: call <4 x i32> @llvm.mips.ave.u.w(
124 v2u64_r
= __msa_ave_u_d(v2u64_a
, v2u64_b
); // CHECK: call <2 x i64> @llvm.mips.ave.u.d(
126 v16i8_r
= __msa_aver_s_b(v16i8_a
, v16i8_b
); // CHECK: call <16 x i8> @llvm.mips.aver.s.b(
127 v8i16_r
= __msa_aver_s_h(v8i16_a
, v8i16_b
); // CHECK: call <8 x i16> @llvm.mips.aver.s.h(
128 v4i32_r
= __msa_aver_s_w(v4i32_a
, v4i32_b
); // CHECK: call <4 x i32> @llvm.mips.aver.s.w(
129 v2i64_r
= __msa_aver_s_d(v2i64_a
, v2i64_b
); // CHECK: call <2 x i64> @llvm.mips.aver.s.d(
131 v16u8_r
= __msa_aver_u_b(v16u8_a
, v16u8_b
); // CHECK: call <16 x i8> @llvm.mips.aver.u.b(
132 v8u16_r
= __msa_aver_u_h(v8u16_a
, v8u16_b
); // CHECK: call <8 x i16> @llvm.mips.aver.u.h(
133 v4u32_r
= __msa_aver_u_w(v4u32_a
, v4u32_b
); // CHECK: call <4 x i32> @llvm.mips.aver.u.w(
134 v2u64_r
= __msa_aver_u_d(v2u64_a
, v2u64_b
); // CHECK: call <2 x i64> @llvm.mips.aver.u.d(
136 v16i8_r
= __msa_bclr_b(v16i8_a
, v16i8_b
); // CHECK: call <16 x i8> @llvm.mips.bclr.b(
137 v8i16_r
= __msa_bclr_h(v8i16_a
, v8i16_b
); // CHECK: call <8 x i16> @llvm.mips.bclr.h(
138 v4i32_r
= __msa_bclr_w(v4i32_a
, v4i32_b
); // CHECK: call <4 x i32> @llvm.mips.bclr.w(
139 v2i64_r
= __msa_bclr_d(v2i64_a
, v2i64_b
); // CHECK: call <2 x i64> @llvm.mips.bclr.d(
141 v16i8_r
= __msa_bclri_b(v16i8_a
, 3); // CHECK: call <16 x i8> @llvm.mips.bclri.b(
142 v8i16_r
= __msa_bclri_h(v8i16_a
, 8); // CHECK: call <8 x i16> @llvm.mips.bclri.h(
143 v4i32_r
= __msa_bclri_w(v4i32_a
, 25); // CHECK: call <4 x i32> @llvm.mips.bclri.w(
144 v2i64_r
= __msa_bclri_d(v2i64_a
, 25); // CHECK: call <2 x i64> @llvm.mips.bclri.d(
146 v16i8_r
= __msa_binsl_b(v16i8_r
, v16i8_a
, v16i8_b
); // CHECK: call <16 x i8> @llvm.mips.binsl.b(
147 v8i16_r
= __msa_binsl_h(v8i16_r
, v8i16_a
, v8i16_b
); // CHECK: call <8 x i16> @llvm.mips.binsl.h(
148 v4i32_r
= __msa_binsl_w(v4i32_r
, v4i32_a
, v4i32_b
); // CHECK: call <4 x i32> @llvm.mips.binsl.w(
149 v2i64_r
= __msa_binsl_d(v2i64_r
, v2i64_a
, v2i64_b
); // CHECK: call <2 x i64> @llvm.mips.binsl.d(
151 v16i8_r
= __msa_binsli_b(v16i8_r
, v16i8_a
, 3); // CHECK: call <16 x i8> @llvm.mips.binsli.b(
152 v8i16_r
= __msa_binsli_h(v8i16_r
, v8i16_a
, 8); // CHECK: call <8 x i16> @llvm.mips.binsli.h(
153 v4i32_r
= __msa_binsli_w(v4i32_r
, v4i32_a
, 25); // CHECK: call <4 x i32> @llvm.mips.binsli.w(
154 v2i64_r
= __msa_binsli_d(v2i64_r
, v2i64_a
, 25); // CHECK: call <2 x i64> @llvm.mips.binsli.d(
156 v16i8_r
= __msa_binsr_b(v16i8_r
, v16i8_a
, v16i8_b
); // CHECK: call <16 x i8> @llvm.mips.binsr.b(
157 v8i16_r
= __msa_binsr_h(v8i16_r
, v8i16_a
, v8i16_b
); // CHECK: call <8 x i16> @llvm.mips.binsr.h(
158 v4i32_r
= __msa_binsr_w(v4i32_r
, v4i32_a
, v4i32_b
); // CHECK: call <4 x i32> @llvm.mips.binsr.w(
159 v2i64_r
= __msa_binsr_d(v2i64_r
, v2i64_a
, v2i64_b
); // CHECK: call <2 x i64> @llvm.mips.binsr.d(
161 v16i8_r
= __msa_binsri_b(v16i8_r
, v16i8_a
, 5); // CHECK: call <16 x i8> @llvm.mips.binsri.b(
162 v8i16_r
= __msa_binsri_h(v8i16_r
, v8i16_a
, 15); // CHECK: call <8 x i16> @llvm.mips.binsri.h(
163 v4i32_r
= __msa_binsri_w(v4i32_r
, v4i32_a
, 25); // CHECK: call <4 x i32> @llvm.mips.binsri.w(
164 v2i64_r
= __msa_binsri_d(v2i64_r
, v2i64_a
, 25); // CHECK: call <2 x i64> @llvm.mips.binsri.d(
166 v16i8_r
= __msa_bmnz_v(v16i8_r
, v16i8_a
, v16i8_b
); // CHECK: call <16 x i8> @llvm.mips.bmnz.v(
167 v8i16_r
= __msa_bmnz_v(v8i16_r
, v8i16_a
, v8i16_b
); // CHECK: call <16 x i8> @llvm.mips.bmnz.v(
168 v4i32_r
= __msa_bmnz_v(v4i32_r
, v4i32_a
, v4i32_b
); // CHECK: call <16 x i8> @llvm.mips.bmnz.v(
169 v2i64_r
= __msa_bmnz_v(v2i64_r
, v2i64_a
, v2i64_b
); // CHECK: call <16 x i8> @llvm.mips.bmnz.v(
171 v16i8_r
= __msa_bmnzi_b(v16i8_r
, v16i8_a
, 25); // CHECK: call <16 x i8> @llvm.mips.bmnzi.b(
173 v16i8_r
= __msa_bmz_v(v16i8_r
, v16i8_a
, v16i8_b
); // CHECK: call <16 x i8> @llvm.mips.bmz.v(
174 v8i16_r
= __msa_bmz_v(v8i16_r
, v8i16_a
, v8i16_b
); // CHECK: call <16 x i8> @llvm.mips.bmz.v(
175 v4i32_r
= __msa_bmz_v(v4i32_r
, v4i32_a
, v4i32_b
); // CHECK: call <16 x i8> @llvm.mips.bmz.v(
176 v2i64_r
= __msa_bmz_v(v2i64_r
, v2i64_a
, v2i64_b
); // CHECK: call <16 x i8> @llvm.mips.bmz.v(
178 v16i8_r
= __msa_bmzi_b(v16i8_r
, v16i8_a
, 25); // CHECK: call <16 x i8> @llvm.mips.bmzi.b(
180 v16i8_r
= __msa_bneg_b(v16i8_a
, v16i8_b
); // CHECK: call <16 x i8> @llvm.mips.bneg.b(
181 v8i16_r
= __msa_bneg_h(v8i16_a
, v8i16_b
); // CHECK: call <8 x i16> @llvm.mips.bneg.h(
182 v4i32_r
= __msa_bneg_w(v4i32_a
, v4i32_b
); // CHECK: call <4 x i32> @llvm.mips.bneg.w(
183 v2i64_r
= __msa_bneg_d(v2i64_a
, v2i64_b
); // CHECK: call <2 x i64> @llvm.mips.bneg.d(
185 v16i8_r
= __msa_bnegi_b(v16i8_a
, 6); // CHECK: call <16 x i8> @llvm.mips.bnegi.b(
186 v8i16_r
= __msa_bnegi_h(v8i16_a
, 14); // CHECK: call <8 x i16> @llvm.mips.bnegi.h(
187 v4i32_r
= __msa_bnegi_w(v4i32_a
, 25); // CHECK: call <4 x i32> @llvm.mips.bnegi.w(
188 v2i64_r
= __msa_bnegi_d(v2i64_a
, 25); // CHECK: call <2 x i64> @llvm.mips.bnegi.d(
190 int_r
= __msa_test_bnz_b(v16i8_a
); // CHECK: call i32 @llvm.mips.bnz.b(
191 int_r
= __msa_test_bnz_h(v16i8_a
); // CHECK: call i32 @llvm.mips.bnz.h(
192 int_r
= __msa_test_bnz_w(v16i8_a
); // CHECK: call i32 @llvm.mips.bnz.w(
193 int_r
= __msa_test_bnz_d(v16i8_a
); // CHECK: call i32 @llvm.mips.bnz.d(
195 int_r
= __msa_test_bnz_v(v16i8_a
); // CHECK: call i32 @llvm.mips.bnz.v(
197 v16i8_r
= __msa_bsel_v(v16i8_r
, v16i8_a
, v16i8_b
); // CHECK: call <16 x i8> @llvm.mips.bsel.v(
198 v8i16_r
= __msa_bsel_v(v8i16_r
, v8i16_a
, v8i16_b
); // CHECK: call <16 x i8> @llvm.mips.bsel.v(
199 v4i32_r
= __msa_bsel_v(v4i32_r
, v4i32_a
, v4i32_b
); // CHECK: call <16 x i8> @llvm.mips.bsel.v(
200 v2i64_r
= __msa_bsel_v(v2i64_r
, v2i64_a
, v2i64_b
); // CHECK: call <16 x i8> @llvm.mips.bsel.v(
202 v16i8_r
= __msa_bseli_b(v16i8_r
, v16i8_a
, 25); // CHECK: call <16 x i8> @llvm.mips.bseli.b(
204 v16i8_r
= __msa_bset_b(v16i8_a
, v16i8_b
); // CHECK: call <16 x i8> @llvm.mips.bset.b(
205 v8i16_r
= __msa_bset_h(v8i16_a
, v8i16_b
); // CHECK: call <8 x i16> @llvm.mips.bset.h(
206 v4i32_r
= __msa_bset_w(v4i32_a
, v4i32_b
); // CHECK: call <4 x i32> @llvm.mips.bset.w(
207 v2i64_r
= __msa_bset_d(v2i64_a
, v2i64_b
); // CHECK: call <2 x i64> @llvm.mips.bset.d(
209 v16i8_r
= __msa_bseti_b(v16i8_a
, 5); // CHECK: call <16 x i8> @llvm.mips.bseti.b(
210 v8i16_r
= __msa_bseti_h(v8i16_a
, 15); // CHECK: call <8 x i16> @llvm.mips.bseti.h(
211 v4i32_r
= __msa_bseti_w(v4i32_a
, 25); // CHECK: call <4 x i32> @llvm.mips.bseti.w(
212 v2i64_r
= __msa_bseti_d(v2i64_a
, 25); // CHECK: call <2 x i64> @llvm.mips.bseti.d(
214 int_r
= __msa_test_bz_b(v16i8_a
); // CHECK: call i32 @llvm.mips.bz.b(
215 int_r
= __msa_test_bz_h(v16i8_a
); // CHECK: call i32 @llvm.mips.bz.h(
216 int_r
= __msa_test_bz_w(v16i8_a
); // CHECK: call i32 @llvm.mips.bz.w(
217 int_r
= __msa_test_bz_d(v16i8_a
); // CHECK: call i32 @llvm.mips.bz.d(
219 int_r
= __msa_test_bz_v(v16i8_a
); // CHECK: call i32 @llvm.mips.bz.v(
221 v16i8_r
= __msa_ceq_b(v16i8_a
, v16i8_b
); // CHECK: call <16 x i8> @llvm.mips.ceq.b(
222 v8i16_r
= __msa_ceq_h(v8i16_a
, v8i16_b
); // CHECK: call <8 x i16> @llvm.mips.ceq.h(
223 v4i32_r
= __msa_ceq_w(v4i32_a
, v4i32_b
); // CHECK: call <4 x i32> @llvm.mips.ceq.w(
224 v2i64_r
= __msa_ceq_d(v2i64_a
, v2i64_b
); // CHECK: call <2 x i64> @llvm.mips.ceq.d(
226 v16i8_r
= __msa_ceqi_b(v16i8_a
, -3); // CHECK: call <16 x i8> @llvm.mips.ceqi.b(
227 v8i16_r
= __msa_ceqi_h(v8i16_a
, -12); // CHECK: call <8 x i16> @llvm.mips.ceqi.h(
228 v4i32_r
= __msa_ceqi_w(v4i32_a
, 14); // CHECK: call <4 x i32> @llvm.mips.ceqi.w(
229 v2i64_r
= __msa_ceqi_d(v2i64_a
, 15); // CHECK: call <2 x i64> @llvm.mips.ceqi.d(
231 int_r
= __msa_cfcmsa(1); // CHECK: call i32 @llvm.mips.cfcmsa(
233 v16i8_r
= __msa_cle_s_b(v16i8_a
, v16i8_b
); // CHECK: call <16 x i8> @llvm.mips.cle.s.b(
234 v8i16_r
= __msa_cle_s_h(v8i16_a
, v8i16_b
); // CHECK: call <8 x i16> @llvm.mips.cle.s.h(
235 v4i32_r
= __msa_cle_s_w(v4i32_a
, v4i32_b
); // CHECK: call <4 x i32> @llvm.mips.cle.s.w(
236 v2i64_r
= __msa_cle_s_d(v2i64_a
, v2i64_b
); // CHECK: call <2 x i64> @llvm.mips.cle.s.d(
238 v16u8_r
= __msa_cle_u_b(v16u8_a
, v16u8_b
); // CHECK: call <16 x i8> @llvm.mips.cle.u.b(
239 v8u16_r
= __msa_cle_u_h(v8u16_a
, v8u16_b
); // CHECK: call <8 x i16> @llvm.mips.cle.u.h(
240 v4u32_r
= __msa_cle_u_w(v4u32_a
, v4u32_b
); // CHECK: call <4 x i32> @llvm.mips.cle.u.w(
241 v2u64_r
= __msa_cle_u_d(v2u64_a
, v2u64_b
); // CHECK: call <2 x i64> @llvm.mips.cle.u.d(
243 v16i8_r
= __msa_clei_s_b(v16i8_a
, 12); // CHECK: call <16 x i8> @llvm.mips.clei.s.b(
244 v8i16_r
= __msa_clei_s_h(v8i16_a
, 13); // CHECK: call <8 x i16> @llvm.mips.clei.s.h(
245 v4i32_r
= __msa_clei_s_w(v4i32_a
, 14); // CHECK: call <4 x i32> @llvm.mips.clei.s.w(
246 v2i64_r
= __msa_clei_s_d(v2i64_a
, 15); // CHECK: call <2 x i64> @llvm.mips.clei.s.d(
248 v16u8_r
= __msa_clei_u_b(v16u8_a
, 25); // CHECK: call <16 x i8> @llvm.mips.clei.u.b(
249 v8u16_r
= __msa_clei_u_h(v8u16_a
, 25); // CHECK: call <8 x i16> @llvm.mips.clei.u.h(
250 v4u32_r
= __msa_clei_u_w(v4u32_a
, 25); // CHECK: call <4 x i32> @llvm.mips.clei.u.w(
251 v2u64_r
= __msa_clei_u_d(v2u64_a
, 25); // CHECK: call <2 x i64> @llvm.mips.clei.u.d(
253 v16i8_r
= __msa_clt_s_b(v16i8_a
, v16i8_b
); // CHECK: call <16 x i8> @llvm.mips.clt.s.b(
254 v8i16_r
= __msa_clt_s_h(v8i16_a
, v8i16_b
); // CHECK: call <8 x i16> @llvm.mips.clt.s.h(
255 v4i32_r
= __msa_clt_s_w(v4i32_a
, v4i32_b
); // CHECK: call <4 x i32> @llvm.mips.clt.s.w(
256 v2i64_r
= __msa_clt_s_d(v2i64_a
, v2i64_b
); // CHECK: call <2 x i64> @llvm.mips.clt.s.d(
258 v16u8_r
= __msa_clt_u_b(v16u8_a
, v16u8_b
); // CHECK: call <16 x i8> @llvm.mips.clt.u.b(
259 v8u16_r
= __msa_clt_u_h(v8u16_a
, v8u16_b
); // CHECK: call <8 x i16> @llvm.mips.clt.u.h(
260 v4u32_r
= __msa_clt_u_w(v4u32_a
, v4u32_b
); // CHECK: call <4 x i32> @llvm.mips.clt.u.w(
261 v2u64_r
= __msa_clt_u_d(v2u64_a
, v2u64_b
); // CHECK: call <2 x i64> @llvm.mips.clt.u.d(
263 v16i8_r
= __msa_clti_s_b(v16i8_a
, 15); // CHECK: call <16 x i8> @llvm.mips.clti.s.b(
264 v8i16_r
= __msa_clti_s_h(v8i16_a
, 15); // CHECK: call <8 x i16> @llvm.mips.clti.s.h(
265 v4i32_r
= __msa_clti_s_w(v4i32_a
, 15); // CHECK: call <4 x i32> @llvm.mips.clti.s.w(
266 v2i64_r
= __msa_clti_s_d(v2i64_a
, 15); // CHECK: call <2 x i64> @llvm.mips.clti.s.d(
268 v16u8_r
= __msa_clti_u_b(v16u8_a
, 25); // CHECK: call <16 x i8> @llvm.mips.clti.u.b(
269 v8u16_r
= __msa_clti_u_h(v8u16_a
, 25); // CHECK: call <8 x i16> @llvm.mips.clti.u.h(
270 v4u32_r
= __msa_clti_u_w(v4u32_a
, 25); // CHECK: call <4 x i32> @llvm.mips.clti.u.w(
271 v2u64_r
= __msa_clti_u_d(v2u64_a
, 25); // CHECK: call <2 x i64> @llvm.mips.clti.u.d(
273 int_r
= __msa_copy_s_b(v16i8_a
, 1); // CHECK: call i32 @llvm.mips.copy.s.b(
274 int_r
= __msa_copy_s_h(v8i16_a
, 1); // CHECK: call i32 @llvm.mips.copy.s.h(
275 int_r
= __msa_copy_s_w(v4i32_a
, 1); // CHECK: call i32 @llvm.mips.copy.s.w(
276 ll_r
= __msa_copy_s_d(v2i64_a
, 1); // CHECK: call i64 @llvm.mips.copy.s.d(
278 int_r
= __msa_copy_u_b(v16u8_a
, 1); // CHECK: call i32 @llvm.mips.copy.u.b(
279 int_r
= __msa_copy_u_h(v8u16_a
, 1); // CHECK: call i32 @llvm.mips.copy.u.h(
280 int_r
= __msa_copy_u_w(v4u32_a
, 1); // CHECK: call i32 @llvm.mips.copy.u.w(
281 ll_r
= __msa_copy_u_d(v2i64_a
, 1); // CHECK: call i64 @llvm.mips.copy.u.d(
283 __builtin_msa_ctcmsa(1, int_a
); // CHECK: call void @llvm.mips.ctcmsa(
285 v16i8_r
= __msa_div_s_b(v16i8_a
, v16i8_b
); // CHECK: call <16 x i8> @llvm.mips.div.s.b(
286 v8i16_r
= __msa_div_s_h(v8i16_a
, v8i16_b
); // CHECK: call <8 x i16> @llvm.mips.div.s.h(
287 v4i32_r
= __msa_div_s_w(v4i32_a
, v4i32_b
); // CHECK: call <4 x i32> @llvm.mips.div.s.w(
288 v2i64_r
= __msa_div_s_d(v2i64_a
, v2i64_b
); // CHECK: call <2 x i64> @llvm.mips.div.s.d(
290 v16u8_r
= __msa_div_u_b(v16u8_a
, v16u8_b
); // CHECK: call <16 x i8> @llvm.mips.div.u.b(
291 v8u16_r
= __msa_div_u_h(v8u16_a
, v8u16_b
); // CHECK: call <8 x i16> @llvm.mips.div.u.h(
292 v4u32_r
= __msa_div_u_w(v4u32_a
, v4u32_b
); // CHECK: call <4 x i32> @llvm.mips.div.u.w(
293 v2u64_r
= __msa_div_u_d(v2u64_a
, v2u64_b
); // CHECK: call <2 x i64> @llvm.mips.div.u.d(
295 v8i16_r
= __msa_dotp_s_h(v16i8_a
, v16i8_b
); // CHECK: call <8 x i16> @llvm.mips.dotp.s.h(
296 v4i32_r
= __msa_dotp_s_w(v8i16_a
, v8i16_b
); // CHECK: call <4 x i32> @llvm.mips.dotp.s.w(
297 v2i64_r
= __msa_dotp_s_d(v4i32_a
, v4i32_b
); // CHECK: call <2 x i64> @llvm.mips.dotp.s.d(
299 v8u16_r
= __msa_dotp_u_h(v16u8_a
, v16u8_b
); // CHECK: call <8 x i16> @llvm.mips.dotp.u.h(
300 v4u32_r
= __msa_dotp_u_w(v8u16_a
, v8u16_b
); // CHECK: call <4 x i32> @llvm.mips.dotp.u.w(
301 v2u64_r
= __msa_dotp_u_d(v4u32_a
, v4u32_b
); // CHECK: call <2 x i64> @llvm.mips.dotp.u.d(
303 v8i16_r
= __msa_dpadd_s_h(v8i16_r
, v16i8_a
, v16i8_b
); // CHECK: call <8 x i16> @llvm.mips.dpadd.s.h(
304 v4i32_r
= __msa_dpadd_s_w(v4i32_r
, v8i16_a
, v8i16_b
); // CHECK: call <4 x i32> @llvm.mips.dpadd.s.w(
305 v2i64_r
= __msa_dpadd_s_d(v2i64_r
, v4i32_a
, v4i32_b
); // CHECK: call <2 x i64> @llvm.mips.dpadd.s.d(
307 v8u16_r
= __msa_dpadd_u_h(v8u16_r
, v16u8_a
, v16u8_b
); // CHECK: call <8 x i16> @llvm.mips.dpadd.u.h(
308 v4u32_r
= __msa_dpadd_u_w(v4u32_r
, v8u16_a
, v8u16_b
); // CHECK: call <4 x i32> @llvm.mips.dpadd.u.w(
309 v2u64_r
= __msa_dpadd_u_d(v2u64_r
, v4u32_a
, v4u32_b
); // CHECK: call <2 x i64> @llvm.mips.dpadd.u.d(
311 v8i16_r
= __msa_dpsub_s_h(v8i16_r
, v16i8_a
, v16i8_b
); // CHECK: call <8 x i16> @llvm.mips.dpsub.s.h(
312 v4i32_r
= __msa_dpsub_s_w(v4i32_r
, v8i16_a
, v8i16_b
); // CHECK: call <4 x i32> @llvm.mips.dpsub.s.w(
313 v2i64_r
= __msa_dpsub_s_d(v2i64_r
, v4i32_a
, v4i32_b
); // CHECK: call <2 x i64> @llvm.mips.dpsub.s.d(
315 v8u16_r
= __msa_dpsub_u_h(v8u16_r
, v16u8_a
, v16u8_b
); // CHECK: call <8 x i16> @llvm.mips.dpsub.u.h(
316 v4u32_r
= __msa_dpsub_u_w(v4u32_r
, v8u16_a
, v8u16_b
); // CHECK: call <4 x i32> @llvm.mips.dpsub.u.w(
317 v2u64_r
= __msa_dpsub_u_d(v2u64_r
, v4u32_a
, v4u32_b
); // CHECK: call <2 x i64> @llvm.mips.dpsub.u.d(
319 v4f32_r
= __msa_fadd_w(v4f32_a
, v4f32_b
); // CHECK: call <4 x float> @llvm.mips.fadd.w(
320 v2f64_r
= __msa_fadd_d(v2f64_a
, v2f64_b
); // CHECK: call <2 x double> @llvm.mips.fadd.d(
322 v4i32_r
= __msa_fcaf_w(v4f32_a
, v4f32_b
); // CHECK: call <4 x i32> @llvm.mips.fcaf.w(
323 v2i64_r
= __msa_fcaf_d(v2f64_a
, v2f64_b
); // CHECK: call <2 x i64> @llvm.mips.fcaf.d(
325 v4i32_r
= __msa_fceq_w(v4f32_a
, v4f32_b
); // CHECK: call <4 x i32> @llvm.mips.fceq.w(
326 v2i64_r
= __msa_fceq_d(v2f64_a
, v2f64_b
); // CHECK: call <2 x i64> @llvm.mips.fceq.d(
328 v4i32_r
= __msa_fclass_w(v4f32_a
); // CHECK: call <4 x i32> @llvm.mips.fclass.w(
329 v2i64_r
= __msa_fclass_d(v2f64_a
); // CHECK: call <2 x i64> @llvm.mips.fclass.d(
331 v4i32_r
= __msa_fcle_w(v4f32_a
, v4f32_b
); // CHECK: call <4 x i32> @llvm.mips.fcle.w(
332 v2i64_r
= __msa_fcle_d(v2f64_a
, v2f64_b
); // CHECK: call <2 x i64> @llvm.mips.fcle.d(
334 v4i32_r
= __msa_fclt_w(v4f32_a
, v4f32_b
); // CHECK: call <4 x i32> @llvm.mips.fclt.w(
335 v2i64_r
= __msa_fclt_d(v2f64_a
, v2f64_b
); // CHECK: call <2 x i64> @llvm.mips.fclt.d(
337 v4i32_r
= __msa_fcne_w(v4f32_a
, v4f32_b
); // CHECK: call <4 x i32> @llvm.mips.fcne.w(
338 v2i64_r
= __msa_fcne_d(v2f64_a
, v2f64_b
); // CHECK: call <2 x i64> @llvm.mips.fcne.d(
340 v4i32_r
= __msa_fcor_w(v4f32_a
, v4f32_b
); // CHECK: call <4 x i32> @llvm.mips.fcor.w(
341 v2i64_r
= __msa_fcor_d(v2f64_a
, v2f64_b
); // CHECK: call <2 x i64> @llvm.mips.fcor.d(
343 v4i32_r
= __msa_fcueq_w(v4f32_a
, v4f32_b
); // CHECK: call <4 x i32> @llvm.mips.fcueq.w(
344 v2i64_r
= __msa_fcueq_d(v2f64_a
, v2f64_b
); // CHECK: call <2 x i64> @llvm.mips.fcueq.d(
346 v4i32_r
= __msa_fcule_w(v4f32_a
, v4f32_b
); // CHECK: call <4 x i32> @llvm.mips.fcule.w(
347 v2i64_r
= __msa_fcule_d(v2f64_a
, v2f64_b
); // CHECK: call <2 x i64> @llvm.mips.fcule.d(
349 v4i32_r
= __msa_fcult_w(v4f32_a
, v4f32_b
); // CHECK: call <4 x i32> @llvm.mips.fcult.w(
350 v2i64_r
= __msa_fcult_d(v2f64_a
, v2f64_b
); // CHECK: call <2 x i64> @llvm.mips.fcult.d(
352 v4i32_r
= __msa_fcun_w(v4f32_a
, v4f32_b
); // CHECK: call <4 x i32> @llvm.mips.fcun.w(
353 v2i64_r
= __msa_fcun_d(v2f64_a
, v2f64_b
); // CHECK: call <2 x i64> @llvm.mips.fcun.d(
355 v4i32_r
= __msa_fcune_w(v4f32_a
, v4f32_b
); // CHECK: call <4 x i32> @llvm.mips.fcune.w(
356 v2i64_r
= __msa_fcune_d(v2f64_a
, v2f64_b
); // CHECK: call <2 x i64> @llvm.mips.fcune.d(
358 v4f32_r
= __msa_fdiv_w(v4f32_a
, v4f32_b
); // CHECK: call <4 x float> @llvm.mips.fdiv.w(
359 v2f64_r
= __msa_fdiv_d(v2f64_a
, v2f64_b
); // CHECK: call <2 x double> @llvm.mips.fdiv.d(
361 v8f16_r
= __msa_fexdo_h(v4f32_a
, v4f32_b
); // CHECK: call <8 x half> @llvm.mips.fexdo.h(
362 v4f32_r
= __msa_fexdo_w(v2f64_a
, v2f64_b
); // CHECK: call <4 x float> @llvm.mips.fexdo.w(
364 v4f32_r
= __msa_fexp2_w(v4f32_a
, v4i32_b
); // CHECK: call <4 x float> @llvm.mips.fexp2.w(
365 v2f64_r
= __msa_fexp2_d(v2f64_a
, v2i64_b
); // CHECK: call <2 x double> @llvm.mips.fexp2.d(
367 v4f32_r
= __msa_fexupl_w(v8f16_a
); // CHECK: call <4 x float> @llvm.mips.fexupl.w(
368 v2f64_r
= __msa_fexupl_d(v4f32_a
); // CHECK: call <2 x double> @llvm.mips.fexupl.d(
370 v4f32_r
= __msa_fexupr_w(v8f16_a
); // CHECK: call <4 x float> @llvm.mips.fexupr.w(
371 v2f64_r
= __msa_fexupr_d(v4f32_a
); // CHECK: call <2 x double> @llvm.mips.fexupr.d(
373 v4f32_r
= __msa_ffint_s_w(v4i32_a
); // CHECK: call <4 x float> @llvm.mips.ffint.s.w(
374 v2f64_r
= __msa_ffint_s_d(v2i64_a
); // CHECK: call <2 x double> @llvm.mips.ffint.s.d(
376 v4f32_r
= __msa_ffint_u_w(v4i32_a
); // CHECK: call <4 x float> @llvm.mips.ffint.u.w(
377 v2f64_r
= __msa_ffint_u_d(v2i64_a
); // CHECK: call <2 x double> @llvm.mips.ffint.u.d(
379 v4f32_r
= __msa_ffql_w(v8i16_a
); // CHECK: call <4 x float> @llvm.mips.ffql.w(
380 v2f64_r
= __msa_ffql_d(v4i32_a
); // CHECK: call <2 x double> @llvm.mips.ffql.d(
382 v4f32_r
= __msa_ffqr_w(v8i16_a
); // CHECK: call <4 x float> @llvm.mips.ffqr.w(
383 v2f64_r
= __msa_ffqr_d(v4i32_a
); // CHECK: call <2 x double> @llvm.mips.ffqr.d(
385 v16i8_r
= __msa_fill_b(3); // CHECK: call <16 x i8> @llvm.mips.fill.b(
386 v8i16_r
= __msa_fill_h(3); // CHECK: call <8 x i16> @llvm.mips.fill.h(
387 v4i32_r
= __msa_fill_w(3); // CHECK: call <4 x i32> @llvm.mips.fill.w(
388 v2i64_r
= __msa_fill_d(3); // CHECK: call <2 x i64> @llvm.mips.fill.d(
390 v4f32_r
= __msa_flog2_w(v4f32_a
); // CHECK: call <4 x float> @llvm.mips.flog2.w(
391 v2f64_r
= __msa_flog2_d(v2f64_a
); // CHECK: call <2 x double> @llvm.mips.flog2.d(
393 v4f32_r
= __msa_fmadd_w(v4f32_r
, v4f32_a
, v4f32_b
); // CHECK: call <4 x float> @llvm.mips.fmadd.w(
394 v2f64_r
= __msa_fmadd_d(v2f64_r
, v2f64_a
, v2f64_b
); // CHECK: call <2 x double> @llvm.mips.fmadd.d(
396 v4f32_r
= __msa_fmax_w(v4f32_a
, v4f32_b
); // CHECK: call <4 x float> @llvm.mips.fmax.w(
397 v2f64_r
= __msa_fmax_d(v2f64_a
, v2f64_b
); // CHECK: call <2 x double> @llvm.mips.fmax.d(
399 v4f32_r
= __msa_fmax_a_w(v4f32_a
, v4f32_b
); // CHECK: call <4 x float> @llvm.mips.fmax.a.w(
400 v2f64_r
= __msa_fmax_a_d(v2f64_a
, v2f64_b
); // CHECK: call <2 x double> @llvm.mips.fmax.a.d(
402 v4f32_r
= __msa_fmin_w(v4f32_a
, v4f32_b
); // CHECK: call <4 x float> @llvm.mips.fmin.w(
403 v2f64_r
= __msa_fmin_d(v2f64_a
, v2f64_b
); // CHECK: call <2 x double> @llvm.mips.fmin.d(
405 v4f32_r
= __msa_fmin_a_w(v4f32_a
, v4f32_b
); // CHECK: call <4 x float> @llvm.mips.fmin.a.w(
406 v2f64_r
= __msa_fmin_a_d(v2f64_a
, v2f64_b
); // CHECK: call <2 x double> @llvm.mips.fmin.a.d(
408 v4f32_r
= __msa_fmsub_w(v4f32_r
, v4f32_a
, v4f32_b
); // CHECK: call <4 x float> @llvm.mips.fmsub.w(
409 v2f64_r
= __msa_fmsub_d(v2f64_r
, v2f64_a
, v2f64_b
); // CHECK: call <2 x double> @llvm.mips.fmsub.d(
411 v4f32_r
= __msa_fmul_w(v4f32_a
, v4f32_b
); // CHECK: call <4 x float> @llvm.mips.fmul.w(
412 v2f64_r
= __msa_fmul_d(v2f64_a
, v2f64_b
); // CHECK: call <2 x double> @llvm.mips.fmul.d(
414 v4f32_r
= __msa_frint_w(v4f32_a
); // CHECK: call <4 x float> @llvm.mips.frint.w(
415 v2f64_r
= __msa_frint_d(v2f64_a
); // CHECK: call <2 x double> @llvm.mips.frint.d(
417 v4f32_r
= __msa_frcp_w(v4f32_a
); // CHECK: call <4 x float> @llvm.mips.frcp.w(
418 v2f64_r
= __msa_frcp_d(v2f64_a
); // CHECK: call <2 x double> @llvm.mips.frcp.d(
420 v4f32_r
= __msa_frsqrt_w(v4f32_a
); // CHECK: call <4 x float> @llvm.mips.frsqrt.w(
421 v2f64_r
= __msa_frsqrt_d(v2f64_a
); // CHECK: call <2 x double> @llvm.mips.frsqrt.d(
423 v4i32_r
= __msa_fseq_w(v4f32_a
, v4f32_b
); // CHECK: call <4 x i32> @llvm.mips.fseq.w(
424 v2i64_r
= __msa_fseq_d(v2f64_a
, v2f64_b
); // CHECK: call <2 x i64> @llvm.mips.fseq.d(
426 v4i32_r
= __msa_fsaf_w(v4f32_a
, v4f32_b
); // CHECK: call <4 x i32> @llvm.mips.fsaf.w(
427 v2i64_r
= __msa_fsaf_d(v2f64_a
, v2f64_b
); // CHECK: call <2 x i64> @llvm.mips.fsaf.d(
429 v4i32_r
= __msa_fsle_w(v4f32_a
, v4f32_b
); // CHECK: call <4 x i32> @llvm.mips.fsle.w(
430 v2i64_r
= __msa_fsle_d(v2f64_a
, v2f64_b
); // CHECK: call <2 x i64> @llvm.mips.fsle.d(
432 v4i32_r
= __msa_fslt_w(v4f32_a
, v4f32_b
); // CHECK: call <4 x i32> @llvm.mips.fslt.w(
433 v2i64_r
= __msa_fslt_d(v2f64_a
, v2f64_b
); // CHECK: call <2 x i64> @llvm.mips.fslt.d(
435 v4i32_r
= __msa_fsne_w(v4f32_a
, v4f32_b
); // CHECK: call <4 x i32> @llvm.mips.fsne.w(
436 v2i64_r
= __msa_fsne_d(v2f64_a
, v2f64_b
); // CHECK: call <2 x i64> @llvm.mips.fsne.d(
438 v4i32_r
= __msa_fsor_w(v4f32_a
, v4f32_b
); // CHECK: call <4 x i32> @llvm.mips.fsor.w(
439 v2i64_r
= __msa_fsor_d(v2f64_a
, v2f64_b
); // CHECK: call <2 x i64> @llvm.mips.fsor.d(
441 v4f32_r
= __msa_fsqrt_w(v4f32_a
); // CHECK: call <4 x float> @llvm.mips.fsqrt.w(
442 v2f64_r
= __msa_fsqrt_d(v2f64_a
); // CHECK: call <2 x double> @llvm.mips.fsqrt.d(
444 v4f32_r
= __msa_fsub_w(v4f32_a
, v4f32_b
); // CHECK: call <4 x float> @llvm.mips.fsub.w(
445 v2f64_r
= __msa_fsub_d(v2f64_a
, v2f64_b
); // CHECK: call <2 x double> @llvm.mips.fsub.d(
447 v4i32_r
= __msa_fsueq_w(v4f32_a
, v4f32_b
); // CHECK: call <4 x i32> @llvm.mips.fsueq.w(
448 v2i64_r
= __msa_fsueq_d(v2f64_a
, v2f64_b
); // CHECK: call <2 x i64> @llvm.mips.fsueq.d(
450 v4i32_r
= __msa_fsule_w(v4f32_a
, v4f32_b
); // CHECK: call <4 x i32> @llvm.mips.fsule.w(
451 v2i64_r
= __msa_fsule_d(v2f64_a
, v2f64_b
); // CHECK: call <2 x i64> @llvm.mips.fsule.d(
453 v4i32_r
= __msa_fsult_w(v4f32_a
, v4f32_b
); // CHECK: call <4 x i32> @llvm.mips.fsult.w(
454 v2i64_r
= __msa_fsult_d(v2f64_a
, v2f64_b
); // CHECK: call <2 x i64> @llvm.mips.fsult.d(
456 v4i32_r
= __msa_fsun_w(v4f32_a
, v4f32_b
); // CHECK: call <4 x i32> @llvm.mips.fsun.w(
457 v2i64_r
= __msa_fsun_d(v2f64_a
, v2f64_b
); // CHECK: call <2 x i64> @llvm.mips.fsun.d(
459 v4i32_r
= __msa_fsune_w(v4f32_a
, v4f32_b
); // CHECK: call <4 x i32> @llvm.mips.fsune.w(
460 v2i64_r
= __msa_fsune_d(v2f64_a
, v2f64_b
); // CHECK: call <2 x i64> @llvm.mips.fsune.d(
462 v4i32_r
= __msa_ftint_s_w(v4f32_a
); // CHECK: call <4 x i32> @llvm.mips.ftint.s.w(
463 v2i64_r
= __msa_ftint_s_d(v2f64_a
); // CHECK: call <2 x i64> @llvm.mips.ftint.s.d(
465 v4i32_r
= __msa_ftint_u_w(v4f32_a
); // CHECK: call <4 x i32> @llvm.mips.ftint.u.w(
466 v2i64_r
= __msa_ftint_u_d(v2f64_a
); // CHECK: call <2 x i64> @llvm.mips.ftint.u.d(
468 v8i16_r
= __msa_ftq_h(v4f32_a
, v4f32_b
); // CHECK: call <8 x i16> @llvm.mips.ftq.h(
469 v4i32_r
= __msa_ftq_w(v2f64_a
, v2f64_b
); // CHECK: call <4 x i32> @llvm.mips.ftq.w(
471 v4i32_r
= __msa_ftrunc_s_w(v4f32_a
); // CHECK: call <4 x i32> @llvm.mips.ftrunc.s.w(
472 v2i64_r
= __msa_ftrunc_s_d(v2f64_a
); // CHECK: call <2 x i64> @llvm.mips.ftrunc.s.d(
474 v4i32_r
= __msa_ftrunc_u_w(v4f32_a
); // CHECK: call <4 x i32> @llvm.mips.ftrunc.u.w(
475 v2i64_r
= __msa_ftrunc_u_d(v2f64_a
); // CHECK: call <2 x i64> @llvm.mips.ftrunc.u.d(
477 v8i16_r
= __msa_hadd_s_h(v16i8_a
, v16i8_b
); // CHECK: call <8 x i16> @llvm.mips.hadd.s.h(
478 v4i32_r
= __msa_hadd_s_w(v8i16_a
, v8i16_b
); // CHECK: call <4 x i32> @llvm.mips.hadd.s.w(
479 v2i64_r
= __msa_hadd_s_d(v4i32_a
, v4i32_b
); // CHECK: call <2 x i64> @llvm.mips.hadd.s.d(
481 v8u16_r
= __msa_hadd_u_h(v16u8_a
, v16u8_b
); // CHECK: call <8 x i16> @llvm.mips.hadd.u.h(
482 v4u32_r
= __msa_hadd_u_w(v8u16_a
, v8u16_b
); // CHECK: call <4 x i32> @llvm.mips.hadd.u.w(
483 v2u64_r
= __msa_hadd_u_d(v4u32_a
, v4u32_b
); // CHECK: call <2 x i64> @llvm.mips.hadd.u.d(
485 v8i16_r
= __msa_hsub_s_h(v16i8_a
, v16i8_b
); // CHECK: call <8 x i16> @llvm.mips.hsub.s.h(
486 v4i32_r
= __msa_hsub_s_w(v8i16_a
, v8i16_b
); // CHECK: call <4 x i32> @llvm.mips.hsub.s.w(
487 v2i64_r
= __msa_hsub_s_d(v4i32_a
, v4i32_b
); // CHECK: call <2 x i64> @llvm.mips.hsub.s.d(
489 v8u16_r
= __msa_hsub_u_h(v16u8_a
, v16u8_b
); // CHECK: call <8 x i16> @llvm.mips.hsub.u.h(
490 v4u32_r
= __msa_hsub_u_w(v8u16_a
, v8u16_b
); // CHECK: call <4 x i32> @llvm.mips.hsub.u.w(
491 v2u64_r
= __msa_hsub_u_d(v4u32_a
, v4u32_b
); // CHECK: call <2 x i64> @llvm.mips.hsub.u.d(
493 v16i8_r
= __msa_ilvev_b(v16i8_a
, v16i8_b
); // CHECK: call <16 x i8> @llvm.mips.ilvev.b(
494 v8i16_r
= __msa_ilvev_h(v8i16_a
, v8i16_b
); // CHECK: call <8 x i16> @llvm.mips.ilvev.h(
495 v4i32_r
= __msa_ilvev_w(v4i32_a
, v4i32_b
); // CHECK: call <4 x i32> @llvm.mips.ilvev.w(
496 v2i64_r
= __msa_ilvev_d(v2i64_a
, v2i64_b
); // CHECK: call <2 x i64> @llvm.mips.ilvev.d(
498 v16i8_r
= __msa_ilvl_b(v16i8_a
, v16i8_b
); // CHECK: call <16 x i8> @llvm.mips.ilvl.b(
499 v8i16_r
= __msa_ilvl_h(v8i16_a
, v8i16_b
); // CHECK: call <8 x i16> @llvm.mips.ilvl.h(
500 v4i32_r
= __msa_ilvl_w(v4i32_a
, v4i32_b
); // CHECK: call <4 x i32> @llvm.mips.ilvl.w(
501 v2i64_r
= __msa_ilvl_d(v2i64_a
, v2i64_b
); // CHECK: call <2 x i64> @llvm.mips.ilvl.d(
503 v16i8_r
= __msa_ilvod_b(v16i8_a
, v16i8_b
); // CHECK: call <16 x i8> @llvm.mips.ilvod.b(
504 v8i16_r
= __msa_ilvod_h(v8i16_a
, v8i16_b
); // CHECK: call <8 x i16> @llvm.mips.ilvod.h(
505 v4i32_r
= __msa_ilvod_w(v4i32_a
, v4i32_b
); // CHECK: call <4 x i32> @llvm.mips.ilvod.w(
506 v2i64_r
= __msa_ilvod_d(v2i64_a
, v2i64_b
); // CHECK: call <2 x i64> @llvm.mips.ilvod.d(
508 v16i8_r
= __msa_ilvr_b(v16i8_a
, v16i8_b
); // CHECK: call <16 x i8> @llvm.mips.ilvr.b(
509 v8i16_r
= __msa_ilvr_h(v8i16_a
, v8i16_b
); // CHECK: call <8 x i16> @llvm.mips.ilvr.h(
510 v4i32_r
= __msa_ilvr_w(v4i32_a
, v4i32_b
); // CHECK: call <4 x i32> @llvm.mips.ilvr.w(
511 v2i64_r
= __msa_ilvr_d(v2i64_a
, v2i64_b
); // CHECK: call <2 x i64> @llvm.mips.ilvr.d(
513 v16i8_r
= __msa_insert_b(v16i8_r
, 1, 25); // CHECK: call <16 x i8> @llvm.mips.insert.b(
514 v8i16_r
= __msa_insert_h(v8i16_r
, 1, 25); // CHECK: call <8 x i16> @llvm.mips.insert.h(
515 v4i32_r
= __msa_insert_w(v4i32_r
, 1, 25); // CHECK: call <4 x i32> @llvm.mips.insert.w(
516 v2i64_r
= __msa_insert_d(v2i64_r
, 1, 25); // CHECK: call <2 x i64> @llvm.mips.insert.d(
518 v16i8_r
= __msa_insve_b(v16i8_r
, 1, v16i8_a
); // CHECK: call <16 x i8> @llvm.mips.insve.b(
519 v8i16_r
= __msa_insve_h(v8i16_r
, 1, v8i16_a
); // CHECK: call <8 x i16> @llvm.mips.insve.h(
520 v4i32_r
= __msa_insve_w(v4i32_r
, 1, v4i32_a
); // CHECK: call <4 x i32> @llvm.mips.insve.w(
521 v2i64_r
= __msa_insve_d(v2i64_r
, 1, v2i64_a
); // CHECK: call <2 x i64> @llvm.mips.insve.d(
523 v16i8_r
= __msa_ld_b(&v16i8_a
, 1); // CHECK: call <16 x i8> @llvm.mips.ld.b(
524 v8i16_r
= __msa_ld_h(&v8i16_a
, 2); // CHECK: call <8 x i16> @llvm.mips.ld.h(
525 v4i32_r
= __msa_ld_w(&v4i32_a
, 4); // CHECK: call <4 x i32> @llvm.mips.ld.w(
526 v2i64_r
= __msa_ld_d(&v2i64_a
, 8); // CHECK: call <2 x i64> @llvm.mips.ld.d(
528 v16i8_r
= __msa_ldi_b(3); // CHECK: call <16 x i8> @llvm.mips.ldi.b(
529 v16i8_r
= __msa_ldi_b(-128); // CHECK: call <16 x i8> @llvm.mips.ldi.b(
530 v16i8_r
= __msa_ldi_b(255); // CHECK: call <16 x i8> @llvm.mips.ldi.b(
531 v8i16_r
= __msa_ldi_h(3); // CHECK: call <8 x i16> @llvm.mips.ldi.h(
532 v4i32_r
= __msa_ldi_w(3); // CHECK: call <4 x i32> @llvm.mips.ldi.w(
533 v2i64_r
= __msa_ldi_d(3); // CHECK: call <2 x i64> @llvm.mips.ldi.d(
535 v8i16_r
= __msa_madd_q_h(v8i16_r
, v8i16_a
, v8i16_b
); // CHECK: call <8 x i16> @llvm.mips.madd.q.h(
536 v4i32_r
= __msa_madd_q_w(v4i32_r
, v4i32_a
, v4i32_b
); // CHECK: call <4 x i32> @llvm.mips.madd.q.w(
538 v8i16_r
= __msa_maddr_q_h(v8i16_r
, v8i16_a
, v8i16_b
); // CHECK: call <8 x i16> @llvm.mips.maddr.q.h(
539 v4i32_r
= __msa_maddr_q_w(v4i32_r
, v4i32_a
, v4i32_b
); // CHECK: call <4 x i32> @llvm.mips.maddr.q.w(
541 v16i8_r
= __msa_maddv_b(v16i8_r
, v16i8_a
, v16i8_b
); // CHECK: call <16 x i8> @llvm.mips.maddv.b(
542 v8i16_r
= __msa_maddv_h(v8i16_r
, v8i16_a
, v8i16_b
); // CHECK: call <8 x i16> @llvm.mips.maddv.h(
543 v4i32_r
= __msa_maddv_w(v4i32_r
, v4i32_a
, v4i32_b
); // CHECK: call <4 x i32> @llvm.mips.maddv.w(
544 v2i64_r
= __msa_maddv_d(v2i64_r
, v2i64_a
, v2i64_b
); // CHECK: call <2 x i64> @llvm.mips.maddv.d(
546 v16i8_r
= __msa_max_a_b(v16i8_a
, v16i8_b
); // CHECK: call <16 x i8> @llvm.mips.max.a.b(
547 v8i16_r
= __msa_max_a_h(v8i16_a
, v8i16_b
); // CHECK: call <8 x i16> @llvm.mips.max.a.h(
548 v4i32_r
= __msa_max_a_w(v4i32_a
, v4i32_b
); // CHECK: call <4 x i32> @llvm.mips.max.a.w(
549 v2i64_r
= __msa_max_a_d(v2i64_a
, v2i64_b
); // CHECK: call <2 x i64> @llvm.mips.max.a.d(
551 v16i8_r
= __msa_max_s_b(v16i8_a
, v16i8_b
); // CHECK: call <16 x i8> @llvm.mips.max.s.b(
552 v8i16_r
= __msa_max_s_h(v8i16_a
, v8i16_b
); // CHECK: call <8 x i16> @llvm.mips.max.s.h(
553 v4i32_r
= __msa_max_s_w(v4i32_a
, v4i32_b
); // CHECK: call <4 x i32> @llvm.mips.max.s.w(
554 v2i64_r
= __msa_max_s_d(v2i64_a
, v2i64_b
); // CHECK: call <2 x i64> @llvm.mips.max.s.d(
556 v16u8_r
= __msa_max_u_b(v16u8_a
, v16u8_b
); // CHECK: call <16 x i8> @llvm.mips.max.u.b(
557 v8u16_r
= __msa_max_u_h(v8u16_a
, v8u16_b
); // CHECK: call <8 x i16> @llvm.mips.max.u.h(
558 v4u32_r
= __msa_max_u_w(v4u32_a
, v4u32_b
); // CHECK: call <4 x i32> @llvm.mips.max.u.w(
559 v2u64_r
= __msa_max_u_d(v2u64_a
, v2u64_b
); // CHECK: call <2 x i64> @llvm.mips.max.u.d(
561 v16i8_r
= __msa_maxi_s_b(v16i8_a
, 2); // CHECK: call <16 x i8> @llvm.mips.maxi.s.b(
562 v8i16_r
= __msa_maxi_s_h(v8i16_a
, 2); // CHECK: call <8 x i16> @llvm.mips.maxi.s.h(
563 v4i32_r
= __msa_maxi_s_w(v4i32_a
, 2); // CHECK: call <4 x i32> @llvm.mips.maxi.s.w(
564 v2i64_r
= __msa_maxi_s_d(v2i64_a
, 2); // CHECK: call <2 x i64> @llvm.mips.maxi.s.d(
566 v16u8_r
= __msa_maxi_u_b(v16u8_a
, 2); // CHECK: call <16 x i8> @llvm.mips.maxi.u.b(
567 v8u16_r
= __msa_maxi_u_h(v8u16_a
, 2); // CHECK: call <8 x i16> @llvm.mips.maxi.u.h(
568 v4u32_r
= __msa_maxi_u_w(v4u32_a
, 2); // CHECK: call <4 x i32> @llvm.mips.maxi.u.w(
569 v2u64_r
= __msa_maxi_u_d(v2u64_a
, 2); // CHECK: call <2 x i64> @llvm.mips.maxi.u.d(
571 v16i8_r
= __msa_min_a_b(v16i8_a
, v16i8_b
); // CHECK: call <16 x i8> @llvm.mips.min.a.b(
572 v8i16_r
= __msa_min_a_h(v8i16_a
, v8i16_b
); // CHECK: call <8 x i16> @llvm.mips.min.a.h(
573 v4i32_r
= __msa_min_a_w(v4i32_a
, v4i32_b
); // CHECK: call <4 x i32> @llvm.mips.min.a.w(
574 v2i64_r
= __msa_min_a_d(v2i64_a
, v2i64_b
); // CHECK: call <2 x i64> @llvm.mips.min.a.d(
576 v16i8_r
= __msa_min_s_b(v16i8_a
, v16i8_b
); // CHECK: call <16 x i8> @llvm.mips.min.s.b(
577 v8i16_r
= __msa_min_s_h(v8i16_a
, v8i16_b
); // CHECK: call <8 x i16> @llvm.mips.min.s.h(
578 v4i32_r
= __msa_min_s_w(v4i32_a
, v4i32_b
); // CHECK: call <4 x i32> @llvm.mips.min.s.w(
579 v2i64_r
= __msa_min_s_d(v2i64_a
, v2i64_b
); // CHECK: call <2 x i64> @llvm.mips.min.s.d(
581 v16u8_r
= __msa_min_u_b(v16u8_a
, v16u8_b
); // CHECK: call <16 x i8> @llvm.mips.min.u.b(
582 v8u16_r
= __msa_min_u_h(v8u16_a
, v8u16_b
); // CHECK: call <8 x i16> @llvm.mips.min.u.h(
583 v4u32_r
= __msa_min_u_w(v4u32_a
, v4u32_b
); // CHECK: call <4 x i32> @llvm.mips.min.u.w(
584 v2u64_r
= __msa_min_u_d(v2u64_a
, v2u64_b
); // CHECK: call <2 x i64> @llvm.mips.min.u.d(
586 v16i8_r
= __msa_mini_s_b(v16i8_a
, 2); // CHECK: call <16 x i8> @llvm.mips.mini.s.b(
587 v8i16_r
= __msa_mini_s_h(v8i16_a
, 2); // CHECK: call <8 x i16> @llvm.mips.mini.s.h(
588 v4i32_r
= __msa_mini_s_w(v4i32_a
, 2); // CHECK: call <4 x i32> @llvm.mips.mini.s.w(
589 v2i64_r
= __msa_mini_s_d(v2i64_a
, 2); // CHECK: call <2 x i64> @llvm.mips.mini.s.d(
591 v16u8_r
= __msa_mini_u_b(v16u8_a
, 2); // CHECK: call <16 x i8> @llvm.mips.mini.u.b(
592 v8u16_r
= __msa_mini_u_h(v8u16_a
, 2); // CHECK: call <8 x i16> @llvm.mips.mini.u.h(
593 v4u32_r
= __msa_mini_u_w(v4u32_a
, 2); // CHECK: call <4 x i32> @llvm.mips.mini.u.w(
594 v2u64_r
= __msa_mini_u_d(v2u64_a
, 2); // CHECK: call <2 x i64> @llvm.mips.mini.u.d(
596 v16i8_r
= __msa_mod_s_b(v16i8_a
, v16i8_b
); // CHECK: call <16 x i8> @llvm.mips.mod.s.b(
597 v8i16_r
= __msa_mod_s_h(v8i16_a
, v8i16_b
); // CHECK: call <8 x i16> @llvm.mips.mod.s.h(
598 v4i32_r
= __msa_mod_s_w(v4i32_a
, v4i32_b
); // CHECK: call <4 x i32> @llvm.mips.mod.s.w(
599 v2i64_r
= __msa_mod_s_d(v2i64_a
, v2i64_b
); // CHECK: call <2 x i64> @llvm.mips.mod.s.d(
601 v16u8_r
= __msa_mod_u_b(v16u8_a
, v16u8_b
); // CHECK: call <16 x i8> @llvm.mips.mod.u.b(
602 v8u16_r
= __msa_mod_u_h(v8u16_a
, v8u16_b
); // CHECK: call <8 x i16> @llvm.mips.mod.u.h(
603 v4u32_r
= __msa_mod_u_w(v4u32_a
, v4u32_b
); // CHECK: call <4 x i32> @llvm.mips.mod.u.w(
604 v2u64_r
= __msa_mod_u_d(v2u64_a
, v2u64_b
); // CHECK: call <2 x i64> @llvm.mips.mod.u.d(
606 v16i8_r
= __msa_move_v(v16i8_a
); // CHECK: call <16 x i8> @llvm.mips.move.v(
608 v8i16_r
= __msa_msub_q_h(v8i16_r
, v8i16_a
, v8i16_b
); // CHECK: call <8 x i16> @llvm.mips.msub.q.h(
609 v4i32_r
= __msa_msub_q_w(v4i32_r
, v4i32_a
, v4i32_b
); // CHECK: call <4 x i32> @llvm.mips.msub.q.w(
611 v8i16_r
= __msa_msubr_q_h(v8i16_r
, v8i16_a
, v8i16_b
); // CHECK: call <8 x i16> @llvm.mips.msubr.q.h(
612 v4i32_r
= __msa_msubr_q_w(v4i32_r
, v4i32_a
, v4i32_b
); // CHECK: call <4 x i32> @llvm.mips.msubr.q.w(
614 v16i8_r
= __msa_msubv_b(v16i8_r
, v16i8_a
, v16i8_b
); // CHECK: call <16 x i8> @llvm.mips.msubv.b(
615 v8i16_r
= __msa_msubv_h(v8i16_r
, v8i16_a
, v8i16_b
); // CHECK: call <8 x i16> @llvm.mips.msubv.h(
616 v4i32_r
= __msa_msubv_w(v4i32_r
, v4i32_a
, v4i32_b
); // CHECK: call <4 x i32> @llvm.mips.msubv.w(
617 v2i64_r
= __msa_msubv_d(v2i64_r
, v2i64_a
, v2i64_b
); // CHECK: call <2 x i64> @llvm.mips.msubv.d(
619 v8i16_r
= __msa_mul_q_h(v8i16_a
, v8i16_b
); // CHECK: call <8 x i16> @llvm.mips.mul.q.h(
620 v4i32_r
= __msa_mul_q_w(v4i32_a
, v4i32_b
); // CHECK: call <4 x i32> @llvm.mips.mul.q.w(
622 v8i16_r
= __msa_mulr_q_h(v8i16_a
, v8i16_b
); // CHECK: call <8 x i16> @llvm.mips.mulr.q.h(
623 v4i32_r
= __msa_mulr_q_w(v4i32_a
, v4i32_b
); // CHECK: call <4 x i32> @llvm.mips.mulr.q.w(
625 v16i8_r
= __msa_mulv_b(v16i8_a
, v16i8_b
); // CHECK: call <16 x i8> @llvm.mips.mulv.b(
626 v8i16_r
= __msa_mulv_h(v8i16_a
, v8i16_b
); // CHECK: call <8 x i16> @llvm.mips.mulv.h(
627 v4i32_r
= __msa_mulv_w(v4i32_a
, v4i32_b
); // CHECK: call <4 x i32> @llvm.mips.mulv.w(
628 v2i64_r
= __msa_mulv_d(v2i64_a
, v2i64_b
); // CHECK: call <2 x i64> @llvm.mips.mulv.d(
630 v16i8_r
= __msa_nloc_b(v16i8_a
); // CHECK: call <16 x i8> @llvm.mips.nloc.b(
631 v8i16_r
= __msa_nloc_h(v8i16_a
); // CHECK: call <8 x i16> @llvm.mips.nloc.h(
632 v4i32_r
= __msa_nloc_w(v4i32_a
); // CHECK: call <4 x i32> @llvm.mips.nloc.w(
633 v2i64_r
= __msa_nloc_d(v2i64_a
); // CHECK: call <2 x i64> @llvm.mips.nloc.d(
635 v16i8_r
= __msa_nlzc_b(v16i8_a
); // CHECK: call <16 x i8> @llvm.mips.nlzc.b(
636 v8i16_r
= __msa_nlzc_h(v8i16_a
); // CHECK: call <8 x i16> @llvm.mips.nlzc.h(
637 v4i32_r
= __msa_nlzc_w(v4i32_a
); // CHECK: call <4 x i32> @llvm.mips.nlzc.w(
638 v2i64_r
= __msa_nlzc_d(v2i64_a
); // CHECK: call <2 x i64> @llvm.mips.nlzc.d(
640 v16i8_r
= __msa_nor_v(v16i8_a
, v16i8_b
); // CHECK: call <16 x i8> @llvm.mips.nor.v(
641 v8i16_r
= __msa_nor_v(v8i16_a
, v8i16_b
); // CHECK: call <16 x i8> @llvm.mips.nor.v(
642 v4i32_r
= __msa_nor_v(v4i32_a
, v4i32_b
); // CHECK: call <16 x i8> @llvm.mips.nor.v(
643 v2i64_r
= __msa_nor_v(v2i64_a
, v2i64_b
); // CHECK: call <16 x i8> @llvm.mips.nor.v(
645 v16i8_r
= __msa_nori_b(v16i8_a
, 25); // CHECK: call <16 x i8> @llvm.mips.nori.b(
646 v8i16_r
= __msa_nori_b(v8i16_a
, 25); // CHECK: call <16 x i8> @llvm.mips.nori.b(
647 v4i32_r
= __msa_nori_b(v4i32_a
, 25); // CHECK: call <16 x i8> @llvm.mips.nori.b(
648 v2i64_r
= __msa_nori_b(v2i64_a
, 25); // CHECK: call <16 x i8> @llvm.mips.nori.b(
650 v16u8_r
= __msa_nori_b(v16u8_a
, 25); // CHECK: call <16 x i8> @llvm.mips.nori.b(
651 v8u16_r
= __msa_nori_b(v8u16_a
, 25); // CHECK: call <16 x i8> @llvm.mips.nori.b(
652 v4u32_r
= __msa_nori_b(v4u32_a
, 25); // CHECK: call <16 x i8> @llvm.mips.nori.b(
653 v2u64_r
= __msa_nori_b(v2u64_a
, 25); // CHECK: call <16 x i8> @llvm.mips.nori.b(
655 v16i8_r
= __msa_or_v(v16i8_a
, v16i8_b
); // CHECK: call <16 x i8> @llvm.mips.or.v(
656 v8i16_r
= __msa_or_v(v8i16_a
, v8i16_b
); // CHECK: call <16 x i8> @llvm.mips.or.v(
657 v4i32_r
= __msa_or_v(v4i32_a
, v4i32_b
); // CHECK: call <16 x i8> @llvm.mips.or.v(
658 v2i64_r
= __msa_or_v(v2i64_a
, v2i64_b
); // CHECK: call <16 x i8> @llvm.mips.or.v(
660 v16i8_r
= __msa_ori_b(v16i8_a
, 25); // CHECK: call <16 x i8> @llvm.mips.ori.b(
661 v8i16_r
= __msa_ori_b(v8i16_a
, 25); // CHECK: call <16 x i8> @llvm.mips.ori.b(
662 v4i32_r
= __msa_ori_b(v4i32_a
, 25); // CHECK: call <16 x i8> @llvm.mips.ori.b(
663 v2i64_r
= __msa_ori_b(v2i64_a
, 25); // CHECK: call <16 x i8> @llvm.mips.ori.b(
665 v16u8_r
= __msa_ori_b(v16u8_a
, 25); // CHECK: call <16 x i8> @llvm.mips.ori.b(
666 v8u16_r
= __msa_ori_b(v8u16_a
, 25); // CHECK: call <16 x i8> @llvm.mips.ori.b(
667 v4u32_r
= __msa_ori_b(v4u32_a
, 25); // CHECK: call <16 x i8> @llvm.mips.ori.b(
668 v2u64_r
= __msa_ori_b(v2u64_a
, 25); // CHECK: call <16 x i8> @llvm.mips.ori.b(
670 v16i8_r
= __msa_pckev_b(v16i8_a
, v16i8_b
); // CHECK: call <16 x i8> @llvm.mips.pckev.b(
671 v8i16_r
= __msa_pckev_h(v8i16_a
, v8i16_b
); // CHECK: call <8 x i16> @llvm.mips.pckev.h(
672 v4i32_r
= __msa_pckev_w(v4i32_a
, v4i32_b
); // CHECK: call <4 x i32> @llvm.mips.pckev.w(
673 v2i64_r
= __msa_pckev_d(v2i64_a
, v2i64_b
); // CHECK: call <2 x i64> @llvm.mips.pckev.d(
675 v16i8_r
= __msa_pckod_b(v16i8_a
, v16i8_b
); // CHECK: call <16 x i8> @llvm.mips.pckod.b(
676 v8i16_r
= __msa_pckod_h(v8i16_a
, v8i16_b
); // CHECK: call <8 x i16> @llvm.mips.pckod.h(
677 v4i32_r
= __msa_pckod_w(v4i32_a
, v4i32_b
); // CHECK: call <4 x i32> @llvm.mips.pckod.w(
678 v2i64_r
= __msa_pckod_d(v2i64_a
, v2i64_b
); // CHECK: call <2 x i64> @llvm.mips.pckod.d(
680 v16i8_r
= __msa_pcnt_b(v16i8_a
); // CHECK: call <16 x i8> @llvm.mips.pcnt.b(
681 v8i16_r
= __msa_pcnt_h(v8i16_a
); // CHECK: call <8 x i16> @llvm.mips.pcnt.h(
682 v4i32_r
= __msa_pcnt_w(v4i32_a
); // CHECK: call <4 x i32> @llvm.mips.pcnt.w(
683 v2i64_r
= __msa_pcnt_d(v2i64_a
); // CHECK: call <2 x i64> @llvm.mips.pcnt.d(
685 v16i8_r
= __msa_sat_s_b(v16i8_a
, 3); // CHECK: call <16 x i8> @llvm.mips.sat.s.b(
686 v8i16_r
= __msa_sat_s_h(v8i16_a
, 3); // CHECK: call <8 x i16> @llvm.mips.sat.s.h(
687 v4i32_r
= __msa_sat_s_w(v4i32_a
, 3); // CHECK: call <4 x i32> @llvm.mips.sat.s.w(
688 v2i64_r
= __msa_sat_s_d(v2i64_a
, 3); // CHECK: call <2 x i64> @llvm.mips.sat.s.d(
690 v16i8_r
= __msa_sat_u_b(v16i8_a
, 3); // CHECK: call <16 x i8> @llvm.mips.sat.u.b(
691 v8i16_r
= __msa_sat_u_h(v8i16_a
, 3); // CHECK: call <8 x i16> @llvm.mips.sat.u.h(
692 v4i32_r
= __msa_sat_u_w(v4i32_a
, 3); // CHECK: call <4 x i32> @llvm.mips.sat.u.w(
693 v2i64_r
= __msa_sat_u_d(v2i64_a
, 3); // CHECK: call <2 x i64> @llvm.mips.sat.u.d(
695 v16i8_r
= __msa_shf_b(v16i8_a
, 3); // CHECK: call <16 x i8> @llvm.mips.shf.b(
696 v8i16_r
= __msa_shf_h(v8i16_a
, 3); // CHECK: call <8 x i16> @llvm.mips.shf.h(
697 v4i32_r
= __msa_shf_w(v4i32_a
, 3); // CHECK: call <4 x i32> @llvm.mips.shf.w(
699 v16i8_r
= __msa_sld_b(v16i8_r
, v16i8_a
, 7); // CHECK: call <16 x i8> @llvm.mips.sld.b(
700 v8i16_r
= __msa_sld_h(v8i16_r
, v8i16_a
, 5); // CHECK: call <8 x i16> @llvm.mips.sld.h(
701 v4i32_r
= __msa_sld_w(v4i32_r
, v4i32_a
, 3); // CHECK: call <4 x i32> @llvm.mips.sld.w(
702 v2i64_r
= __msa_sld_d(v2i64_r
, v2i64_a
, 1); // CHECK: call <2 x i64> @llvm.mips.sld.d(
704 v16i8_r
= __msa_sld_b(v16i8_r
, v16i8_a
, 16); // CHECK: call <16 x i8> @llvm.mips.sld.b(
705 v8i16_r
= __msa_sld_h(v8i16_r
, v8i16_a
, 8); // CHECK: call <8 x i16> @llvm.mips.sld.h(
706 v4i32_r
= __msa_sld_w(v4i32_r
, v4i32_a
, 4); // CHECK: call <4 x i32> @llvm.mips.sld.w(
707 v2i64_r
= __msa_sld_d(v2i64_r
, v2i64_a
, 2); // CHECK: call <2 x i64> @llvm.mips.sld.d(
709 v16i8_r
= __msa_sldi_b(v16i8_r
, v16i8_a
, 7); // CHECK: call <16 x i8> @llvm.mips.sldi.b(
710 v8i16_r
= __msa_sldi_h(v8i16_r
, v8i16_a
, 3); // CHECK: call <8 x i16> @llvm.mips.sldi.h(
711 v4i32_r
= __msa_sldi_w(v4i32_r
, v4i32_a
, 2); // CHECK: call <4 x i32> @llvm.mips.sldi.w(
712 v2i64_r
= __msa_sldi_d(v2i64_r
, v2i64_a
, 1); // CHECK: call <2 x i64> @llvm.mips.sldi.d(
714 v16i8_r
= __msa_sll_b(v16i8_a
, v16i8_b
); // CHECK: call <16 x i8> @llvm.mips.sll.b(
715 v8i16_r
= __msa_sll_h(v8i16_a
, v8i16_b
); // CHECK: call <8 x i16> @llvm.mips.sll.h(
716 v4i32_r
= __msa_sll_w(v4i32_a
, v4i32_b
); // CHECK: call <4 x i32> @llvm.mips.sll.w(
717 v2i64_r
= __msa_sll_d(v2i64_a
, v2i64_b
); // CHECK: call <2 x i64> @llvm.mips.sll.d(
719 v16i8_r
= __msa_slli_b(v16i8_a
, 3); // CHECK: call <16 x i8> @llvm.mips.slli.b(
720 v8i16_r
= __msa_slli_h(v8i16_a
, 3); // CHECK: call <8 x i16> @llvm.mips.slli.h(
721 v4i32_r
= __msa_slli_w(v4i32_a
, 3); // CHECK: call <4 x i32> @llvm.mips.slli.w(
722 v2i64_r
= __msa_slli_d(v2i64_a
, 3); // CHECK: call <2 x i64> @llvm.mips.slli.d(
724 v16i8_r
= __msa_splat_b(v16i8_a
, 3); // CHECK: call <16 x i8> @llvm.mips.splat.b(
725 v8i16_r
= __msa_splat_h(v8i16_a
, 3); // CHECK: call <8 x i16> @llvm.mips.splat.h(
726 v4i32_r
= __msa_splat_w(v4i32_a
, 3); // CHECK: call <4 x i32> @llvm.mips.splat.w(
727 v2i64_r
= __msa_splat_d(v2i64_a
, 3); // CHECK: call <2 x i64> @llvm.mips.splat.d(
729 v16i8_r
= __msa_splati_b(v16i8_a
, 3); // CHECK: call <16 x i8> @llvm.mips.splati.b(
730 v8i16_r
= __msa_splati_h(v8i16_a
, 3); // CHECK: call <8 x i16> @llvm.mips.splati.h(
731 v4i32_r
= __msa_splati_w(v4i32_a
, 3); // CHECK: call <4 x i32> @llvm.mips.splati.w(
732 v2i64_r
= __msa_splati_d(v2i64_a
, 1); // CHECK: call <2 x i64> @llvm.mips.splati.d(
734 v16i8_r
= __msa_sra_b(v16i8_a
, v16i8_b
); // CHECK: call <16 x i8> @llvm.mips.sra.b(
735 v8i16_r
= __msa_sra_h(v8i16_a
, v8i16_b
); // CHECK: call <8 x i16> @llvm.mips.sra.h(
736 v4i32_r
= __msa_sra_w(v4i32_a
, v4i32_b
); // CHECK: call <4 x i32> @llvm.mips.sra.w(
737 v2i64_r
= __msa_sra_d(v2i64_a
, v2i64_b
); // CHECK: call <2 x i64> @llvm.mips.sra.d(
739 v16i8_r
= __msa_srai_b(v16i8_a
, 3); // CHECK: call <16 x i8> @llvm.mips.srai.b(
740 v8i16_r
= __msa_srai_h(v8i16_a
, 3); // CHECK: call <8 x i16> @llvm.mips.srai.h(
741 v4i32_r
= __msa_srai_w(v4i32_a
, 3); // CHECK: call <4 x i32> @llvm.mips.srai.w(
742 v2i64_r
= __msa_srai_d(v2i64_a
, 3); // CHECK: call <2 x i64> @llvm.mips.srai.d(
744 v16i8_r
= __msa_srar_b(v16i8_a
, v16i8_b
); // CHECK: call <16 x i8> @llvm.mips.srar.b(
745 v8i16_r
= __msa_srar_h(v8i16_a
, v8i16_b
); // CHECK: call <8 x i16> @llvm.mips.srar.h(
746 v4i32_r
= __msa_srar_w(v4i32_a
, v4i32_b
); // CHECK: call <4 x i32> @llvm.mips.srar.w(
747 v2i64_r
= __msa_srar_d(v2i64_a
, v2i64_b
); // CHECK: call <2 x i64> @llvm.mips.srar.d(
749 v16i8_r
= __msa_srari_b(v16i8_a
, 3); // CHECK: call <16 x i8> @llvm.mips.srari.b(
750 v8i16_r
= __msa_srari_h(v8i16_a
, 3); // CHECK: call <8 x i16> @llvm.mips.srari.h(
751 v4i32_r
= __msa_srari_w(v4i32_a
, 3); // CHECK: call <4 x i32> @llvm.mips.srari.w(
752 v2i64_r
= __msa_srari_d(v2i64_a
, 3); // CHECK: call <2 x i64> @llvm.mips.srari.d(
754 v16i8_r
= __msa_srl_b(v16i8_a
, v16i8_b
); // CHECK: call <16 x i8> @llvm.mips.srl.b(
755 v8i16_r
= __msa_srl_h(v8i16_a
, v8i16_b
); // CHECK: call <8 x i16> @llvm.mips.srl.h(
756 v4i32_r
= __msa_srl_w(v4i32_a
, v4i32_b
); // CHECK: call <4 x i32> @llvm.mips.srl.w(
757 v2i64_r
= __msa_srl_d(v2i64_a
, v2i64_b
); // CHECK: call <2 x i64> @llvm.mips.srl.d(
759 v16i8_r
= __msa_srli_b(v16i8_a
, 3); // CHECK: call <16 x i8> @llvm.mips.srli.b(
760 v8i16_r
= __msa_srli_h(v8i16_a
, 3); // CHECK: call <8 x i16> @llvm.mips.srli.h(
761 v4i32_r
= __msa_srli_w(v4i32_a
, 3); // CHECK: call <4 x i32> @llvm.mips.srli.w(
762 v2i64_r
= __msa_srli_d(v2i64_a
, 3); // CHECK: call <2 x i64> @llvm.mips.srli.d(
764 v16i8_r
= __msa_srlr_b(v16i8_a
, v16i8_b
); // CHECK: call <16 x i8> @llvm.mips.srlr.b(
765 v8i16_r
= __msa_srlr_h(v8i16_a
, v8i16_b
); // CHECK: call <8 x i16> @llvm.mips.srlr.h(
766 v4i32_r
= __msa_srlr_w(v4i32_a
, v4i32_b
); // CHECK: call <4 x i32> @llvm.mips.srlr.w(
767 v2i64_r
= __msa_srlr_d(v2i64_a
, v2i64_b
); // CHECK: call <2 x i64> @llvm.mips.srlr.d(
769 v16i8_r
= __msa_srlri_b(v16i8_a
, 3); // CHECK: call <16 x i8> @llvm.mips.srlri.b(
770 v8i16_r
= __msa_srlri_h(v8i16_a
, 3); // CHECK: call <8 x i16> @llvm.mips.srlri.h(
771 v4i32_r
= __msa_srlri_w(v4i32_a
, 3); // CHECK: call <4 x i32> @llvm.mips.srlri.w(
772 v2i64_r
= __msa_srlri_d(v2i64_a
, 3); // CHECK: call <2 x i64> @llvm.mips.srlri.d(
774 __msa_st_b(v16i8_b
, &v16i8_a
, 1); // CHECK: call void @llvm.mips.st.b(
775 __msa_st_h(v8i16_b
, &v8i16_a
, 2); // CHECK: call void @llvm.mips.st.h(
776 __msa_st_w(v4i32_b
, &v4i32_a
, 4); // CHECK: call void @llvm.mips.st.w(
777 __msa_st_d(v2i64_b
, &v2i64_a
, 8); // CHECK: call void @llvm.mips.st.d(
779 v16i8_r
= __msa_subs_s_b(v16i8_a
, v16i8_b
); // CHECK: call <16 x i8> @llvm.mips.subs.s.b(
780 v8i16_r
= __msa_subs_s_h(v8i16_a
, v8i16_b
); // CHECK: call <8 x i16> @llvm.mips.subs.s.h(
781 v4i32_r
= __msa_subs_s_w(v4i32_a
, v4i32_b
); // CHECK: call <4 x i32> @llvm.mips.subs.s.w(
782 v2i64_r
= __msa_subs_s_d(v2i64_a
, v2i64_b
); // CHECK: call <2 x i64> @llvm.mips.subs.s.d(
784 v16u8_r
= __msa_subs_u_b(v16u8_a
, v16u8_b
); // CHECK: call <16 x i8> @llvm.mips.subs.u.b(
785 v8u16_r
= __msa_subs_u_h(v8u16_a
, v8u16_b
); // CHECK: call <8 x i16> @llvm.mips.subs.u.h(
786 v4u32_r
= __msa_subs_u_w(v4u32_a
, v4u32_b
); // CHECK: call <4 x i32> @llvm.mips.subs.u.w(
787 v2u64_r
= __msa_subs_u_d(v2u64_a
, v2u64_b
); // CHECK: call <2 x i64> @llvm.mips.subs.u.d(
789 v16u8_r
= __msa_subsus_u_b(v16u8_a
, v16i8_b
); // CHECK: call <16 x i8> @llvm.mips.subsus.u.b(
790 v8u16_r
= __msa_subsus_u_h(v8u16_a
, v8i16_b
); // CHECK: call <8 x i16> @llvm.mips.subsus.u.h(
791 v4u32_r
= __msa_subsus_u_w(v4u32_a
, v4i32_b
); // CHECK: call <4 x i32> @llvm.mips.subsus.u.w(
792 v2u64_r
= __msa_subsus_u_d(v2u64_a
, v2i64_b
); // CHECK: call <2 x i64> @llvm.mips.subsus.u.d(
794 v16i8_r
= __msa_subsuu_s_b(v16u8_a
, v16u8_b
); // CHECK: call <16 x i8> @llvm.mips.subsuu.s.b(
795 v8i16_r
= __msa_subsuu_s_h(v8u16_a
, v8u16_b
); // CHECK: call <8 x i16> @llvm.mips.subsuu.s.h(
796 v4i32_r
= __msa_subsuu_s_w(v4u32_a
, v4u32_b
); // CHECK: call <4 x i32> @llvm.mips.subsuu.s.w(
797 v2i64_r
= __msa_subsuu_s_d(v2u64_a
, v2u64_b
); // CHECK: call <2 x i64> @llvm.mips.subsuu.s.d(
799 v16i8_r
= __msa_subv_b(v16i8_a
, v16i8_b
); // CHECK: call <16 x i8> @llvm.mips.subv.b(
800 v8i16_r
= __msa_subv_h(v8i16_a
, v8i16_b
); // CHECK: call <8 x i16> @llvm.mips.subv.h(
801 v4i32_r
= __msa_subv_w(v4i32_a
, v4i32_b
); // CHECK: call <4 x i32> @llvm.mips.subv.w(
802 v2i64_r
= __msa_subv_d(v2i64_a
, v2i64_b
); // CHECK: call <2 x i64> @llvm.mips.subv.d(
804 v16i8_r
= __msa_subvi_b(v16i8_a
, 25); // CHECK: call <16 x i8> @llvm.mips.subvi.b(
805 v8i16_r
= __msa_subvi_h(v8i16_a
, 25); // CHECK: call <8 x i16> @llvm.mips.subvi.h(
806 v4i32_r
= __msa_subvi_w(v4i32_a
, 25); // CHECK: call <4 x i32> @llvm.mips.subvi.w(
807 v2i64_r
= __msa_subvi_d(v2i64_a
, 25); // CHECK: call <2 x i64> @llvm.mips.subvi.d(
809 v16i8_r
= __msa_vshf_b(v16i8_a
, v16i8_b
, v16i8_b
); // CHECK: call <16 x i8> @llvm.mips.vshf.b(
810 v8i16_r
= __msa_vshf_h(v8i16_a
, v8i16_b
, v8i16_b
); // CHECK: call <8 x i16> @llvm.mips.vshf.h(
811 v4i32_r
= __msa_vshf_w(v4i32_a
, v4i32_b
, v4i32_b
); // CHECK: call <4 x i32> @llvm.mips.vshf.w(
812 v2i64_r
= __msa_vshf_d(v2i64_a
, v2i64_b
, v2i64_b
); // CHECK: call <2 x i64> @llvm.mips.vshf.d(
814 v16i8_r
= __msa_xor_v(v16i8_a
, v16i8_b
); // CHECK: call <16 x i8> @llvm.mips.xor.v(
815 v8i16_r
= __msa_xor_v(v8i16_a
, v8i16_b
); // CHECK: call <16 x i8> @llvm.mips.xor.v(
816 v4i32_r
= __msa_xor_v(v4i32_a
, v4i32_b
); // CHECK: call <16 x i8> @llvm.mips.xor.v(
817 v2i64_r
= __msa_xor_v(v2i64_a
, v2i64_b
); // CHECK: call <16 x i8> @llvm.mips.xor.v(
819 v16i8_r
= __msa_xori_b(v16i8_a
, 25); // CHECK: call <16 x i8> @llvm.mips.xori.b(
820 v8i16_r
= __msa_xori_b(v8i16_a
, 25); // CHECK: call <16 x i8> @llvm.mips.xori.b(
821 v4i32_r
= __msa_xori_b(v4i32_a
, 25); // CHECK: call <16 x i8> @llvm.mips.xori.b(
822 v2i64_r
= __msa_xori_b(v2i64_a
, 25); // CHECK: call <16 x i8> @llvm.mips.xori.b(
824 v16u8_r
= __msa_xori_b(v16u8_a
, 25); // CHECK: call <16 x i8> @llvm.mips.xori.b(
825 v8u16_r
= __msa_xori_b(v8u16_a
, 25); // CHECK: call <16 x i8> @llvm.mips.xori.b(
826 v4u32_r
= __msa_xori_b(v4u32_a
, 25); // CHECK: call <16 x i8> @llvm.mips.xori.b(
827 v2u64_r
= __msa_xori_b(v2u64_a
, 25); // CHECK: call <16 x i8> @llvm.mips.xori.b(