1 /* { dg-do compile } */
2 /* { dg-options "-maltivec -mabi=altivec -std=gnu99 -mno-vsx -Wno-deprecated -flax-vector-conversions" } */
5 extern char * *var_char_ptr
;
6 extern float * *var_float_ptr
;
7 extern int * *var_int_ptr
;
9 extern int *var_cc24fd
;
10 extern int *var_cc24fr
;
11 extern int *var_cc24t
;
12 extern int *var_cc24td
;
13 extern int *var_cc24tr
;
14 extern int *var_cc26f
;
15 extern int *var_cc26fd
;
16 extern int *var_cc26fr
;
17 extern int *var_cc26t
;
18 extern int *var_cc26td
;
19 extern int *var_cc26tr
;
21 extern short * *var_short_ptr
;
22 extern signed char * *var_signed_char_ptr
;
23 extern unsigned char * *var_unsigned_char_ptr
;
24 extern unsigned int * *var_unsigned_int_ptr
;
25 extern unsigned short * *var_unsigned_short_ptr
;
26 extern vector
bool char * *var_vec_b8_ptr
;
27 extern vector
bool char *var_vec_b8
;
28 extern vector
bool int * *var_vec_b32_ptr
;
29 extern vector
bool int *var_vec_b32
;
30 extern vector
bool short * *var_vec_b16_ptr
;
31 extern vector
bool short *var_vec_b16
;
32 extern vector
float * *var_vec_f32_ptr
;
33 extern vector
float *var_vec_f32
;
34 extern vector pixel
* *var_vec_p16_ptr
;
35 extern vector pixel
*var_vec_p16
;
36 extern vector
signed char * *var_vec_s8_ptr
;
37 extern vector
signed char *var_vec_s8
;
38 extern vector
signed int * *var_vec_s32_ptr
;
39 extern vector
signed int *var_vec_s32
;
40 extern vector
signed short * *var_vec_s16_ptr
;
41 extern vector
signed short *var_vec_s16
;
42 extern vector
unsigned char * *var_vec_u8_ptr
;
43 extern vector
unsigned char *var_vec_u8
;
44 extern vector
unsigned int * *var_vec_u32_ptr
;
45 extern vector
unsigned int *var_vec_u32
;
46 extern vector
unsigned short * *var_vec_u16_ptr
;
47 extern vector
unsigned short *var_vec_u16
;
48 extern vector
unsigned short *var_volatile_vec_u16
;
50 *var_cc24f
++ = vec_any_le(var_vec_b16
[0], var_vec_s16
[1]);
51 *var_cc24f
++ = vec_any_le(var_vec_b16
[0], var_vec_u16
[1]);
52 *var_cc24f
++ = vec_any_le(var_vec_b32
[0], var_vec_s32
[1]);
53 *var_cc24f
++ = vec_any_le(var_vec_b32
[0], var_vec_u32
[1]);
54 *var_cc24f
++ = vec_any_le(var_vec_b8
[0], var_vec_s8
[1]);
55 *var_cc24f
++ = vec_any_le(var_vec_b8
[0], var_vec_u8
[1]);
56 *var_cc24f
++ = vec_any_le(var_vec_s16
[0], var_vec_b16
[1]);
57 *var_cc24f
++ = vec_any_le(var_vec_s16
[0], var_vec_s16
[1]);
58 *var_cc24f
++ = vec_any_le(var_vec_s32
[0], var_vec_b32
[1]);
59 *var_cc24f
++ = vec_any_le(var_vec_s32
[0], var_vec_s32
[1]);
60 *var_cc24f
++ = vec_any_le(var_vec_s8
[0], var_vec_b8
[1]);
61 *var_cc24f
++ = vec_any_le(var_vec_s8
[0], var_vec_s8
[1]);
62 *var_cc24f
++ = vec_any_le(var_vec_u16
[0], var_vec_b16
[1]);
63 *var_cc24f
++ = vec_any_le(var_vec_u16
[0], var_vec_u16
[1]);
64 *var_cc24f
++ = vec_any_le(var_vec_u32
[0], var_vec_b32
[1]);
65 *var_cc24f
++ = vec_any_le(var_vec_u32
[0], var_vec_u32
[1]);
66 *var_cc24f
++ = vec_any_le(var_vec_u8
[0], var_vec_b8
[1]);
67 *var_cc24f
++ = vec_any_le(var_vec_u8
[0], var_vec_u8
[1]);
68 *var_cc24f
++ = vec_any_ne(var_vec_b16
[0], var_vec_b16
[1]);
69 *var_cc24f
++ = vec_any_ne(var_vec_b16
[0], var_vec_s16
[1]);
70 *var_cc24f
++ = vec_any_ne(var_vec_b16
[0], var_vec_u16
[1]);
71 *var_cc24f
++ = vec_any_ne(var_vec_b32
[0], var_vec_b32
[1]);
72 *var_cc24f
++ = vec_any_ne(var_vec_b32
[0], var_vec_s32
[1]);
73 *var_cc24f
++ = vec_any_ne(var_vec_b32
[0], var_vec_u32
[1]);
74 *var_cc24f
++ = vec_any_ne(var_vec_b8
[0], var_vec_b8
[1]);
75 *var_cc24f
++ = vec_any_ne(var_vec_b8
[0], var_vec_s8
[1]);
76 *var_cc24f
++ = vec_any_ne(var_vec_b8
[0], var_vec_u8
[1]);
77 *var_cc24f
++ = vec_any_ne(var_vec_f32
[0], var_vec_f32
[1]);
78 *var_cc24f
++ = vec_any_ne(var_vec_p16
[0], var_vec_p16
[1]);
79 *var_cc24f
++ = vec_any_ne(var_vec_s16
[0], var_vec_b16
[1]);
80 *var_cc24f
++ = vec_any_ne(var_vec_s16
[0], var_vec_s16
[1]);
81 *var_cc24f
++ = vec_any_ne(var_vec_s32
[0], var_vec_b32
[1]);
82 *var_cc24f
++ = vec_any_ne(var_vec_s32
[0], var_vec_s32
[1]);
83 *var_cc24f
++ = vec_any_ne(var_vec_s8
[0], var_vec_b8
[1]);
84 *var_cc24f
++ = vec_any_ne(var_vec_s8
[0], var_vec_s8
[1]);
85 *var_cc24f
++ = vec_any_ne(var_vec_u16
[0], var_vec_b16
[1]);
86 *var_cc24f
++ = vec_any_ne(var_vec_u16
[0], var_vec_u16
[1]);
87 *var_cc24f
++ = vec_any_ne(var_vec_u32
[0], var_vec_b32
[1]);
88 *var_cc24f
++ = vec_any_ne(var_vec_u32
[0], var_vec_u32
[1]);
89 *var_cc24f
++ = vec_any_ne(var_vec_u8
[0], var_vec_b8
[1]);
90 *var_cc24f
++ = vec_any_ne(var_vec_u8
[0], var_vec_u8
[1]);
91 *var_cc24f
++ = vec_any_nge(var_vec_f32
[0], var_vec_f32
[1]);
92 *var_cc24f
++ = vec_any_ngt(var_vec_f32
[0], var_vec_f32
[1]);
93 *var_cc24fd
++ = vec_any_nan(var_vec_f32
[0]);
94 *var_cc24fr
++ = vec_any_ge(var_vec_b16
[0], var_vec_s16
[1]);
95 *var_cc24fr
++ = vec_any_ge(var_vec_b16
[0], var_vec_u16
[1]);
96 *var_cc24fr
++ = vec_any_ge(var_vec_b32
[0], var_vec_s32
[1]);
97 *var_cc24fr
++ = vec_any_ge(var_vec_b32
[0], var_vec_u32
[1]);
98 *var_cc24fr
++ = vec_any_ge(var_vec_b8
[0], var_vec_s8
[1]);
99 *var_cc24fr
++ = vec_any_ge(var_vec_b8
[0], var_vec_u8
[1]);
100 *var_cc24fr
++ = vec_any_ge(var_vec_s16
[0], var_vec_b16
[1]);
101 *var_cc24fr
++ = vec_any_ge(var_vec_s16
[0], var_vec_s16
[1]);
102 *var_cc24fr
++ = vec_any_ge(var_vec_s32
[0], var_vec_b32
[1]);
103 *var_cc24fr
++ = vec_any_ge(var_vec_s32
[0], var_vec_s32
[1]);
104 *var_cc24fr
++ = vec_any_ge(var_vec_s8
[0], var_vec_b8
[1]);
105 *var_cc24fr
++ = vec_any_ge(var_vec_s8
[0], var_vec_s8
[1]);
106 *var_cc24fr
++ = vec_any_ge(var_vec_u16
[0], var_vec_b16
[1]);
107 *var_cc24fr
++ = vec_any_ge(var_vec_u16
[0], var_vec_u16
[1]);
108 *var_cc24fr
++ = vec_any_ge(var_vec_u32
[0], var_vec_b32
[1]);
109 *var_cc24fr
++ = vec_any_ge(var_vec_u32
[0], var_vec_u32
[1]);
110 *var_cc24fr
++ = vec_any_ge(var_vec_u8
[0], var_vec_b8
[1]);
111 *var_cc24fr
++ = vec_any_ge(var_vec_u8
[0], var_vec_u8
[1]);
112 *var_cc24fr
++ = vec_any_nle(var_vec_f32
[0], var_vec_f32
[1]);
113 *var_cc24fr
++ = vec_any_nlt(var_vec_f32
[0], var_vec_f32
[1]);
114 *var_cc24t
++ = vec_all_eq(var_vec_b16
[0], var_vec_b16
[1]);
115 *var_cc24t
++ = vec_all_eq(var_vec_b16
[0], var_vec_s16
[1]);
116 *var_cc24t
++ = vec_all_eq(var_vec_b16
[0], var_vec_u16
[1]);
117 *var_cc24t
++ = vec_all_eq(var_vec_b32
[0], var_vec_b32
[1]);
118 *var_cc24t
++ = vec_all_eq(var_vec_b32
[0], var_vec_s32
[1]);
119 *var_cc24t
++ = vec_all_eq(var_vec_b32
[0], var_vec_u32
[1]);
120 *var_cc24t
++ = vec_all_eq(var_vec_b8
[0], var_vec_b8
[1]);
121 *var_cc24t
++ = vec_all_eq(var_vec_b8
[0], var_vec_s8
[1]);
122 *var_cc24t
++ = vec_all_eq(var_vec_b8
[0], var_vec_u8
[1]);
123 *var_cc24t
++ = vec_all_eq(var_vec_f32
[0], var_vec_f32
[1]);
124 *var_cc24t
++ = vec_all_eq(var_vec_p16
[0], var_vec_p16
[1]);
125 *var_cc24t
++ = vec_all_eq(var_vec_s16
[0], var_vec_b16
[1]);
126 *var_cc24t
++ = vec_all_eq(var_vec_s16
[0], var_vec_s16
[1]);
127 *var_cc24t
++ = vec_all_eq(var_vec_s32
[0], var_vec_b32
[1]);
128 *var_cc24t
++ = vec_all_eq(var_vec_s32
[0], var_vec_s32
[1]);
129 *var_cc24t
++ = vec_all_eq(var_vec_s8
[0], var_vec_b8
[1]);
130 *var_cc24t
++ = vec_all_eq(var_vec_s8
[0], var_vec_s8
[1]);
131 *var_cc24t
++ = vec_all_eq(var_vec_u16
[0], var_vec_b16
[1]);
132 *var_cc24t
++ = vec_all_eq(var_vec_u16
[0], var_vec_u16
[1]);
133 *var_cc24t
++ = vec_all_eq(var_vec_u32
[0], var_vec_b32
[1]);
134 *var_cc24t
++ = vec_all_eq(var_vec_u32
[0], var_vec_u32
[1]);
135 *var_cc24t
++ = vec_all_eq(var_vec_u8
[0], var_vec_b8
[1]);
136 *var_cc24t
++ = vec_all_eq(var_vec_u8
[0], var_vec_u8
[1]);
137 *var_cc24t
++ = vec_all_ge(var_vec_f32
[0], var_vec_f32
[1]);
138 *var_cc24t
++ = vec_all_gt(var_vec_b16
[0], var_vec_s16
[1]);
139 *var_cc24t
++ = vec_all_gt(var_vec_b16
[0], var_vec_u16
[1]);
140 *var_cc24t
++ = vec_all_gt(var_vec_b32
[0], var_vec_s32
[1]);
141 *var_cc24t
++ = vec_all_gt(var_vec_b32
[0], var_vec_u32
[1]);
142 *var_cc24t
++ = vec_all_gt(var_vec_b8
[0], var_vec_s8
[1]);
143 *var_cc24t
++ = vec_all_gt(var_vec_b8
[0], var_vec_u8
[1]);
144 *var_cc24t
++ = vec_all_gt(var_vec_f32
[0], var_vec_f32
[1]);
145 *var_cc24t
++ = vec_all_gt(var_vec_s16
[0], var_vec_b16
[1]);
146 *var_cc24t
++ = vec_all_gt(var_vec_s16
[0], var_vec_s16
[1]);
147 *var_cc24t
++ = vec_all_gt(var_vec_s32
[0], var_vec_b32
[1]);
148 *var_cc24t
++ = vec_all_gt(var_vec_s32
[0], var_vec_s32
[1]);
149 *var_cc24t
++ = vec_all_gt(var_vec_s8
[0], var_vec_b8
[1]);
152 *var_cc24t
++ = vec_all_gt(var_vec_s8
[0], var_vec_s8
[1]);
153 *var_cc24t
++ = vec_all_gt(var_vec_u16
[0], var_vec_b16
[1]);
154 *var_cc24t
++ = vec_all_gt(var_vec_u16
[0], var_vec_u16
[1]);
155 *var_cc24t
++ = vec_all_gt(var_vec_u32
[0], var_vec_b32
[1]);
156 *var_cc24t
++ = vec_all_gt(var_vec_u32
[0], var_vec_u32
[1]);
157 *var_cc24t
++ = vec_all_gt(var_vec_u8
[0], var_vec_b8
[1]);
158 *var_cc24t
++ = vec_all_gt(var_vec_u8
[0], var_vec_u8
[1]);
159 *var_cc24td
++ = vec_all_numeric(var_vec_f32
[0]);
160 *var_cc24tr
++ = vec_all_le(var_vec_f32
[0], var_vec_f32
[1]);
161 *var_cc24tr
++ = vec_all_lt(var_vec_b16
[0], var_vec_s16
[1]);
162 *var_cc24tr
++ = vec_all_lt(var_vec_b16
[0], var_vec_u16
[1]);
163 *var_cc24tr
++ = vec_all_lt(var_vec_b32
[0], var_vec_s32
[1]);
164 *var_cc24tr
++ = vec_all_lt(var_vec_b32
[0], var_vec_u32
[1]);
165 *var_cc24tr
++ = vec_all_lt(var_vec_b8
[0], var_vec_s8
[1]);
166 *var_cc24tr
++ = vec_all_lt(var_vec_b8
[0], var_vec_u8
[1]);
167 *var_cc24tr
++ = vec_all_lt(var_vec_f32
[0], var_vec_f32
[1]);
168 *var_cc24tr
++ = vec_all_lt(var_vec_s16
[0], var_vec_b16
[1]);
169 *var_cc24tr
++ = vec_all_lt(var_vec_s16
[0], var_vec_s16
[1]);
170 *var_cc24tr
++ = vec_all_lt(var_vec_s32
[0], var_vec_b32
[1]);
171 *var_cc24tr
++ = vec_all_lt(var_vec_s32
[0], var_vec_s32
[1]);
172 *var_cc24tr
++ = vec_all_lt(var_vec_s8
[0], var_vec_b8
[1]);
173 *var_cc24tr
++ = vec_all_lt(var_vec_s8
[0], var_vec_s8
[1]);
174 *var_cc24tr
++ = vec_all_lt(var_vec_u16
[0], var_vec_b16
[1]);
175 *var_cc24tr
++ = vec_all_lt(var_vec_u16
[0], var_vec_u16
[1]);
176 *var_cc24tr
++ = vec_all_lt(var_vec_u32
[0], var_vec_b32
[1]);
177 *var_cc24tr
++ = vec_all_lt(var_vec_u32
[0], var_vec_u32
[1]);
178 *var_cc24tr
++ = vec_all_lt(var_vec_u8
[0], var_vec_b8
[1]);
179 *var_cc24tr
++ = vec_all_lt(var_vec_u8
[0], var_vec_u8
[1]);
180 *var_cc26f
++ = vec_any_eq(var_vec_b16
[0], var_vec_b16
[1]);
181 *var_cc26f
++ = vec_any_eq(var_vec_b16
[0], var_vec_s16
[1]);
182 *var_cc26f
++ = vec_any_eq(var_vec_b16
[0], var_vec_u16
[1]);
183 *var_cc26f
++ = vec_any_eq(var_vec_b32
[0], var_vec_b32
[1]);
184 *var_cc26f
++ = vec_any_eq(var_vec_b32
[0], var_vec_s32
[1]);
185 *var_cc26f
++ = vec_any_eq(var_vec_b32
[0], var_vec_u32
[1]);
186 *var_cc26f
++ = vec_any_eq(var_vec_b8
[0], var_vec_b8
[1]);
187 *var_cc26f
++ = vec_any_eq(var_vec_b8
[0], var_vec_s8
[1]);
188 *var_cc26f
++ = vec_any_eq(var_vec_b8
[0], var_vec_u8
[1]);
189 *var_cc26f
++ = vec_any_eq(var_vec_f32
[0], var_vec_f32
[1]);
190 *var_cc26f
++ = vec_any_eq(var_vec_p16
[0], var_vec_p16
[1]);
191 *var_cc26f
++ = vec_any_eq(var_vec_s16
[0], var_vec_b16
[1]);
192 *var_cc26f
++ = vec_any_eq(var_vec_s16
[0], var_vec_s16
[1]);
193 *var_cc26f
++ = vec_any_eq(var_vec_s32
[0], var_vec_b32
[1]);
194 *var_cc26f
++ = vec_any_eq(var_vec_s32
[0], var_vec_s32
[1]);
195 *var_cc26f
++ = vec_any_eq(var_vec_s8
[0], var_vec_b8
[1]);
196 *var_cc26f
++ = vec_any_eq(var_vec_s8
[0], var_vec_s8
[1]);
197 *var_cc26f
++ = vec_any_eq(var_vec_u16
[0], var_vec_b16
[1]);
198 *var_cc26f
++ = vec_any_eq(var_vec_u16
[0], var_vec_u16
[1]);
199 *var_cc26f
++ = vec_any_eq(var_vec_u32
[0], var_vec_b32
[1]);
200 *var_cc26f
++ = vec_any_eq(var_vec_u32
[0], var_vec_u32
[1]);
201 *var_cc26f
++ = vec_any_eq(var_vec_u8
[0], var_vec_b8
[1]);
202 *var_cc26f
++ = vec_any_eq(var_vec_u8
[0], var_vec_u8
[1]);
203 *var_cc26f
++ = vec_any_ge(var_vec_f32
[0], var_vec_f32
[1]);
204 *var_cc26f
++ = vec_any_gt(var_vec_b16
[0], var_vec_s16
[1]);
205 *var_cc26f
++ = vec_any_gt(var_vec_b16
[0], var_vec_u16
[1]);
206 *var_cc26f
++ = vec_any_gt(var_vec_b32
[0], var_vec_s32
[1]);
207 *var_cc26f
++ = vec_any_gt(var_vec_b32
[0], var_vec_u32
[1]);
208 *var_cc26f
++ = vec_any_gt(var_vec_b8
[0], var_vec_s8
[1]);
209 *var_cc26f
++ = vec_any_gt(var_vec_b8
[0], var_vec_u8
[1]);
210 *var_cc26f
++ = vec_any_gt(var_vec_f32
[0], var_vec_f32
[1]);
211 *var_cc26f
++ = vec_any_gt(var_vec_s16
[0], var_vec_b16
[1]);
212 *var_cc26f
++ = vec_any_gt(var_vec_s16
[0], var_vec_s16
[1]);
213 *var_cc26f
++ = vec_any_gt(var_vec_s32
[0], var_vec_b32
[1]);
214 *var_cc26f
++ = vec_any_gt(var_vec_s32
[0], var_vec_s32
[1]);
215 *var_cc26f
++ = vec_any_gt(var_vec_s8
[0], var_vec_b8
[1]);
216 *var_cc26f
++ = vec_any_gt(var_vec_s8
[0], var_vec_s8
[1]);
217 *var_cc26f
++ = vec_any_gt(var_vec_u16
[0], var_vec_b16
[1]);
218 *var_cc26f
++ = vec_any_gt(var_vec_u16
[0], var_vec_u16
[1]);
219 *var_cc26f
++ = vec_any_gt(var_vec_u32
[0], var_vec_b32
[1]);
220 *var_cc26f
++ = vec_any_gt(var_vec_u32
[0], var_vec_u32
[1]);
221 *var_cc26f
++ = vec_any_gt(var_vec_u8
[0], var_vec_b8
[1]);
222 *var_cc26f
++ = vec_any_gt(var_vec_u8
[0], var_vec_u8
[1]);
223 *var_cc26f
++ = vec_any_out(var_vec_f32
[0], var_vec_f32
[1]);
224 *var_cc26fd
++ = vec_any_numeric(var_vec_f32
[0]);
225 *var_cc26fr
++ = vec_any_le(var_vec_f32
[0], var_vec_f32
[1]);
226 *var_cc26fr
++ = vec_any_lt(var_vec_b16
[0], var_vec_s16
[1]);
227 *var_cc26fr
++ = vec_any_lt(var_vec_b16
[0], var_vec_u16
[1]);
228 *var_cc26fr
++ = vec_any_lt(var_vec_b32
[0], var_vec_s32
[1]);
229 *var_cc26fr
++ = vec_any_lt(var_vec_b32
[0], var_vec_u32
[1]);
230 *var_cc26fr
++ = vec_any_lt(var_vec_b8
[0], var_vec_s8
[1]);
231 *var_cc26fr
++ = vec_any_lt(var_vec_b8
[0], var_vec_u8
[1]);
232 *var_cc26fr
++ = vec_any_lt(var_vec_f32
[0], var_vec_f32
[1]);
233 *var_cc26fr
++ = vec_any_lt(var_vec_s16
[0], var_vec_b16
[1]);
234 *var_cc26fr
++ = vec_any_lt(var_vec_s16
[0], var_vec_s16
[1]);
235 *var_cc26fr
++ = vec_any_lt(var_vec_s32
[0], var_vec_b32
[1]);
236 *var_cc26fr
++ = vec_any_lt(var_vec_s32
[0], var_vec_s32
[1]);
237 *var_cc26fr
++ = vec_any_lt(var_vec_s8
[0], var_vec_b8
[1]);
238 *var_cc26fr
++ = vec_any_lt(var_vec_s8
[0], var_vec_s8
[1]);
239 *var_cc26fr
++ = vec_any_lt(var_vec_u16
[0], var_vec_b16
[1]);
240 *var_cc26fr
++ = vec_any_lt(var_vec_u16
[0], var_vec_u16
[1]);
241 *var_cc26fr
++ = vec_any_lt(var_vec_u32
[0], var_vec_b32
[1]);
242 *var_cc26fr
++ = vec_any_lt(var_vec_u32
[0], var_vec_u32
[1]);
243 *var_cc26fr
++ = vec_any_lt(var_vec_u8
[0], var_vec_b8
[1]);
244 *var_cc26fr
++ = vec_any_lt(var_vec_u8
[0], var_vec_u8
[1]);
245 *var_cc26t
++ = vec_all_in(var_vec_f32
[0], var_vec_f32
[1]);
246 *var_cc26t
++ = vec_all_le(var_vec_b16
[0], var_vec_s16
[1]);
247 *var_cc26t
++ = vec_all_le(var_vec_b16
[0], var_vec_u16
[1]);
248 *var_cc26t
++ = vec_all_le(var_vec_b32
[0], var_vec_s32
[1]);
249 *var_cc26t
++ = vec_all_le(var_vec_b32
[0], var_vec_u32
[1]);
250 *var_cc26t
++ = vec_all_le(var_vec_b8
[0], var_vec_s8
[1]);
251 *var_cc26t
++ = vec_all_le(var_vec_b8
[0], var_vec_u8
[1]);
254 *var_cc26t
++ = vec_all_le(var_vec_s16
[0], var_vec_b16
[1]);
255 *var_cc26t
++ = vec_all_le(var_vec_s16
[0], var_vec_s16
[1]);
256 *var_cc26t
++ = vec_all_le(var_vec_s32
[0], var_vec_b32
[1]);
257 *var_cc26t
++ = vec_all_le(var_vec_s32
[0], var_vec_s32
[1]);
258 *var_cc26t
++ = vec_all_le(var_vec_s8
[0], var_vec_b8
[1]);
259 *var_cc26t
++ = vec_all_le(var_vec_s8
[0], var_vec_s8
[1]);
260 *var_cc26t
++ = vec_all_le(var_vec_u16
[0], var_vec_b16
[1]);
261 *var_cc26t
++ = vec_all_le(var_vec_u16
[0], var_vec_u16
[1]);
262 *var_cc26t
++ = vec_all_le(var_vec_u32
[0], var_vec_b32
[1]);
263 *var_cc26t
++ = vec_all_le(var_vec_u32
[0], var_vec_u32
[1]);
264 *var_cc26t
++ = vec_all_le(var_vec_u8
[0], var_vec_b8
[1]);
265 *var_cc26t
++ = vec_all_le(var_vec_u8
[0], var_vec_u8
[1]);
266 *var_cc26t
++ = vec_all_ne(var_vec_b16
[0], var_vec_b16
[1]);
267 *var_cc26t
++ = vec_all_ne(var_vec_b16
[0], var_vec_s16
[1]);
268 *var_cc26t
++ = vec_all_ne(var_vec_b16
[0], var_vec_u16
[1]);
269 *var_cc26t
++ = vec_all_ne(var_vec_b32
[0], var_vec_b32
[1]);
270 *var_cc26t
++ = vec_all_ne(var_vec_b32
[0], var_vec_s32
[1]);
271 *var_cc26t
++ = vec_all_ne(var_vec_b32
[0], var_vec_u32
[1]);
272 *var_cc26t
++ = vec_all_ne(var_vec_b8
[0], var_vec_b8
[1]);
273 *var_cc26t
++ = vec_all_ne(var_vec_b8
[0], var_vec_s8
[1]);
274 *var_cc26t
++ = vec_all_ne(var_vec_b8
[0], var_vec_u8
[1]);
275 *var_cc26t
++ = vec_all_ne(var_vec_f32
[0], var_vec_f32
[1]);
276 *var_cc26t
++ = vec_all_ne(var_vec_p16
[0], var_vec_p16
[1]);
277 *var_cc26t
++ = vec_all_ne(var_vec_s16
[0], var_vec_b16
[1]);
278 *var_cc26t
++ = vec_all_ne(var_vec_s16
[0], var_vec_s16
[1]);
279 *var_cc26t
++ = vec_all_ne(var_vec_s32
[0], var_vec_b32
[1]);
280 *var_cc26t
++ = vec_all_ne(var_vec_s32
[0], var_vec_s32
[1]);
281 *var_cc26t
++ = vec_all_ne(var_vec_s8
[0], var_vec_b8
[1]);
282 *var_cc26t
++ = vec_all_ne(var_vec_s8
[0], var_vec_s8
[1]);
283 *var_cc26t
++ = vec_all_ne(var_vec_u16
[0], var_vec_b16
[1]);
284 *var_cc26t
++ = vec_all_ne(var_vec_u16
[0], var_vec_u16
[1]);
285 *var_cc26t
++ = vec_all_ne(var_vec_u32
[0], var_vec_b32
[1]);
286 *var_cc26t
++ = vec_all_ne(var_vec_u32
[0], var_vec_u32
[1]);
287 *var_cc26t
++ = vec_all_ne(var_vec_u8
[0], var_vec_b8
[1]);
288 *var_cc26t
++ = vec_all_ne(var_vec_u8
[0], var_vec_u8
[1]);
289 *var_cc26t
++ = vec_all_nge(var_vec_f32
[0], var_vec_f32
[1]);
290 *var_cc26t
++ = vec_all_ngt(var_vec_f32
[0], var_vec_f32
[1]);
291 *var_cc26td
++ = vec_all_nan(var_vec_f32
[0]);
292 *var_cc26tr
++ = vec_all_ge(var_vec_b16
[0], var_vec_s16
[1]);
293 *var_cc26tr
++ = vec_all_ge(var_vec_b16
[0], var_vec_u16
[1]);
294 *var_cc26tr
++ = vec_all_ge(var_vec_b32
[0], var_vec_s32
[1]);
295 *var_cc26tr
++ = vec_all_ge(var_vec_b32
[0], var_vec_u32
[1]);
296 *var_cc26tr
++ = vec_all_ge(var_vec_b8
[0], var_vec_s8
[1]);
297 *var_cc26tr
++ = vec_all_ge(var_vec_b8
[0], var_vec_u8
[1]);
298 *var_cc26tr
++ = vec_all_ge(var_vec_s16
[0], var_vec_b16
[1]);
299 *var_cc26tr
++ = vec_all_ge(var_vec_s16
[0], var_vec_s16
[1]);
300 *var_cc26tr
++ = vec_all_ge(var_vec_s32
[0], var_vec_b32
[1]);
301 *var_cc26tr
++ = vec_all_ge(var_vec_s32
[0], var_vec_s32
[1]);
302 *var_cc26tr
++ = vec_all_ge(var_vec_s8
[0], var_vec_b8
[1]);
303 *var_cc26tr
++ = vec_all_ge(var_vec_s8
[0], var_vec_s8
[1]);
304 *var_cc26tr
++ = vec_all_ge(var_vec_u16
[0], var_vec_b16
[1]);
305 *var_cc26tr
++ = vec_all_ge(var_vec_u16
[0], var_vec_u16
[1]);
306 *var_cc26tr
++ = vec_all_ge(var_vec_u32
[0], var_vec_b32
[1]);
307 *var_cc26tr
++ = vec_all_ge(var_vec_u32
[0], var_vec_u32
[1]);
308 *var_cc26tr
++ = vec_all_ge(var_vec_u8
[0], var_vec_b8
[1]);
309 *var_cc26tr
++ = vec_all_ge(var_vec_u8
[0], var_vec_u8
[1]);
310 *var_cc26tr
++ = vec_all_nle(var_vec_f32
[0], var_vec_f32
[1]);
311 *var_cc26tr
++ = vec_all_nlt(var_vec_f32
[0], var_vec_f32
[1]);
312 *var_vec_b16
++ = vec_and(var_vec_b16
[0], var_vec_b16
[1]);
313 *var_vec_b16
++ = vec_andc(var_vec_b16
[0], var_vec_b16
[1]);
314 *var_vec_b16
++ = vec_cmpeq(var_vec_s16
[0], var_vec_s16
[1]);
315 *var_vec_b16
++ = vec_cmpeq(var_vec_u16
[0], var_vec_u16
[1]);
316 *var_vec_b16
++ = vec_cmpgt(var_vec_s16
[0], var_vec_s16
[1]);
317 *var_vec_b16
++ = vec_cmpgt(var_vec_u16
[0], var_vec_u16
[1]);
318 *var_vec_b16
++ = vec_ld(var_int
[0], var_vec_b16_ptr
[1]);
319 *var_vec_b16
++ = vec_ldl(var_int
[0], var_vec_b16_ptr
[1]);
320 *var_vec_b16
++ = vec_lvx(var_int
[0], var_vec_b16_ptr
[1]);
321 *var_vec_b16
++ = vec_lvxl(var_int
[0], var_vec_b16_ptr
[1]);
322 *var_vec_b16
++ = vec_mergeh(var_vec_b16
[0], var_vec_b16
[1]);
323 *var_vec_b16
++ = vec_mergel(var_vec_b16
[0], var_vec_b16
[1]);
324 *var_vec_b16
++ = vec_nor(var_vec_b16
[0], var_vec_b16
[1]);
325 *var_vec_b16
++ = vec_or(var_vec_b16
[0], var_vec_b16
[1]);
326 *var_vec_b16
++ = vec_pack(var_vec_b32
[0], var_vec_b32
[1]);
327 *var_vec_b16
++ = vec_perm(var_vec_b16
[0], var_vec_b16
[1], var_vec_u8
[2]);
328 *var_vec_b16
++ = vec_sel(var_vec_b16
[0], var_vec_b16
[1], var_vec_b16
[2]);
329 *var_vec_b16
++ = vec_sel(var_vec_b16
[0], var_vec_b16
[1], var_vec_u16
[2]);
330 *var_vec_b16
++ = vec_sll(var_vec_b16
[0], var_vec_u16
[1]);
331 *var_vec_b16
++ = vec_sll(var_vec_b16
[0], var_vec_u32
[1]);
332 *var_vec_b16
++ = vec_sll(var_vec_b16
[0], var_vec_u8
[1]);
333 *var_vec_b16
++ = vec_splat(var_vec_b16
[0], 0);
334 *var_vec_b16
++ = vec_splat(var_vec_b16
[0], 1);
335 *var_vec_b16
++ = vec_splat(var_vec_b16
[0], 2);
336 *var_vec_b16
++ = vec_splat(var_vec_b16
[0], 3);
337 *var_vec_b16
++ = vec_splat(var_vec_b16
[0], 4);
338 *var_vec_b16
++ = vec_splat(var_vec_b16
[0], 5);
339 *var_vec_b16
++ = vec_splat(var_vec_b16
[0], 6);
340 *var_vec_b16
++ = vec_splat(var_vec_b16
[0], 7);
343 *var_vec_b16
++ = vec_srl(var_vec_b16
[0], var_vec_u16
[1]);
344 *var_vec_b16
++ = vec_srl(var_vec_b16
[0], var_vec_u32
[1]);
345 *var_vec_b16
++ = vec_srl(var_vec_b16
[0], var_vec_u8
[1]);
346 *var_vec_b16
++ = vec_unpackh(var_vec_b8
[0]);
347 *var_vec_b16
++ = vec_unpackl(var_vec_b8
[0]);
348 *var_vec_b16
++ = vec_vand(var_vec_b16
[0], var_vec_b16
[1]);
349 *var_vec_b16
++ = vec_vandc(var_vec_b16
[0], var_vec_b16
[1]);
350 *var_vec_b16
++ = vec_vcmpequh(var_vec_s16
[0], var_vec_s16
[1]);
351 *var_vec_b16
++ = vec_vcmpequh(var_vec_u16
[0], var_vec_u16
[1]);
352 *var_vec_b16
++ = vec_vcmpgtsh(var_vec_s16
[0], var_vec_s16
[1]);
353 *var_vec_b16
++ = vec_vcmpgtuh(var_vec_u16
[0], var_vec_u16
[1]);
354 *var_vec_b16
++ = vec_vmrghh(var_vec_b16
[0], var_vec_b16
[1]);
355 *var_vec_b16
++ = vec_vmrglh(var_vec_b16
[0], var_vec_b16
[1]);
356 *var_vec_b16
++ = vec_vnor(var_vec_b16
[0], var_vec_b16
[1]);
357 *var_vec_b16
++ = vec_vor(var_vec_b16
[0], var_vec_b16
[1]);
358 *var_vec_b16
++ = vec_vperm(var_vec_b16
[0], var_vec_b16
[1], var_vec_u8
[2]);
359 *var_vec_b16
++ = vec_vpkuwum(var_vec_b32
[0], var_vec_b32
[1]);
360 *var_vec_b16
++ = vec_vsel(var_vec_b16
[0], var_vec_b16
[1], var_vec_b16
[2]);
361 *var_vec_b16
++ = vec_vsel(var_vec_b16
[0], var_vec_b16
[1], var_vec_u16
[2]);
362 *var_vec_b16
++ = vec_vsl(var_vec_b16
[0], var_vec_u16
[1]);
363 *var_vec_b16
++ = vec_vsl(var_vec_b16
[0], var_vec_u32
[1]);
364 *var_vec_b16
++ = vec_vsl(var_vec_b16
[0], var_vec_u8
[1]);
365 *var_vec_b16
++ = vec_vsplth(var_vec_b16
[0], 0);
366 *var_vec_b16
++ = vec_vsplth(var_vec_b16
[0], 1);
367 *var_vec_b16
++ = vec_vsplth(var_vec_b16
[0], 2);
368 *var_vec_b16
++ = vec_vsplth(var_vec_b16
[0], 3);
369 *var_vec_b16
++ = vec_vsplth(var_vec_b16
[0], 4);
370 *var_vec_b16
++ = vec_vsplth(var_vec_b16
[0], 5);
371 *var_vec_b16
++ = vec_vsplth(var_vec_b16
[0], 6);
372 *var_vec_b16
++ = vec_vsplth(var_vec_b16
[0], 7);
373 *var_vec_b16
++ = vec_vsr(var_vec_b16
[0], var_vec_u16
[1]);
374 *var_vec_b16
++ = vec_vsr(var_vec_b16
[0], var_vec_u32
[1]);
375 *var_vec_b16
++ = vec_vsr(var_vec_b16
[0], var_vec_u8
[1]);
376 *var_vec_b16
++ = vec_vupkhsb(var_vec_b8
[0]);
377 *var_vec_b16
++ = vec_vupklsb(var_vec_b8
[0]);
378 *var_vec_b16
++ = vec_vxor(var_vec_b16
[0], var_vec_b16
[1]);
379 *var_vec_b16
++ = vec_xor(var_vec_b16
[0], var_vec_b16
[1]);
380 *var_vec_b32
++ = vec_and(var_vec_b32
[0], var_vec_b32
[1]);
381 *var_vec_b32
++ = vec_andc(var_vec_b32
[0], var_vec_b32
[1]);
382 *var_vec_b32
++ = vec_cmpeq(var_vec_f32
[0], var_vec_f32
[1]);
383 *var_vec_b32
++ = vec_cmpeq(var_vec_s32
[0], var_vec_s32
[1]);
384 *var_vec_b32
++ = vec_cmpeq(var_vec_u32
[0], var_vec_u32
[1]);
385 *var_vec_b32
++ = vec_cmpge(var_vec_f32
[0], var_vec_f32
[1]);
386 *var_vec_b32
++ = vec_cmpgt(var_vec_f32
[0], var_vec_f32
[1]);
387 *var_vec_b32
++ = vec_cmpgt(var_vec_s32
[0], var_vec_s32
[1]);
388 *var_vec_b32
++ = vec_cmpgt(var_vec_u32
[0], var_vec_u32
[1]);
389 *var_vec_b32
++ = vec_ld(var_int
[0], var_vec_b32_ptr
[1]);
390 *var_vec_b32
++ = vec_ldl(var_int
[0], var_vec_b32_ptr
[1]);
391 *var_vec_b32
++ = vec_lvx(var_int
[0], var_vec_b32_ptr
[1]);
392 *var_vec_b32
++ = vec_lvxl(var_int
[0], var_vec_b32_ptr
[1]);
393 *var_vec_b32
++ = vec_mergeh(var_vec_b32
[0], var_vec_b32
[1]);
394 *var_vec_b32
++ = vec_mergel(var_vec_b32
[0], var_vec_b32
[1]);
395 *var_vec_b32
++ = vec_nor(var_vec_b32
[0], var_vec_b32
[1]);
396 *var_vec_b32
++ = vec_or(var_vec_b32
[0], var_vec_b32
[1]);
397 *var_vec_b32
++ = vec_perm(var_vec_b32
[0], var_vec_b32
[1], var_vec_u8
[2]);
398 *var_vec_b32
++ = vec_sel(var_vec_b32
[0], var_vec_b32
[1], var_vec_b32
[2]);
399 *var_vec_b32
++ = vec_sel(var_vec_b32
[0], var_vec_b32
[1], var_vec_u32
[2]);
400 *var_vec_b32
++ = vec_sll(var_vec_b32
[0], var_vec_u16
[1]);
401 *var_vec_b32
++ = vec_sll(var_vec_b32
[0], var_vec_u32
[1]);
402 *var_vec_b32
++ = vec_sll(var_vec_b32
[0], var_vec_u8
[1]);
403 *var_vec_b32
++ = vec_splat(var_vec_b32
[0], 0);
404 *var_vec_b32
++ = vec_splat(var_vec_b32
[0], 1);
405 *var_vec_b32
++ = vec_splat(var_vec_b32
[0], 2);
406 *var_vec_b32
++ = vec_splat(var_vec_b32
[0], 3);
409 *var_vec_b32
++ = vec_srl(var_vec_b32
[0], var_vec_u16
[1]);
410 *var_vec_b32
++ = vec_srl(var_vec_b32
[0], var_vec_u32
[1]);
411 *var_vec_b32
++ = vec_srl(var_vec_b32
[0], var_vec_u8
[1]);
412 *var_vec_b32
++ = vec_unpackh(var_vec_b16
[0]);
413 *var_vec_b32
++ = vec_unpackl(var_vec_b16
[0]);
414 *var_vec_b32
++ = vec_vand(var_vec_b32
[0], var_vec_b32
[1]);
415 *var_vec_b32
++ = vec_vandc(var_vec_b32
[0], var_vec_b32
[1]);
416 *var_vec_b32
++ = vec_vcmpeqfp(var_vec_f32
[0], var_vec_f32
[1]);
417 *var_vec_b32
++ = vec_vcmpequw(var_vec_s32
[0], var_vec_s32
[1]);
418 *var_vec_b32
++ = vec_vcmpequw(var_vec_u32
[0], var_vec_u32
[1]);
419 *var_vec_b32
++ = vec_vcmpgefp(var_vec_f32
[0], var_vec_f32
[1]);
420 *var_vec_b32
++ = vec_vcmpgtfp(var_vec_f32
[0], var_vec_f32
[1]);
421 *var_vec_b32
++ = vec_vcmpgtsw(var_vec_s32
[0], var_vec_s32
[1]);
422 *var_vec_b32
++ = vec_vcmpgtuw(var_vec_u32
[0], var_vec_u32
[1]);
423 *var_vec_b32
++ = vec_vmrghw(var_vec_b32
[0], var_vec_b32
[1]);
424 *var_vec_b32
++ = vec_vmrglw(var_vec_b32
[0], var_vec_b32
[1]);
425 *var_vec_b32
++ = vec_vnor(var_vec_b32
[0], var_vec_b32
[1]);
426 *var_vec_b32
++ = vec_vor(var_vec_b32
[0], var_vec_b32
[1]);
427 *var_vec_b32
++ = vec_vperm(var_vec_b32
[0], var_vec_b32
[1], var_vec_u8
[2]);
428 *var_vec_b32
++ = vec_vsel(var_vec_b32
[0], var_vec_b32
[1], var_vec_b32
[2]);
429 *var_vec_b32
++ = vec_vsel(var_vec_b32
[0], var_vec_b32
[1], var_vec_u32
[2]);
430 *var_vec_b32
++ = vec_vsl(var_vec_b32
[0], var_vec_u16
[1]);
431 *var_vec_b32
++ = vec_vsl(var_vec_b32
[0], var_vec_u32
[1]);
432 *var_vec_b32
++ = vec_vsl(var_vec_b32
[0], var_vec_u8
[1]);
433 *var_vec_b32
++ = vec_vspltw(var_vec_b32
[0], 0);
434 *var_vec_b32
++ = vec_vspltw(var_vec_b32
[0], 1);
435 *var_vec_b32
++ = vec_vspltw(var_vec_b32
[0], 2);
436 *var_vec_b32
++ = vec_vspltw(var_vec_b32
[0], 3);
437 *var_vec_b32
++ = vec_vsr(var_vec_b32
[0], var_vec_u16
[1]);
438 *var_vec_b32
++ = vec_vsr(var_vec_b32
[0], var_vec_u32
[1]);
439 *var_vec_b32
++ = vec_vsr(var_vec_b32
[0], var_vec_u8
[1]);
440 *var_vec_b32
++ = vec_vupkhsh(var_vec_b16
[0]);
441 *var_vec_b32
++ = vec_vupklsh(var_vec_b16
[0]);
442 *var_vec_b32
++ = vec_vxor(var_vec_b32
[0], var_vec_b32
[1]);
443 *var_vec_b32
++ = vec_xor(var_vec_b32
[0], var_vec_b32
[1]);
444 *var_vec_b8
++ = vec_and(var_vec_b8
[0], var_vec_b8
[1]);
445 *var_vec_b8
++ = vec_andc(var_vec_b8
[0], var_vec_b8
[1]);
446 *var_vec_b8
++ = vec_cmpeq(var_vec_s8
[0], var_vec_s8
[1]);
447 *var_vec_b8
++ = vec_cmpeq(var_vec_u8
[0], var_vec_u8
[1]);
448 *var_vec_b8
++ = vec_cmpgt(var_vec_s8
[0], var_vec_s8
[1]);
449 *var_vec_b8
++ = vec_cmpgt(var_vec_u8
[0], var_vec_u8
[1]);
450 *var_vec_b8
++ = vec_ld(var_int
[0], var_vec_b8_ptr
[1]);
451 *var_vec_b8
++ = vec_ldl(var_int
[0], var_vec_b8_ptr
[1]);
452 *var_vec_b8
++ = vec_lvx(var_int
[0], var_vec_b8_ptr
[1]);
453 *var_vec_b8
++ = vec_lvxl(var_int
[0], var_vec_b8_ptr
[1]);
456 *var_vec_b8
++ = vec_mergeh(var_vec_b8
[0], var_vec_b8
[1]);
457 *var_vec_b8
++ = vec_mergel(var_vec_b8
[0], var_vec_b8
[1]);
458 *var_vec_b8
++ = vec_nor(var_vec_b8
[0], var_vec_b8
[1]);
459 *var_vec_b8
++ = vec_or(var_vec_b8
[0], var_vec_b8
[1]);
460 *var_vec_b8
++ = vec_pack(var_vec_b16
[0], var_vec_b16
[1]);
461 *var_vec_b8
++ = vec_perm(var_vec_b8
[0], var_vec_b8
[1], var_vec_u8
[2]);
462 *var_vec_b8
++ = vec_sel(var_vec_b8
[0], var_vec_b8
[1], var_vec_b8
[2]);
463 *var_vec_b8
++ = vec_sel(var_vec_b8
[0], var_vec_b8
[1], var_vec_u8
[2]);
464 *var_vec_b8
++ = vec_sll(var_vec_b8
[0], var_vec_u16
[1]);
465 *var_vec_b8
++ = vec_sll(var_vec_b8
[0], var_vec_u32
[1]);
466 *var_vec_b8
++ = vec_sll(var_vec_b8
[0], var_vec_u8
[1]);
467 *var_vec_b8
++ = vec_splat(var_vec_b8
[0], 0);
468 *var_vec_b8
++ = vec_splat(var_vec_b8
[0], 1);
469 *var_vec_b8
++ = vec_splat(var_vec_b8
[0], 2);
470 *var_vec_b8
++ = vec_splat(var_vec_b8
[0], 3);
471 *var_vec_b8
++ = vec_splat(var_vec_b8
[0], 4);
472 *var_vec_b8
++ = vec_splat(var_vec_b8
[0], 5);
473 *var_vec_b8
++ = vec_splat(var_vec_b8
[0], 6);
474 *var_vec_b8
++ = vec_splat(var_vec_b8
[0], 7);
475 *var_vec_b8
++ = vec_splat(var_vec_b8
[0], 8);
476 *var_vec_b8
++ = vec_splat(var_vec_b8
[0], 9);
477 *var_vec_b8
++ = vec_splat(var_vec_b8
[0], 10);
478 *var_vec_b8
++ = vec_splat(var_vec_b8
[0], 11);
479 *var_vec_b8
++ = vec_splat(var_vec_b8
[0], 12);
480 *var_vec_b8
++ = vec_splat(var_vec_b8
[0], 13);
481 *var_vec_b8
++ = vec_splat(var_vec_b8
[0], 14);
482 *var_vec_b8
++ = vec_splat(var_vec_b8
[0], 15);
483 *var_vec_b8
++ = vec_srl(var_vec_b8
[0], var_vec_u16
[1]);
484 *var_vec_b8
++ = vec_srl(var_vec_b8
[0], var_vec_u32
[1]);
485 *var_vec_b8
++ = vec_srl(var_vec_b8
[0], var_vec_u8
[1]);
486 *var_vec_b8
++ = vec_vand(var_vec_b8
[0], var_vec_b8
[1]);
487 *var_vec_b8
++ = vec_vandc(var_vec_b8
[0], var_vec_b8
[1]);
488 *var_vec_b8
++ = vec_vcmpequb(var_vec_s8
[0], var_vec_s8
[1]);
489 *var_vec_b8
++ = vec_vcmpequb(var_vec_u8
[0], var_vec_u8
[1]);
490 *var_vec_b8
++ = vec_vcmpgtsb(var_vec_s8
[0], var_vec_s8
[1]);
491 *var_vec_b8
++ = vec_vcmpgtub(var_vec_u8
[0], var_vec_u8
[1]);
492 *var_vec_b8
++ = vec_vmrghb(var_vec_b8
[0], var_vec_b8
[1]);
493 *var_vec_b8
++ = vec_vmrglb(var_vec_b8
[0], var_vec_b8
[1]);
494 *var_vec_b8
++ = vec_vnor(var_vec_b8
[0], var_vec_b8
[1]);
495 *var_vec_b8
++ = vec_vor(var_vec_b8
[0], var_vec_b8
[1]);
496 *var_vec_b8
++ = vec_vperm(var_vec_b8
[0], var_vec_b8
[1], var_vec_u8
[2]);
497 *var_vec_b8
++ = vec_vpkuhum(var_vec_b16
[0], var_vec_b16
[1]);
498 *var_vec_b8
++ = vec_vsel(var_vec_b8
[0], var_vec_b8
[1], var_vec_b8
[2]);
499 *var_vec_b8
++ = vec_vsel(var_vec_b8
[0], var_vec_b8
[1], var_vec_u8
[2]);
500 *var_vec_b8
++ = vec_vsl(var_vec_b8
[0], var_vec_u16
[1]);
501 *var_vec_b8
++ = vec_vsl(var_vec_b8
[0], var_vec_u32
[1]);
502 *var_vec_b8
++ = vec_vsl(var_vec_b8
[0], var_vec_u8
[1]);
503 *var_vec_b8
++ = vec_vspltb(var_vec_b8
[0], 0);
504 *var_vec_b8
++ = vec_vspltb(var_vec_b8
[0], 1);
505 *var_vec_b8
++ = vec_vspltb(var_vec_b8
[0], 2);
506 *var_vec_b8
++ = vec_vspltb(var_vec_b8
[0], 3);
507 *var_vec_b8
++ = vec_vspltb(var_vec_b8
[0], 4);
508 *var_vec_b8
++ = vec_vspltb(var_vec_b8
[0], 5);
509 *var_vec_b8
++ = vec_vspltb(var_vec_b8
[0], 6);
510 *var_vec_b8
++ = vec_vspltb(var_vec_b8
[0], 7);
511 *var_vec_b8
++ = vec_vspltb(var_vec_b8
[0], 8);
512 *var_vec_b8
++ = vec_vspltb(var_vec_b8
[0], 9);
513 *var_vec_b8
++ = vec_vspltb(var_vec_b8
[0], 10);
514 *var_vec_b8
++ = vec_vspltb(var_vec_b8
[0], 11);
515 *var_vec_b8
++ = vec_vspltb(var_vec_b8
[0], 12);
516 *var_vec_b8
++ = vec_vspltb(var_vec_b8
[0], 13);
517 *var_vec_b8
++ = vec_vspltb(var_vec_b8
[0], 14);
518 *var_vec_b8
++ = vec_vspltb(var_vec_b8
[0], 15);
519 *var_vec_b8
++ = vec_vsr(var_vec_b8
[0], var_vec_u16
[1]);
520 *var_vec_b8
++ = vec_vsr(var_vec_b8
[0], var_vec_u32
[1]);
521 *var_vec_b8
++ = vec_vsr(var_vec_b8
[0], var_vec_u8
[1]);
522 *var_vec_b8
++ = vec_vxor(var_vec_b8
[0], var_vec_b8
[1]);
523 *var_vec_b8
++ = vec_xor(var_vec_b8
[0], var_vec_b8
[1]);
526 *var_vec_f32
++ = vec_add(var_vec_f32
[0], var_vec_f32
[1]);
527 *var_vec_f32
++ = vec_and(var_vec_b32
[0], var_vec_f32
[1]);
528 *var_vec_f32
++ = vec_and(var_vec_f32
[0], var_vec_b32
[1]);
529 *var_vec_f32
++ = vec_and(var_vec_f32
[0], var_vec_f32
[1]);
530 *var_vec_f32
++ = vec_andc(var_vec_b32
[0], var_vec_f32
[1]);
531 *var_vec_f32
++ = vec_andc(var_vec_f32
[0], var_vec_b32
[1]);
532 *var_vec_f32
++ = vec_andc(var_vec_f32
[0], var_vec_f32
[1]);
533 *var_vec_f32
++ = vec_ceil(var_vec_f32
[0]);
534 *var_vec_f32
++ = vec_ctf(var_vec_s32
[0], 0);
535 *var_vec_f32
++ = vec_ctf(var_vec_s32
[0], 1);
536 *var_vec_f32
++ = vec_ctf(var_vec_s32
[0], 2);
537 *var_vec_f32
++ = vec_ctf(var_vec_s32
[0], 3);
538 *var_vec_f32
++ = vec_ctf(var_vec_s32
[0], 4);
539 *var_vec_f32
++ = vec_ctf(var_vec_s32
[0], 5);
540 *var_vec_f32
++ = vec_ctf(var_vec_s32
[0], 6);
541 *var_vec_f32
++ = vec_ctf(var_vec_s32
[0], 7);
542 *var_vec_f32
++ = vec_ctf(var_vec_s32
[0], 8);
543 *var_vec_f32
++ = vec_ctf(var_vec_s32
[0], 9);
544 *var_vec_f32
++ = vec_ctf(var_vec_s32
[0], 10);
545 *var_vec_f32
++ = vec_ctf(var_vec_s32
[0], 11);
546 *var_vec_f32
++ = vec_ctf(var_vec_s32
[0], 12);
547 *var_vec_f32
++ = vec_ctf(var_vec_s32
[0], 13);
548 *var_vec_f32
++ = vec_ctf(var_vec_s32
[0], 14);
549 *var_vec_f32
++ = vec_ctf(var_vec_s32
[0], 15);
550 *var_vec_f32
++ = vec_ctf(var_vec_s32
[0], 16);
551 *var_vec_f32
++ = vec_ctf(var_vec_s32
[0], 17);
552 *var_vec_f32
++ = vec_ctf(var_vec_s32
[0], 18);
553 *var_vec_f32
++ = vec_ctf(var_vec_s32
[0], 19);
554 *var_vec_f32
++ = vec_ctf(var_vec_s32
[0], 20);
555 *var_vec_f32
++ = vec_ctf(var_vec_s32
[0], 21);
556 *var_vec_f32
++ = vec_ctf(var_vec_s32
[0], 22);
557 *var_vec_f32
++ = vec_ctf(var_vec_s32
[0], 23);
558 *var_vec_f32
++ = vec_ctf(var_vec_s32
[0], 24);
559 *var_vec_f32
++ = vec_ctf(var_vec_s32
[0], 25);
560 *var_vec_f32
++ = vec_ctf(var_vec_s32
[0], 26);
561 *var_vec_f32
++ = vec_ctf(var_vec_s32
[0], 27);
562 *var_vec_f32
++ = vec_ctf(var_vec_s32
[0], 28);
563 *var_vec_f32
++ = vec_ctf(var_vec_s32
[0], 29);
564 *var_vec_f32
++ = vec_ctf(var_vec_s32
[0], 30);
565 *var_vec_f32
++ = vec_ctf(var_vec_s32
[0], 31);
566 *var_vec_f32
++ = vec_ctf(var_vec_u32
[0], 0);
567 *var_vec_f32
++ = vec_ctf(var_vec_u32
[0], 1);
568 *var_vec_f32
++ = vec_ctf(var_vec_u32
[0], 2);
569 *var_vec_f32
++ = vec_ctf(var_vec_u32
[0], 3);
570 *var_vec_f32
++ = vec_ctf(var_vec_u32
[0], 4);
571 *var_vec_f32
++ = vec_ctf(var_vec_u32
[0], 5);
572 *var_vec_f32
++ = vec_ctf(var_vec_u32
[0], 6);
573 *var_vec_f32
++ = vec_ctf(var_vec_u32
[0], 7);
574 *var_vec_f32
++ = vec_ctf(var_vec_u32
[0], 8);
575 *var_vec_f32
++ = vec_ctf(var_vec_u32
[0], 9);
576 *var_vec_f32
++ = vec_ctf(var_vec_u32
[0], 10);
577 *var_vec_f32
++ = vec_ctf(var_vec_u32
[0], 11);
578 *var_vec_f32
++ = vec_ctf(var_vec_u32
[0], 12);
579 *var_vec_f32
++ = vec_ctf(var_vec_u32
[0], 13);
580 *var_vec_f32
++ = vec_ctf(var_vec_u32
[0], 14);
581 *var_vec_f32
++ = vec_ctf(var_vec_u32
[0], 15);
582 *var_vec_f32
++ = vec_ctf(var_vec_u32
[0], 16);
583 *var_vec_f32
++ = vec_ctf(var_vec_u32
[0], 17);
584 *var_vec_f32
++ = vec_ctf(var_vec_u32
[0], 18);
585 *var_vec_f32
++ = vec_ctf(var_vec_u32
[0], 19);
586 *var_vec_f32
++ = vec_ctf(var_vec_u32
[0], 20);
587 *var_vec_f32
++ = vec_ctf(var_vec_u32
[0], 21);
588 *var_vec_f32
++ = vec_ctf(var_vec_u32
[0], 22);
589 *var_vec_f32
++ = vec_ctf(var_vec_u32
[0], 23);
590 *var_vec_f32
++ = vec_ctf(var_vec_u32
[0], 24);
591 *var_vec_f32
++ = vec_ctf(var_vec_u32
[0], 25);
592 *var_vec_f32
++ = vec_ctf(var_vec_u32
[0], 26);
593 *var_vec_f32
++ = vec_ctf(var_vec_u32
[0], 27);
594 *var_vec_f32
++ = vec_ctf(var_vec_u32
[0], 28);
595 *var_vec_f32
++ = vec_ctf(var_vec_u32
[0], 29);
596 *var_vec_f32
++ = vec_ctf(var_vec_u32
[0], 30);
597 *var_vec_f32
++ = vec_ctf(var_vec_u32
[0], 31);
598 *var_vec_f32
++ = vec_expte(var_vec_f32
[0]);
599 *var_vec_f32
++ = vec_floor(var_vec_f32
[0]);
600 *var_vec_f32
++ = vec_ld(var_int
[0], var_float_ptr
[1]);
601 *var_vec_f32
++ = vec_ld(var_int
[0], var_vec_f32_ptr
[1]);
602 *var_vec_f32
++ = vec_lde(var_int
[0], var_float_ptr
[1]);
603 *var_vec_f32
++ = vec_ldl(var_int
[0], var_float_ptr
[1]);
604 *var_vec_f32
++ = vec_ldl(var_int
[0], var_vec_f32_ptr
[1]);
605 *var_vec_f32
++ = vec_loge(var_vec_f32
[0]);
606 *var_vec_f32
++ = vec_lvewx(var_int
[0], var_float_ptr
[1]);
607 *var_vec_f32
++ = vec_lvx(var_int
[0], var_float_ptr
[1]);
608 *var_vec_f32
++ = vec_lvx(var_int
[0], var_vec_f32_ptr
[1]);
609 *var_vec_f32
++ = vec_lvxl(var_int
[0], var_float_ptr
[1]);
610 *var_vec_f32
++ = vec_lvxl(var_int
[0], var_vec_f32_ptr
[1]);
611 *var_vec_f32
++ = vec_madd(var_vec_f32
[0], var_vec_f32
[1], var_vec_f32
[2]);
612 *var_vec_f32
++ = vec_max(var_vec_f32
[0], var_vec_f32
[1]);
613 *var_vec_f32
++ = vec_mergeh(var_vec_f32
[0], var_vec_f32
[1]);
614 *var_vec_f32
++ = vec_mergel(var_vec_f32
[0], var_vec_f32
[1]);
615 *var_vec_f32
++ = vec_min(var_vec_f32
[0], var_vec_f32
[1]);
616 *var_vec_f32
++ = vec_nmsub(var_vec_f32
[0], var_vec_f32
[1], var_vec_f32
[2]);
617 *var_vec_f32
++ = vec_nor(var_vec_f32
[0], var_vec_f32
[1]);
618 *var_vec_f32
++ = vec_or(var_vec_b32
[0], var_vec_f32
[1]);
619 *var_vec_f32
++ = vec_or(var_vec_f32
[0], var_vec_b32
[1]);
620 *var_vec_f32
++ = vec_or(var_vec_f32
[0], var_vec_f32
[1]);
621 *var_vec_f32
++ = vec_perm(var_vec_f32
[0], var_vec_f32
[1], var_vec_u8
[2]);
622 *var_vec_f32
++ = vec_re(var_vec_f32
[0]);
623 *var_vec_f32
++ = vec_round(var_vec_f32
[0]);
624 *var_vec_f32
++ = vec_rsqrte(var_vec_f32
[0]);
625 *var_vec_f32
++ = vec_sel(var_vec_f32
[0], var_vec_f32
[1], var_vec_b32
[2]);
628 *var_vec_f32
++ = vec_sel(var_vec_f32
[0], var_vec_f32
[1], var_vec_u32
[2]);
629 *var_vec_f32
++ = vec_sld(var_vec_f32
[0], var_vec_f32
[1], 0);
630 *var_vec_f32
++ = vec_sld(var_vec_f32
[0], var_vec_f32
[1], 1);
631 *var_vec_f32
++ = vec_sld(var_vec_f32
[0], var_vec_f32
[1], 2);
632 *var_vec_f32
++ = vec_sld(var_vec_f32
[0], var_vec_f32
[1], 3);
633 *var_vec_f32
++ = vec_sld(var_vec_f32
[0], var_vec_f32
[1], 4);
634 *var_vec_f32
++ = vec_sld(var_vec_f32
[0], var_vec_f32
[1], 5);
635 *var_vec_f32
++ = vec_sld(var_vec_f32
[0], var_vec_f32
[1], 6);
636 *var_vec_f32
++ = vec_sld(var_vec_f32
[0], var_vec_f32
[1], 7);
637 *var_vec_f32
++ = vec_sld(var_vec_f32
[0], var_vec_f32
[1], 8);
638 *var_vec_f32
++ = vec_sld(var_vec_f32
[0], var_vec_f32
[1], 9);
639 *var_vec_f32
++ = vec_sld(var_vec_f32
[0], var_vec_f32
[1], 10);
640 *var_vec_f32
++ = vec_sld(var_vec_f32
[0], var_vec_f32
[1], 11);
641 *var_vec_f32
++ = vec_sld(var_vec_f32
[0], var_vec_f32
[1], 12);
642 *var_vec_f32
++ = vec_sld(var_vec_f32
[0], var_vec_f32
[1], 13);
643 *var_vec_f32
++ = vec_sld(var_vec_f32
[0], var_vec_f32
[1], 14);
644 *var_vec_f32
++ = vec_sld(var_vec_f32
[0], var_vec_f32
[1], 15);
645 *var_vec_f32
++ = vec_slo(var_vec_f32
[0], var_vec_s8
[1]);
646 *var_vec_f32
++ = vec_slo(var_vec_f32
[0], var_vec_u8
[1]);
647 *var_vec_f32
++ = vec_splat(var_vec_f32
[0], 0);
648 *var_vec_f32
++ = vec_splat(var_vec_f32
[0], 1);
649 *var_vec_f32
++ = vec_splat(var_vec_f32
[0], 2);
650 *var_vec_f32
++ = vec_splat(var_vec_f32
[0], 3);
651 *var_vec_f32
++ = vec_sro(var_vec_f32
[0], var_vec_s8
[1]);
652 *var_vec_f32
++ = vec_sro(var_vec_f32
[0], var_vec_u8
[1]);
653 *var_vec_f32
++ = vec_sub(var_vec_f32
[0], var_vec_f32
[1]);
654 *var_vec_f32
++ = vec_trunc(var_vec_f32
[0]);
655 *var_vec_f32
++ = vec_vaddfp(var_vec_f32
[0], var_vec_f32
[1]);
656 *var_vec_f32
++ = vec_vand(var_vec_b32
[0], var_vec_f32
[1]);
657 *var_vec_f32
++ = vec_vand(var_vec_f32
[0], var_vec_b32
[1]);
658 *var_vec_f32
++ = vec_vand(var_vec_f32
[0], var_vec_f32
[1]);
659 *var_vec_f32
++ = vec_vandc(var_vec_b32
[0], var_vec_f32
[1]);
660 *var_vec_f32
++ = vec_vandc(var_vec_f32
[0], var_vec_b32
[1]);
661 *var_vec_f32
++ = vec_vandc(var_vec_f32
[0], var_vec_f32
[1]);
662 *var_vec_f32
++ = vec_vcfsx(var_vec_s32
[0], 0);
663 *var_vec_f32
++ = vec_vcfsx(var_vec_s32
[0], 1);
664 *var_vec_f32
++ = vec_vcfsx(var_vec_s32
[0], 2);
665 *var_vec_f32
++ = vec_vcfsx(var_vec_s32
[0], 3);
666 *var_vec_f32
++ = vec_vcfsx(var_vec_s32
[0], 4);
667 *var_vec_f32
++ = vec_vcfsx(var_vec_s32
[0], 5);
668 *var_vec_f32
++ = vec_vcfsx(var_vec_s32
[0], 6);
669 *var_vec_f32
++ = vec_vcfsx(var_vec_s32
[0], 7);
670 *var_vec_f32
++ = vec_vcfsx(var_vec_s32
[0], 8);
671 *var_vec_f32
++ = vec_vcfsx(var_vec_s32
[0], 9);
672 *var_vec_f32
++ = vec_vcfsx(var_vec_s32
[0], 10);
673 *var_vec_f32
++ = vec_vcfsx(var_vec_s32
[0], 11);
674 *var_vec_f32
++ = vec_vcfsx(var_vec_s32
[0], 12);
675 *var_vec_f32
++ = vec_vcfsx(var_vec_s32
[0], 13);
676 *var_vec_f32
++ = vec_vcfsx(var_vec_s32
[0], 14);
677 *var_vec_f32
++ = vec_vcfsx(var_vec_s32
[0], 15);
678 *var_vec_f32
++ = vec_vcfsx(var_vec_s32
[0], 16);
679 *var_vec_f32
++ = vec_vcfsx(var_vec_s32
[0], 17);
680 *var_vec_f32
++ = vec_vcfsx(var_vec_s32
[0], 18);
681 *var_vec_f32
++ = vec_vcfsx(var_vec_s32
[0], 19);
682 *var_vec_f32
++ = vec_vcfsx(var_vec_s32
[0], 20);
683 *var_vec_f32
++ = vec_vcfsx(var_vec_s32
[0], 21);
684 *var_vec_f32
++ = vec_vcfsx(var_vec_s32
[0], 22);
685 *var_vec_f32
++ = vec_vcfsx(var_vec_s32
[0], 23);
686 *var_vec_f32
++ = vec_vcfsx(var_vec_s32
[0], 24);
687 *var_vec_f32
++ = vec_vcfsx(var_vec_s32
[0], 25);
688 *var_vec_f32
++ = vec_vcfsx(var_vec_s32
[0], 26);
689 *var_vec_f32
++ = vec_vcfsx(var_vec_s32
[0], 27);
690 *var_vec_f32
++ = vec_vcfsx(var_vec_s32
[0], 28);
691 *var_vec_f32
++ = vec_vcfsx(var_vec_s32
[0], 29);
692 *var_vec_f32
++ = vec_vcfsx(var_vec_s32
[0], 30);
693 *var_vec_f32
++ = vec_vcfsx(var_vec_s32
[0], 31);
694 *var_vec_f32
++ = vec_vcfux(var_vec_u32
[0], 0);
695 *var_vec_f32
++ = vec_vcfux(var_vec_u32
[0], 1);
696 *var_vec_f32
++ = vec_vcfux(var_vec_u32
[0], 2);
697 *var_vec_f32
++ = vec_vcfux(var_vec_u32
[0], 3);
698 *var_vec_f32
++ = vec_vcfux(var_vec_u32
[0], 4);
699 *var_vec_f32
++ = vec_vcfux(var_vec_u32
[0], 5);
702 *var_vec_f32
++ = vec_vcfux(var_vec_u32
[0], 6);
703 *var_vec_f32
++ = vec_vcfux(var_vec_u32
[0], 7);
704 *var_vec_f32
++ = vec_vcfux(var_vec_u32
[0], 8);
705 *var_vec_f32
++ = vec_vcfux(var_vec_u32
[0], 9);
706 *var_vec_f32
++ = vec_vcfux(var_vec_u32
[0], 10);
707 *var_vec_f32
++ = vec_vcfux(var_vec_u32
[0], 11);
708 *var_vec_f32
++ = vec_vcfux(var_vec_u32
[0], 12);
709 *var_vec_f32
++ = vec_vcfux(var_vec_u32
[0], 13);
710 *var_vec_f32
++ = vec_vcfux(var_vec_u32
[0], 14);
711 *var_vec_f32
++ = vec_vcfux(var_vec_u32
[0], 15);
712 *var_vec_f32
++ = vec_vcfux(var_vec_u32
[0], 16);
713 *var_vec_f32
++ = vec_vcfux(var_vec_u32
[0], 17);
714 *var_vec_f32
++ = vec_vcfux(var_vec_u32
[0], 18);
715 *var_vec_f32
++ = vec_vcfux(var_vec_u32
[0], 19);
716 *var_vec_f32
++ = vec_vcfux(var_vec_u32
[0], 20);
717 *var_vec_f32
++ = vec_vcfux(var_vec_u32
[0], 21);
718 *var_vec_f32
++ = vec_vcfux(var_vec_u32
[0], 22);
719 *var_vec_f32
++ = vec_vcfux(var_vec_u32
[0], 23);
720 *var_vec_f32
++ = vec_vcfux(var_vec_u32
[0], 24);
721 *var_vec_f32
++ = vec_vcfux(var_vec_u32
[0], 25);
722 *var_vec_f32
++ = vec_vcfux(var_vec_u32
[0], 26);
723 *var_vec_f32
++ = vec_vcfux(var_vec_u32
[0], 27);
724 *var_vec_f32
++ = vec_vcfux(var_vec_u32
[0], 28);
725 *var_vec_f32
++ = vec_vcfux(var_vec_u32
[0], 29);
726 *var_vec_f32
++ = vec_vcfux(var_vec_u32
[0], 30);
727 *var_vec_f32
++ = vec_vcfux(var_vec_u32
[0], 31);
728 *var_vec_f32
++ = vec_vexptefp(var_vec_f32
[0]);
729 *var_vec_f32
++ = vec_vlogefp(var_vec_f32
[0]);
730 *var_vec_f32
++ = vec_vmaddfp(var_vec_f32
[0], var_vec_f32
[1], var_vec_f32
[2]);
731 *var_vec_f32
++ = vec_vmaxfp(var_vec_f32
[0], var_vec_f32
[1]);
732 *var_vec_f32
++ = vec_vminfp(var_vec_f32
[0], var_vec_f32
[1]);
733 *var_vec_f32
++ = vec_vmrghw(var_vec_f32
[0], var_vec_f32
[1]);
734 *var_vec_f32
++ = vec_vmrglw(var_vec_f32
[0], var_vec_f32
[1]);
735 *var_vec_f32
++ = vec_vnmsubfp(var_vec_f32
[0], var_vec_f32
[1], var_vec_f32
[2]);
736 *var_vec_f32
++ = vec_vnor(var_vec_f32
[0], var_vec_f32
[1]);
737 *var_vec_f32
++ = vec_vor(var_vec_b32
[0], var_vec_f32
[1]);
738 *var_vec_f32
++ = vec_vor(var_vec_f32
[0], var_vec_b32
[1]);
739 *var_vec_f32
++ = vec_vor(var_vec_f32
[0], var_vec_f32
[1]);
740 *var_vec_f32
++ = vec_vperm(var_vec_f32
[0], var_vec_f32
[1], var_vec_u8
[2]);
741 *var_vec_f32
++ = vec_vrefp(var_vec_f32
[0]);
742 *var_vec_f32
++ = vec_vrfim(var_vec_f32
[0]);
743 *var_vec_f32
++ = vec_vrfin(var_vec_f32
[0]);
744 *var_vec_f32
++ = vec_vrfip(var_vec_f32
[0]);
745 *var_vec_f32
++ = vec_vrfiz(var_vec_f32
[0]);
746 *var_vec_f32
++ = vec_vrsqrtefp(var_vec_f32
[0]);
747 *var_vec_f32
++ = vec_vsel(var_vec_f32
[0], var_vec_f32
[1], var_vec_b32
[2]);
748 *var_vec_f32
++ = vec_vsel(var_vec_f32
[0], var_vec_f32
[1], var_vec_u32
[2]);
749 *var_vec_f32
++ = vec_vsldoi(var_vec_f32
[0], var_vec_f32
[1], 0);
750 *var_vec_f32
++ = vec_vsldoi(var_vec_f32
[0], var_vec_f32
[1], 1);
751 *var_vec_f32
++ = vec_vsldoi(var_vec_f32
[0], var_vec_f32
[1], 2);
752 *var_vec_f32
++ = vec_vsldoi(var_vec_f32
[0], var_vec_f32
[1], 3);
753 *var_vec_f32
++ = vec_vsldoi(var_vec_f32
[0], var_vec_f32
[1], 4);
754 *var_vec_f32
++ = vec_vsldoi(var_vec_f32
[0], var_vec_f32
[1], 5);
755 *var_vec_f32
++ = vec_vsldoi(var_vec_f32
[0], var_vec_f32
[1], 6);
756 *var_vec_f32
++ = vec_vsldoi(var_vec_f32
[0], var_vec_f32
[1], 7);
757 *var_vec_f32
++ = vec_vsldoi(var_vec_f32
[0], var_vec_f32
[1], 8);
758 *var_vec_f32
++ = vec_vsldoi(var_vec_f32
[0], var_vec_f32
[1], 9);
759 *var_vec_f32
++ = vec_vsldoi(var_vec_f32
[0], var_vec_f32
[1], 10);
760 *var_vec_f32
++ = vec_vsldoi(var_vec_f32
[0], var_vec_f32
[1], 11);
761 *var_vec_f32
++ = vec_vsldoi(var_vec_f32
[0], var_vec_f32
[1], 12);
762 *var_vec_f32
++ = vec_vsldoi(var_vec_f32
[0], var_vec_f32
[1], 13);
763 *var_vec_f32
++ = vec_vsldoi(var_vec_f32
[0], var_vec_f32
[1], 14);
764 *var_vec_f32
++ = vec_vsldoi(var_vec_f32
[0], var_vec_f32
[1], 15);
765 *var_vec_f32
++ = vec_vslo(var_vec_f32
[0], var_vec_s8
[1]);
766 *var_vec_f32
++ = vec_vslo(var_vec_f32
[0], var_vec_u8
[1]);
767 *var_vec_f32
++ = vec_vspltw(var_vec_f32
[0], 0);
768 *var_vec_f32
++ = vec_vspltw(var_vec_f32
[0], 1);
769 *var_vec_f32
++ = vec_vspltw(var_vec_f32
[0], 2);
770 *var_vec_f32
++ = vec_vspltw(var_vec_f32
[0], 3);
771 *var_vec_f32
++ = vec_vsro(var_vec_f32
[0], var_vec_s8
[1]);
772 *var_vec_f32
++ = vec_vsro(var_vec_f32
[0], var_vec_u8
[1]);
773 *var_vec_f32
++ = vec_vsubfp(var_vec_f32
[0], var_vec_f32
[1]);
776 *var_vec_f32
++ = vec_vxor(var_vec_b32
[0], var_vec_f32
[1]);
777 *var_vec_f32
++ = vec_vxor(var_vec_f32
[0], var_vec_b32
[1]);
778 *var_vec_f32
++ = vec_vxor(var_vec_f32
[0], var_vec_f32
[1]);
779 *var_vec_f32
++ = vec_xor(var_vec_b32
[0], var_vec_f32
[1]);
780 *var_vec_f32
++ = vec_xor(var_vec_f32
[0], var_vec_b32
[1]);
781 *var_vec_f32
++ = vec_xor(var_vec_f32
[0], var_vec_f32
[1]);
782 *var_vec_p16
++ = vec_ld(var_int
[0], var_vec_p16_ptr
[1]);
783 *var_vec_p16
++ = vec_ldl(var_int
[0], var_vec_p16_ptr
[1]);
784 *var_vec_p16
++ = vec_lvx(var_int
[0], var_vec_p16_ptr
[1]);
785 *var_vec_p16
++ = vec_lvxl(var_int
[0], var_vec_p16_ptr
[1]);
786 *var_vec_p16
++ = vec_mergeh(var_vec_p16
[0], var_vec_p16
[1]);
787 *var_vec_p16
++ = vec_mergel(var_vec_p16
[0], var_vec_p16
[1]);
788 *var_vec_p16
++ = vec_packpx(var_vec_u32
[0], var_vec_u32
[1]);
789 *var_vec_p16
++ = vec_perm(var_vec_p16
[0], var_vec_p16
[1], var_vec_u8
[2]);
790 *var_vec_p16
++ = vec_sld(var_vec_p16
[0], var_vec_p16
[1], 0);
791 *var_vec_p16
++ = vec_sld(var_vec_p16
[0], var_vec_p16
[1], 1);
792 *var_vec_p16
++ = vec_sld(var_vec_p16
[0], var_vec_p16
[1], 2);
793 *var_vec_p16
++ = vec_sld(var_vec_p16
[0], var_vec_p16
[1], 3);
794 *var_vec_p16
++ = vec_sld(var_vec_p16
[0], var_vec_p16
[1], 4);
795 *var_vec_p16
++ = vec_sld(var_vec_p16
[0], var_vec_p16
[1], 5);
796 *var_vec_p16
++ = vec_sld(var_vec_p16
[0], var_vec_p16
[1], 6);
797 *var_vec_p16
++ = vec_sld(var_vec_p16
[0], var_vec_p16
[1], 7);
798 *var_vec_p16
++ = vec_sld(var_vec_p16
[0], var_vec_p16
[1], 8);
799 *var_vec_p16
++ = vec_sld(var_vec_p16
[0], var_vec_p16
[1], 9);
800 *var_vec_p16
++ = vec_sld(var_vec_p16
[0], var_vec_p16
[1], 10);
801 *var_vec_p16
++ = vec_sld(var_vec_p16
[0], var_vec_p16
[1], 11);
802 *var_vec_p16
++ = vec_sld(var_vec_p16
[0], var_vec_p16
[1], 12);
803 *var_vec_p16
++ = vec_sld(var_vec_p16
[0], var_vec_p16
[1], 13);
804 *var_vec_p16
++ = vec_sld(var_vec_p16
[0], var_vec_p16
[1], 14);
805 *var_vec_p16
++ = vec_sld(var_vec_p16
[0], var_vec_p16
[1], 15);
806 *var_vec_p16
++ = vec_sll(var_vec_p16
[0], var_vec_u16
[1]);
807 *var_vec_p16
++ = vec_sll(var_vec_p16
[0], var_vec_u32
[1]);
808 *var_vec_p16
++ = vec_sll(var_vec_p16
[0], var_vec_u8
[1]);
809 *var_vec_p16
++ = vec_slo(var_vec_p16
[0], var_vec_s8
[1]);
810 *var_vec_p16
++ = vec_slo(var_vec_p16
[0], var_vec_u8
[1]);
811 *var_vec_p16
++ = vec_splat(var_vec_p16
[0], 0);
812 *var_vec_p16
++ = vec_splat(var_vec_p16
[0], 1);
813 *var_vec_p16
++ = vec_splat(var_vec_p16
[0], 2);
814 *var_vec_p16
++ = vec_splat(var_vec_p16
[0], 3);
815 *var_vec_p16
++ = vec_splat(var_vec_p16
[0], 4);
816 *var_vec_p16
++ = vec_splat(var_vec_p16
[0], 5);
817 *var_vec_p16
++ = vec_splat(var_vec_p16
[0], 6);
818 *var_vec_p16
++ = vec_splat(var_vec_p16
[0], 7);
819 *var_vec_p16
++ = vec_srl(var_vec_p16
[0], var_vec_u16
[1]);
820 *var_vec_p16
++ = vec_srl(var_vec_p16
[0], var_vec_u32
[1]);
821 *var_vec_p16
++ = vec_srl(var_vec_p16
[0], var_vec_u8
[1]);
822 *var_vec_p16
++ = vec_sro(var_vec_p16
[0], var_vec_s8
[1]);
823 *var_vec_p16
++ = vec_sro(var_vec_p16
[0], var_vec_u8
[1]);
824 *var_vec_p16
++ = vec_vmrghh(var_vec_p16
[0], var_vec_p16
[1]);
825 *var_vec_p16
++ = vec_vmrglh(var_vec_p16
[0], var_vec_p16
[1]);
826 *var_vec_p16
++ = vec_vperm(var_vec_p16
[0], var_vec_p16
[1], var_vec_u8
[2]);
827 *var_vec_p16
++ = vec_vpkpx(var_vec_u32
[0], var_vec_u32
[1]);
828 *var_vec_p16
++ = vec_vsl(var_vec_p16
[0], var_vec_u16
[1]);
829 *var_vec_p16
++ = vec_vsl(var_vec_p16
[0], var_vec_u32
[1]);
830 *var_vec_p16
++ = vec_vsl(var_vec_p16
[0], var_vec_u8
[1]);
831 *var_vec_p16
++ = vec_vsldoi(var_vec_p16
[0], var_vec_p16
[1], 0);
832 *var_vec_p16
++ = vec_vsldoi(var_vec_p16
[0], var_vec_p16
[1], 1);
833 *var_vec_p16
++ = vec_vsldoi(var_vec_p16
[0], var_vec_p16
[1], 2);
834 *var_vec_p16
++ = vec_vsldoi(var_vec_p16
[0], var_vec_p16
[1], 3);
835 *var_vec_p16
++ = vec_vsldoi(var_vec_p16
[0], var_vec_p16
[1], 4);
836 *var_vec_p16
++ = vec_vsldoi(var_vec_p16
[0], var_vec_p16
[1], 5);
837 *var_vec_p16
++ = vec_vsldoi(var_vec_p16
[0], var_vec_p16
[1], 6);
838 *var_vec_p16
++ = vec_vsldoi(var_vec_p16
[0], var_vec_p16
[1], 7);
839 *var_vec_p16
++ = vec_vsldoi(var_vec_p16
[0], var_vec_p16
[1], 8);
840 *var_vec_p16
++ = vec_vsldoi(var_vec_p16
[0], var_vec_p16
[1], 9);
841 *var_vec_p16
++ = vec_vsldoi(var_vec_p16
[0], var_vec_p16
[1], 10);
842 *var_vec_p16
++ = vec_vsldoi(var_vec_p16
[0], var_vec_p16
[1], 11);
843 *var_vec_p16
++ = vec_vsldoi(var_vec_p16
[0], var_vec_p16
[1], 12);
844 *var_vec_p16
++ = vec_vsldoi(var_vec_p16
[0], var_vec_p16
[1], 13);
845 *var_vec_p16
++ = vec_vsldoi(var_vec_p16
[0], var_vec_p16
[1], 14);
846 *var_vec_p16
++ = vec_vsldoi(var_vec_p16
[0], var_vec_p16
[1], 15);
847 *var_vec_p16
++ = vec_vslo(var_vec_p16
[0], var_vec_s8
[1]);
848 *var_vec_p16
++ = vec_vslo(var_vec_p16
[0], var_vec_u8
[1]);
849 *var_vec_p16
++ = vec_vsplth(var_vec_p16
[0], 0);
850 *var_vec_p16
++ = vec_vsplth(var_vec_p16
[0], 1);
851 *var_vec_p16
++ = vec_vsplth(var_vec_p16
[0], 2);
854 *var_vec_p16
++ = vec_vsplth(var_vec_p16
[0], 3);
855 *var_vec_p16
++ = vec_vsplth(var_vec_p16
[0], 4);
856 *var_vec_p16
++ = vec_vsplth(var_vec_p16
[0], 5);
857 *var_vec_p16
++ = vec_vsplth(var_vec_p16
[0], 6);
858 *var_vec_p16
++ = vec_vsplth(var_vec_p16
[0], 7);
859 *var_vec_p16
++ = vec_vsr(var_vec_p16
[0], var_vec_u16
[1]);
860 *var_vec_p16
++ = vec_vsr(var_vec_p16
[0], var_vec_u32
[1]);
861 *var_vec_p16
++ = vec_vsr(var_vec_p16
[0], var_vec_u8
[1]);
862 *var_vec_p16
++ = vec_vsro(var_vec_p16
[0], var_vec_s8
[1]);
863 *var_vec_p16
++ = vec_vsro(var_vec_p16
[0], var_vec_u8
[1]);
864 *var_vec_s16
++ = vec_add(var_vec_b16
[0], var_vec_s16
[1]);
865 *var_vec_s16
++ = vec_add(var_vec_s16
[0], var_vec_b16
[1]);
866 *var_vec_s16
++ = vec_add(var_vec_s16
[0], var_vec_s16
[1]);
867 *var_vec_s16
++ = vec_adds(var_vec_b16
[0], var_vec_s16
[1]);
868 *var_vec_s16
++ = vec_adds(var_vec_s16
[0], var_vec_b16
[1]);
869 *var_vec_s16
++ = vec_adds(var_vec_s16
[0], var_vec_s16
[1]);
870 *var_vec_s16
++ = vec_and(var_vec_b16
[0], var_vec_s16
[1]);
871 *var_vec_s16
++ = vec_and(var_vec_s16
[0], var_vec_b16
[1]);
872 *var_vec_s16
++ = vec_and(var_vec_s16
[0], var_vec_s16
[1]);
873 *var_vec_s16
++ = vec_andc(var_vec_b16
[0], var_vec_s16
[1]);
874 *var_vec_s16
++ = vec_andc(var_vec_s16
[0], var_vec_b16
[1]);
875 *var_vec_s16
++ = vec_andc(var_vec_s16
[0], var_vec_s16
[1]);
876 *var_vec_s16
++ = vec_avg(var_vec_s16
[0], var_vec_s16
[1]);
877 *var_vec_s16
++ = vec_ld(var_int
[0], var_short_ptr
[1]);
878 *var_vec_s16
++ = vec_ld(var_int
[0], var_vec_s16_ptr
[1]);
879 *var_vec_s16
++ = vec_lde(var_int
[0], var_short_ptr
[1]);
880 *var_vec_s16
++ = vec_ldl(var_int
[0], var_short_ptr
[1]);
881 *var_vec_s16
++ = vec_ldl(var_int
[0], var_vec_s16_ptr
[1]);
882 *var_vec_s16
++ = vec_lvehx(var_int
[0], var_short_ptr
[1]);
883 *var_vec_s16
++ = vec_lvx(var_int
[0], var_short_ptr
[1]);
884 *var_vec_s16
++ = vec_lvx(var_int
[0], var_vec_s16_ptr
[1]);
885 *var_vec_s16
++ = vec_lvxl(var_int
[0], var_short_ptr
[1]);
886 *var_vec_s16
++ = vec_lvxl(var_int
[0], var_vec_s16_ptr
[1]);
887 *var_vec_s16
++ = vec_madds(var_vec_s16
[0], var_vec_s16
[1], var_vec_s16
[2]);
888 *var_vec_s16
++ = vec_max(var_vec_b16
[0], var_vec_s16
[1]);
889 *var_vec_s16
++ = vec_max(var_vec_s16
[0], var_vec_b16
[1]);
890 *var_vec_s16
++ = vec_max(var_vec_s16
[0], var_vec_s16
[1]);
891 *var_vec_s16
++ = vec_mergeh(var_vec_s16
[0], var_vec_s16
[1]);
892 *var_vec_s16
++ = vec_mergel(var_vec_s16
[0], var_vec_s16
[1]);
893 *var_vec_s16
++ = vec_min(var_vec_b16
[0], var_vec_s16
[1]);
894 *var_vec_s16
++ = vec_min(var_vec_s16
[0], var_vec_b16
[1]);
895 *var_vec_s16
++ = vec_min(var_vec_s16
[0], var_vec_s16
[1]);
896 *var_vec_s16
++ = vec_mladd(var_vec_s16
[0], var_vec_s16
[1], var_vec_s16
[2]);
897 *var_vec_s16
++ = vec_mladd(var_vec_s16
[0], var_vec_u16
[1], var_vec_u16
[2]);
898 *var_vec_s16
++ = vec_mladd(var_vec_u16
[0], var_vec_s16
[1], var_vec_s16
[2]);
899 *var_vec_s16
++ = vec_mradds(var_vec_s16
[0], var_vec_s16
[1], var_vec_s16
[2]);
900 *var_vec_s16
++ = vec_mule(var_vec_s8
[0], var_vec_s8
[1]);
901 *var_vec_s16
++ = vec_mulo(var_vec_s8
[0], var_vec_s8
[1]);
902 *var_vec_s16
++ = vec_nor(var_vec_s16
[0], var_vec_s16
[1]);
903 *var_vec_s16
++ = vec_or(var_vec_b16
[0], var_vec_s16
[1]);
904 *var_vec_s16
++ = vec_or(var_vec_s16
[0], var_vec_b16
[1]);
905 *var_vec_s16
++ = vec_or(var_vec_s16
[0], var_vec_s16
[1]);
906 *var_vec_s16
++ = vec_pack(var_vec_s32
[0], var_vec_s32
[1]);
907 *var_vec_s16
++ = vec_packs(var_vec_s32
[0], var_vec_s32
[1]);
908 *var_vec_s16
++ = vec_perm(var_vec_s16
[0], var_vec_s16
[1], var_vec_u8
[2]);
909 *var_vec_s16
++ = vec_rl(var_vec_s16
[0], var_vec_u16
[1]);
910 *var_vec_s16
++ = vec_sel(var_vec_s16
[0], var_vec_s16
[1], var_vec_b16
[2]);
911 *var_vec_s16
++ = vec_sel(var_vec_s16
[0], var_vec_s16
[1], var_vec_u16
[2]);
912 *var_vec_s16
++ = vec_sl(var_vec_s16
[0], var_vec_u16
[1]);
913 *var_vec_s16
++ = vec_sld(var_vec_s16
[0], var_vec_s16
[1], 0);
914 *var_vec_s16
++ = vec_sld(var_vec_s16
[0], var_vec_s16
[1], 1);
915 *var_vec_s16
++ = vec_sld(var_vec_s16
[0], var_vec_s16
[1], 2);
916 *var_vec_s16
++ = vec_sld(var_vec_s16
[0], var_vec_s16
[1], 3);
917 *var_vec_s16
++ = vec_sld(var_vec_s16
[0], var_vec_s16
[1], 4);
918 *var_vec_s16
++ = vec_sld(var_vec_s16
[0], var_vec_s16
[1], 5);
919 *var_vec_s16
++ = vec_sld(var_vec_s16
[0], var_vec_s16
[1], 6);
920 *var_vec_s16
++ = vec_sld(var_vec_s16
[0], var_vec_s16
[1], 7);
921 *var_vec_s16
++ = vec_sld(var_vec_s16
[0], var_vec_s16
[1], 8);
922 *var_vec_s16
++ = vec_sld(var_vec_s16
[0], var_vec_s16
[1], 9);
923 *var_vec_s16
++ = vec_sld(var_vec_s16
[0], var_vec_s16
[1], 10);
924 *var_vec_s16
++ = vec_sld(var_vec_s16
[0], var_vec_s16
[1], 11);
925 *var_vec_s16
++ = vec_sld(var_vec_s16
[0], var_vec_s16
[1], 12);
926 *var_vec_s16
++ = vec_sld(var_vec_s16
[0], var_vec_s16
[1], 13);
927 *var_vec_s16
++ = vec_sld(var_vec_s16
[0], var_vec_s16
[1], 14);
928 *var_vec_s16
++ = vec_sld(var_vec_s16
[0], var_vec_s16
[1], 15);
929 *var_vec_s16
++ = vec_sll(var_vec_s16
[0], var_vec_u16
[1]);
932 *var_vec_s16
++ = vec_sll(var_vec_s16
[0], var_vec_u32
[1]);
933 *var_vec_s16
++ = vec_sll(var_vec_s16
[0], var_vec_u8
[1]);
934 *var_vec_s16
++ = vec_slo(var_vec_s16
[0], var_vec_s8
[1]);
935 *var_vec_s16
++ = vec_slo(var_vec_s16
[0], var_vec_u8
[1]);
936 *var_vec_s16
++ = vec_splat(var_vec_s16
[0], 0);
937 *var_vec_s16
++ = vec_splat(var_vec_s16
[0], 1);
938 *var_vec_s16
++ = vec_splat(var_vec_s16
[0], 2);
939 *var_vec_s16
++ = vec_splat(var_vec_s16
[0], 3);
940 *var_vec_s16
++ = vec_splat(var_vec_s16
[0], 4);
941 *var_vec_s16
++ = vec_splat(var_vec_s16
[0], 5);
942 *var_vec_s16
++ = vec_splat(var_vec_s16
[0], 6);
943 *var_vec_s16
++ = vec_splat(var_vec_s16
[0], 7);
944 *var_vec_s16
++ = vec_splat_s16( 0);
945 *var_vec_s16
++ = vec_splat_s16( 1);
946 *var_vec_s16
++ = vec_splat_s16( 2);
947 *var_vec_s16
++ = vec_splat_s16( 3);
948 *var_vec_s16
++ = vec_splat_s16( 4);
949 *var_vec_s16
++ = vec_splat_s16( 5);
950 *var_vec_s16
++ = vec_splat_s16( 6);
951 *var_vec_s16
++ = vec_splat_s16( 7);
952 *var_vec_s16
++ = vec_splat_s16( 8);
953 *var_vec_s16
++ = vec_splat_s16( 9);
954 *var_vec_s16
++ = vec_splat_s16( -1);
955 *var_vec_s16
++ = vec_splat_s16( -2);
956 *var_vec_s16
++ = vec_splat_s16( -3);
957 *var_vec_s16
++ = vec_splat_s16( -4);
958 *var_vec_s16
++ = vec_splat_s16( -5);
959 *var_vec_s16
++ = vec_splat_s16( -6);
960 *var_vec_s16
++ = vec_splat_s16( -7);
961 *var_vec_s16
++ = vec_splat_s16( -8);
962 *var_vec_s16
++ = vec_splat_s16( -9);
963 *var_vec_s16
++ = vec_splat_s16( 10);
964 *var_vec_s16
++ = vec_splat_s16( 11);
965 *var_vec_s16
++ = vec_splat_s16( 12);
966 *var_vec_s16
++ = vec_splat_s16( 13);
967 *var_vec_s16
++ = vec_splat_s16( 14);
968 *var_vec_s16
++ = vec_splat_s16( 15);
969 *var_vec_s16
++ = vec_splat_s16(-10);
970 *var_vec_s16
++ = vec_splat_s16(-11);
971 *var_vec_s16
++ = vec_splat_s16(-12);
972 *var_vec_s16
++ = vec_splat_s16(-13);
973 *var_vec_s16
++ = vec_splat_s16(-14);
974 *var_vec_s16
++ = vec_splat_s16(-15);
975 *var_vec_s16
++ = vec_splat_s16(-16);
976 *var_vec_s16
++ = vec_sr(var_vec_s16
[0], var_vec_u16
[1]);
977 *var_vec_s16
++ = vec_sra(var_vec_s16
[0], var_vec_u16
[1]);
978 *var_vec_s16
++ = vec_srl(var_vec_s16
[0], var_vec_u16
[1]);
979 *var_vec_s16
++ = vec_srl(var_vec_s16
[0], var_vec_u32
[1]);
980 *var_vec_s16
++ = vec_srl(var_vec_s16
[0], var_vec_u8
[1]);
981 *var_vec_s16
++ = vec_sro(var_vec_s16
[0], var_vec_s8
[1]);
982 *var_vec_s16
++ = vec_sro(var_vec_s16
[0], var_vec_u8
[1]);
983 *var_vec_s16
++ = vec_sub(var_vec_b16
[0], var_vec_s16
[1]);
984 *var_vec_s16
++ = vec_sub(var_vec_s16
[0], var_vec_b16
[1]);
985 *var_vec_s16
++ = vec_sub(var_vec_s16
[0], var_vec_s16
[1]);
986 *var_vec_s16
++ = vec_subs(var_vec_b16
[0], var_vec_s16
[1]);
987 *var_vec_s16
++ = vec_subs(var_vec_s16
[0], var_vec_b16
[1]);
988 *var_vec_s16
++ = vec_subs(var_vec_s16
[0], var_vec_s16
[1]);
989 *var_vec_s16
++ = vec_unpackh(var_vec_s8
[0]);
990 *var_vec_s16
++ = vec_unpackl(var_vec_s8
[0]);
991 *var_vec_s16
++ = vec_vaddshs(var_vec_b16
[0], var_vec_s16
[1]);
992 *var_vec_s16
++ = vec_vaddshs(var_vec_s16
[0], var_vec_b16
[1]);
993 *var_vec_s16
++ = vec_vaddshs(var_vec_s16
[0], var_vec_s16
[1]);
994 *var_vec_s16
++ = vec_vadduhm(var_vec_b16
[0], var_vec_s16
[1]);
995 *var_vec_s16
++ = vec_vadduhm(var_vec_s16
[0], var_vec_b16
[1]);
996 *var_vec_s16
++ = vec_vadduhm(var_vec_s16
[0], var_vec_s16
[1]);
997 *var_vec_s16
++ = vec_vand(var_vec_b16
[0], var_vec_s16
[1]);
998 *var_vec_s16
++ = vec_vand(var_vec_s16
[0], var_vec_b16
[1]);
999 *var_vec_s16
++ = vec_vand(var_vec_s16
[0], var_vec_s16
[1]);
1000 *var_vec_s16
++ = vec_vandc(var_vec_b16
[0], var_vec_s16
[1]);
1001 *var_vec_s16
++ = vec_vandc(var_vec_s16
[0], var_vec_b16
[1]);
1002 *var_vec_s16
++ = vec_vandc(var_vec_s16
[0], var_vec_s16
[1]);
1003 *var_vec_s16
++ = vec_vavgsh(var_vec_s16
[0], var_vec_s16
[1]);
1004 *var_vec_s16
++ = vec_vmaxsh(var_vec_b16
[0], var_vec_s16
[1]);
1005 *var_vec_s16
++ = vec_vmaxsh(var_vec_s16
[0], var_vec_b16
[1]);
1008 *var_vec_s16
++ = vec_vmaxsh(var_vec_s16
[0], var_vec_s16
[1]);
1009 *var_vec_s16
++ = vec_vmhaddshs(var_vec_s16
[0], var_vec_s16
[1], var_vec_s16
[2]);
1010 *var_vec_s16
++ = vec_vmhraddshs(var_vec_s16
[0], var_vec_s16
[1], var_vec_s16
[2]);
1011 *var_vec_s16
++ = vec_vminsh(var_vec_b16
[0], var_vec_s16
[1]);
1012 *var_vec_s16
++ = vec_vminsh(var_vec_s16
[0], var_vec_b16
[1]);
1013 *var_vec_s16
++ = vec_vminsh(var_vec_s16
[0], var_vec_s16
[1]);
1014 *var_vec_s16
++ = vec_vmladduhm(var_vec_s16
[0], var_vec_s16
[1], var_vec_s16
[2]);
1015 *var_vec_s16
++ = vec_vmladduhm(var_vec_s16
[0], var_vec_u16
[1], var_vec_u16
[2]);
1016 *var_vec_s16
++ = vec_vmladduhm(var_vec_u16
[0], var_vec_s16
[1], var_vec_s16
[2]);
1017 *var_vec_s16
++ = vec_vmrghh(var_vec_s16
[0], var_vec_s16
[1]);
1018 *var_vec_s16
++ = vec_vmrglh(var_vec_s16
[0], var_vec_s16
[1]);
1019 *var_vec_s16
++ = vec_vmulesb(var_vec_s8
[0], var_vec_s8
[1]);
1020 *var_vec_s16
++ = vec_vmulosb(var_vec_s8
[0], var_vec_s8
[1]);
1021 *var_vec_s16
++ = vec_vnor(var_vec_s16
[0], var_vec_s16
[1]);
1022 *var_vec_s16
++ = vec_vor(var_vec_b16
[0], var_vec_s16
[1]);
1023 *var_vec_s16
++ = vec_vor(var_vec_s16
[0], var_vec_b16
[1]);
1024 *var_vec_s16
++ = vec_vor(var_vec_s16
[0], var_vec_s16
[1]);
1025 *var_vec_s16
++ = vec_vperm(var_vec_s16
[0], var_vec_s16
[1], var_vec_u8
[2]);
1026 *var_vec_s16
++ = vec_vpkswss(var_vec_s32
[0], var_vec_s32
[1]);
1027 *var_vec_s16
++ = vec_vpkuwum(var_vec_s32
[0], var_vec_s32
[1]);
1028 *var_vec_s16
++ = vec_vrlh(var_vec_s16
[0], var_vec_u16
[1]);
1029 *var_vec_s16
++ = vec_vsel(var_vec_s16
[0], var_vec_s16
[1], var_vec_b16
[2]);
1030 *var_vec_s16
++ = vec_vsel(var_vec_s16
[0], var_vec_s16
[1], var_vec_u16
[2]);
1031 *var_vec_s16
++ = vec_vsl(var_vec_s16
[0], var_vec_u16
[1]);
1032 *var_vec_s16
++ = vec_vsl(var_vec_s16
[0], var_vec_u32
[1]);
1033 *var_vec_s16
++ = vec_vsl(var_vec_s16
[0], var_vec_u8
[1]);
1034 *var_vec_s16
++ = vec_vsldoi(var_vec_s16
[0], var_vec_s16
[1], 0);
1035 *var_vec_s16
++ = vec_vsldoi(var_vec_s16
[0], var_vec_s16
[1], 1);
1036 *var_vec_s16
++ = vec_vsldoi(var_vec_s16
[0], var_vec_s16
[1], 2);
1037 *var_vec_s16
++ = vec_vsldoi(var_vec_s16
[0], var_vec_s16
[1], 3);
1038 *var_vec_s16
++ = vec_vsldoi(var_vec_s16
[0], var_vec_s16
[1], 4);
1039 *var_vec_s16
++ = vec_vsldoi(var_vec_s16
[0], var_vec_s16
[1], 5);
1040 *var_vec_s16
++ = vec_vsldoi(var_vec_s16
[0], var_vec_s16
[1], 6);
1041 *var_vec_s16
++ = vec_vsldoi(var_vec_s16
[0], var_vec_s16
[1], 7);
1042 *var_vec_s16
++ = vec_vsldoi(var_vec_s16
[0], var_vec_s16
[1], 8);
1043 *var_vec_s16
++ = vec_vsldoi(var_vec_s16
[0], var_vec_s16
[1], 9);
1044 *var_vec_s16
++ = vec_vsldoi(var_vec_s16
[0], var_vec_s16
[1], 10);
1045 *var_vec_s16
++ = vec_vsldoi(var_vec_s16
[0], var_vec_s16
[1], 11);
1046 *var_vec_s16
++ = vec_vsldoi(var_vec_s16
[0], var_vec_s16
[1], 12);
1047 *var_vec_s16
++ = vec_vsldoi(var_vec_s16
[0], var_vec_s16
[1], 13);
1048 *var_vec_s16
++ = vec_vsldoi(var_vec_s16
[0], var_vec_s16
[1], 14);
1049 *var_vec_s16
++ = vec_vsldoi(var_vec_s16
[0], var_vec_s16
[1], 15);
1050 *var_vec_s16
++ = vec_vslh(var_vec_s16
[0], var_vec_u16
[1]);
1051 *var_vec_s16
++ = vec_vslo(var_vec_s16
[0], var_vec_s8
[1]);
1052 *var_vec_s16
++ = vec_vslo(var_vec_s16
[0], var_vec_u8
[1]);
1053 *var_vec_s16
++ = vec_vsplth(var_vec_s16
[0], 0);
1054 *var_vec_s16
++ = vec_vsplth(var_vec_s16
[0], 1);
1055 *var_vec_s16
++ = vec_vsplth(var_vec_s16
[0], 2);
1056 *var_vec_s16
++ = vec_vsplth(var_vec_s16
[0], 3);
1057 *var_vec_s16
++ = vec_vsplth(var_vec_s16
[0], 4);
1058 *var_vec_s16
++ = vec_vsplth(var_vec_s16
[0], 5);
1059 *var_vec_s16
++ = vec_vsplth(var_vec_s16
[0], 6);
1060 *var_vec_s16
++ = vec_vsplth(var_vec_s16
[0], 7);
1061 *var_vec_s16
++ = vec_vspltish( 0);
1062 *var_vec_s16
++ = vec_vspltish( 1);
1063 *var_vec_s16
++ = vec_vspltish( 2);
1064 *var_vec_s16
++ = vec_vspltish( 3);
1065 *var_vec_s16
++ = vec_vspltish( 4);
1066 *var_vec_s16
++ = vec_vspltish( 5);
1067 *var_vec_s16
++ = vec_vspltish( 6);
1068 *var_vec_s16
++ = vec_vspltish( 7);
1069 *var_vec_s16
++ = vec_vspltish( 8);
1070 *var_vec_s16
++ = vec_vspltish( 9);
1071 *var_vec_s16
++ = vec_vspltish( -1);
1072 *var_vec_s16
++ = vec_vspltish( -2);
1073 *var_vec_s16
++ = vec_vspltish( -3);
1074 *var_vec_s16
++ = vec_vspltish( -4);
1075 *var_vec_s16
++ = vec_vspltish( -5);
1076 *var_vec_s16
++ = vec_vspltish( -6);
1077 *var_vec_s16
++ = vec_vspltish( -7);
1078 *var_vec_s16
++ = vec_vspltish( -8);
1079 *var_vec_s16
++ = vec_vspltish( -9);
1080 *var_vec_s16
++ = vec_vspltish( 10);
1081 *var_vec_s16
++ = vec_vspltish( 11);
1082 *var_vec_s16
++ = vec_vspltish( 12);
1083 *var_vec_s16
++ = vec_vspltish( 13);
1086 *var_vec_s16
++ = vec_vspltish( 14);
1087 *var_vec_s16
++ = vec_vspltish( 15);
1088 *var_vec_s16
++ = vec_vspltish(-10);
1089 *var_vec_s16
++ = vec_vspltish(-11);
1090 *var_vec_s16
++ = vec_vspltish(-12);
1091 *var_vec_s16
++ = vec_vspltish(-13);
1092 *var_vec_s16
++ = vec_vspltish(-14);
1093 *var_vec_s16
++ = vec_vspltish(-15);
1094 *var_vec_s16
++ = vec_vspltish(-16);
1095 *var_vec_s16
++ = vec_vsr(var_vec_s16
[0], var_vec_u16
[1]);
1096 *var_vec_s16
++ = vec_vsr(var_vec_s16
[0], var_vec_u32
[1]);
1097 *var_vec_s16
++ = vec_vsr(var_vec_s16
[0], var_vec_u8
[1]);
1098 *var_vec_s16
++ = vec_vsrah(var_vec_s16
[0], var_vec_u16
[1]);
1099 *var_vec_s16
++ = vec_vsrh(var_vec_s16
[0], var_vec_u16
[1]);
1100 *var_vec_s16
++ = vec_vsro(var_vec_s16
[0], var_vec_s8
[1]);
1101 *var_vec_s16
++ = vec_vsro(var_vec_s16
[0], var_vec_u8
[1]);
1102 *var_vec_s16
++ = vec_vsubshs(var_vec_b16
[0], var_vec_s16
[1]);
1103 *var_vec_s16
++ = vec_vsubshs(var_vec_s16
[0], var_vec_b16
[1]);
1104 *var_vec_s16
++ = vec_vsubshs(var_vec_s16
[0], var_vec_s16
[1]);
1105 *var_vec_s16
++ = vec_vsubuhm(var_vec_b16
[0], var_vec_s16
[1]);
1106 *var_vec_s16
++ = vec_vsubuhm(var_vec_s16
[0], var_vec_b16
[1]);
1107 *var_vec_s16
++ = vec_vsubuhm(var_vec_s16
[0], var_vec_s16
[1]);
1108 *var_vec_s16
++ = vec_vupkhsb(var_vec_s8
[0]);
1109 *var_vec_s16
++ = vec_vupklsb(var_vec_s8
[0]);
1110 *var_vec_s16
++ = vec_vxor(var_vec_b16
[0], var_vec_s16
[1]);
1111 *var_vec_s16
++ = vec_vxor(var_vec_s16
[0], var_vec_b16
[1]);
1112 *var_vec_s16
++ = vec_vxor(var_vec_s16
[0], var_vec_s16
[1]);
1113 *var_vec_s16
++ = vec_xor(var_vec_b16
[0], var_vec_s16
[1]);
1114 *var_vec_s16
++ = vec_xor(var_vec_s16
[0], var_vec_b16
[1]);
1115 *var_vec_s16
++ = vec_xor(var_vec_s16
[0], var_vec_s16
[1]);
1116 *var_vec_s32
++ = vec_add(var_vec_b32
[0], var_vec_s32
[1]);
1117 *var_vec_s32
++ = vec_add(var_vec_s32
[0], var_vec_b32
[1]);
1118 *var_vec_s32
++ = vec_add(var_vec_s32
[0], var_vec_s32
[1]);
1119 *var_vec_s32
++ = vec_adds(var_vec_b32
[0], var_vec_s32
[1]);
1120 *var_vec_s32
++ = vec_adds(var_vec_s32
[0], var_vec_b32
[1]);
1121 *var_vec_s32
++ = vec_adds(var_vec_s32
[0], var_vec_s32
[1]);
1122 *var_vec_s32
++ = vec_and(var_vec_b32
[0], var_vec_s32
[1]);
1123 *var_vec_s32
++ = vec_and(var_vec_s32
[0], var_vec_b32
[1]);
1124 *var_vec_s32
++ = vec_and(var_vec_s32
[0], var_vec_s32
[1]);
1125 *var_vec_s32
++ = vec_andc(var_vec_b32
[0], var_vec_s32
[1]);
1126 *var_vec_s32
++ = vec_andc(var_vec_s32
[0], var_vec_b32
[1]);
1127 *var_vec_s32
++ = vec_andc(var_vec_s32
[0], var_vec_s32
[1]);
1128 *var_vec_s32
++ = vec_avg(var_vec_s32
[0], var_vec_s32
[1]);
1129 *var_vec_s32
++ = vec_cmpb(var_vec_f32
[0], var_vec_f32
[1]);
1130 *var_vec_s32
++ = vec_cts(var_vec_f32
[0], 0);
1131 *var_vec_s32
++ = vec_cts(var_vec_f32
[0], 1);
1132 *var_vec_s32
++ = vec_cts(var_vec_f32
[0], 2);
1133 *var_vec_s32
++ = vec_cts(var_vec_f32
[0], 3);
1134 *var_vec_s32
++ = vec_cts(var_vec_f32
[0], 4);
1135 *var_vec_s32
++ = vec_cts(var_vec_f32
[0], 5);
1136 *var_vec_s32
++ = vec_cts(var_vec_f32
[0], 6);
1137 *var_vec_s32
++ = vec_cts(var_vec_f32
[0], 7);
1138 *var_vec_s32
++ = vec_cts(var_vec_f32
[0], 8);
1139 *var_vec_s32
++ = vec_cts(var_vec_f32
[0], 9);
1140 *var_vec_s32
++ = vec_cts(var_vec_f32
[0], 10);
1141 *var_vec_s32
++ = vec_cts(var_vec_f32
[0], 11);
1142 *var_vec_s32
++ = vec_cts(var_vec_f32
[0], 12);
1143 *var_vec_s32
++ = vec_cts(var_vec_f32
[0], 13);
1144 *var_vec_s32
++ = vec_cts(var_vec_f32
[0], 14);
1145 *var_vec_s32
++ = vec_cts(var_vec_f32
[0], 15);
1146 *var_vec_s32
++ = vec_cts(var_vec_f32
[0], 16);
1147 *var_vec_s32
++ = vec_cts(var_vec_f32
[0], 17);
1148 *var_vec_s32
++ = vec_cts(var_vec_f32
[0], 18);
1149 *var_vec_s32
++ = vec_cts(var_vec_f32
[0], 19);
1150 *var_vec_s32
++ = vec_cts(var_vec_f32
[0], 20);
1151 *var_vec_s32
++ = vec_cts(var_vec_f32
[0], 21);
1152 *var_vec_s32
++ = vec_cts(var_vec_f32
[0], 22);
1153 *var_vec_s32
++ = vec_cts(var_vec_f32
[0], 23);
1154 *var_vec_s32
++ = vec_cts(var_vec_f32
[0], 24);
1155 *var_vec_s32
++ = vec_cts(var_vec_f32
[0], 25);
1156 *var_vec_s32
++ = vec_cts(var_vec_f32
[0], 26);
1157 *var_vec_s32
++ = vec_cts(var_vec_f32
[0], 27);
1158 *var_vec_s32
++ = vec_cts(var_vec_f32
[0], 28);
1159 *var_vec_s32
++ = vec_cts(var_vec_f32
[0], 29);
1160 *var_vec_s32
++ = vec_cts(var_vec_f32
[0], 30);
1161 *var_vec_s32
++ = vec_cts(var_vec_f32
[0], 31);
1162 *var_vec_s32
++ = vec_ld(var_int
[0], var_int_ptr
[1]);
1163 *var_vec_s32
++ = vec_ld(var_int
[0], var_vec_s32_ptr
[1]);
1164 *var_vec_s32
++ = vec_lde(var_int
[0], var_int_ptr
[1]);
1165 *var_vec_s32
++ = vec_ldl(var_int
[0], var_int_ptr
[1]);
1166 *var_vec_s32
++ = vec_ldl(var_int
[0], var_vec_s32_ptr
[1]);
1167 *var_vec_s32
++ = vec_lvewx(var_int
[0], var_int_ptr
[1]);
1168 *var_vec_s32
++ = vec_lvx(var_int
[0], var_int_ptr
[1]);
1169 *var_vec_s32
++ = vec_lvx(var_int
[0], var_vec_s32_ptr
[1]);
1170 *var_vec_s32
++ = vec_lvxl(var_int
[0], var_int_ptr
[1]);
1171 *var_vec_s32
++ = vec_lvxl(var_int
[0], var_vec_s32_ptr
[1]);
1172 *var_vec_s32
++ = vec_max(var_vec_b32
[0], var_vec_s32
[1]);
1173 *var_vec_s32
++ = vec_max(var_vec_s32
[0], var_vec_b32
[1]);
1174 *var_vec_s32
++ = vec_max(var_vec_s32
[0], var_vec_s32
[1]);
1175 *var_vec_s32
++ = vec_mergeh(var_vec_s32
[0], var_vec_s32
[1]);
1176 *var_vec_s32
++ = vec_mergel(var_vec_s32
[0], var_vec_s32
[1]);
1177 *var_vec_s32
++ = vec_min(var_vec_b32
[0], var_vec_s32
[1]);
1178 *var_vec_s32
++ = vec_min(var_vec_s32
[0], var_vec_b32
[1]);
1179 *var_vec_s32
++ = vec_min(var_vec_s32
[0], var_vec_s32
[1]);
1182 *var_vec_s32
++ = vec_msum(var_vec_s16
[0], var_vec_s16
[1], var_vec_s32
[2]);
1183 *var_vec_s32
++ = vec_msum(var_vec_s8
[0], var_vec_u8
[1], var_vec_s32
[2]);
1184 *var_vec_s32
++ = vec_msums(var_vec_s16
[0], var_vec_s16
[1], var_vec_s32
[2]);
1185 *var_vec_s32
++ = vec_mule(var_vec_s16
[0], var_vec_s16
[1]);
1186 *var_vec_s32
++ = vec_mulo(var_vec_s16
[0], var_vec_s16
[1]);
1187 *var_vec_s32
++ = vec_nor(var_vec_s32
[0], var_vec_s32
[1]);
1188 *var_vec_s32
++ = vec_or(var_vec_b32
[0], var_vec_s32
[1]);
1189 *var_vec_s32
++ = vec_or(var_vec_s32
[0], var_vec_b32
[1]);
1190 *var_vec_s32
++ = vec_or(var_vec_s32
[0], var_vec_s32
[1]);
1191 *var_vec_s32
++ = vec_perm(var_vec_s32
[0], var_vec_s32
[1], var_vec_u8
[2]);
1192 *var_vec_s32
++ = vec_rl(var_vec_s32
[0], var_vec_u32
[1]);
1193 *var_vec_s32
++ = vec_sel(var_vec_s32
[0], var_vec_s32
[1], var_vec_b32
[2]);
1194 *var_vec_s32
++ = vec_sel(var_vec_s32
[0], var_vec_s32
[1], var_vec_u32
[2]);
1195 *var_vec_s32
++ = vec_sl(var_vec_s32
[0], var_vec_u32
[1]);
1196 *var_vec_s32
++ = vec_sld(var_vec_s32
[0], var_vec_s32
[1], 0);
1197 *var_vec_s32
++ = vec_sld(var_vec_s32
[0], var_vec_s32
[1], 1);
1198 *var_vec_s32
++ = vec_sld(var_vec_s32
[0], var_vec_s32
[1], 2);
1199 *var_vec_s32
++ = vec_sld(var_vec_s32
[0], var_vec_s32
[1], 3);
1200 *var_vec_s32
++ = vec_sld(var_vec_s32
[0], var_vec_s32
[1], 4);
1201 *var_vec_s32
++ = vec_sld(var_vec_s32
[0], var_vec_s32
[1], 5);
1202 *var_vec_s32
++ = vec_sld(var_vec_s32
[0], var_vec_s32
[1], 6);
1203 *var_vec_s32
++ = vec_sld(var_vec_s32
[0], var_vec_s32
[1], 7);
1204 *var_vec_s32
++ = vec_sld(var_vec_s32
[0], var_vec_s32
[1], 8);
1205 *var_vec_s32
++ = vec_sld(var_vec_s32
[0], var_vec_s32
[1], 9);
1206 *var_vec_s32
++ = vec_sld(var_vec_s32
[0], var_vec_s32
[1], 10);
1207 *var_vec_s32
++ = vec_sld(var_vec_s32
[0], var_vec_s32
[1], 11);
1208 *var_vec_s32
++ = vec_sld(var_vec_s32
[0], var_vec_s32
[1], 12);
1209 *var_vec_s32
++ = vec_sld(var_vec_s32
[0], var_vec_s32
[1], 13);
1210 *var_vec_s32
++ = vec_sld(var_vec_s32
[0], var_vec_s32
[1], 14);
1211 *var_vec_s32
++ = vec_sld(var_vec_s32
[0], var_vec_s32
[1], 15);
1212 *var_vec_s32
++ = vec_sll(var_vec_s32
[0], var_vec_u16
[1]);
1213 *var_vec_s32
++ = vec_sll(var_vec_s32
[0], var_vec_u32
[1]);
1214 *var_vec_s32
++ = vec_sll(var_vec_s32
[0], var_vec_u8
[1]);
1215 *var_vec_s32
++ = vec_slo(var_vec_s32
[0], var_vec_s8
[1]);
1216 *var_vec_s32
++ = vec_slo(var_vec_s32
[0], var_vec_u8
[1]);
1217 *var_vec_s32
++ = vec_splat(var_vec_s32
[0], 0);
1218 *var_vec_s32
++ = vec_splat(var_vec_s32
[0], 1);
1219 *var_vec_s32
++ = vec_splat(var_vec_s32
[0], 2);
1220 *var_vec_s32
++ = vec_splat(var_vec_s32
[0], 3);
1221 *var_vec_s32
++ = vec_splat_s32( 0);
1222 *var_vec_s32
++ = vec_splat_s32( 1);
1223 *var_vec_s32
++ = vec_splat_s32( 2);
1224 *var_vec_s32
++ = vec_splat_s32( 3);
1225 *var_vec_s32
++ = vec_splat_s32( 4);
1226 *var_vec_s32
++ = vec_splat_s32( 5);
1227 *var_vec_s32
++ = vec_splat_s32( 6);
1228 *var_vec_s32
++ = vec_splat_s32( 7);
1229 *var_vec_s32
++ = vec_splat_s32( 8);
1230 *var_vec_s32
++ = vec_splat_s32( 9);
1231 *var_vec_s32
++ = vec_splat_s32( -1);
1232 *var_vec_s32
++ = vec_splat_s32( -2);
1233 *var_vec_s32
++ = vec_splat_s32( -3);
1234 *var_vec_s32
++ = vec_splat_s32( -4);
1235 *var_vec_s32
++ = vec_splat_s32( -5);
1236 *var_vec_s32
++ = vec_splat_s32( -6);
1237 *var_vec_s32
++ = vec_splat_s32( -7);
1238 *var_vec_s32
++ = vec_splat_s32( -8);
1239 *var_vec_s32
++ = vec_splat_s32( -9);
1240 *var_vec_s32
++ = vec_splat_s32( 10);
1241 *var_vec_s32
++ = vec_splat_s32( 11);
1242 *var_vec_s32
++ = vec_splat_s32( 12);
1243 *var_vec_s32
++ = vec_splat_s32( 13);
1244 *var_vec_s32
++ = vec_splat_s32( 14);
1245 *var_vec_s32
++ = vec_splat_s32( 15);
1246 *var_vec_s32
++ = vec_splat_s32(-10);
1247 *var_vec_s32
++ = vec_splat_s32(-11);
1248 *var_vec_s32
++ = vec_splat_s32(-12);
1249 *var_vec_s32
++ = vec_splat_s32(-13);
1250 *var_vec_s32
++ = vec_splat_s32(-14);
1251 *var_vec_s32
++ = vec_splat_s32(-15);
1252 *var_vec_s32
++ = vec_splat_s32(-16);
1253 *var_vec_s32
++ = vec_sr(var_vec_s32
[0], var_vec_u32
[1]);
1256 *var_vec_s32
++ = vec_sra(var_vec_s32
[0], var_vec_u32
[1]);
1257 *var_vec_s32
++ = vec_srl(var_vec_s32
[0], var_vec_u16
[1]);
1258 *var_vec_s32
++ = vec_srl(var_vec_s32
[0], var_vec_u32
[1]);
1259 *var_vec_s32
++ = vec_srl(var_vec_s32
[0], var_vec_u8
[1]);
1260 *var_vec_s32
++ = vec_sro(var_vec_s32
[0], var_vec_s8
[1]);
1261 *var_vec_s32
++ = vec_sro(var_vec_s32
[0], var_vec_u8
[1]);
1262 *var_vec_s32
++ = vec_sub(var_vec_b32
[0], var_vec_s32
[1]);
1263 *var_vec_s32
++ = vec_sub(var_vec_s32
[0], var_vec_b32
[1]);
1264 *var_vec_s32
++ = vec_sub(var_vec_s32
[0], var_vec_s32
[1]);
1265 *var_vec_s32
++ = vec_subs(var_vec_b32
[0], var_vec_s32
[1]);
1266 *var_vec_s32
++ = vec_subs(var_vec_s32
[0], var_vec_b32
[1]);
1267 *var_vec_s32
++ = vec_subs(var_vec_s32
[0], var_vec_s32
[1]);
1268 *var_vec_s32
++ = vec_sum2s(var_vec_s32
[0], var_vec_s32
[1]);
1269 *var_vec_s32
++ = vec_sum4s(var_vec_s16
[0], var_vec_s32
[1]);
1270 *var_vec_s32
++ = vec_sum4s(var_vec_s8
[0], var_vec_s32
[1]);
1271 *var_vec_s32
++ = vec_sums(var_vec_s32
[0], var_vec_s32
[1]);
1272 *var_vec_s32
++ = vec_unpackh(var_vec_s16
[0]);
1273 *var_vec_s32
++ = vec_unpackl(var_vec_s16
[0]);
1274 *var_vec_s32
++ = vec_vaddsws(var_vec_b32
[0], var_vec_s32
[1]);
1275 *var_vec_s32
++ = vec_vaddsws(var_vec_s32
[0], var_vec_b32
[1]);
1276 *var_vec_s32
++ = vec_vaddsws(var_vec_s32
[0], var_vec_s32
[1]);
1277 *var_vec_s32
++ = vec_vadduwm(var_vec_b32
[0], var_vec_s32
[1]);
1278 *var_vec_s32
++ = vec_vadduwm(var_vec_s32
[0], var_vec_b32
[1]);
1279 *var_vec_s32
++ = vec_vadduwm(var_vec_s32
[0], var_vec_s32
[1]);
1280 *var_vec_s32
++ = vec_vand(var_vec_b32
[0], var_vec_s32
[1]);
1281 *var_vec_s32
++ = vec_vand(var_vec_s32
[0], var_vec_b32
[1]);
1282 *var_vec_s32
++ = vec_vand(var_vec_s32
[0], var_vec_s32
[1]);
1283 *var_vec_s32
++ = vec_vandc(var_vec_b32
[0], var_vec_s32
[1]);
1284 *var_vec_s32
++ = vec_vandc(var_vec_s32
[0], var_vec_b32
[1]);
1285 *var_vec_s32
++ = vec_vandc(var_vec_s32
[0], var_vec_s32
[1]);
1286 *var_vec_s32
++ = vec_vavgsw(var_vec_s32
[0], var_vec_s32
[1]);
1287 *var_vec_s32
++ = vec_vcmpbfp(var_vec_f32
[0], var_vec_f32
[1]);
1288 *var_vec_s32
++ = vec_vctsxs(var_vec_f32
[0], 0);
1289 *var_vec_s32
++ = vec_vctsxs(var_vec_f32
[0], 1);
1290 *var_vec_s32
++ = vec_vctsxs(var_vec_f32
[0], 2);
1291 *var_vec_s32
++ = vec_vctsxs(var_vec_f32
[0], 3);
1292 *var_vec_s32
++ = vec_vctsxs(var_vec_f32
[0], 4);
1293 *var_vec_s32
++ = vec_vctsxs(var_vec_f32
[0], 5);
1294 *var_vec_s32
++ = vec_vctsxs(var_vec_f32
[0], 6);
1295 *var_vec_s32
++ = vec_vctsxs(var_vec_f32
[0], 7);
1296 *var_vec_s32
++ = vec_vctsxs(var_vec_f32
[0], 8);
1297 *var_vec_s32
++ = vec_vctsxs(var_vec_f32
[0], 9);
1298 *var_vec_s32
++ = vec_vctsxs(var_vec_f32
[0], 10);
1299 *var_vec_s32
++ = vec_vctsxs(var_vec_f32
[0], 11);
1300 *var_vec_s32
++ = vec_vctsxs(var_vec_f32
[0], 12);
1301 *var_vec_s32
++ = vec_vctsxs(var_vec_f32
[0], 13);
1302 *var_vec_s32
++ = vec_vctsxs(var_vec_f32
[0], 14);
1303 *var_vec_s32
++ = vec_vctsxs(var_vec_f32
[0], 15);
1304 *var_vec_s32
++ = vec_vctsxs(var_vec_f32
[0], 16);
1305 *var_vec_s32
++ = vec_vctsxs(var_vec_f32
[0], 17);
1306 *var_vec_s32
++ = vec_vctsxs(var_vec_f32
[0], 18);
1307 *var_vec_s32
++ = vec_vctsxs(var_vec_f32
[0], 19);
1308 *var_vec_s32
++ = vec_vctsxs(var_vec_f32
[0], 20);
1309 *var_vec_s32
++ = vec_vctsxs(var_vec_f32
[0], 21);
1310 *var_vec_s32
++ = vec_vctsxs(var_vec_f32
[0], 22);
1311 *var_vec_s32
++ = vec_vctsxs(var_vec_f32
[0], 23);
1312 *var_vec_s32
++ = vec_vctsxs(var_vec_f32
[0], 24);
1313 *var_vec_s32
++ = vec_vctsxs(var_vec_f32
[0], 25);
1314 *var_vec_s32
++ = vec_vctsxs(var_vec_f32
[0], 26);
1315 *var_vec_s32
++ = vec_vctsxs(var_vec_f32
[0], 27);
1316 *var_vec_s32
++ = vec_vctsxs(var_vec_f32
[0], 28);
1317 *var_vec_s32
++ = vec_vctsxs(var_vec_f32
[0], 29);
1318 *var_vec_s32
++ = vec_vctsxs(var_vec_f32
[0], 30);
1319 *var_vec_s32
++ = vec_vctsxs(var_vec_f32
[0], 31);
1320 *var_vec_s32
++ = vec_vmaxsw(var_vec_b32
[0], var_vec_s32
[1]);
1321 *var_vec_s32
++ = vec_vmaxsw(var_vec_s32
[0], var_vec_b32
[1]);
1322 *var_vec_s32
++ = vec_vmaxsw(var_vec_s32
[0], var_vec_s32
[1]);
1323 *var_vec_s32
++ = vec_vminsw(var_vec_b32
[0], var_vec_s32
[1]);
1324 *var_vec_s32
++ = vec_vminsw(var_vec_s32
[0], var_vec_b32
[1]);
1325 *var_vec_s32
++ = vec_vminsw(var_vec_s32
[0], var_vec_s32
[1]);
1326 *var_vec_s32
++ = vec_vmrghw(var_vec_s32
[0], var_vec_s32
[1]);
1327 *var_vec_s32
++ = vec_vmrglw(var_vec_s32
[0], var_vec_s32
[1]);
1328 *var_vec_s32
++ = vec_vmsummbm(var_vec_s8
[0], var_vec_u8
[1], var_vec_s32
[2]);
1329 *var_vec_s32
++ = vec_vmsumshm(var_vec_s16
[0], var_vec_s16
[1], var_vec_s32
[2]);
1330 *var_vec_s32
++ = vec_vmsumshs(var_vec_s16
[0], var_vec_s16
[1], var_vec_s32
[2]);
1331 *var_vec_s32
++ = vec_vmulesh(var_vec_s16
[0], var_vec_s16
[1]);
1332 *var_vec_s32
++ = vec_vmulosh(var_vec_s16
[0], var_vec_s16
[1]);
1333 *var_vec_s32
++ = vec_vnor(var_vec_s32
[0], var_vec_s32
[1]);
1334 *var_vec_s32
++ = vec_vor(var_vec_b32
[0], var_vec_s32
[1]);
1335 *var_vec_s32
++ = vec_vor(var_vec_s32
[0], var_vec_b32
[1]);
1336 *var_vec_s32
++ = vec_vor(var_vec_s32
[0], var_vec_s32
[1]);
1337 *var_vec_s32
++ = vec_vperm(var_vec_s32
[0], var_vec_s32
[1], var_vec_u8
[2]);
1338 *var_vec_s32
++ = vec_vrlw(var_vec_s32
[0], var_vec_u32
[1]);
1339 *var_vec_s32
++ = vec_vsel(var_vec_s32
[0], var_vec_s32
[1], var_vec_b32
[2]);
1340 *var_vec_s32
++ = vec_vsel(var_vec_s32
[0], var_vec_s32
[1], var_vec_u32
[2]);
1341 *var_vec_s32
++ = vec_vsl(var_vec_s32
[0], var_vec_u16
[1]);
1342 *var_vec_s32
++ = vec_vsl(var_vec_s32
[0], var_vec_u32
[1]);
1343 *var_vec_s32
++ = vec_vsl(var_vec_s32
[0], var_vec_u8
[1]);
1344 *var_vec_s32
++ = vec_vsldoi(var_vec_s32
[0], var_vec_s32
[1], 0);
1345 *var_vec_s32
++ = vec_vsldoi(var_vec_s32
[0], var_vec_s32
[1], 1);
1346 *var_vec_s32
++ = vec_vsldoi(var_vec_s32
[0], var_vec_s32
[1], 2);
1347 *var_vec_s32
++ = vec_vsldoi(var_vec_s32
[0], var_vec_s32
[1], 3);
1348 *var_vec_s32
++ = vec_vsldoi(var_vec_s32
[0], var_vec_s32
[1], 4);
1349 *var_vec_s32
++ = vec_vsldoi(var_vec_s32
[0], var_vec_s32
[1], 5);
1350 *var_vec_s32
++ = vec_vsldoi(var_vec_s32
[0], var_vec_s32
[1], 6);
1351 *var_vec_s32
++ = vec_vsldoi(var_vec_s32
[0], var_vec_s32
[1], 7);
1352 *var_vec_s32
++ = vec_vsldoi(var_vec_s32
[0], var_vec_s32
[1], 8);
1353 *var_vec_s32
++ = vec_vsldoi(var_vec_s32
[0], var_vec_s32
[1], 9);
1356 *var_vec_s32
++ = vec_vsldoi(var_vec_s32
[0], var_vec_s32
[1], 10);
1357 *var_vec_s32
++ = vec_vsldoi(var_vec_s32
[0], var_vec_s32
[1], 11);
1358 *var_vec_s32
++ = vec_vsldoi(var_vec_s32
[0], var_vec_s32
[1], 12);
1359 *var_vec_s32
++ = vec_vsldoi(var_vec_s32
[0], var_vec_s32
[1], 13);
1360 *var_vec_s32
++ = vec_vsldoi(var_vec_s32
[0], var_vec_s32
[1], 14);
1361 *var_vec_s32
++ = vec_vsldoi(var_vec_s32
[0], var_vec_s32
[1], 15);
1362 *var_vec_s32
++ = vec_vslo(var_vec_s32
[0], var_vec_s8
[1]);
1363 *var_vec_s32
++ = vec_vslo(var_vec_s32
[0], var_vec_u8
[1]);
1364 *var_vec_s32
++ = vec_vslw(var_vec_s32
[0], var_vec_u32
[1]);
1365 *var_vec_s32
++ = vec_vspltisw( 0);
1366 *var_vec_s32
++ = vec_vspltisw( 1);
1367 *var_vec_s32
++ = vec_vspltisw( 2);
1368 *var_vec_s32
++ = vec_vspltisw( 3);
1369 *var_vec_s32
++ = vec_vspltisw( 4);
1370 *var_vec_s32
++ = vec_vspltisw( 5);
1371 *var_vec_s32
++ = vec_vspltisw( 6);
1372 *var_vec_s32
++ = vec_vspltisw( 7);
1373 *var_vec_s32
++ = vec_vspltisw( 8);
1374 *var_vec_s32
++ = vec_vspltisw( 9);
1375 *var_vec_s32
++ = vec_vspltisw( -1);
1376 *var_vec_s32
++ = vec_vspltisw( -2);
1377 *var_vec_s32
++ = vec_vspltisw( -3);
1378 *var_vec_s32
++ = vec_vspltisw( -4);
1379 *var_vec_s32
++ = vec_vspltisw( -5);
1380 *var_vec_s32
++ = vec_vspltisw( -6);
1381 *var_vec_s32
++ = vec_vspltisw( -7);
1382 *var_vec_s32
++ = vec_vspltisw( -8);
1383 *var_vec_s32
++ = vec_vspltisw( -9);
1384 *var_vec_s32
++ = vec_vspltisw( 10);
1385 *var_vec_s32
++ = vec_vspltisw( 11);
1386 *var_vec_s32
++ = vec_vspltisw( 12);
1387 *var_vec_s32
++ = vec_vspltisw( 13);
1388 *var_vec_s32
++ = vec_vspltisw( 14);
1389 *var_vec_s32
++ = vec_vspltisw( 15);
1390 *var_vec_s32
++ = vec_vspltisw(-10);
1391 *var_vec_s32
++ = vec_vspltisw(-11);
1392 *var_vec_s32
++ = vec_vspltisw(-12);
1393 *var_vec_s32
++ = vec_vspltisw(-13);
1394 *var_vec_s32
++ = vec_vspltisw(-14);
1395 *var_vec_s32
++ = vec_vspltisw(-15);
1396 *var_vec_s32
++ = vec_vspltisw(-16);
1397 *var_vec_s32
++ = vec_vspltw(var_vec_s32
[0], 0);
1398 *var_vec_s32
++ = vec_vspltw(var_vec_s32
[0], 1);
1399 *var_vec_s32
++ = vec_vspltw(var_vec_s32
[0], 2);
1400 *var_vec_s32
++ = vec_vspltw(var_vec_s32
[0], 3);
1401 *var_vec_s32
++ = vec_vsr(var_vec_s32
[0], var_vec_u16
[1]);
1402 *var_vec_s32
++ = vec_vsr(var_vec_s32
[0], var_vec_u32
[1]);
1403 *var_vec_s32
++ = vec_vsr(var_vec_s32
[0], var_vec_u8
[1]);
1404 *var_vec_s32
++ = vec_vsraw(var_vec_s32
[0], var_vec_u32
[1]);
1405 *var_vec_s32
++ = vec_vsro(var_vec_s32
[0], var_vec_s8
[1]);
1406 *var_vec_s32
++ = vec_vsro(var_vec_s32
[0], var_vec_u8
[1]);
1407 *var_vec_s32
++ = vec_vsrw(var_vec_s32
[0], var_vec_u32
[1]);
1408 *var_vec_s32
++ = vec_vsubsws(var_vec_b32
[0], var_vec_s32
[1]);
1409 *var_vec_s32
++ = vec_vsubsws(var_vec_s32
[0], var_vec_b32
[1]);
1410 *var_vec_s32
++ = vec_vsubsws(var_vec_s32
[0], var_vec_s32
[1]);
1411 *var_vec_s32
++ = vec_vsubuwm(var_vec_b32
[0], var_vec_s32
[1]);
1412 *var_vec_s32
++ = vec_vsubuwm(var_vec_s32
[0], var_vec_b32
[1]);
1413 *var_vec_s32
++ = vec_vsubuwm(var_vec_s32
[0], var_vec_s32
[1]);
1414 *var_vec_s32
++ = vec_vsum2sws(var_vec_s32
[0], var_vec_s32
[1]);
1415 *var_vec_s32
++ = vec_vsum4sbs(var_vec_s8
[0], var_vec_s32
[1]);
1416 *var_vec_s32
++ = vec_vsum4shs(var_vec_s16
[0], var_vec_s32
[1]);
1417 *var_vec_s32
++ = vec_vsumsws(var_vec_s32
[0], var_vec_s32
[1]);
1418 *var_vec_s32
++ = vec_vupkhsh(var_vec_s16
[0]);
1419 *var_vec_s32
++ = vec_vupklsh(var_vec_s16
[0]);
1420 *var_vec_s32
++ = vec_vxor(var_vec_b32
[0], var_vec_s32
[1]);
1421 *var_vec_s32
++ = vec_vxor(var_vec_s32
[0], var_vec_b32
[1]);
1422 *var_vec_s32
++ = vec_vxor(var_vec_s32
[0], var_vec_s32
[1]);
1423 *var_vec_s32
++ = vec_xor(var_vec_b32
[0], var_vec_s32
[1]);
1424 *var_vec_s32
++ = vec_xor(var_vec_s32
[0], var_vec_b32
[1]);
1425 *var_vec_s32
++ = vec_xor(var_vec_s32
[0], var_vec_s32
[1]);
1426 *var_vec_s8
++ = vec_add(var_vec_b8
[0], var_vec_s8
[1]);
1427 *var_vec_s8
++ = vec_add(var_vec_s8
[0], var_vec_b8
[1]);
1430 *var_vec_s8
++ = vec_add(var_vec_s8
[0], var_vec_s8
[1]);
1431 *var_vec_s8
++ = vec_adds(var_vec_b8
[0], var_vec_s8
[1]);
1432 *var_vec_s8
++ = vec_adds(var_vec_s8
[0], var_vec_b8
[1]);
1433 *var_vec_s8
++ = vec_adds(var_vec_s8
[0], var_vec_s8
[1]);
1434 *var_vec_s8
++ = vec_and(var_vec_b8
[0], var_vec_s8
[1]);
1435 *var_vec_s8
++ = vec_and(var_vec_s8
[0], var_vec_b8
[1]);
1436 *var_vec_s8
++ = vec_and(var_vec_s8
[0], var_vec_s8
[1]);
1437 *var_vec_s8
++ = vec_andc(var_vec_b8
[0], var_vec_s8
[1]);
1438 *var_vec_s8
++ = vec_andc(var_vec_s8
[0], var_vec_b8
[1]);
1439 *var_vec_s8
++ = vec_andc(var_vec_s8
[0], var_vec_s8
[1]);
1440 *var_vec_s8
++ = vec_avg(var_vec_s8
[0], var_vec_s8
[1]);
1441 *var_vec_s8
++ = vec_ld(var_int
[0], var_signed_char_ptr
[1]);
1442 *var_vec_s8
++ = vec_ld(var_int
[0], var_vec_s8_ptr
[1]);
1443 *var_vec_s8
++ = vec_lde(var_int
[0], var_signed_char_ptr
[1]);
1444 *var_vec_s8
++ = vec_ldl(var_int
[0], var_signed_char_ptr
[1]);
1445 *var_vec_s8
++ = vec_ldl(var_int
[0], var_vec_s8_ptr
[1]);
1446 *var_vec_s8
++ = vec_lvebx(var_int
[0], var_signed_char_ptr
[1]);
1447 *var_vec_s8
++ = vec_lvx(var_int
[0], var_signed_char_ptr
[1]);
1448 *var_vec_s8
++ = vec_lvx(var_int
[0], var_vec_s8_ptr
[1]);
1449 *var_vec_s8
++ = vec_lvxl(var_int
[0], var_signed_char_ptr
[1]);
1450 *var_vec_s8
++ = vec_lvxl(var_int
[0], var_vec_s8_ptr
[1]);
1451 *var_vec_s8
++ = vec_max(var_vec_b8
[0], var_vec_s8
[1]);
1452 *var_vec_s8
++ = vec_max(var_vec_s8
[0], var_vec_b8
[1]);
1453 *var_vec_s8
++ = vec_max(var_vec_s8
[0], var_vec_s8
[1]);
1454 *var_vec_s8
++ = vec_mergeh(var_vec_s8
[0], var_vec_s8
[1]);
1455 *var_vec_s8
++ = vec_mergel(var_vec_s8
[0], var_vec_s8
[1]);
1456 *var_vec_s8
++ = vec_min(var_vec_b8
[0], var_vec_s8
[1]);
1457 *var_vec_s8
++ = vec_min(var_vec_s8
[0], var_vec_b8
[1]);
1458 *var_vec_s8
++ = vec_min(var_vec_s8
[0], var_vec_s8
[1]);
1459 *var_vec_s8
++ = vec_nor(var_vec_s8
[0], var_vec_s8
[1]);
1460 *var_vec_s8
++ = vec_or(var_vec_b8
[0], var_vec_s8
[1]);
1461 *var_vec_s8
++ = vec_or(var_vec_s8
[0], var_vec_b8
[1]);
1462 *var_vec_s8
++ = vec_or(var_vec_s8
[0], var_vec_s8
[1]);
1463 *var_vec_s8
++ = vec_pack(var_vec_s16
[0], var_vec_s16
[1]);
1464 *var_vec_s8
++ = vec_packs(var_vec_s16
[0], var_vec_s16
[1]);
1465 *var_vec_s8
++ = vec_perm(var_vec_s8
[0], var_vec_s8
[1], var_vec_u8
[2]);
1466 *var_vec_s8
++ = vec_rl(var_vec_s8
[0], var_vec_u8
[1]);
1467 *var_vec_s8
++ = vec_sel(var_vec_s8
[0], var_vec_s8
[1], var_vec_b8
[2]);
1468 *var_vec_s8
++ = vec_sel(var_vec_s8
[0], var_vec_s8
[1], var_vec_u8
[2]);
1469 *var_vec_s8
++ = vec_sl(var_vec_s8
[0], var_vec_u8
[1]);
1470 *var_vec_s8
++ = vec_sld(var_vec_s8
[0], var_vec_s8
[1], 0);
1471 *var_vec_s8
++ = vec_sld(var_vec_s8
[0], var_vec_s8
[1], 1);
1472 *var_vec_s8
++ = vec_sld(var_vec_s8
[0], var_vec_s8
[1], 2);
1473 *var_vec_s8
++ = vec_sld(var_vec_s8
[0], var_vec_s8
[1], 3);
1474 *var_vec_s8
++ = vec_sld(var_vec_s8
[0], var_vec_s8
[1], 4);
1475 *var_vec_s8
++ = vec_sld(var_vec_s8
[0], var_vec_s8
[1], 5);
1476 *var_vec_s8
++ = vec_sld(var_vec_s8
[0], var_vec_s8
[1], 6);
1477 *var_vec_s8
++ = vec_sld(var_vec_s8
[0], var_vec_s8
[1], 7);
1478 *var_vec_s8
++ = vec_sld(var_vec_s8
[0], var_vec_s8
[1], 8);
1479 *var_vec_s8
++ = vec_sld(var_vec_s8
[0], var_vec_s8
[1], 9);
1480 *var_vec_s8
++ = vec_sld(var_vec_s8
[0], var_vec_s8
[1], 10);
1481 *var_vec_s8
++ = vec_sld(var_vec_s8
[0], var_vec_s8
[1], 11);
1482 *var_vec_s8
++ = vec_sld(var_vec_s8
[0], var_vec_s8
[1], 12);
1483 *var_vec_s8
++ = vec_sld(var_vec_s8
[0], var_vec_s8
[1], 13);
1484 *var_vec_s8
++ = vec_sld(var_vec_s8
[0], var_vec_s8
[1], 14);
1485 *var_vec_s8
++ = vec_sld(var_vec_s8
[0], var_vec_s8
[1], 15);
1486 *var_vec_s8
++ = vec_sll(var_vec_s8
[0], var_vec_u16
[1]);
1487 *var_vec_s8
++ = vec_sll(var_vec_s8
[0], var_vec_u32
[1]);
1488 *var_vec_s8
++ = vec_sll(var_vec_s8
[0], var_vec_u8
[1]);
1489 *var_vec_s8
++ = vec_slo(var_vec_s8
[0], var_vec_s8
[1]);
1490 *var_vec_s8
++ = vec_slo(var_vec_s8
[0], var_vec_u8
[1]);
1491 *var_vec_s8
++ = vec_splat(var_vec_s8
[0], 0);
1492 *var_vec_s8
++ = vec_splat(var_vec_s8
[0], 1);
1493 *var_vec_s8
++ = vec_splat(var_vec_s8
[0], 2);
1494 *var_vec_s8
++ = vec_splat(var_vec_s8
[0], 3);
1495 *var_vec_s8
++ = vec_splat(var_vec_s8
[0], 4);
1496 *var_vec_s8
++ = vec_splat(var_vec_s8
[0], 5);
1497 *var_vec_s8
++ = vec_splat(var_vec_s8
[0], 6);
1498 *var_vec_s8
++ = vec_splat(var_vec_s8
[0], 7);
1499 *var_vec_s8
++ = vec_splat(var_vec_s8
[0], 8);
1500 *var_vec_s8
++ = vec_splat(var_vec_s8
[0], 9);
1501 *var_vec_s8
++ = vec_splat(var_vec_s8
[0], 10);
1502 *var_vec_s8
++ = vec_splat(var_vec_s8
[0], 11);
1503 *var_vec_s8
++ = vec_splat(var_vec_s8
[0], 12);
1504 *var_vec_s8
++ = vec_splat(var_vec_s8
[0], 13);
1505 *var_vec_s8
++ = vec_splat(var_vec_s8
[0], 14);
1506 *var_vec_s8
++ = vec_splat(var_vec_s8
[0], 15);
1507 *var_vec_s8
++ = vec_splat_s8( 0);
1508 *var_vec_s8
++ = vec_splat_s8( 1);
1509 *var_vec_s8
++ = vec_splat_s8( 2);
1510 *var_vec_s8
++ = vec_splat_s8( 3);
1511 *var_vec_s8
++ = vec_splat_s8( 4);
1512 *var_vec_s8
++ = vec_splat_s8( 5);
1513 *var_vec_s8
++ = vec_splat_s8( 6);
1516 *var_vec_s8
++ = vec_splat_s8( 7);
1517 *var_vec_s8
++ = vec_splat_s8( 8);
1518 *var_vec_s8
++ = vec_splat_s8( 9);
1519 *var_vec_s8
++ = vec_splat_s8( -1);
1520 *var_vec_s8
++ = vec_splat_s8( -2);
1521 *var_vec_s8
++ = vec_splat_s8( -3);
1522 *var_vec_s8
++ = vec_splat_s8( -4);
1523 *var_vec_s8
++ = vec_splat_s8( -5);
1524 *var_vec_s8
++ = vec_splat_s8( -6);
1525 *var_vec_s8
++ = vec_splat_s8( -7);
1526 *var_vec_s8
++ = vec_splat_s8( -8);
1527 *var_vec_s8
++ = vec_splat_s8( -9);
1528 *var_vec_s8
++ = vec_splat_s8( 10);
1529 *var_vec_s8
++ = vec_splat_s8( 11);
1530 *var_vec_s8
++ = vec_splat_s8( 12);
1531 *var_vec_s8
++ = vec_splat_s8( 13);
1532 *var_vec_s8
++ = vec_splat_s8( 14);
1533 *var_vec_s8
++ = vec_splat_s8( 15);
1534 *var_vec_s8
++ = vec_splat_s8(-10);
1535 *var_vec_s8
++ = vec_splat_s8(-11);
1536 *var_vec_s8
++ = vec_splat_s8(-12);
1537 *var_vec_s8
++ = vec_splat_s8(-13);
1538 *var_vec_s8
++ = vec_splat_s8(-14);
1539 *var_vec_s8
++ = vec_splat_s8(-15);
1540 *var_vec_s8
++ = vec_splat_s8(-16);
1541 *var_vec_s8
++ = vec_sr(var_vec_s8
[0], var_vec_u8
[1]);
1542 *var_vec_s8
++ = vec_sra(var_vec_s8
[0], var_vec_u8
[1]);
1543 *var_vec_s8
++ = vec_srl(var_vec_s8
[0], var_vec_u16
[1]);
1544 *var_vec_s8
++ = vec_srl(var_vec_s8
[0], var_vec_u32
[1]);
1545 *var_vec_s8
++ = vec_srl(var_vec_s8
[0], var_vec_u8
[1]);
1546 *var_vec_s8
++ = vec_sro(var_vec_s8
[0], var_vec_s8
[1]);
1547 *var_vec_s8
++ = vec_sro(var_vec_s8
[0], var_vec_u8
[1]);
1548 *var_vec_s8
++ = vec_sub(var_vec_b8
[0], var_vec_s8
[1]);
1549 *var_vec_s8
++ = vec_sub(var_vec_s8
[0], var_vec_b8
[1]);
1550 *var_vec_s8
++ = vec_sub(var_vec_s8
[0], var_vec_s8
[1]);
1551 *var_vec_s8
++ = vec_subs(var_vec_b8
[0], var_vec_s8
[1]);
1552 *var_vec_s8
++ = vec_subs(var_vec_s8
[0], var_vec_b8
[1]);
1553 *var_vec_s8
++ = vec_subs(var_vec_s8
[0], var_vec_s8
[1]);
1554 *var_vec_s8
++ = vec_vaddsbs(var_vec_b8
[0], var_vec_s8
[1]);
1555 *var_vec_s8
++ = vec_vaddsbs(var_vec_s8
[0], var_vec_b8
[1]);
1556 *var_vec_s8
++ = vec_vaddsbs(var_vec_s8
[0], var_vec_s8
[1]);
1557 *var_vec_s8
++ = vec_vaddubm(var_vec_b8
[0], var_vec_s8
[1]);
1558 *var_vec_s8
++ = vec_vaddubm(var_vec_s8
[0], var_vec_b8
[1]);
1559 *var_vec_s8
++ = vec_vaddubm(var_vec_s8
[0], var_vec_s8
[1]);
1560 *var_vec_s8
++ = vec_vand(var_vec_b8
[0], var_vec_s8
[1]);
1561 *var_vec_s8
++ = vec_vand(var_vec_s8
[0], var_vec_b8
[1]);
1562 *var_vec_s8
++ = vec_vand(var_vec_s8
[0], var_vec_s8
[1]);
1563 *var_vec_s8
++ = vec_vandc(var_vec_b8
[0], var_vec_s8
[1]);
1564 *var_vec_s8
++ = vec_vandc(var_vec_s8
[0], var_vec_b8
[1]);
1565 *var_vec_s8
++ = vec_vandc(var_vec_s8
[0], var_vec_s8
[1]);
1566 *var_vec_s8
++ = vec_vavgsb(var_vec_s8
[0], var_vec_s8
[1]);
1567 *var_vec_s8
++ = vec_vmaxsb(var_vec_b8
[0], var_vec_s8
[1]);
1568 *var_vec_s8
++ = vec_vmaxsb(var_vec_s8
[0], var_vec_b8
[1]);
1569 *var_vec_s8
++ = vec_vmaxsb(var_vec_s8
[0], var_vec_s8
[1]);
1570 *var_vec_s8
++ = vec_vminsb(var_vec_b8
[0], var_vec_s8
[1]);
1571 *var_vec_s8
++ = vec_vminsb(var_vec_s8
[0], var_vec_b8
[1]);
1572 *var_vec_s8
++ = vec_vminsb(var_vec_s8
[0], var_vec_s8
[1]);
1573 *var_vec_s8
++ = vec_vmrghb(var_vec_s8
[0], var_vec_s8
[1]);
1574 *var_vec_s8
++ = vec_vmrglb(var_vec_s8
[0], var_vec_s8
[1]);
1575 *var_vec_s8
++ = vec_vnor(var_vec_s8
[0], var_vec_s8
[1]);
1576 *var_vec_s8
++ = vec_vor(var_vec_b8
[0], var_vec_s8
[1]);
1577 *var_vec_s8
++ = vec_vor(var_vec_s8
[0], var_vec_b8
[1]);
1578 *var_vec_s8
++ = vec_vor(var_vec_s8
[0], var_vec_s8
[1]);
1579 *var_vec_s8
++ = vec_vperm(var_vec_s8
[0], var_vec_s8
[1], var_vec_u8
[2]);
1580 *var_vec_s8
++ = vec_vpkshss(var_vec_s16
[0], var_vec_s16
[1]);
1581 *var_vec_s8
++ = vec_vpkuhum(var_vec_s16
[0], var_vec_s16
[1]);
1582 *var_vec_s8
++ = vec_vrlb(var_vec_s8
[0], var_vec_u8
[1]);
1583 *var_vec_s8
++ = vec_vsel(var_vec_s8
[0], var_vec_s8
[1], var_vec_b8
[2]);
1584 *var_vec_s8
++ = vec_vsel(var_vec_s8
[0], var_vec_s8
[1], var_vec_u8
[2]);
1585 *var_vec_s8
++ = vec_vsl(var_vec_s8
[0], var_vec_u16
[1]);
1586 *var_vec_s8
++ = vec_vsl(var_vec_s8
[0], var_vec_u32
[1]);
1587 *var_vec_s8
++ = vec_vsl(var_vec_s8
[0], var_vec_u8
[1]);
1588 *var_vec_s8
++ = vec_vslb(var_vec_s8
[0], var_vec_u8
[1]);
1589 *var_vec_s8
++ = vec_vsldoi(var_vec_s8
[0], var_vec_s8
[1], 0);
1590 *var_vec_s8
++ = vec_vsldoi(var_vec_s8
[0], var_vec_s8
[1], 1);
1591 *var_vec_s8
++ = vec_vsldoi(var_vec_s8
[0], var_vec_s8
[1], 2);
1592 *var_vec_s8
++ = vec_vsldoi(var_vec_s8
[0], var_vec_s8
[1], 3);
1593 *var_vec_s8
++ = vec_vsldoi(var_vec_s8
[0], var_vec_s8
[1], 4);
1594 *var_vec_s8
++ = vec_vsldoi(var_vec_s8
[0], var_vec_s8
[1], 5);
1595 *var_vec_s8
++ = vec_vsldoi(var_vec_s8
[0], var_vec_s8
[1], 6);
1596 *var_vec_s8
++ = vec_vsldoi(var_vec_s8
[0], var_vec_s8
[1], 7);
1597 *var_vec_s8
++ = vec_vsldoi(var_vec_s8
[0], var_vec_s8
[1], 8);
1598 *var_vec_s8
++ = vec_vsldoi(var_vec_s8
[0], var_vec_s8
[1], 9);
1599 *var_vec_s8
++ = vec_vsldoi(var_vec_s8
[0], var_vec_s8
[1], 10);
1600 *var_vec_s8
++ = vec_vsldoi(var_vec_s8
[0], var_vec_s8
[1], 11);
1601 *var_vec_s8
++ = vec_vsldoi(var_vec_s8
[0], var_vec_s8
[1], 12);
1602 *var_vec_s8
++ = vec_vsldoi(var_vec_s8
[0], var_vec_s8
[1], 13);
1603 *var_vec_s8
++ = vec_vsldoi(var_vec_s8
[0], var_vec_s8
[1], 14);
1604 *var_vec_s8
++ = vec_vsldoi(var_vec_s8
[0], var_vec_s8
[1], 15);
1605 *var_vec_s8
++ = vec_vslo(var_vec_s8
[0], var_vec_s8
[1]);
1606 *var_vec_s8
++ = vec_vslo(var_vec_s8
[0], var_vec_u8
[1]);
1607 *var_vec_s8
++ = vec_vspltb(var_vec_s8
[0], 0);
1608 *var_vec_s8
++ = vec_vspltb(var_vec_s8
[0], 1);
1609 *var_vec_s8
++ = vec_vspltb(var_vec_s8
[0], 2);
1610 *var_vec_s8
++ = vec_vspltb(var_vec_s8
[0], 3);
1611 *var_vec_s8
++ = vec_vspltb(var_vec_s8
[0], 4);
1612 *var_vec_s8
++ = vec_vspltb(var_vec_s8
[0], 5);
1613 *var_vec_s8
++ = vec_vspltb(var_vec_s8
[0], 6);
1614 *var_vec_s8
++ = vec_vspltb(var_vec_s8
[0], 7);
1615 *var_vec_s8
++ = vec_vspltb(var_vec_s8
[0], 8);
1618 *var_vec_s8
++ = vec_vspltb(var_vec_s8
[0], 9);
1619 *var_vec_s8
++ = vec_vspltb(var_vec_s8
[0], 10);
1620 *var_vec_s8
++ = vec_vspltb(var_vec_s8
[0], 11);
1621 *var_vec_s8
++ = vec_vspltb(var_vec_s8
[0], 12);
1622 *var_vec_s8
++ = vec_vspltb(var_vec_s8
[0], 13);
1623 *var_vec_s8
++ = vec_vspltb(var_vec_s8
[0], 14);
1624 *var_vec_s8
++ = vec_vspltb(var_vec_s8
[0], 15);
1625 *var_vec_s8
++ = vec_vspltisb( 0);
1626 *var_vec_s8
++ = vec_vspltisb( 1);
1627 *var_vec_s8
++ = vec_vspltisb( 2);
1628 *var_vec_s8
++ = vec_vspltisb( 3);
1629 *var_vec_s8
++ = vec_vspltisb( 4);
1630 *var_vec_s8
++ = vec_vspltisb( 5);
1631 *var_vec_s8
++ = vec_vspltisb( 6);
1632 *var_vec_s8
++ = vec_vspltisb( 7);
1633 *var_vec_s8
++ = vec_vspltisb( 8);
1634 *var_vec_s8
++ = vec_vspltisb( 9);
1635 *var_vec_s8
++ = vec_vspltisb( -1);
1636 *var_vec_s8
++ = vec_vspltisb( -2);
1637 *var_vec_s8
++ = vec_vspltisb( -3);
1638 *var_vec_s8
++ = vec_vspltisb( -4);
1639 *var_vec_s8
++ = vec_vspltisb( -5);
1640 *var_vec_s8
++ = vec_vspltisb( -6);
1641 *var_vec_s8
++ = vec_vspltisb( -7);
1642 *var_vec_s8
++ = vec_vspltisb( -8);
1643 *var_vec_s8
++ = vec_vspltisb( -9);
1644 *var_vec_s8
++ = vec_vspltisb( 10);
1645 *var_vec_s8
++ = vec_vspltisb( 11);
1646 *var_vec_s8
++ = vec_vspltisb( 12);
1647 *var_vec_s8
++ = vec_vspltisb( 13);
1648 *var_vec_s8
++ = vec_vspltisb( 14);
1649 *var_vec_s8
++ = vec_vspltisb( 15);
1650 *var_vec_s8
++ = vec_vspltisb(-10);
1651 *var_vec_s8
++ = vec_vspltisb(-11);
1652 *var_vec_s8
++ = vec_vspltisb(-12);
1653 *var_vec_s8
++ = vec_vspltisb(-13);
1654 *var_vec_s8
++ = vec_vspltisb(-14);
1655 *var_vec_s8
++ = vec_vspltisb(-15);
1656 *var_vec_s8
++ = vec_vspltisb(-16);
1657 *var_vec_s8
++ = vec_vsr(var_vec_s8
[0], var_vec_u16
[1]);
1658 *var_vec_s8
++ = vec_vsr(var_vec_s8
[0], var_vec_u32
[1]);
1659 *var_vec_s8
++ = vec_vsr(var_vec_s8
[0], var_vec_u8
[1]);
1660 *var_vec_s8
++ = vec_vsrab(var_vec_s8
[0], var_vec_u8
[1]);
1661 *var_vec_s8
++ = vec_vsrb(var_vec_s8
[0], var_vec_u8
[1]);
1662 *var_vec_s8
++ = vec_vsro(var_vec_s8
[0], var_vec_s8
[1]);
1663 *var_vec_s8
++ = vec_vsro(var_vec_s8
[0], var_vec_u8
[1]);
1664 *var_vec_s8
++ = vec_vsubsbs(var_vec_b8
[0], var_vec_s8
[1]);
1665 *var_vec_s8
++ = vec_vsubsbs(var_vec_s8
[0], var_vec_b8
[1]);
1666 *var_vec_s8
++ = vec_vsubsbs(var_vec_s8
[0], var_vec_s8
[1]);
1667 *var_vec_s8
++ = vec_vsububm(var_vec_b8
[0], var_vec_s8
[1]);
1668 *var_vec_s8
++ = vec_vsububm(var_vec_s8
[0], var_vec_b8
[1]);
1669 *var_vec_s8
++ = vec_vsububm(var_vec_s8
[0], var_vec_s8
[1]);
1670 *var_vec_s8
++ = vec_vxor(var_vec_b8
[0], var_vec_s8
[1]);
1671 *var_vec_s8
++ = vec_vxor(var_vec_s8
[0], var_vec_b8
[1]);
1672 *var_vec_s8
++ = vec_vxor(var_vec_s8
[0], var_vec_s8
[1]);
1673 *var_vec_s8
++ = vec_xor(var_vec_b8
[0], var_vec_s8
[1]);
1674 *var_vec_s8
++ = vec_xor(var_vec_s8
[0], var_vec_b8
[1]);
1675 *var_vec_s8
++ = vec_xor(var_vec_s8
[0], var_vec_s8
[1]);
1676 *var_vec_u16
++ = vec_add(var_vec_b16
[0], var_vec_u16
[1]);
1677 *var_vec_u16
++ = vec_add(var_vec_u16
[0], var_vec_b16
[1]);
1678 *var_vec_u16
++ = vec_add(var_vec_u16
[0], var_vec_u16
[1]);
1679 *var_vec_u16
++ = vec_adds(var_vec_b16
[0], var_vec_u16
[1]);
1680 *var_vec_u16
++ = vec_adds(var_vec_u16
[0], var_vec_b16
[1]);
1681 *var_vec_u16
++ = vec_adds(var_vec_u16
[0], var_vec_u16
[1]);
1682 *var_vec_u16
++ = vec_and(var_vec_b16
[0], var_vec_u16
[1]);
1683 *var_vec_u16
++ = vec_and(var_vec_u16
[0], var_vec_b16
[1]);
1684 *var_vec_u16
++ = vec_and(var_vec_u16
[0], var_vec_u16
[1]);
1685 *var_vec_u16
++ = vec_andc(var_vec_b16
[0], var_vec_u16
[1]);
1686 *var_vec_u16
++ = vec_andc(var_vec_u16
[0], var_vec_b16
[1]);
1687 *var_vec_u16
++ = vec_andc(var_vec_u16
[0], var_vec_u16
[1]);
1688 *var_vec_u16
++ = vec_avg(var_vec_u16
[0], var_vec_u16
[1]);
1689 *var_vec_u16
++ = vec_ld(var_int
[0], var_unsigned_short_ptr
[1]);
1690 *var_vec_u16
++ = vec_ld(var_int
[0], var_vec_u16_ptr
[1]);
1691 *var_vec_u16
++ = vec_lde(var_int
[0], var_unsigned_short_ptr
[1]);
1692 *var_vec_u16
++ = vec_ldl(var_int
[0], var_unsigned_short_ptr
[1]);
1693 *var_vec_u16
++ = vec_ldl(var_int
[0], var_vec_u16_ptr
[1]);
1694 *var_vec_u16
++ = vec_lvehx(var_int
[0], var_unsigned_short_ptr
[1]);
1695 *var_vec_u16
++ = vec_lvx(var_int
[0], var_unsigned_short_ptr
[1]);
1696 *var_vec_u16
++ = vec_lvx(var_int
[0], var_vec_u16_ptr
[1]);
1697 *var_vec_u16
++ = vec_lvxl(var_int
[0], var_unsigned_short_ptr
[1]);
1698 *var_vec_u16
++ = vec_lvxl(var_int
[0], var_vec_u16_ptr
[1]);
1699 *var_vec_u16
++ = vec_max(var_vec_b16
[0], var_vec_u16
[1]);
1700 *var_vec_u16
++ = vec_max(var_vec_u16
[0], var_vec_b16
[1]);
1701 *var_vec_u16
++ = vec_max(var_vec_u16
[0], var_vec_u16
[1]);
1704 *var_vec_u16
++ = vec_mergeh(var_vec_u16
[0], var_vec_u16
[1]);
1705 *var_vec_u16
++ = vec_mergel(var_vec_u16
[0], var_vec_u16
[1]);
1706 *var_vec_u16
++ = vec_min(var_vec_b16
[0], var_vec_u16
[1]);
1707 *var_vec_u16
++ = vec_min(var_vec_u16
[0], var_vec_b16
[1]);
1708 *var_vec_u16
++ = vec_min(var_vec_u16
[0], var_vec_u16
[1]);
1709 *var_vec_u16
++ = vec_mladd(var_vec_u16
[0], var_vec_u16
[1], var_vec_u16
[2]);
1710 *var_vec_u16
++ = vec_mule(var_vec_u8
[0], var_vec_u8
[1]);
1711 *var_vec_u16
++ = vec_mulo(var_vec_u8
[0], var_vec_u8
[1]);
1712 *var_vec_u16
++ = vec_nor(var_vec_u16
[0], var_vec_u16
[1]);
1713 *var_vec_u16
++ = vec_or(var_vec_b16
[0], var_vec_u16
[1]);
1714 *var_vec_u16
++ = vec_or(var_vec_u16
[0], var_vec_b16
[1]);
1715 *var_vec_u16
++ = vec_or(var_vec_u16
[0], var_vec_u16
[1]);
1716 *var_vec_u16
++ = vec_pack(var_vec_u32
[0], var_vec_u32
[1]);
1717 *var_vec_u16
++ = vec_packs(var_vec_u32
[0], var_vec_u32
[1]);
1718 *var_vec_u16
++ = vec_packsu(var_vec_s32
[0], var_vec_s32
[1]);
1719 *var_vec_u16
++ = vec_packsu(var_vec_u32
[0], var_vec_u32
[1]);
1720 *var_vec_u16
++ = vec_perm(var_vec_u16
[0], var_vec_u16
[1], var_vec_u8
[2]);
1721 *var_vec_u16
++ = vec_rl(var_vec_u16
[0], var_vec_u16
[1]);
1722 *var_vec_u16
++ = vec_sel(var_vec_u16
[0], var_vec_u16
[1], var_vec_b16
[2]);
1723 *var_vec_u16
++ = vec_sel(var_vec_u16
[0], var_vec_u16
[1], var_vec_u16
[2]);
1724 *var_vec_u16
++ = vec_sl(var_vec_u16
[0], var_vec_u16
[1]);
1725 *var_vec_u16
++ = vec_sld(var_vec_u16
[0], var_vec_u16
[1], 0);
1726 *var_vec_u16
++ = vec_sld(var_vec_u16
[0], var_vec_u16
[1], 1);
1727 *var_vec_u16
++ = vec_sld(var_vec_u16
[0], var_vec_u16
[1], 2);
1728 *var_vec_u16
++ = vec_sld(var_vec_u16
[0], var_vec_u16
[1], 3);
1729 *var_vec_u16
++ = vec_sld(var_vec_u16
[0], var_vec_u16
[1], 4);
1730 *var_vec_u16
++ = vec_sld(var_vec_u16
[0], var_vec_u16
[1], 5);
1731 *var_vec_u16
++ = vec_sld(var_vec_u16
[0], var_vec_u16
[1], 6);
1732 *var_vec_u16
++ = vec_sld(var_vec_u16
[0], var_vec_u16
[1], 7);
1733 *var_vec_u16
++ = vec_sld(var_vec_u16
[0], var_vec_u16
[1], 8);
1734 *var_vec_u16
++ = vec_sld(var_vec_u16
[0], var_vec_u16
[1], 9);
1735 *var_vec_u16
++ = vec_sld(var_vec_u16
[0], var_vec_u16
[1], 10);
1736 *var_vec_u16
++ = vec_sld(var_vec_u16
[0], var_vec_u16
[1], 11);
1737 *var_vec_u16
++ = vec_sld(var_vec_u16
[0], var_vec_u16
[1], 12);
1738 *var_vec_u16
++ = vec_sld(var_vec_u16
[0], var_vec_u16
[1], 13);
1739 *var_vec_u16
++ = vec_sld(var_vec_u16
[0], var_vec_u16
[1], 14);
1740 *var_vec_u16
++ = vec_sld(var_vec_u16
[0], var_vec_u16
[1], 15);
1741 *var_vec_u16
++ = vec_sll(var_vec_u16
[0], var_vec_u16
[1]);
1742 *var_vec_u16
++ = vec_sll(var_vec_u16
[0], var_vec_u32
[1]);
1743 *var_vec_u16
++ = vec_sll(var_vec_u16
[0], var_vec_u8
[1]);
1744 *var_vec_u16
++ = vec_slo(var_vec_u16
[0], var_vec_s8
[1]);
1745 *var_vec_u16
++ = vec_slo(var_vec_u16
[0], var_vec_u8
[1]);
1746 *var_vec_u16
++ = vec_splat(var_vec_u16
[0], 0);
1747 *var_vec_u16
++ = vec_splat(var_vec_u16
[0], 1);
1748 *var_vec_u16
++ = vec_splat(var_vec_u16
[0], 2);
1749 *var_vec_u16
++ = vec_splat(var_vec_u16
[0], 3);
1750 *var_vec_u16
++ = vec_splat(var_vec_u16
[0], 4);
1751 *var_vec_u16
++ = vec_splat(var_vec_u16
[0], 5);
1752 *var_vec_u16
++ = vec_splat(var_vec_u16
[0], 6);
1753 *var_vec_u16
++ = vec_splat(var_vec_u16
[0], 7);
1754 *var_vec_u16
++ = vec_splat_u16( 0);
1755 *var_vec_u16
++ = vec_splat_u16( 1);
1756 *var_vec_u16
++ = vec_splat_u16( 2);
1757 *var_vec_u16
++ = vec_splat_u16( 3);
1758 *var_vec_u16
++ = vec_splat_u16( 4);
1759 *var_vec_u16
++ = vec_splat_u16( 5);
1760 *var_vec_u16
++ = vec_splat_u16( 6);
1761 *var_vec_u16
++ = vec_splat_u16( 7);
1762 *var_vec_u16
++ = vec_splat_u16( 8);
1763 *var_vec_u16
++ = vec_splat_u16( 9);
1764 *var_vec_u16
++ = vec_splat_u16( -1);
1765 *var_vec_u16
++ = vec_splat_u16( -2);
1766 *var_vec_u16
++ = vec_splat_u16( -3);
1767 *var_vec_u16
++ = vec_splat_u16( -4);
1768 *var_vec_u16
++ = vec_splat_u16( -5);
1769 *var_vec_u16
++ = vec_splat_u16( -6);
1770 *var_vec_u16
++ = vec_splat_u16( -7);
1771 *var_vec_u16
++ = vec_splat_u16( -8);
1772 *var_vec_u16
++ = vec_splat_u16( -9);
1773 *var_vec_u16
++ = vec_splat_u16( 10);
1774 *var_vec_u16
++ = vec_splat_u16( 11);
1775 *var_vec_u16
++ = vec_splat_u16( 12);
1776 *var_vec_u16
++ = vec_splat_u16( 13);
1777 *var_vec_u16
++ = vec_splat_u16( 14);
1778 *var_vec_u16
++ = vec_splat_u16( 15);
1779 *var_vec_u16
++ = vec_splat_u16(-10);
1782 *var_vec_u16
++ = vec_splat_u16(-11);
1783 *var_vec_u16
++ = vec_splat_u16(-12);
1784 *var_vec_u16
++ = vec_splat_u16(-13);
1785 *var_vec_u16
++ = vec_splat_u16(-14);
1786 *var_vec_u16
++ = vec_splat_u16(-15);
1787 *var_vec_u16
++ = vec_splat_u16(-16);
1788 *var_vec_u16
++ = vec_sr(var_vec_u16
[0], var_vec_u16
[1]);
1789 *var_vec_u16
++ = vec_sra(var_vec_u16
[0], var_vec_u16
[1]);
1790 *var_vec_u16
++ = vec_srl(var_vec_u16
[0], var_vec_u16
[1]);
1791 *var_vec_u16
++ = vec_srl(var_vec_u16
[0], var_vec_u32
[1]);
1792 *var_vec_u16
++ = vec_srl(var_vec_u16
[0], var_vec_u8
[1]);
1793 *var_vec_u16
++ = vec_sro(var_vec_u16
[0], var_vec_s8
[1]);
1794 *var_vec_u16
++ = vec_sro(var_vec_u16
[0], var_vec_u8
[1]);
1795 *var_vec_u16
++ = vec_sub(var_vec_b16
[0], var_vec_u16
[1]);
1796 *var_vec_u16
++ = vec_sub(var_vec_u16
[0], var_vec_b16
[1]);
1797 *var_vec_u16
++ = vec_sub(var_vec_u16
[0], var_vec_u16
[1]);
1798 *var_vec_u16
++ = vec_subs(var_vec_b16
[0], var_vec_u16
[1]);
1799 *var_vec_u16
++ = vec_subs(var_vec_u16
[0], var_vec_b16
[1]);
1800 *var_vec_u16
++ = vec_subs(var_vec_u16
[0], var_vec_u16
[1]);
1801 *var_vec_u16
++ = vec_vadduhm(var_vec_b16
[0], var_vec_u16
[1]);
1802 *var_vec_u16
++ = vec_vadduhm(var_vec_u16
[0], var_vec_b16
[1]);
1803 *var_vec_u16
++ = vec_vadduhm(var_vec_u16
[0], var_vec_u16
[1]);
1804 *var_vec_u16
++ = vec_vadduhs(var_vec_b16
[0], var_vec_u16
[1]);
1805 *var_vec_u16
++ = vec_vadduhs(var_vec_u16
[0], var_vec_b16
[1]);
1806 *var_vec_u16
++ = vec_vadduhs(var_vec_u16
[0], var_vec_u16
[1]);
1807 *var_vec_u16
++ = vec_vand(var_vec_b16
[0], var_vec_u16
[1]);
1808 *var_vec_u16
++ = vec_vand(var_vec_u16
[0], var_vec_b16
[1]);
1809 *var_vec_u16
++ = vec_vand(var_vec_u16
[0], var_vec_u16
[1]);
1810 *var_vec_u16
++ = vec_vandc(var_vec_b16
[0], var_vec_u16
[1]);
1811 *var_vec_u16
++ = vec_vandc(var_vec_u16
[0], var_vec_b16
[1]);
1812 *var_vec_u16
++ = vec_vandc(var_vec_u16
[0], var_vec_u16
[1]);
1813 *var_vec_u16
++ = vec_vavguh(var_vec_u16
[0], var_vec_u16
[1]);
1814 *var_vec_u16
++ = vec_vmaxuh(var_vec_b16
[0], var_vec_u16
[1]);
1815 *var_vec_u16
++ = vec_vmaxuh(var_vec_u16
[0], var_vec_b16
[1]);
1816 *var_vec_u16
++ = vec_vmaxuh(var_vec_u16
[0], var_vec_u16
[1]);
1817 *var_vec_u16
++ = vec_vminuh(var_vec_b16
[0], var_vec_u16
[1]);
1818 *var_vec_u16
++ = vec_vminuh(var_vec_u16
[0], var_vec_b16
[1]);
1819 *var_vec_u16
++ = vec_vminuh(var_vec_u16
[0], var_vec_u16
[1]);
1820 *var_vec_u16
++ = vec_vmladduhm(var_vec_u16
[0], var_vec_u16
[1], var_vec_u16
[2]);
1821 *var_vec_u16
++ = vec_vmrghh(var_vec_u16
[0], var_vec_u16
[1]);
1822 *var_vec_u16
++ = vec_vmrglh(var_vec_u16
[0], var_vec_u16
[1]);
1823 *var_vec_u16
++ = vec_vmuleub(var_vec_u8
[0], var_vec_u8
[1]);
1824 *var_vec_u16
++ = vec_vmuloub(var_vec_u8
[0], var_vec_u8
[1]);
1825 *var_vec_u16
++ = vec_vnor(var_vec_u16
[0], var_vec_u16
[1]);
1826 *var_vec_u16
++ = vec_vor(var_vec_b16
[0], var_vec_u16
[1]);
1827 *var_vec_u16
++ = vec_vor(var_vec_u16
[0], var_vec_b16
[1]);
1828 *var_vec_u16
++ = vec_vor(var_vec_u16
[0], var_vec_u16
[1]);
1829 *var_vec_u16
++ = vec_vperm(var_vec_u16
[0], var_vec_u16
[1], var_vec_u8
[2]);
1830 *var_vec_u16
++ = vec_vpkswus(var_vec_s32
[0], var_vec_s32
[1]);
1831 *var_vec_u16
++ = vec_vpkuwum(var_vec_u32
[0], var_vec_u32
[1]);
1832 *var_vec_u16
++ = vec_vpkuwus(var_vec_u32
[0], var_vec_u32
[1]);
1833 *var_vec_u16
++ = vec_vrlh(var_vec_u16
[0], var_vec_u16
[1]);
1834 *var_vec_u16
++ = vec_vsel(var_vec_u16
[0], var_vec_u16
[1], var_vec_b16
[2]);
1835 *var_vec_u16
++ = vec_vsel(var_vec_u16
[0], var_vec_u16
[1], var_vec_u16
[2]);
1836 *var_vec_u16
++ = vec_vsl(var_vec_u16
[0], var_vec_u16
[1]);
1837 *var_vec_u16
++ = vec_vsl(var_vec_u16
[0], var_vec_u32
[1]);
1838 *var_vec_u16
++ = vec_vsl(var_vec_u16
[0], var_vec_u8
[1]);
1839 *var_vec_u16
++ = vec_vsldoi(var_vec_u16
[0], var_vec_u16
[1], 0);
1840 *var_vec_u16
++ = vec_vsldoi(var_vec_u16
[0], var_vec_u16
[1], 1);
1841 *var_vec_u16
++ = vec_vsldoi(var_vec_u16
[0], var_vec_u16
[1], 2);
1842 *var_vec_u16
++ = vec_vsldoi(var_vec_u16
[0], var_vec_u16
[1], 3);
1843 *var_vec_u16
++ = vec_vsldoi(var_vec_u16
[0], var_vec_u16
[1], 4);
1844 *var_vec_u16
++ = vec_vsldoi(var_vec_u16
[0], var_vec_u16
[1], 5);
1845 *var_vec_u16
++ = vec_vsldoi(var_vec_u16
[0], var_vec_u16
[1], 6);
1846 *var_vec_u16
++ = vec_vsldoi(var_vec_u16
[0], var_vec_u16
[1], 7);
1847 *var_vec_u16
++ = vec_vsldoi(var_vec_u16
[0], var_vec_u16
[1], 8);
1848 *var_vec_u16
++ = vec_vsldoi(var_vec_u16
[0], var_vec_u16
[1], 9);
1849 *var_vec_u16
++ = vec_vsldoi(var_vec_u16
[0], var_vec_u16
[1], 10);
1850 *var_vec_u16
++ = vec_vsldoi(var_vec_u16
[0], var_vec_u16
[1], 11);
1851 *var_vec_u16
++ = vec_vsldoi(var_vec_u16
[0], var_vec_u16
[1], 12);
1852 *var_vec_u16
++ = vec_vsldoi(var_vec_u16
[0], var_vec_u16
[1], 13);
1853 *var_vec_u16
++ = vec_vsldoi(var_vec_u16
[0], var_vec_u16
[1], 14);
1854 *var_vec_u16
++ = vec_vsldoi(var_vec_u16
[0], var_vec_u16
[1], 15);
1855 *var_vec_u16
++ = vec_vslh(var_vec_u16
[0], var_vec_u16
[1]);
1856 *var_vec_u16
++ = vec_vslo(var_vec_u16
[0], var_vec_s8
[1]);
1857 *var_vec_u16
++ = vec_vslo(var_vec_u16
[0], var_vec_u8
[1]);
1858 *var_vec_u16
++ = vec_vsplth(var_vec_u16
[0], 0);
1859 *var_vec_u16
++ = vec_vsplth(var_vec_u16
[0], 1);
1860 *var_vec_u16
++ = vec_vsplth(var_vec_u16
[0], 2);
1861 *var_vec_u16
++ = vec_vsplth(var_vec_u16
[0], 3);
1862 *var_vec_u16
++ = vec_vsplth(var_vec_u16
[0], 4);
1863 *var_vec_u16
++ = vec_vsplth(var_vec_u16
[0], 5);
1864 *var_vec_u16
++ = vec_vsplth(var_vec_u16
[0], 6);
1865 *var_vec_u16
++ = vec_vsplth(var_vec_u16
[0], 7);
1868 *var_vec_u16
++ = vec_vsr(var_vec_u16
[0], var_vec_u16
[1]);
1869 *var_vec_u16
++ = vec_vsr(var_vec_u16
[0], var_vec_u32
[1]);
1870 *var_vec_u16
++ = vec_vsr(var_vec_u16
[0], var_vec_u8
[1]);
1871 *var_vec_u16
++ = vec_vsrah(var_vec_u16
[0], var_vec_u16
[1]);
1872 *var_vec_u16
++ = vec_vsrh(var_vec_u16
[0], var_vec_u16
[1]);
1873 *var_vec_u16
++ = vec_vsro(var_vec_u16
[0], var_vec_s8
[1]);
1874 *var_vec_u16
++ = vec_vsro(var_vec_u16
[0], var_vec_u8
[1]);
1875 *var_vec_u16
++ = vec_vsubuhm(var_vec_b16
[0], var_vec_u16
[1]);
1876 *var_vec_u16
++ = vec_vsubuhm(var_vec_u16
[0], var_vec_b16
[1]);
1877 *var_vec_u16
++ = vec_vsubuhm(var_vec_u16
[0], var_vec_u16
[1]);
1878 *var_vec_u16
++ = vec_vsubuhs(var_vec_b16
[0], var_vec_u16
[1]);
1879 *var_vec_u16
++ = vec_vsubuhs(var_vec_u16
[0], var_vec_b16
[1]);
1880 *var_vec_u16
++ = vec_vsubuhs(var_vec_u16
[0], var_vec_u16
[1]);
1881 *var_vec_u16
++ = vec_vxor(var_vec_b16
[0], var_vec_u16
[1]);
1882 *var_vec_u16
++ = vec_vxor(var_vec_u16
[0], var_vec_b16
[1]);
1883 *var_vec_u16
++ = vec_vxor(var_vec_u16
[0], var_vec_u16
[1]);
1884 *var_vec_u16
++ = vec_xor(var_vec_b16
[0], var_vec_u16
[1]);
1885 *var_vec_u16
++ = vec_xor(var_vec_u16
[0], var_vec_b16
[1]);
1886 *var_vec_u16
++ = vec_xor(var_vec_u16
[0], var_vec_u16
[1]);
1887 *var_vec_u32
++ = vec_add(var_vec_b32
[0], var_vec_u32
[1]);
1888 *var_vec_u32
++ = vec_add(var_vec_u32
[0], var_vec_b32
[1]);
1889 *var_vec_u32
++ = vec_add(var_vec_u32
[0], var_vec_u32
[1]);
1890 *var_vec_u32
++ = vec_addc(var_vec_u32
[0], var_vec_u32
[1]);
1891 *var_vec_u32
++ = vec_adds(var_vec_b32
[0], var_vec_u32
[1]);
1892 *var_vec_u32
++ = vec_adds(var_vec_u32
[0], var_vec_b32
[1]);
1893 *var_vec_u32
++ = vec_adds(var_vec_u32
[0], var_vec_u32
[1]);
1894 *var_vec_u32
++ = vec_and(var_vec_b32
[0], var_vec_u32
[1]);
1895 *var_vec_u32
++ = vec_and(var_vec_u32
[0], var_vec_b32
[1]);
1896 *var_vec_u32
++ = vec_and(var_vec_u32
[0], var_vec_u32
[1]);
1897 *var_vec_u32
++ = vec_andc(var_vec_b32
[0], var_vec_u32
[1]);
1898 *var_vec_u32
++ = vec_andc(var_vec_u32
[0], var_vec_b32
[1]);
1899 *var_vec_u32
++ = vec_andc(var_vec_u32
[0], var_vec_u32
[1]);
1900 *var_vec_u32
++ = vec_avg(var_vec_u32
[0], var_vec_u32
[1]);
1901 *var_vec_u32
++ = vec_ctu(var_vec_f32
[0], 0);
1902 *var_vec_u32
++ = vec_ctu(var_vec_f32
[0], 1);
1903 *var_vec_u32
++ = vec_ctu(var_vec_f32
[0], 2);
1904 *var_vec_u32
++ = vec_ctu(var_vec_f32
[0], 3);
1905 *var_vec_u32
++ = vec_ctu(var_vec_f32
[0], 4);
1906 *var_vec_u32
++ = vec_ctu(var_vec_f32
[0], 5);
1907 *var_vec_u32
++ = vec_ctu(var_vec_f32
[0], 6);
1908 *var_vec_u32
++ = vec_ctu(var_vec_f32
[0], 7);
1909 *var_vec_u32
++ = vec_ctu(var_vec_f32
[0], 8);
1910 *var_vec_u32
++ = vec_ctu(var_vec_f32
[0], 9);
1911 *var_vec_u32
++ = vec_ctu(var_vec_f32
[0], 10);
1912 *var_vec_u32
++ = vec_ctu(var_vec_f32
[0], 11);
1913 *var_vec_u32
++ = vec_ctu(var_vec_f32
[0], 12);
1914 *var_vec_u32
++ = vec_ctu(var_vec_f32
[0], 13);
1915 *var_vec_u32
++ = vec_ctu(var_vec_f32
[0], 14);
1916 *var_vec_u32
++ = vec_ctu(var_vec_f32
[0], 15);
1917 *var_vec_u32
++ = vec_ctu(var_vec_f32
[0], 16);
1918 *var_vec_u32
++ = vec_ctu(var_vec_f32
[0], 17);
1919 *var_vec_u32
++ = vec_ctu(var_vec_f32
[0], 18);
1920 *var_vec_u32
++ = vec_ctu(var_vec_f32
[0], 19);
1921 *var_vec_u32
++ = vec_ctu(var_vec_f32
[0], 20);
1922 *var_vec_u32
++ = vec_ctu(var_vec_f32
[0], 21);
1923 *var_vec_u32
++ = vec_ctu(var_vec_f32
[0], 22);
1924 *var_vec_u32
++ = vec_ctu(var_vec_f32
[0], 23);
1925 *var_vec_u32
++ = vec_ctu(var_vec_f32
[0], 24);
1926 *var_vec_u32
++ = vec_ctu(var_vec_f32
[0], 25);
1927 *var_vec_u32
++ = vec_ctu(var_vec_f32
[0], 26);
1928 *var_vec_u32
++ = vec_ctu(var_vec_f32
[0], 27);
1929 *var_vec_u32
++ = vec_ctu(var_vec_f32
[0], 28);
1930 *var_vec_u32
++ = vec_ctu(var_vec_f32
[0], 29);
1931 *var_vec_u32
++ = vec_ctu(var_vec_f32
[0], 30);
1932 *var_vec_u32
++ = vec_ctu(var_vec_f32
[0], 31);
1933 *var_vec_u32
++ = vec_ld(var_int
[0], var_unsigned_int_ptr
[1]);
1934 *var_vec_u32
++ = vec_ld(var_int
[0], var_vec_u32_ptr
[1]);
1935 *var_vec_u32
++ = vec_lde(var_int
[0], var_unsigned_int_ptr
[1]);
1936 *var_vec_u32
++ = vec_ldl(var_int
[0], var_unsigned_int_ptr
[1]);
1937 *var_vec_u32
++ = vec_ldl(var_int
[0], var_vec_u32_ptr
[1]);
1938 *var_vec_u32
++ = vec_lvewx(var_int
[0], var_unsigned_int_ptr
[1]);
1939 *var_vec_u32
++ = vec_lvx(var_int
[0], var_unsigned_int_ptr
[1]);
1940 *var_vec_u32
++ = vec_lvx(var_int
[0], var_vec_u32_ptr
[1]);
1941 *var_vec_u32
++ = vec_lvxl(var_int
[0], var_unsigned_int_ptr
[1]);
1942 *var_vec_u32
++ = vec_lvxl(var_int
[0], var_vec_u32_ptr
[1]);
1943 *var_vec_u32
++ = vec_max(var_vec_b32
[0], var_vec_u32
[1]);
1944 *var_vec_u32
++ = vec_max(var_vec_u32
[0], var_vec_b32
[1]);
1945 *var_vec_u32
++ = vec_max(var_vec_u32
[0], var_vec_u32
[1]);
1946 *var_vec_u32
++ = vec_mergeh(var_vec_u32
[0], var_vec_u32
[1]);
1947 *var_vec_u32
++ = vec_mergel(var_vec_u32
[0], var_vec_u32
[1]);
1948 *var_vec_u32
++ = vec_min(var_vec_b32
[0], var_vec_u32
[1]);
1949 *var_vec_u32
++ = vec_min(var_vec_u32
[0], var_vec_b32
[1]);
1950 *var_vec_u32
++ = vec_min(var_vec_u32
[0], var_vec_u32
[1]);
1951 *var_vec_u32
++ = vec_msum(var_vec_u16
[0], var_vec_u16
[1], var_vec_u32
[2]);
1954 *var_vec_u32
++ = vec_msum(var_vec_u8
[0], var_vec_u8
[1], var_vec_u32
[2]);
1955 *var_vec_u32
++ = vec_msums(var_vec_u16
[0], var_vec_u16
[1], var_vec_u32
[2]);
1956 *var_vec_u32
++ = vec_mule(var_vec_u16
[0], var_vec_u16
[1]);
1957 *var_vec_u32
++ = vec_mulo(var_vec_u16
[0], var_vec_u16
[1]);
1958 *var_vec_u32
++ = vec_nor(var_vec_u32
[0], var_vec_u32
[1]);
1959 *var_vec_u32
++ = vec_or(var_vec_b32
[0], var_vec_u32
[1]);
1960 *var_vec_u32
++ = vec_or(var_vec_u32
[0], var_vec_b32
[1]);
1961 *var_vec_u32
++ = vec_or(var_vec_u32
[0], var_vec_u32
[1]);
1962 *var_vec_u32
++ = vec_perm(var_vec_u32
[0], var_vec_u32
[1], var_vec_u8
[2]);
1963 *var_vec_u32
++ = vec_rl(var_vec_u32
[0], var_vec_u32
[1]);
1964 *var_vec_u32
++ = vec_sel(var_vec_u32
[0], var_vec_u32
[1], var_vec_b32
[2]);
1965 *var_vec_u32
++ = vec_sel(var_vec_u32
[0], var_vec_u32
[1], var_vec_u32
[2]);
1966 *var_vec_u32
++ = vec_sl(var_vec_u32
[0], var_vec_u32
[1]);
1967 *var_vec_u32
++ = vec_sld(var_vec_u32
[0], var_vec_u32
[1], 0);
1968 *var_vec_u32
++ = vec_sld(var_vec_u32
[0], var_vec_u32
[1], 1);
1969 *var_vec_u32
++ = vec_sld(var_vec_u32
[0], var_vec_u32
[1], 2);
1970 *var_vec_u32
++ = vec_sld(var_vec_u32
[0], var_vec_u32
[1], 3);
1971 *var_vec_u32
++ = vec_sld(var_vec_u32
[0], var_vec_u32
[1], 4);
1972 *var_vec_u32
++ = vec_sld(var_vec_u32
[0], var_vec_u32
[1], 5);
1973 *var_vec_u32
++ = vec_sld(var_vec_u32
[0], var_vec_u32
[1], 6);
1974 *var_vec_u32
++ = vec_sld(var_vec_u32
[0], var_vec_u32
[1], 7);
1975 *var_vec_u32
++ = vec_sld(var_vec_u32
[0], var_vec_u32
[1], 8);
1976 *var_vec_u32
++ = vec_sld(var_vec_u32
[0], var_vec_u32
[1], 9);
1977 *var_vec_u32
++ = vec_sld(var_vec_u32
[0], var_vec_u32
[1], 10);
1978 *var_vec_u32
++ = vec_sld(var_vec_u32
[0], var_vec_u32
[1], 11);
1979 *var_vec_u32
++ = vec_sld(var_vec_u32
[0], var_vec_u32
[1], 12);
1980 *var_vec_u32
++ = vec_sld(var_vec_u32
[0], var_vec_u32
[1], 13);
1981 *var_vec_u32
++ = vec_sld(var_vec_u32
[0], var_vec_u32
[1], 14);
1982 *var_vec_u32
++ = vec_sld(var_vec_u32
[0], var_vec_u32
[1], 15);
1983 *var_vec_u32
++ = vec_sll(var_vec_u32
[0], var_vec_u16
[1]);
1984 *var_vec_u32
++ = vec_sll(var_vec_u32
[0], var_vec_u32
[1]);
1985 *var_vec_u32
++ = vec_sll(var_vec_u32
[0], var_vec_u8
[1]);
1986 *var_vec_u32
++ = vec_slo(var_vec_u32
[0], var_vec_s8
[1]);
1987 *var_vec_u32
++ = vec_slo(var_vec_u32
[0], var_vec_u8
[1]);
1988 *var_vec_u32
++ = vec_splat(var_vec_u32
[0], 0);
1989 *var_vec_u32
++ = vec_splat(var_vec_u32
[0], 1);
1990 *var_vec_u32
++ = vec_splat(var_vec_u32
[0], 2);
1991 *var_vec_u32
++ = vec_splat(var_vec_u32
[0], 3);
1992 *var_vec_u32
++ = vec_splat_u32( 0);
1993 *var_vec_u32
++ = vec_splat_u32( 1);
1994 *var_vec_u32
++ = vec_splat_u32( 2);
1995 *var_vec_u32
++ = vec_splat_u32( 3);
1996 *var_vec_u32
++ = vec_splat_u32( 4);
1997 *var_vec_u32
++ = vec_splat_u32( 5);
1998 *var_vec_u32
++ = vec_splat_u32( 6);
1999 *var_vec_u32
++ = vec_splat_u32( 7);
2000 *var_vec_u32
++ = vec_splat_u32( 8);
2001 *var_vec_u32
++ = vec_splat_u32( 9);
2002 *var_vec_u32
++ = vec_splat_u32( -1);
2003 *var_vec_u32
++ = vec_splat_u32( -2);
2004 *var_vec_u32
++ = vec_splat_u32( -3);
2005 *var_vec_u32
++ = vec_splat_u32( -4);
2006 *var_vec_u32
++ = vec_splat_u32( -5);
2007 *var_vec_u32
++ = vec_splat_u32( -6);
2008 *var_vec_u32
++ = vec_splat_u32( -7);
2009 *var_vec_u32
++ = vec_splat_u32( -8);
2010 *var_vec_u32
++ = vec_splat_u32( -9);
2011 *var_vec_u32
++ = vec_splat_u32( 10);
2012 *var_vec_u32
++ = vec_splat_u32( 11);
2013 *var_vec_u32
++ = vec_splat_u32( 12);
2014 *var_vec_u32
++ = vec_splat_u32( 13);
2015 *var_vec_u32
++ = vec_splat_u32( 14);
2016 *var_vec_u32
++ = vec_splat_u32( 15);
2017 *var_vec_u32
++ = vec_splat_u32(-10);
2018 *var_vec_u32
++ = vec_splat_u32(-11);
2019 *var_vec_u32
++ = vec_splat_u32(-12);
2020 *var_vec_u32
++ = vec_splat_u32(-13);
2021 *var_vec_u32
++ = vec_splat_u32(-14);
2022 *var_vec_u32
++ = vec_splat_u32(-15);
2023 *var_vec_u32
++ = vec_splat_u32(-16);
2024 *var_vec_u32
++ = vec_sr(var_vec_u32
[0], var_vec_u32
[1]);
2025 *var_vec_u32
++ = vec_sra(var_vec_u32
[0], var_vec_u32
[1]);
2028 *var_vec_u32
++ = vec_srl(var_vec_u32
[0], var_vec_u16
[1]);
2029 *var_vec_u32
++ = vec_srl(var_vec_u32
[0], var_vec_u32
[1]);
2030 *var_vec_u32
++ = vec_srl(var_vec_u32
[0], var_vec_u8
[1]);
2031 *var_vec_u32
++ = vec_sro(var_vec_u32
[0], var_vec_s8
[1]);
2032 *var_vec_u32
++ = vec_sro(var_vec_u32
[0], var_vec_u8
[1]);
2033 *var_vec_u32
++ = vec_sub(var_vec_b32
[0], var_vec_u32
[1]);
2034 *var_vec_u32
++ = vec_sub(var_vec_u32
[0], var_vec_b32
[1]);
2035 *var_vec_u32
++ = vec_sub(var_vec_u32
[0], var_vec_u32
[1]);
2036 *var_vec_u32
++ = vec_subc(var_vec_u32
[0], var_vec_u32
[1]);
2037 *var_vec_u32
++ = vec_subs(var_vec_b32
[0], var_vec_u32
[1]);
2038 *var_vec_u32
++ = vec_subs(var_vec_u32
[0], var_vec_b32
[1]);
2039 *var_vec_u32
++ = vec_subs(var_vec_u32
[0], var_vec_u32
[1]);
2040 *var_vec_u32
++ = vec_sum4s(var_vec_u8
[0], var_vec_u32
[1]);
2041 *var_vec_u32
++ = vec_unpackh(var_vec_p16
[0]);
2042 *var_vec_u32
++ = vec_unpackl(var_vec_p16
[0]);
2043 *var_vec_u32
++ = vec_vaddcuw(var_vec_u32
[0], var_vec_u32
[1]);
2044 *var_vec_u32
++ = vec_vadduwm(var_vec_b32
[0], var_vec_u32
[1]);
2045 *var_vec_u32
++ = vec_vadduwm(var_vec_u32
[0], var_vec_b32
[1]);
2046 *var_vec_u32
++ = vec_vadduwm(var_vec_u32
[0], var_vec_u32
[1]);
2047 *var_vec_u32
++ = vec_vadduws(var_vec_b32
[0], var_vec_u32
[1]);
2048 *var_vec_u32
++ = vec_vadduws(var_vec_u32
[0], var_vec_b32
[1]);
2049 *var_vec_u32
++ = vec_vadduws(var_vec_u32
[0], var_vec_u32
[1]);
2050 *var_vec_u32
++ = vec_vand(var_vec_b32
[0], var_vec_u32
[1]);
2051 *var_vec_u32
++ = vec_vand(var_vec_u32
[0], var_vec_b32
[1]);
2052 *var_vec_u32
++ = vec_vand(var_vec_u32
[0], var_vec_u32
[1]);
2053 *var_vec_u32
++ = vec_vandc(var_vec_b32
[0], var_vec_u32
[1]);
2054 *var_vec_u32
++ = vec_vandc(var_vec_u32
[0], var_vec_b32
[1]);
2055 *var_vec_u32
++ = vec_vandc(var_vec_u32
[0], var_vec_u32
[1]);
2056 *var_vec_u32
++ = vec_vavguw(var_vec_u32
[0], var_vec_u32
[1]);
2057 *var_vec_u32
++ = vec_vctuxs(var_vec_f32
[0], 0);
2058 *var_vec_u32
++ = vec_vctuxs(var_vec_f32
[0], 1);
2059 *var_vec_u32
++ = vec_vctuxs(var_vec_f32
[0], 2);
2060 *var_vec_u32
++ = vec_vctuxs(var_vec_f32
[0], 3);
2061 *var_vec_u32
++ = vec_vctuxs(var_vec_f32
[0], 4);
2062 *var_vec_u32
++ = vec_vctuxs(var_vec_f32
[0], 5);
2063 *var_vec_u32
++ = vec_vctuxs(var_vec_f32
[0], 6);
2064 *var_vec_u32
++ = vec_vctuxs(var_vec_f32
[0], 7);
2065 *var_vec_u32
++ = vec_vctuxs(var_vec_f32
[0], 8);
2066 *var_vec_u32
++ = vec_vctuxs(var_vec_f32
[0], 9);
2067 *var_vec_u32
++ = vec_vctuxs(var_vec_f32
[0], 10);
2068 *var_vec_u32
++ = vec_vctuxs(var_vec_f32
[0], 11);
2069 *var_vec_u32
++ = vec_vctuxs(var_vec_f32
[0], 12);
2070 *var_vec_u32
++ = vec_vctuxs(var_vec_f32
[0], 13);
2071 *var_vec_u32
++ = vec_vctuxs(var_vec_f32
[0], 14);
2072 *var_vec_u32
++ = vec_vctuxs(var_vec_f32
[0], 15);
2073 *var_vec_u32
++ = vec_vctuxs(var_vec_f32
[0], 16);
2074 *var_vec_u32
++ = vec_vctuxs(var_vec_f32
[0], 17);
2075 *var_vec_u32
++ = vec_vctuxs(var_vec_f32
[0], 18);
2076 *var_vec_u32
++ = vec_vctuxs(var_vec_f32
[0], 19);
2077 *var_vec_u32
++ = vec_vctuxs(var_vec_f32
[0], 20);
2078 *var_vec_u32
++ = vec_vctuxs(var_vec_f32
[0], 21);
2079 *var_vec_u32
++ = vec_vctuxs(var_vec_f32
[0], 22);
2080 *var_vec_u32
++ = vec_vctuxs(var_vec_f32
[0], 23);
2081 *var_vec_u32
++ = vec_vctuxs(var_vec_f32
[0], 24);
2082 *var_vec_u32
++ = vec_vctuxs(var_vec_f32
[0], 25);
2083 *var_vec_u32
++ = vec_vctuxs(var_vec_f32
[0], 26);
2084 *var_vec_u32
++ = vec_vctuxs(var_vec_f32
[0], 27);
2085 *var_vec_u32
++ = vec_vctuxs(var_vec_f32
[0], 28);
2086 *var_vec_u32
++ = vec_vctuxs(var_vec_f32
[0], 29);
2087 *var_vec_u32
++ = vec_vctuxs(var_vec_f32
[0], 30);
2088 *var_vec_u32
++ = vec_vctuxs(var_vec_f32
[0], 31);
2089 *var_vec_u32
++ = vec_vmaxuw(var_vec_b32
[0], var_vec_u32
[1]);
2090 *var_vec_u32
++ = vec_vmaxuw(var_vec_u32
[0], var_vec_b32
[1]);
2091 *var_vec_u32
++ = vec_vmaxuw(var_vec_u32
[0], var_vec_u32
[1]);
2092 *var_vec_u32
++ = vec_vminuw(var_vec_b32
[0], var_vec_u32
[1]);
2093 *var_vec_u32
++ = vec_vminuw(var_vec_u32
[0], var_vec_b32
[1]);
2094 *var_vec_u32
++ = vec_vminuw(var_vec_u32
[0], var_vec_u32
[1]);
2095 *var_vec_u32
++ = vec_vmrghw(var_vec_u32
[0], var_vec_u32
[1]);
2096 *var_vec_u32
++ = vec_vmrglw(var_vec_u32
[0], var_vec_u32
[1]);
2097 *var_vec_u32
++ = vec_vmsumubm(var_vec_u8
[0], var_vec_u8
[1], var_vec_u32
[2]);
2098 *var_vec_u32
++ = vec_vmsumuhm(var_vec_u16
[0], var_vec_u16
[1], var_vec_u32
[2]);
2099 *var_vec_u32
++ = vec_vmsumuhs(var_vec_u16
[0], var_vec_u16
[1], var_vec_u32
[2]);
2100 *var_vec_u32
++ = vec_vmuleuh(var_vec_u16
[0], var_vec_u16
[1]);
2101 *var_vec_u32
++ = vec_vmulouh(var_vec_u16
[0], var_vec_u16
[1]);
2102 *var_vec_u32
++ = vec_vnor(var_vec_u32
[0], var_vec_u32
[1]);
2103 *var_vec_u32
++ = vec_vor(var_vec_b32
[0], var_vec_u32
[1]);
2104 *var_vec_u32
++ = vec_vor(var_vec_u32
[0], var_vec_b32
[1]);
2105 *var_vec_u32
++ = vec_vor(var_vec_u32
[0], var_vec_u32
[1]);
2106 *var_vec_u32
++ = vec_vperm(var_vec_u32
[0], var_vec_u32
[1], var_vec_u8
[2]);
2107 *var_vec_u32
++ = vec_vrlw(var_vec_u32
[0], var_vec_u32
[1]);
2108 *var_vec_u32
++ = vec_vsel(var_vec_u32
[0], var_vec_u32
[1], var_vec_b32
[2]);
2109 *var_vec_u32
++ = vec_vsel(var_vec_u32
[0], var_vec_u32
[1], var_vec_u32
[2]);
2110 *var_vec_u32
++ = vec_vsl(var_vec_u32
[0], var_vec_u16
[1]);
2111 *var_vec_u32
++ = vec_vsl(var_vec_u32
[0], var_vec_u32
[1]);
2112 *var_vec_u32
++ = vec_vsl(var_vec_u32
[0], var_vec_u8
[1]);
2113 *var_vec_u32
++ = vec_vsldoi(var_vec_u32
[0], var_vec_u32
[1], 0);
2114 *var_vec_u32
++ = vec_vsldoi(var_vec_u32
[0], var_vec_u32
[1], 1);
2115 *var_vec_u32
++ = vec_vsldoi(var_vec_u32
[0], var_vec_u32
[1], 2);
2116 *var_vec_u32
++ = vec_vsldoi(var_vec_u32
[0], var_vec_u32
[1], 3);
2117 *var_vec_u32
++ = vec_vsldoi(var_vec_u32
[0], var_vec_u32
[1], 4);
2118 *var_vec_u32
++ = vec_vsldoi(var_vec_u32
[0], var_vec_u32
[1], 5);
2119 *var_vec_u32
++ = vec_vsldoi(var_vec_u32
[0], var_vec_u32
[1], 6);
2120 *var_vec_u32
++ = vec_vsldoi(var_vec_u32
[0], var_vec_u32
[1], 7);
2121 *var_vec_u32
++ = vec_vsldoi(var_vec_u32
[0], var_vec_u32
[1], 8);
2122 *var_vec_u32
++ = vec_vsldoi(var_vec_u32
[0], var_vec_u32
[1], 9);
2123 *var_vec_u32
++ = vec_vsldoi(var_vec_u32
[0], var_vec_u32
[1], 10);
2124 *var_vec_u32
++ = vec_vsldoi(var_vec_u32
[0], var_vec_u32
[1], 11);
2125 *var_vec_u32
++ = vec_vsldoi(var_vec_u32
[0], var_vec_u32
[1], 12);
2128 *var_vec_u32
++ = vec_vsldoi(var_vec_u32
[0], var_vec_u32
[1], 13);
2129 *var_vec_u32
++ = vec_vsldoi(var_vec_u32
[0], var_vec_u32
[1], 14);
2130 *var_vec_u32
++ = vec_vsldoi(var_vec_u32
[0], var_vec_u32
[1], 15);
2131 *var_vec_u32
++ = vec_vslo(var_vec_u32
[0], var_vec_s8
[1]);
2132 *var_vec_u32
++ = vec_vslo(var_vec_u32
[0], var_vec_u8
[1]);
2133 *var_vec_u32
++ = vec_vslw(var_vec_u32
[0], var_vec_u32
[1]);
2134 *var_vec_u32
++ = vec_vspltw(var_vec_u32
[0], 0);
2135 *var_vec_u32
++ = vec_vspltw(var_vec_u32
[0], 1);
2136 *var_vec_u32
++ = vec_vspltw(var_vec_u32
[0], 2);
2137 *var_vec_u32
++ = vec_vspltw(var_vec_u32
[0], 3);
2138 *var_vec_u32
++ = vec_vsr(var_vec_u32
[0], var_vec_u16
[1]);
2139 *var_vec_u32
++ = vec_vsr(var_vec_u32
[0], var_vec_u32
[1]);
2140 *var_vec_u32
++ = vec_vsr(var_vec_u32
[0], var_vec_u8
[1]);
2141 *var_vec_u32
++ = vec_vsraw(var_vec_u32
[0], var_vec_u32
[1]);
2142 *var_vec_u32
++ = vec_vsro(var_vec_u32
[0], var_vec_s8
[1]);
2143 *var_vec_u32
++ = vec_vsro(var_vec_u32
[0], var_vec_u8
[1]);
2144 *var_vec_u32
++ = vec_vsrw(var_vec_u32
[0], var_vec_u32
[1]);
2145 *var_vec_u32
++ = vec_vsubcuw(var_vec_u32
[0], var_vec_u32
[1]);
2146 *var_vec_u32
++ = vec_vsubuwm(var_vec_b32
[0], var_vec_u32
[1]);
2147 *var_vec_u32
++ = vec_vsubuwm(var_vec_u32
[0], var_vec_b32
[1]);
2148 *var_vec_u32
++ = vec_vsubuwm(var_vec_u32
[0], var_vec_u32
[1]);
2149 *var_vec_u32
++ = vec_vsubuws(var_vec_b32
[0], var_vec_u32
[1]);
2150 *var_vec_u32
++ = vec_vsubuws(var_vec_u32
[0], var_vec_b32
[1]);
2151 *var_vec_u32
++ = vec_vsubuws(var_vec_u32
[0], var_vec_u32
[1]);
2152 *var_vec_u32
++ = vec_vsum4ubs(var_vec_u8
[0], var_vec_u32
[1]);
2153 *var_vec_u32
++ = vec_vupkhpx(var_vec_p16
[0]);
2154 *var_vec_u32
++ = vec_vupklpx(var_vec_p16
[0]);
2155 *var_vec_u32
++ = vec_vxor(var_vec_b32
[0], var_vec_u32
[1]);
2156 *var_vec_u32
++ = vec_vxor(var_vec_u32
[0], var_vec_b32
[1]);
2157 *var_vec_u32
++ = vec_vxor(var_vec_u32
[0], var_vec_u32
[1]);
2158 *var_vec_u32
++ = vec_xor(var_vec_b32
[0], var_vec_u32
[1]);
2159 *var_vec_u32
++ = vec_xor(var_vec_u32
[0], var_vec_b32
[1]);
2160 *var_vec_u32
++ = vec_xor(var_vec_u32
[0], var_vec_u32
[1]);
2161 *var_vec_u8
++ = vec_add(var_vec_b8
[0], var_vec_u8
[1]);
2162 *var_vec_u8
++ = vec_add(var_vec_u8
[0], var_vec_b8
[1]);
2163 *var_vec_u8
++ = vec_add(var_vec_u8
[0], var_vec_u8
[1]);
2164 *var_vec_u8
++ = vec_adds(var_vec_b8
[0], var_vec_u8
[1]);
2165 *var_vec_u8
++ = vec_adds(var_vec_u8
[0], var_vec_b8
[1]);
2166 *var_vec_u8
++ = vec_adds(var_vec_u8
[0], var_vec_u8
[1]);
2167 *var_vec_u8
++ = vec_and(var_vec_b8
[0], var_vec_u8
[1]);
2168 *var_vec_u8
++ = vec_and(var_vec_u8
[0], var_vec_b8
[1]);
2169 *var_vec_u8
++ = vec_and(var_vec_u8
[0], var_vec_u8
[1]);
2170 *var_vec_u8
++ = vec_andc(var_vec_b8
[0], var_vec_u8
[1]);
2171 *var_vec_u8
++ = vec_andc(var_vec_u8
[0], var_vec_b8
[1]);
2172 *var_vec_u8
++ = vec_andc(var_vec_u8
[0], var_vec_u8
[1]);
2173 *var_vec_u8
++ = vec_avg(var_vec_u8
[0], var_vec_u8
[1]);
2174 *var_vec_u8
++ = vec_ld(var_int
[0], var_unsigned_char_ptr
[1]);
2175 *var_vec_u8
++ = vec_ld(var_int
[0], var_vec_u8_ptr
[1]);
2176 *var_vec_u8
++ = vec_lde(var_int
[0], var_unsigned_char_ptr
[1]);
2177 *var_vec_u8
++ = vec_ldl(var_int
[0], var_unsigned_char_ptr
[1]);
2178 *var_vec_u8
++ = vec_ldl(var_int
[0], var_vec_u8_ptr
[1]);
2179 *var_vec_u8
++ = vec_lvebx(var_int
[0], var_unsigned_char_ptr
[1]);
2180 *var_vec_u8
++ = vec_lvsl(var_int
[0], var_float_ptr
[1]);
2181 *var_vec_u8
++ = vec_lvsl(var_int
[0], var_int_ptr
[1]);
2182 *var_vec_u8
++ = vec_lvsl(var_int
[0], var_short_ptr
[1]);
2183 *var_vec_u8
++ = vec_lvsl(var_int
[0], var_signed_char_ptr
[1]);
2184 *var_vec_u8
++ = vec_lvsl(var_int
[0], var_unsigned_char_ptr
[1]);
2185 *var_vec_u8
++ = vec_lvsl(var_int
[0], var_unsigned_int_ptr
[1]);
2186 *var_vec_u8
++ = vec_lvsl(var_int
[0], var_unsigned_short_ptr
[1]);
2187 *var_vec_u8
++ = vec_lvsr(var_int
[0], var_float_ptr
[1]);
2188 *var_vec_u8
++ = vec_lvsr(var_int
[0], var_int_ptr
[1]);
2189 *var_vec_u8
++ = vec_lvsr(var_int
[0], var_short_ptr
[1]);
2190 *var_vec_u8
++ = vec_lvsr(var_int
[0], var_signed_char_ptr
[1]);
2191 *var_vec_u8
++ = vec_lvsr(var_int
[0], var_unsigned_char_ptr
[1]);
2192 *var_vec_u8
++ = vec_lvsr(var_int
[0], var_unsigned_int_ptr
[1]);
2193 *var_vec_u8
++ = vec_lvsr(var_int
[0], var_unsigned_short_ptr
[1]);
2194 *var_vec_u8
++ = vec_lvx(var_int
[0], var_unsigned_char_ptr
[1]);
2195 *var_vec_u8
++ = vec_lvx(var_int
[0], var_vec_u8_ptr
[1]);
2198 *var_vec_u8
++ = vec_lvxl(var_int
[0], var_unsigned_char_ptr
[1]);
2199 *var_vec_u8
++ = vec_lvxl(var_int
[0], var_vec_u8_ptr
[1]);
2200 *var_vec_u8
++ = vec_max(var_vec_b8
[0], var_vec_u8
[1]);
2201 *var_vec_u8
++ = vec_max(var_vec_u8
[0], var_vec_b8
[1]);
2202 *var_vec_u8
++ = vec_max(var_vec_u8
[0], var_vec_u8
[1]);
2203 *var_vec_u8
++ = vec_mergeh(var_vec_u8
[0], var_vec_u8
[1]);
2204 *var_vec_u8
++ = vec_mergel(var_vec_u8
[0], var_vec_u8
[1]);
2205 *var_vec_u8
++ = vec_min(var_vec_b8
[0], var_vec_u8
[1]);
2206 *var_vec_u8
++ = vec_min(var_vec_u8
[0], var_vec_b8
[1]);
2207 *var_vec_u8
++ = vec_min(var_vec_u8
[0], var_vec_u8
[1]);
2208 *var_vec_u8
++ = vec_nor(var_vec_u8
[0], var_vec_u8
[1]);
2209 *var_vec_u8
++ = vec_or(var_vec_b8
[0], var_vec_u8
[1]);
2210 *var_vec_u8
++ = vec_or(var_vec_u8
[0], var_vec_b8
[1]);
2211 *var_vec_u8
++ = vec_or(var_vec_u8
[0], var_vec_u8
[1]);
2212 *var_vec_u8
++ = vec_pack(var_vec_u16
[0], var_vec_u16
[1]);
2213 *var_vec_u8
++ = vec_packs(var_vec_u16
[0], var_vec_u16
[1]);
2214 *var_vec_u8
++ = vec_packsu(var_vec_s16
[0], var_vec_s16
[1]);
2215 *var_vec_u8
++ = vec_packsu(var_vec_u16
[0], var_vec_u16
[1]);
2216 *var_vec_u8
++ = vec_perm(var_vec_u8
[0], var_vec_u8
[1], var_vec_u8
[2]);
2217 *var_vec_u8
++ = vec_rl(var_vec_u8
[0], var_vec_u8
[1]);
2218 *var_vec_u8
++ = vec_sel(var_vec_u8
[0], var_vec_u8
[1], var_vec_b8
[2]);
2219 *var_vec_u8
++ = vec_sel(var_vec_u8
[0], var_vec_u8
[1], var_vec_u8
[2]);
2220 *var_vec_u8
++ = vec_sl(var_vec_u8
[0], var_vec_u8
[1]);
2221 *var_vec_u8
++ = vec_sld(var_vec_u8
[0], var_vec_u8
[1], 0);
2222 *var_vec_u8
++ = vec_sld(var_vec_u8
[0], var_vec_u8
[1], 1);
2223 *var_vec_u8
++ = vec_sld(var_vec_u8
[0], var_vec_u8
[1], 2);
2224 *var_vec_u8
++ = vec_sld(var_vec_u8
[0], var_vec_u8
[1], 3);
2225 *var_vec_u8
++ = vec_sld(var_vec_u8
[0], var_vec_u8
[1], 4);
2226 *var_vec_u8
++ = vec_sld(var_vec_u8
[0], var_vec_u8
[1], 5);
2227 *var_vec_u8
++ = vec_sld(var_vec_u8
[0], var_vec_u8
[1], 6);
2228 *var_vec_u8
++ = vec_sld(var_vec_u8
[0], var_vec_u8
[1], 7);
2229 *var_vec_u8
++ = vec_sld(var_vec_u8
[0], var_vec_u8
[1], 8);
2230 *var_vec_u8
++ = vec_sld(var_vec_u8
[0], var_vec_u8
[1], 9);
2231 *var_vec_u8
++ = vec_sld(var_vec_u8
[0], var_vec_u8
[1], 10);
2232 *var_vec_u8
++ = vec_sld(var_vec_u8
[0], var_vec_u8
[1], 11);
2233 *var_vec_u8
++ = vec_sld(var_vec_u8
[0], var_vec_u8
[1], 12);
2234 *var_vec_u8
++ = vec_sld(var_vec_u8
[0], var_vec_u8
[1], 13);
2235 *var_vec_u8
++ = vec_sld(var_vec_u8
[0], var_vec_u8
[1], 14);
2236 *var_vec_u8
++ = vec_sld(var_vec_u8
[0], var_vec_u8
[1], 15);
2237 *var_vec_u8
++ = vec_sll(var_vec_u8
[0], var_vec_u16
[1]);
2238 *var_vec_u8
++ = vec_sll(var_vec_u8
[0], var_vec_u32
[1]);
2239 *var_vec_u8
++ = vec_sll(var_vec_u8
[0], var_vec_u8
[1]);
2240 *var_vec_u8
++ = vec_slo(var_vec_u8
[0], var_vec_s8
[1]);
2241 *var_vec_u8
++ = vec_slo(var_vec_u8
[0], var_vec_u8
[1]);
2242 *var_vec_u8
++ = vec_splat(var_vec_u8
[0], 0);
2243 *var_vec_u8
++ = vec_splat(var_vec_u8
[0], 1);
2244 *var_vec_u8
++ = vec_splat(var_vec_u8
[0], 2);
2245 *var_vec_u8
++ = vec_splat(var_vec_u8
[0], 3);
2246 *var_vec_u8
++ = vec_splat(var_vec_u8
[0], 4);
2247 *var_vec_u8
++ = vec_splat(var_vec_u8
[0], 5);
2248 *var_vec_u8
++ = vec_splat(var_vec_u8
[0], 6);
2249 *var_vec_u8
++ = vec_splat(var_vec_u8
[0], 7);
2250 *var_vec_u8
++ = vec_splat(var_vec_u8
[0], 8);
2251 *var_vec_u8
++ = vec_splat(var_vec_u8
[0], 9);
2252 *var_vec_u8
++ = vec_splat(var_vec_u8
[0], 10);
2253 *var_vec_u8
++ = vec_splat(var_vec_u8
[0], 11);
2254 *var_vec_u8
++ = vec_splat(var_vec_u8
[0], 12);
2255 *var_vec_u8
++ = vec_splat(var_vec_u8
[0], 13);
2256 *var_vec_u8
++ = vec_splat(var_vec_u8
[0], 14);
2257 *var_vec_u8
++ = vec_splat(var_vec_u8
[0], 15);
2258 *var_vec_u8
++ = vec_splat_u8( 0);
2259 *var_vec_u8
++ = vec_splat_u8( 1);
2260 *var_vec_u8
++ = vec_splat_u8( 2);
2261 *var_vec_u8
++ = vec_splat_u8( 3);
2262 *var_vec_u8
++ = vec_splat_u8( 4);
2263 *var_vec_u8
++ = vec_splat_u8( 5);
2264 *var_vec_u8
++ = vec_splat_u8( 6);
2265 *var_vec_u8
++ = vec_splat_u8( 7);
2266 *var_vec_u8
++ = vec_splat_u8( 8);
2267 *var_vec_u8
++ = vec_splat_u8( 9);
2268 *var_vec_u8
++ = vec_splat_u8( -1);
2269 *var_vec_u8
++ = vec_splat_u8( -2);
2270 *var_vec_u8
++ = vec_splat_u8( -3);
2271 *var_vec_u8
++ = vec_splat_u8( -4);
2272 *var_vec_u8
++ = vec_splat_u8( -5);
2273 *var_vec_u8
++ = vec_splat_u8( -6);
2274 *var_vec_u8
++ = vec_splat_u8( -7);
2275 *var_vec_u8
++ = vec_splat_u8( -8);
2276 *var_vec_u8
++ = vec_splat_u8( -9);
2277 *var_vec_u8
++ = vec_splat_u8( 10);
2278 *var_vec_u8
++ = vec_splat_u8( 11);
2279 *var_vec_u8
++ = vec_splat_u8( 12);
2280 *var_vec_u8
++ = vec_splat_u8( 13);
2281 *var_vec_u8
++ = vec_splat_u8( 14);
2284 *var_vec_u8
++ = vec_splat_u8( 15);
2285 *var_vec_u8
++ = vec_splat_u8(-10);
2286 *var_vec_u8
++ = vec_splat_u8(-11);
2287 *var_vec_u8
++ = vec_splat_u8(-12);
2288 *var_vec_u8
++ = vec_splat_u8(-13);
2289 *var_vec_u8
++ = vec_splat_u8(-14);
2290 *var_vec_u8
++ = vec_splat_u8(-15);
2291 *var_vec_u8
++ = vec_splat_u8(-16);
2292 *var_vec_u8
++ = vec_sr(var_vec_u8
[0], var_vec_u8
[1]);
2293 *var_vec_u8
++ = vec_sra(var_vec_u8
[0], var_vec_u8
[1]);
2294 *var_vec_u8
++ = vec_srl(var_vec_u8
[0], var_vec_u16
[1]);
2295 *var_vec_u8
++ = vec_srl(var_vec_u8
[0], var_vec_u32
[1]);
2296 *var_vec_u8
++ = vec_srl(var_vec_u8
[0], var_vec_u8
[1]);
2297 *var_vec_u8
++ = vec_sro(var_vec_u8
[0], var_vec_s8
[1]);
2298 *var_vec_u8
++ = vec_sro(var_vec_u8
[0], var_vec_u8
[1]);
2299 *var_vec_u8
++ = vec_sub(var_vec_b8
[0], var_vec_u8
[1]);
2300 *var_vec_u8
++ = vec_sub(var_vec_u8
[0], var_vec_b8
[1]);
2301 *var_vec_u8
++ = vec_sub(var_vec_u8
[0], var_vec_u8
[1]);
2302 *var_vec_u8
++ = vec_subs(var_vec_b8
[0], var_vec_u8
[1]);
2303 *var_vec_u8
++ = vec_subs(var_vec_u8
[0], var_vec_b8
[1]);
2304 *var_vec_u8
++ = vec_subs(var_vec_u8
[0], var_vec_u8
[1]);
2305 *var_vec_u8
++ = vec_vaddubm(var_vec_b8
[0], var_vec_u8
[1]);
2306 *var_vec_u8
++ = vec_vaddubm(var_vec_u8
[0], var_vec_b8
[1]);
2307 *var_vec_u8
++ = vec_vaddubm(var_vec_u8
[0], var_vec_u8
[1]);
2308 *var_vec_u8
++ = vec_vaddubs(var_vec_b8
[0], var_vec_u8
[1]);
2309 *var_vec_u8
++ = vec_vaddubs(var_vec_u8
[0], var_vec_b8
[1]);
2310 *var_vec_u8
++ = vec_vaddubs(var_vec_u8
[0], var_vec_u8
[1]);
2311 *var_vec_u8
++ = vec_vand(var_vec_b8
[0], var_vec_u8
[1]);
2312 *var_vec_u8
++ = vec_vand(var_vec_u8
[0], var_vec_b8
[1]);
2313 *var_vec_u8
++ = vec_vand(var_vec_u8
[0], var_vec_u8
[1]);
2314 *var_vec_u8
++ = vec_vandc(var_vec_b8
[0], var_vec_u8
[1]);
2315 *var_vec_u8
++ = vec_vandc(var_vec_u8
[0], var_vec_b8
[1]);
2316 *var_vec_u8
++ = vec_vandc(var_vec_u8
[0], var_vec_u8
[1]);
2317 *var_vec_u8
++ = vec_vavgub(var_vec_u8
[0], var_vec_u8
[1]);
2318 *var_vec_u8
++ = vec_vmaxub(var_vec_b8
[0], var_vec_u8
[1]);
2319 *var_vec_u8
++ = vec_vmaxub(var_vec_u8
[0], var_vec_b8
[1]);
2320 *var_vec_u8
++ = vec_vmaxub(var_vec_u8
[0], var_vec_u8
[1]);
2321 *var_vec_u8
++ = vec_vminub(var_vec_b8
[0], var_vec_u8
[1]);
2322 *var_vec_u8
++ = vec_vminub(var_vec_u8
[0], var_vec_b8
[1]);
2323 *var_vec_u8
++ = vec_vminub(var_vec_u8
[0], var_vec_u8
[1]);
2324 *var_vec_u8
++ = vec_vmrghb(var_vec_u8
[0], var_vec_u8
[1]);
2325 *var_vec_u8
++ = vec_vmrglb(var_vec_u8
[0], var_vec_u8
[1]);
2326 *var_vec_u8
++ = vec_vnor(var_vec_u8
[0], var_vec_u8
[1]);
2327 *var_vec_u8
++ = vec_vor(var_vec_b8
[0], var_vec_u8
[1]);
2328 *var_vec_u8
++ = vec_vor(var_vec_u8
[0], var_vec_b8
[1]);
2329 *var_vec_u8
++ = vec_vor(var_vec_u8
[0], var_vec_u8
[1]);
2330 *var_vec_u8
++ = vec_vperm(var_vec_u8
[0], var_vec_u8
[1], var_vec_u8
[2]);
2331 *var_vec_u8
++ = vec_vpkshus(var_vec_s16
[0], var_vec_s16
[1]);
2332 *var_vec_u8
++ = vec_vpkuhum(var_vec_u16
[0], var_vec_u16
[1]);
2333 *var_vec_u8
++ = vec_vpkuhus(var_vec_u16
[0], var_vec_u16
[1]);
2334 *var_vec_u8
++ = vec_vrlb(var_vec_u8
[0], var_vec_u8
[1]);
2335 *var_vec_u8
++ = vec_vsel(var_vec_u8
[0], var_vec_u8
[1], var_vec_b8
[2]);
2336 *var_vec_u8
++ = vec_vsel(var_vec_u8
[0], var_vec_u8
[1], var_vec_u8
[2]);
2337 *var_vec_u8
++ = vec_vsl(var_vec_u8
[0], var_vec_u16
[1]);
2338 *var_vec_u8
++ = vec_vsl(var_vec_u8
[0], var_vec_u32
[1]);
2339 *var_vec_u8
++ = vec_vsl(var_vec_u8
[0], var_vec_u8
[1]);
2340 *var_vec_u8
++ = vec_vslb(var_vec_u8
[0], var_vec_u8
[1]);
2341 *var_vec_u8
++ = vec_vsldoi(var_vec_u8
[0], var_vec_u8
[1], 0);
2342 *var_vec_u8
++ = vec_vsldoi(var_vec_u8
[0], var_vec_u8
[1], 1);
2343 *var_vec_u8
++ = vec_vsldoi(var_vec_u8
[0], var_vec_u8
[1], 2);
2344 *var_vec_u8
++ = vec_vsldoi(var_vec_u8
[0], var_vec_u8
[1], 3);
2345 *var_vec_u8
++ = vec_vsldoi(var_vec_u8
[0], var_vec_u8
[1], 4);
2346 *var_vec_u8
++ = vec_vsldoi(var_vec_u8
[0], var_vec_u8
[1], 5);
2347 *var_vec_u8
++ = vec_vsldoi(var_vec_u8
[0], var_vec_u8
[1], 6);
2348 *var_vec_u8
++ = vec_vsldoi(var_vec_u8
[0], var_vec_u8
[1], 7);
2349 *var_vec_u8
++ = vec_vsldoi(var_vec_u8
[0], var_vec_u8
[1], 8);
2350 *var_vec_u8
++ = vec_vsldoi(var_vec_u8
[0], var_vec_u8
[1], 9);
2351 *var_vec_u8
++ = vec_vsldoi(var_vec_u8
[0], var_vec_u8
[1], 10);
2352 *var_vec_u8
++ = vec_vsldoi(var_vec_u8
[0], var_vec_u8
[1], 11);
2353 *var_vec_u8
++ = vec_vsldoi(var_vec_u8
[0], var_vec_u8
[1], 12);
2354 *var_vec_u8
++ = vec_vsldoi(var_vec_u8
[0], var_vec_u8
[1], 13);
2355 *var_vec_u8
++ = vec_vsldoi(var_vec_u8
[0], var_vec_u8
[1], 14);
2356 *var_vec_u8
++ = vec_vsldoi(var_vec_u8
[0], var_vec_u8
[1], 15);
2357 *var_vec_u8
++ = vec_vslo(var_vec_u8
[0], var_vec_s8
[1]);
2358 *var_vec_u8
++ = vec_vslo(var_vec_u8
[0], var_vec_u8
[1]);
2359 *var_vec_u8
++ = vec_vspltb(var_vec_u8
[0], 0);
2360 *var_vec_u8
++ = vec_vspltb(var_vec_u8
[0], 1);
2361 *var_vec_u8
++ = vec_vspltb(var_vec_u8
[0], 2);
2362 *var_vec_u8
++ = vec_vspltb(var_vec_u8
[0], 3);
2363 *var_vec_u8
++ = vec_vspltb(var_vec_u8
[0], 4);
2364 *var_vec_u8
++ = vec_vspltb(var_vec_u8
[0], 5);
2365 *var_vec_u8
++ = vec_vspltb(var_vec_u8
[0], 6);
2366 *var_vec_u8
++ = vec_vspltb(var_vec_u8
[0], 7);
2367 *var_vec_u8
++ = vec_vspltb(var_vec_u8
[0], 8);
2368 *var_vec_u8
++ = vec_vspltb(var_vec_u8
[0], 9);
2369 *var_vec_u8
++ = vec_vspltb(var_vec_u8
[0], 10);
2370 *var_vec_u8
++ = vec_vspltb(var_vec_u8
[0], 11);
2371 *var_vec_u8
++ = vec_vspltb(var_vec_u8
[0], 12);
2372 *var_vec_u8
++ = vec_vspltb(var_vec_u8
[0], 13);
2373 *var_vec_u8
++ = vec_vspltb(var_vec_u8
[0], 14);
2374 *var_vec_u8
++ = vec_vspltb(var_vec_u8
[0], 15);
2377 *var_vec_u8
++ = vec_vsr(var_vec_u8
[0], var_vec_u16
[1]);
2378 *var_vec_u8
++ = vec_vsr(var_vec_u8
[0], var_vec_u32
[1]);
2379 *var_vec_u8
++ = vec_vsr(var_vec_u8
[0], var_vec_u8
[1]);
2380 *var_vec_u8
++ = vec_vsrab(var_vec_u8
[0], var_vec_u8
[1]);
2381 *var_vec_u8
++ = vec_vsrb(var_vec_u8
[0], var_vec_u8
[1]);
2382 *var_vec_u8
++ = vec_vsro(var_vec_u8
[0], var_vec_s8
[1]);
2383 *var_vec_u8
++ = vec_vsro(var_vec_u8
[0], var_vec_u8
[1]);
2384 *var_vec_u8
++ = vec_vsububm(var_vec_b8
[0], var_vec_u8
[1]);
2385 *var_vec_u8
++ = vec_vsububm(var_vec_u8
[0], var_vec_b8
[1]);
2386 *var_vec_u8
++ = vec_vsububm(var_vec_u8
[0], var_vec_u8
[1]);
2387 *var_vec_u8
++ = vec_vsububs(var_vec_b8
[0], var_vec_u8
[1]);
2388 *var_vec_u8
++ = vec_vsububs(var_vec_u8
[0], var_vec_b8
[1]);
2389 *var_vec_u8
++ = vec_vsububs(var_vec_u8
[0], var_vec_u8
[1]);
2390 *var_vec_u8
++ = vec_vxor(var_vec_b8
[0], var_vec_u8
[1]);
2391 *var_vec_u8
++ = vec_vxor(var_vec_u8
[0], var_vec_b8
[1]);
2392 *var_vec_u8
++ = vec_vxor(var_vec_u8
[0], var_vec_u8
[1]);
2393 *var_vec_u8
++ = vec_xor(var_vec_b8
[0], var_vec_u8
[1]);
2394 *var_vec_u8
++ = vec_xor(var_vec_u8
[0], var_vec_b8
[1]);
2395 *var_vec_u8
++ = vec_xor(var_vec_u8
[0], var_vec_u8
[1]);
2396 *var_volatile_vec_u16
++ = vec_mfvscr();
2397 if(!vec_all_eq(var_vec_b16
[0], var_vec_b16
[1])) *var_cc24t
++;
2398 if(!vec_all_eq(var_vec_b16
[0], var_vec_s16
[1])) *var_cc24t
++;
2399 if(!vec_all_eq(var_vec_b16
[0], var_vec_u16
[1])) *var_cc24t
++;
2400 if(!vec_all_eq(var_vec_b32
[0], var_vec_b32
[1])) *var_cc24t
++;
2401 if(!vec_all_eq(var_vec_b32
[0], var_vec_s32
[1])) *var_cc24t
++;
2402 if(!vec_all_eq(var_vec_b32
[0], var_vec_u32
[1])) *var_cc24t
++;
2403 if(!vec_all_eq(var_vec_b8
[0], var_vec_b8
[1])) *var_cc24t
++;
2404 if(!vec_all_eq(var_vec_b8
[0], var_vec_s8
[1])) *var_cc24t
++;
2405 if(!vec_all_eq(var_vec_b8
[0], var_vec_u8
[1])) *var_cc24t
++;
2406 if(!vec_all_eq(var_vec_f32
[0], var_vec_f32
[1])) *var_cc24t
++;
2407 if(!vec_all_eq(var_vec_p16
[0], var_vec_p16
[1])) *var_cc24t
++;
2408 if(!vec_all_eq(var_vec_s16
[0], var_vec_b16
[1])) *var_cc24t
++;
2409 if(!vec_all_eq(var_vec_s16
[0], var_vec_s16
[1])) *var_cc24t
++;
2410 if(!vec_all_eq(var_vec_s32
[0], var_vec_b32
[1])) *var_cc24t
++;
2411 if(!vec_all_eq(var_vec_s32
[0], var_vec_s32
[1])) *var_cc24t
++;
2412 if(!vec_all_eq(var_vec_s8
[0], var_vec_b8
[1])) *var_cc24t
++;
2413 if(!vec_all_eq(var_vec_s8
[0], var_vec_s8
[1])) *var_cc24t
++;
2414 if(!vec_all_eq(var_vec_u16
[0], var_vec_b16
[1])) *var_cc24t
++;
2415 if(!vec_all_eq(var_vec_u16
[0], var_vec_u16
[1])) *var_cc24t
++;
2416 if(!vec_all_eq(var_vec_u32
[0], var_vec_b32
[1])) *var_cc24t
++;
2417 if(!vec_all_eq(var_vec_u32
[0], var_vec_u32
[1])) *var_cc24t
++;
2418 if(!vec_all_eq(var_vec_u8
[0], var_vec_b8
[1])) *var_cc24t
++;
2419 if(!vec_all_eq(var_vec_u8
[0], var_vec_u8
[1])) *var_cc24t
++;
2420 if(!vec_all_ge(var_vec_b16
[0], var_vec_s16
[1])) *var_cc26tr
++;
2421 if(!vec_all_ge(var_vec_b16
[0], var_vec_u16
[1])) *var_cc26tr
++;
2422 if(!vec_all_ge(var_vec_b32
[0], var_vec_s32
[1])) *var_cc26tr
++;
2423 if(!vec_all_ge(var_vec_b32
[0], var_vec_u32
[1])) *var_cc26tr
++;
2424 if(!vec_all_ge(var_vec_b8
[0], var_vec_s8
[1])) *var_cc26tr
++;
2425 if(!vec_all_ge(var_vec_b8
[0], var_vec_u8
[1])) *var_cc26tr
++;
2426 if(!vec_all_ge(var_vec_f32
[0], var_vec_f32
[1])) *var_cc24t
++;
2427 if(!vec_all_ge(var_vec_s16
[0], var_vec_b16
[1])) *var_cc26tr
++;
2428 if(!vec_all_ge(var_vec_s16
[0], var_vec_s16
[1])) *var_cc26tr
++;
2429 if(!vec_all_ge(var_vec_s32
[0], var_vec_b32
[1])) *var_cc26tr
++;
2430 if(!vec_all_ge(var_vec_s32
[0], var_vec_s32
[1])) *var_cc26tr
++;
2431 if(!vec_all_ge(var_vec_s8
[0], var_vec_b8
[1])) *var_cc26tr
++;
2432 if(!vec_all_ge(var_vec_s8
[0], var_vec_s8
[1])) *var_cc26tr
++;
2433 if(!vec_all_ge(var_vec_u16
[0], var_vec_b16
[1])) *var_cc26tr
++;
2434 if(!vec_all_ge(var_vec_u16
[0], var_vec_u16
[1])) *var_cc26tr
++;
2435 if(!vec_all_ge(var_vec_u32
[0], var_vec_b32
[1])) *var_cc26tr
++;
2436 if(!vec_all_ge(var_vec_u32
[0], var_vec_u32
[1])) *var_cc26tr
++;
2437 if(!vec_all_ge(var_vec_u8
[0], var_vec_b8
[1])) *var_cc26tr
++;
2438 if(!vec_all_ge(var_vec_u8
[0], var_vec_u8
[1])) *var_cc26tr
++;
2439 if(!vec_all_gt(var_vec_b16
[0], var_vec_s16
[1])) *var_cc24t
++;
2440 if(!vec_all_gt(var_vec_b16
[0], var_vec_u16
[1])) *var_cc24t
++;
2441 if(!vec_all_gt(var_vec_b32
[0], var_vec_s32
[1])) *var_cc24t
++;
2442 if(!vec_all_gt(var_vec_b32
[0], var_vec_u32
[1])) *var_cc24t
++;
2443 if(!vec_all_gt(var_vec_b8
[0], var_vec_s8
[1])) *var_cc24t
++;
2444 if(!vec_all_gt(var_vec_b8
[0], var_vec_u8
[1])) *var_cc24t
++;
2445 if(!vec_all_gt(var_vec_f32
[0], var_vec_f32
[1])) *var_cc24t
++;
2446 if(!vec_all_gt(var_vec_s16
[0], var_vec_b16
[1])) *var_cc24t
++;
2447 if(!vec_all_gt(var_vec_s16
[0], var_vec_s16
[1])) *var_cc24t
++;
2448 if(!vec_all_gt(var_vec_s32
[0], var_vec_b32
[1])) *var_cc24t
++;
2449 if(!vec_all_gt(var_vec_s32
[0], var_vec_s32
[1])) *var_cc24t
++;
2450 if(!vec_all_gt(var_vec_s8
[0], var_vec_b8
[1])) *var_cc24t
++;
2451 if(!vec_all_gt(var_vec_s8
[0], var_vec_s8
[1])) *var_cc24t
++;
2452 if(!vec_all_gt(var_vec_u16
[0], var_vec_b16
[1])) *var_cc24t
++;
2453 if(!vec_all_gt(var_vec_u16
[0], var_vec_u16
[1])) *var_cc24t
++;
2454 if(!vec_all_gt(var_vec_u32
[0], var_vec_b32
[1])) *var_cc24t
++;
2455 if(!vec_all_gt(var_vec_u32
[0], var_vec_u32
[1])) *var_cc24t
++;
2456 if(!vec_all_gt(var_vec_u8
[0], var_vec_b8
[1])) *var_cc24t
++;
2457 if(!vec_all_gt(var_vec_u8
[0], var_vec_u8
[1])) *var_cc24t
++;
2458 if(!vec_all_in(var_vec_f32
[0], var_vec_f32
[1])) *var_cc26t
++;
2459 if(!vec_all_le(var_vec_b16
[0], var_vec_s16
[1])) *var_cc26t
++;
2460 if(!vec_all_le(var_vec_b16
[0], var_vec_u16
[1])) *var_cc26t
++;
2461 if(!vec_all_le(var_vec_b32
[0], var_vec_s32
[1])) *var_cc26t
++;
2462 if(!vec_all_le(var_vec_b32
[0], var_vec_u32
[1])) *var_cc26t
++;
2463 if(!vec_all_le(var_vec_b8
[0], var_vec_s8
[1])) *var_cc26t
++;
2464 if(!vec_all_le(var_vec_b8
[0], var_vec_u8
[1])) *var_cc26t
++;
2465 if(!vec_all_le(var_vec_f32
[0], var_vec_f32
[1])) *var_cc24tr
++;
2466 if(!vec_all_le(var_vec_s16
[0], var_vec_b16
[1])) *var_cc26t
++;
2467 if(!vec_all_le(var_vec_s16
[0], var_vec_s16
[1])) *var_cc26t
++;
2468 if(!vec_all_le(var_vec_s32
[0], var_vec_b32
[1])) *var_cc26t
++;
2469 if(!vec_all_le(var_vec_s32
[0], var_vec_s32
[1])) *var_cc26t
++;
2472 if(!vec_all_le(var_vec_s8
[0], var_vec_b8
[1])) *var_cc26t
++;
2473 if(!vec_all_le(var_vec_s8
[0], var_vec_s8
[1])) *var_cc26t
++;
2474 if(!vec_all_le(var_vec_u16
[0], var_vec_b16
[1])) *var_cc26t
++;
2475 if(!vec_all_le(var_vec_u16
[0], var_vec_u16
[1])) *var_cc26t
++;
2476 if(!vec_all_le(var_vec_u32
[0], var_vec_b32
[1])) *var_cc26t
++;
2477 if(!vec_all_le(var_vec_u32
[0], var_vec_u32
[1])) *var_cc26t
++;
2478 if(!vec_all_le(var_vec_u8
[0], var_vec_b8
[1])) *var_cc26t
++;
2479 if(!vec_all_le(var_vec_u8
[0], var_vec_u8
[1])) *var_cc26t
++;
2480 if(!vec_all_lt(var_vec_b16
[0], var_vec_s16
[1])) *var_cc24tr
++;
2481 if(!vec_all_lt(var_vec_b16
[0], var_vec_u16
[1])) *var_cc24tr
++;
2482 if(!vec_all_lt(var_vec_b32
[0], var_vec_s32
[1])) *var_cc24tr
++;
2483 if(!vec_all_lt(var_vec_b32
[0], var_vec_u32
[1])) *var_cc24tr
++;
2484 if(!vec_all_lt(var_vec_b8
[0], var_vec_s8
[1])) *var_cc24tr
++;
2485 if(!vec_all_lt(var_vec_b8
[0], var_vec_u8
[1])) *var_cc24tr
++;
2486 if(!vec_all_lt(var_vec_f32
[0], var_vec_f32
[1])) *var_cc24tr
++;
2487 if(!vec_all_lt(var_vec_s16
[0], var_vec_b16
[1])) *var_cc24tr
++;
2488 if(!vec_all_lt(var_vec_s16
[0], var_vec_s16
[1])) *var_cc24tr
++;
2489 if(!vec_all_lt(var_vec_s32
[0], var_vec_b32
[1])) *var_cc24tr
++;
2490 if(!vec_all_lt(var_vec_s32
[0], var_vec_s32
[1])) *var_cc24tr
++;
2491 if(!vec_all_lt(var_vec_s8
[0], var_vec_b8
[1])) *var_cc24tr
++;
2492 if(!vec_all_lt(var_vec_s8
[0], var_vec_s8
[1])) *var_cc24tr
++;
2493 if(!vec_all_lt(var_vec_u16
[0], var_vec_b16
[1])) *var_cc24tr
++;
2494 if(!vec_all_lt(var_vec_u16
[0], var_vec_u16
[1])) *var_cc24tr
++;
2495 if(!vec_all_lt(var_vec_u32
[0], var_vec_b32
[1])) *var_cc24tr
++;
2496 if(!vec_all_lt(var_vec_u32
[0], var_vec_u32
[1])) *var_cc24tr
++;
2497 if(!vec_all_lt(var_vec_u8
[0], var_vec_b8
[1])) *var_cc24tr
++;
2498 if(!vec_all_lt(var_vec_u8
[0], var_vec_u8
[1])) *var_cc24tr
++;
2499 if(!vec_all_nan(var_vec_f32
[0])) *var_cc26td
++;
2500 if(!vec_all_ne(var_vec_b16
[0], var_vec_b16
[1])) *var_cc26t
++;
2501 if(!vec_all_ne(var_vec_b16
[0], var_vec_s16
[1])) *var_cc26t
++;
2502 if(!vec_all_ne(var_vec_b16
[0], var_vec_u16
[1])) *var_cc26t
++;
2503 if(!vec_all_ne(var_vec_b32
[0], var_vec_b32
[1])) *var_cc26t
++;
2504 if(!vec_all_ne(var_vec_b32
[0], var_vec_s32
[1])) *var_cc26t
++;
2505 if(!vec_all_ne(var_vec_b32
[0], var_vec_u32
[1])) *var_cc26t
++;
2506 if(!vec_all_ne(var_vec_b8
[0], var_vec_b8
[1])) *var_cc26t
++;
2507 if(!vec_all_ne(var_vec_b8
[0], var_vec_s8
[1])) *var_cc26t
++;
2508 if(!vec_all_ne(var_vec_b8
[0], var_vec_u8
[1])) *var_cc26t
++;
2509 if(!vec_all_ne(var_vec_f32
[0], var_vec_f32
[1])) *var_cc26t
++;
2510 if(!vec_all_ne(var_vec_p16
[0], var_vec_p16
[1])) *var_cc26t
++;
2511 if(!vec_all_ne(var_vec_s16
[0], var_vec_b16
[1])) *var_cc26t
++;
2512 if(!vec_all_ne(var_vec_s16
[0], var_vec_s16
[1])) *var_cc26t
++;
2513 if(!vec_all_ne(var_vec_s32
[0], var_vec_b32
[1])) *var_cc26t
++;
2514 if(!vec_all_ne(var_vec_s32
[0], var_vec_s32
[1])) *var_cc26t
++;
2515 if(!vec_all_ne(var_vec_s8
[0], var_vec_b8
[1])) *var_cc26t
++;
2516 if(!vec_all_ne(var_vec_s8
[0], var_vec_s8
[1])) *var_cc26t
++;
2517 if(!vec_all_ne(var_vec_u16
[0], var_vec_b16
[1])) *var_cc26t
++;
2518 if(!vec_all_ne(var_vec_u16
[0], var_vec_u16
[1])) *var_cc26t
++;
2519 if(!vec_all_ne(var_vec_u32
[0], var_vec_b32
[1])) *var_cc26t
++;
2520 if(!vec_all_ne(var_vec_u32
[0], var_vec_u32
[1])) *var_cc26t
++;
2521 if(!vec_all_ne(var_vec_u8
[0], var_vec_b8
[1])) *var_cc26t
++;
2522 if(!vec_all_ne(var_vec_u8
[0], var_vec_u8
[1])) *var_cc26t
++;
2523 if(!vec_all_nge(var_vec_f32
[0], var_vec_f32
[1])) *var_cc26t
++;
2524 if(!vec_all_ngt(var_vec_f32
[0], var_vec_f32
[1])) *var_cc26t
++;
2525 if(!vec_all_nle(var_vec_f32
[0], var_vec_f32
[1])) *var_cc26tr
++;
2526 if(!vec_all_nlt(var_vec_f32
[0], var_vec_f32
[1])) *var_cc26tr
++;
2527 if(!vec_all_numeric(var_vec_f32
[0])) *var_cc24td
++;
2528 if(!vec_any_eq(var_vec_b16
[0], var_vec_b16
[1])) *var_cc26f
++;
2529 if(!vec_any_eq(var_vec_b16
[0], var_vec_s16
[1])) *var_cc26f
++;
2530 if(!vec_any_eq(var_vec_b16
[0], var_vec_u16
[1])) *var_cc26f
++;
2531 if(!vec_any_eq(var_vec_b32
[0], var_vec_b32
[1])) *var_cc26f
++;
2532 if(!vec_any_eq(var_vec_b32
[0], var_vec_s32
[1])) *var_cc26f
++;
2533 if(!vec_any_eq(var_vec_b32
[0], var_vec_u32
[1])) *var_cc26f
++;
2534 if(!vec_any_eq(var_vec_b8
[0], var_vec_b8
[1])) *var_cc26f
++;
2535 if(!vec_any_eq(var_vec_b8
[0], var_vec_s8
[1])) *var_cc26f
++;
2536 if(!vec_any_eq(var_vec_b8
[0], var_vec_u8
[1])) *var_cc26f
++;
2537 if(!vec_any_eq(var_vec_f32
[0], var_vec_f32
[1])) *var_cc26f
++;
2538 if(!vec_any_eq(var_vec_p16
[0], var_vec_p16
[1])) *var_cc26f
++;
2539 if(!vec_any_eq(var_vec_s16
[0], var_vec_b16
[1])) *var_cc26f
++;
2540 if(!vec_any_eq(var_vec_s16
[0], var_vec_s16
[1])) *var_cc26f
++;
2541 if(!vec_any_eq(var_vec_s32
[0], var_vec_b32
[1])) *var_cc26f
++;
2542 if(!vec_any_eq(var_vec_s32
[0], var_vec_s32
[1])) *var_cc26f
++;
2543 if(!vec_any_eq(var_vec_s8
[0], var_vec_b8
[1])) *var_cc26f
++;
2544 if(!vec_any_eq(var_vec_s8
[0], var_vec_s8
[1])) *var_cc26f
++;
2545 if(!vec_any_eq(var_vec_u16
[0], var_vec_b16
[1])) *var_cc26f
++;
2546 if(!vec_any_eq(var_vec_u16
[0], var_vec_u16
[1])) *var_cc26f
++;
2547 if(!vec_any_eq(var_vec_u32
[0], var_vec_b32
[1])) *var_cc26f
++;
2548 if(!vec_any_eq(var_vec_u32
[0], var_vec_u32
[1])) *var_cc26f
++;
2549 if(!vec_any_eq(var_vec_u8
[0], var_vec_b8
[1])) *var_cc26f
++;
2550 if(!vec_any_eq(var_vec_u8
[0], var_vec_u8
[1])) *var_cc26f
++;
2551 if(!vec_any_ge(var_vec_b16
[0], var_vec_s16
[1])) *var_cc24fr
++;
2552 if(!vec_any_ge(var_vec_b16
[0], var_vec_u16
[1])) *var_cc24fr
++;
2553 if(!vec_any_ge(var_vec_b32
[0], var_vec_s32
[1])) *var_cc24fr
++;
2554 if(!vec_any_ge(var_vec_b32
[0], var_vec_u32
[1])) *var_cc24fr
++;
2555 if(!vec_any_ge(var_vec_b8
[0], var_vec_s8
[1])) *var_cc24fr
++;
2556 if(!vec_any_ge(var_vec_b8
[0], var_vec_u8
[1])) *var_cc24fr
++;
2557 if(!vec_any_ge(var_vec_f32
[0], var_vec_f32
[1])) *var_cc26f
++;
2558 if(!vec_any_ge(var_vec_s16
[0], var_vec_b16
[1])) *var_cc24fr
++;
2559 if(!vec_any_ge(var_vec_s16
[0], var_vec_s16
[1])) *var_cc24fr
++;
2560 if(!vec_any_ge(var_vec_s32
[0], var_vec_b32
[1])) *var_cc24fr
++;
2561 if(!vec_any_ge(var_vec_s32
[0], var_vec_s32
[1])) *var_cc24fr
++;
2562 if(!vec_any_ge(var_vec_s8
[0], var_vec_b8
[1])) *var_cc24fr
++;
2563 if(!vec_any_ge(var_vec_s8
[0], var_vec_s8
[1])) *var_cc24fr
++;
2564 if(!vec_any_ge(var_vec_u16
[0], var_vec_b16
[1])) *var_cc24fr
++;
2565 if(!vec_any_ge(var_vec_u16
[0], var_vec_u16
[1])) *var_cc24fr
++;
2566 if(!vec_any_ge(var_vec_u32
[0], var_vec_b32
[1])) *var_cc24fr
++;
2567 if(!vec_any_ge(var_vec_u32
[0], var_vec_u32
[1])) *var_cc24fr
++;
2568 if(!vec_any_ge(var_vec_u8
[0], var_vec_b8
[1])) *var_cc24fr
++;
2569 if(!vec_any_ge(var_vec_u8
[0], var_vec_u8
[1])) *var_cc24fr
++;
2570 if(!vec_any_gt(var_vec_b16
[0], var_vec_s16
[1])) *var_cc26f
++;
2571 if(!vec_any_gt(var_vec_b16
[0], var_vec_u16
[1])) *var_cc26f
++;
2574 if(!vec_any_gt(var_vec_b32
[0], var_vec_s32
[1])) *var_cc26f
++;
2575 if(!vec_any_gt(var_vec_b32
[0], var_vec_u32
[1])) *var_cc26f
++;
2576 if(!vec_any_gt(var_vec_b8
[0], var_vec_s8
[1])) *var_cc26f
++;
2577 if(!vec_any_gt(var_vec_b8
[0], var_vec_u8
[1])) *var_cc26f
++;
2578 if(!vec_any_gt(var_vec_f32
[0], var_vec_f32
[1])) *var_cc26f
++;
2579 if(!vec_any_gt(var_vec_s16
[0], var_vec_b16
[1])) *var_cc26f
++;
2580 if(!vec_any_gt(var_vec_s16
[0], var_vec_s16
[1])) *var_cc26f
++;
2581 if(!vec_any_gt(var_vec_s32
[0], var_vec_b32
[1])) *var_cc26f
++;
2582 if(!vec_any_gt(var_vec_s32
[0], var_vec_s32
[1])) *var_cc26f
++;
2583 if(!vec_any_gt(var_vec_s8
[0], var_vec_b8
[1])) *var_cc26f
++;
2584 if(!vec_any_gt(var_vec_s8
[0], var_vec_s8
[1])) *var_cc26f
++;
2585 if(!vec_any_gt(var_vec_u16
[0], var_vec_b16
[1])) *var_cc26f
++;
2586 if(!vec_any_gt(var_vec_u16
[0], var_vec_u16
[1])) *var_cc26f
++;
2587 if(!vec_any_gt(var_vec_u32
[0], var_vec_b32
[1])) *var_cc26f
++;
2588 if(!vec_any_gt(var_vec_u32
[0], var_vec_u32
[1])) *var_cc26f
++;
2589 if(!vec_any_gt(var_vec_u8
[0], var_vec_b8
[1])) *var_cc26f
++;
2590 if(!vec_any_gt(var_vec_u8
[0], var_vec_u8
[1])) *var_cc26f
++;
2591 if(!vec_any_le(var_vec_b16
[0], var_vec_s16
[1])) *var_cc24f
++;
2592 if(!vec_any_le(var_vec_b16
[0], var_vec_u16
[1])) *var_cc24f
++;
2593 if(!vec_any_le(var_vec_b32
[0], var_vec_s32
[1])) *var_cc24f
++;
2594 if(!vec_any_le(var_vec_b32
[0], var_vec_u32
[1])) *var_cc24f
++;
2595 if(!vec_any_le(var_vec_b8
[0], var_vec_s8
[1])) *var_cc24f
++;
2596 if(!vec_any_le(var_vec_b8
[0], var_vec_u8
[1])) *var_cc24f
++;
2597 if(!vec_any_le(var_vec_f32
[0], var_vec_f32
[1])) *var_cc26fr
++;
2598 if(!vec_any_le(var_vec_s16
[0], var_vec_b16
[1])) *var_cc24f
++;
2599 if(!vec_any_le(var_vec_s16
[0], var_vec_s16
[1])) *var_cc24f
++;
2600 if(!vec_any_le(var_vec_s32
[0], var_vec_b32
[1])) *var_cc24f
++;
2601 if(!vec_any_le(var_vec_s32
[0], var_vec_s32
[1])) *var_cc24f
++;
2602 if(!vec_any_le(var_vec_s8
[0], var_vec_b8
[1])) *var_cc24f
++;
2603 if(!vec_any_le(var_vec_s8
[0], var_vec_s8
[1])) *var_cc24f
++;
2604 if(!vec_any_le(var_vec_u16
[0], var_vec_b16
[1])) *var_cc24f
++;
2605 if(!vec_any_le(var_vec_u16
[0], var_vec_u16
[1])) *var_cc24f
++;
2606 if(!vec_any_le(var_vec_u32
[0], var_vec_b32
[1])) *var_cc24f
++;
2607 if(!vec_any_le(var_vec_u32
[0], var_vec_u32
[1])) *var_cc24f
++;
2608 if(!vec_any_le(var_vec_u8
[0], var_vec_b8
[1])) *var_cc24f
++;
2609 if(!vec_any_le(var_vec_u8
[0], var_vec_u8
[1])) *var_cc24f
++;
2610 if(!vec_any_lt(var_vec_b16
[0], var_vec_s16
[1])) *var_cc26fr
++;
2611 if(!vec_any_lt(var_vec_b16
[0], var_vec_u16
[1])) *var_cc26fr
++;
2612 if(!vec_any_lt(var_vec_b32
[0], var_vec_s32
[1])) *var_cc26fr
++;
2613 if(!vec_any_lt(var_vec_b32
[0], var_vec_u32
[1])) *var_cc26fr
++;
2614 if(!vec_any_lt(var_vec_b8
[0], var_vec_s8
[1])) *var_cc26fr
++;
2615 if(!vec_any_lt(var_vec_b8
[0], var_vec_u8
[1])) *var_cc26fr
++;
2616 if(!vec_any_lt(var_vec_f32
[0], var_vec_f32
[1])) *var_cc26fr
++;
2617 if(!vec_any_lt(var_vec_s16
[0], var_vec_b16
[1])) *var_cc26fr
++;
2618 if(!vec_any_lt(var_vec_s16
[0], var_vec_s16
[1])) *var_cc26fr
++;
2619 if(!vec_any_lt(var_vec_s32
[0], var_vec_b32
[1])) *var_cc26fr
++;
2620 if(!vec_any_lt(var_vec_s32
[0], var_vec_s32
[1])) *var_cc26fr
++;
2621 if(!vec_any_lt(var_vec_s8
[0], var_vec_b8
[1])) *var_cc26fr
++;
2622 if(!vec_any_lt(var_vec_s8
[0], var_vec_s8
[1])) *var_cc26fr
++;
2623 if(!vec_any_lt(var_vec_u16
[0], var_vec_b16
[1])) *var_cc26fr
++;
2624 if(!vec_any_lt(var_vec_u16
[0], var_vec_u16
[1])) *var_cc26fr
++;
2625 if(!vec_any_lt(var_vec_u32
[0], var_vec_b32
[1])) *var_cc26fr
++;
2626 if(!vec_any_lt(var_vec_u32
[0], var_vec_u32
[1])) *var_cc26fr
++;
2627 if(!vec_any_lt(var_vec_u8
[0], var_vec_b8
[1])) *var_cc26fr
++;
2628 if(!vec_any_lt(var_vec_u8
[0], var_vec_u8
[1])) *var_cc26fr
++;
2629 if(!vec_any_nan(var_vec_f32
[0])) *var_cc24fd
++;
2630 if(!vec_any_ne(var_vec_b16
[0], var_vec_b16
[1])) *var_cc24f
++;
2631 if(!vec_any_ne(var_vec_b16
[0], var_vec_s16
[1])) *var_cc24f
++;
2632 if(!vec_any_ne(var_vec_b16
[0], var_vec_u16
[1])) *var_cc24f
++;
2633 if(!vec_any_ne(var_vec_b32
[0], var_vec_b32
[1])) *var_cc24f
++;
2634 if(!vec_any_ne(var_vec_b32
[0], var_vec_s32
[1])) *var_cc24f
++;
2635 if(!vec_any_ne(var_vec_b32
[0], var_vec_u32
[1])) *var_cc24f
++;
2636 if(!vec_any_ne(var_vec_b8
[0], var_vec_b8
[1])) *var_cc24f
++;
2637 if(!vec_any_ne(var_vec_b8
[0], var_vec_s8
[1])) *var_cc24f
++;
2638 if(!vec_any_ne(var_vec_b8
[0], var_vec_u8
[1])) *var_cc24f
++;
2639 if(!vec_any_ne(var_vec_f32
[0], var_vec_f32
[1])) *var_cc24f
++;
2640 if(!vec_any_ne(var_vec_p16
[0], var_vec_p16
[1])) *var_cc24f
++;
2641 if(!vec_any_ne(var_vec_s16
[0], var_vec_b16
[1])) *var_cc24f
++;
2642 if(!vec_any_ne(var_vec_s16
[0], var_vec_s16
[1])) *var_cc24f
++;
2643 if(!vec_any_ne(var_vec_s32
[0], var_vec_b32
[1])) *var_cc24f
++;
2644 if(!vec_any_ne(var_vec_s32
[0], var_vec_s32
[1])) *var_cc24f
++;
2645 if(!vec_any_ne(var_vec_s8
[0], var_vec_b8
[1])) *var_cc24f
++;
2646 if(!vec_any_ne(var_vec_s8
[0], var_vec_s8
[1])) *var_cc24f
++;
2647 if(!vec_any_ne(var_vec_u16
[0], var_vec_b16
[1])) *var_cc24f
++;
2648 if(!vec_any_ne(var_vec_u16
[0], var_vec_u16
[1])) *var_cc24f
++;
2649 if(!vec_any_ne(var_vec_u32
[0], var_vec_b32
[1])) *var_cc24f
++;
2650 if(!vec_any_ne(var_vec_u32
[0], var_vec_u32
[1])) *var_cc24f
++;
2651 if(!vec_any_ne(var_vec_u8
[0], var_vec_b8
[1])) *var_cc24f
++;
2652 if(!vec_any_ne(var_vec_u8
[0], var_vec_u8
[1])) *var_cc24f
++;
2653 if(!vec_any_nge(var_vec_f32
[0], var_vec_f32
[1])) *var_cc24f
++;
2654 if(!vec_any_ngt(var_vec_f32
[0], var_vec_f32
[1])) *var_cc24f
++;
2655 if(!vec_any_nle(var_vec_f32
[0], var_vec_f32
[1])) *var_cc24fr
++;
2656 if(!vec_any_nlt(var_vec_f32
[0], var_vec_f32
[1])) *var_cc24fr
++;
2657 if(!vec_any_numeric(var_vec_f32
[0])) *var_cc26fd
++;
2658 if(!vec_any_out(var_vec_f32
[0], var_vec_f32
[1])) *var_cc26f
++;
2659 if(vec_all_eq(var_vec_b16
[0], var_vec_b16
[1])) *var_cc24t
++;
2660 if(vec_all_eq(var_vec_b16
[0], var_vec_s16
[1])) *var_cc24t
++;
2661 if(vec_all_eq(var_vec_b16
[0], var_vec_u16
[1])) *var_cc24t
++;
2662 if(vec_all_eq(var_vec_b32
[0], var_vec_b32
[1])) *var_cc24t
++;
2663 if(vec_all_eq(var_vec_b32
[0], var_vec_s32
[1])) *var_cc24t
++;
2664 if(vec_all_eq(var_vec_b32
[0], var_vec_u32
[1])) *var_cc24t
++;
2665 if(vec_all_eq(var_vec_b8
[0], var_vec_b8
[1])) *var_cc24t
++;
2666 if(vec_all_eq(var_vec_b8
[0], var_vec_s8
[1])) *var_cc24t
++;
2667 if(vec_all_eq(var_vec_b8
[0], var_vec_u8
[1])) *var_cc24t
++;
2668 if(vec_all_eq(var_vec_f32
[0], var_vec_f32
[1])) *var_cc24t
++;
2669 if(vec_all_eq(var_vec_p16
[0], var_vec_p16
[1])) *var_cc24t
++;
2670 if(vec_all_eq(var_vec_s16
[0], var_vec_b16
[1])) *var_cc24t
++;
2671 if(vec_all_eq(var_vec_s16
[0], var_vec_s16
[1])) *var_cc24t
++;
2672 if(vec_all_eq(var_vec_s32
[0], var_vec_b32
[1])) *var_cc24t
++;
2673 if(vec_all_eq(var_vec_s32
[0], var_vec_s32
[1])) *var_cc24t
++;
2676 if(vec_all_eq(var_vec_s8
[0], var_vec_b8
[1])) *var_cc24t
++;
2677 if(vec_all_eq(var_vec_s8
[0], var_vec_s8
[1])) *var_cc24t
++;
2678 if(vec_all_eq(var_vec_u16
[0], var_vec_b16
[1])) *var_cc24t
++;
2679 if(vec_all_eq(var_vec_u16
[0], var_vec_u16
[1])) *var_cc24t
++;
2680 if(vec_all_eq(var_vec_u32
[0], var_vec_b32
[1])) *var_cc24t
++;
2681 if(vec_all_eq(var_vec_u32
[0], var_vec_u32
[1])) *var_cc24t
++;
2682 if(vec_all_eq(var_vec_u8
[0], var_vec_b8
[1])) *var_cc24t
++;
2683 if(vec_all_eq(var_vec_u8
[0], var_vec_u8
[1])) *var_cc24t
++;
2684 if(vec_all_ge(var_vec_b16
[0], var_vec_s16
[1])) *var_cc26tr
++;
2685 if(vec_all_ge(var_vec_b16
[0], var_vec_u16
[1])) *var_cc26tr
++;
2686 if(vec_all_ge(var_vec_b32
[0], var_vec_s32
[1])) *var_cc26tr
++;
2687 if(vec_all_ge(var_vec_b32
[0], var_vec_u32
[1])) *var_cc26tr
++;
2688 if(vec_all_ge(var_vec_b8
[0], var_vec_s8
[1])) *var_cc26tr
++;
2689 if(vec_all_ge(var_vec_b8
[0], var_vec_u8
[1])) *var_cc26tr
++;
2690 if(vec_all_ge(var_vec_f32
[0], var_vec_f32
[1])) *var_cc24t
++;
2691 if(vec_all_ge(var_vec_s16
[0], var_vec_b16
[1])) *var_cc26tr
++;
2692 if(vec_all_ge(var_vec_s16
[0], var_vec_s16
[1])) *var_cc26tr
++;
2693 if(vec_all_ge(var_vec_s32
[0], var_vec_b32
[1])) *var_cc26tr
++;
2694 if(vec_all_ge(var_vec_s32
[0], var_vec_s32
[1])) *var_cc26tr
++;
2695 if(vec_all_ge(var_vec_s8
[0], var_vec_b8
[1])) *var_cc26tr
++;
2696 if(vec_all_ge(var_vec_s8
[0], var_vec_s8
[1])) *var_cc26tr
++;
2697 if(vec_all_ge(var_vec_u16
[0], var_vec_b16
[1])) *var_cc26tr
++;
2698 if(vec_all_ge(var_vec_u16
[0], var_vec_u16
[1])) *var_cc26tr
++;
2699 if(vec_all_ge(var_vec_u32
[0], var_vec_b32
[1])) *var_cc26tr
++;
2700 if(vec_all_ge(var_vec_u32
[0], var_vec_u32
[1])) *var_cc26tr
++;
2701 if(vec_all_ge(var_vec_u8
[0], var_vec_b8
[1])) *var_cc26tr
++;
2702 if(vec_all_ge(var_vec_u8
[0], var_vec_u8
[1])) *var_cc26tr
++;
2703 if(vec_all_gt(var_vec_b16
[0], var_vec_s16
[1])) *var_cc24t
++;
2704 if(vec_all_gt(var_vec_b16
[0], var_vec_u16
[1])) *var_cc24t
++;
2705 if(vec_all_gt(var_vec_b32
[0], var_vec_s32
[1])) *var_cc24t
++;
2706 if(vec_all_gt(var_vec_b32
[0], var_vec_u32
[1])) *var_cc24t
++;
2707 if(vec_all_gt(var_vec_b8
[0], var_vec_s8
[1])) *var_cc24t
++;
2708 if(vec_all_gt(var_vec_b8
[0], var_vec_u8
[1])) *var_cc24t
++;
2709 if(vec_all_gt(var_vec_f32
[0], var_vec_f32
[1])) *var_cc24t
++;
2710 if(vec_all_gt(var_vec_s16
[0], var_vec_b16
[1])) *var_cc24t
++;
2711 if(vec_all_gt(var_vec_s16
[0], var_vec_s16
[1])) *var_cc24t
++;
2712 if(vec_all_gt(var_vec_s32
[0], var_vec_b32
[1])) *var_cc24t
++;
2713 if(vec_all_gt(var_vec_s32
[0], var_vec_s32
[1])) *var_cc24t
++;
2714 if(vec_all_gt(var_vec_s8
[0], var_vec_b8
[1])) *var_cc24t
++;
2715 if(vec_all_gt(var_vec_s8
[0], var_vec_s8
[1])) *var_cc24t
++;
2716 if(vec_all_gt(var_vec_u16
[0], var_vec_b16
[1])) *var_cc24t
++;
2717 if(vec_all_gt(var_vec_u16
[0], var_vec_u16
[1])) *var_cc24t
++;
2718 if(vec_all_gt(var_vec_u32
[0], var_vec_b32
[1])) *var_cc24t
++;
2719 if(vec_all_gt(var_vec_u32
[0], var_vec_u32
[1])) *var_cc24t
++;
2720 if(vec_all_gt(var_vec_u8
[0], var_vec_b8
[1])) *var_cc24t
++;
2721 if(vec_all_gt(var_vec_u8
[0], var_vec_u8
[1])) *var_cc24t
++;
2722 if(vec_all_in(var_vec_f32
[0], var_vec_f32
[1])) *var_cc26t
++;
2723 if(vec_all_le(var_vec_b16
[0], var_vec_s16
[1])) *var_cc26t
++;
2724 if(vec_all_le(var_vec_b16
[0], var_vec_u16
[1])) *var_cc26t
++;
2725 if(vec_all_le(var_vec_b32
[0], var_vec_s32
[1])) *var_cc26t
++;
2726 if(vec_all_le(var_vec_b32
[0], var_vec_u32
[1])) *var_cc26t
++;
2727 if(vec_all_le(var_vec_b8
[0], var_vec_s8
[1])) *var_cc26t
++;
2728 if(vec_all_le(var_vec_b8
[0], var_vec_u8
[1])) *var_cc26t
++;
2729 if(vec_all_le(var_vec_f32
[0], var_vec_f32
[1])) *var_cc24tr
++;
2730 if(vec_all_le(var_vec_s16
[0], var_vec_b16
[1])) *var_cc26t
++;
2731 if(vec_all_le(var_vec_s16
[0], var_vec_s16
[1])) *var_cc26t
++;
2732 if(vec_all_le(var_vec_s32
[0], var_vec_b32
[1])) *var_cc26t
++;
2733 if(vec_all_le(var_vec_s32
[0], var_vec_s32
[1])) *var_cc26t
++;
2734 if(vec_all_le(var_vec_s8
[0], var_vec_b8
[1])) *var_cc26t
++;
2735 if(vec_all_le(var_vec_s8
[0], var_vec_s8
[1])) *var_cc26t
++;
2736 if(vec_all_le(var_vec_u16
[0], var_vec_b16
[1])) *var_cc26t
++;
2737 if(vec_all_le(var_vec_u16
[0], var_vec_u16
[1])) *var_cc26t
++;
2738 if(vec_all_le(var_vec_u32
[0], var_vec_b32
[1])) *var_cc26t
++;
2739 if(vec_all_le(var_vec_u32
[0], var_vec_u32
[1])) *var_cc26t
++;
2740 if(vec_all_le(var_vec_u8
[0], var_vec_b8
[1])) *var_cc26t
++;
2741 if(vec_all_le(var_vec_u8
[0], var_vec_u8
[1])) *var_cc26t
++;
2742 if(vec_all_lt(var_vec_b16
[0], var_vec_s16
[1])) *var_cc24tr
++;
2743 if(vec_all_lt(var_vec_b16
[0], var_vec_u16
[1])) *var_cc24tr
++;
2744 if(vec_all_lt(var_vec_b32
[0], var_vec_s32
[1])) *var_cc24tr
++;
2745 if(vec_all_lt(var_vec_b32
[0], var_vec_u32
[1])) *var_cc24tr
++;
2746 if(vec_all_lt(var_vec_b8
[0], var_vec_s8
[1])) *var_cc24tr
++;
2747 if(vec_all_lt(var_vec_b8
[0], var_vec_u8
[1])) *var_cc24tr
++;
2748 if(vec_all_lt(var_vec_f32
[0], var_vec_f32
[1])) *var_cc24tr
++;
2749 if(vec_all_lt(var_vec_s16
[0], var_vec_b16
[1])) *var_cc24tr
++;
2750 if(vec_all_lt(var_vec_s16
[0], var_vec_s16
[1])) *var_cc24tr
++;
2751 if(vec_all_lt(var_vec_s32
[0], var_vec_b32
[1])) *var_cc24tr
++;
2752 if(vec_all_lt(var_vec_s32
[0], var_vec_s32
[1])) *var_cc24tr
++;
2753 if(vec_all_lt(var_vec_s8
[0], var_vec_b8
[1])) *var_cc24tr
++;
2754 if(vec_all_lt(var_vec_s8
[0], var_vec_s8
[1])) *var_cc24tr
++;
2755 if(vec_all_lt(var_vec_u16
[0], var_vec_b16
[1])) *var_cc24tr
++;
2756 if(vec_all_lt(var_vec_u16
[0], var_vec_u16
[1])) *var_cc24tr
++;
2757 if(vec_all_lt(var_vec_u32
[0], var_vec_b32
[1])) *var_cc24tr
++;
2758 if(vec_all_lt(var_vec_u32
[0], var_vec_u32
[1])) *var_cc24tr
++;
2759 if(vec_all_lt(var_vec_u8
[0], var_vec_b8
[1])) *var_cc24tr
++;
2760 if(vec_all_lt(var_vec_u8
[0], var_vec_u8
[1])) *var_cc24tr
++;
2761 if(vec_all_nan(var_vec_f32
[0])) *var_cc26td
++;
2762 if(vec_all_ne(var_vec_b16
[0], var_vec_b16
[1])) *var_cc26t
++;
2763 if(vec_all_ne(var_vec_b16
[0], var_vec_s16
[1])) *var_cc26t
++;
2764 if(vec_all_ne(var_vec_b16
[0], var_vec_u16
[1])) *var_cc26t
++;
2765 if(vec_all_ne(var_vec_b32
[0], var_vec_b32
[1])) *var_cc26t
++;
2766 if(vec_all_ne(var_vec_b32
[0], var_vec_s32
[1])) *var_cc26t
++;
2767 if(vec_all_ne(var_vec_b32
[0], var_vec_u32
[1])) *var_cc26t
++;
2768 if(vec_all_ne(var_vec_b8
[0], var_vec_b8
[1])) *var_cc26t
++;
2769 if(vec_all_ne(var_vec_b8
[0], var_vec_s8
[1])) *var_cc26t
++;
2770 if(vec_all_ne(var_vec_b8
[0], var_vec_u8
[1])) *var_cc26t
++;
2771 if(vec_all_ne(var_vec_f32
[0], var_vec_f32
[1])) *var_cc26t
++;
2772 if(vec_all_ne(var_vec_p16
[0], var_vec_p16
[1])) *var_cc26t
++;
2773 if(vec_all_ne(var_vec_s16
[0], var_vec_b16
[1])) *var_cc26t
++;
2774 if(vec_all_ne(var_vec_s16
[0], var_vec_s16
[1])) *var_cc26t
++;
2775 if(vec_all_ne(var_vec_s32
[0], var_vec_b32
[1])) *var_cc26t
++;
2778 if(vec_all_ne(var_vec_s32
[0], var_vec_s32
[1])) *var_cc26t
++;
2779 if(vec_all_ne(var_vec_s8
[0], var_vec_b8
[1])) *var_cc26t
++;
2780 if(vec_all_ne(var_vec_s8
[0], var_vec_s8
[1])) *var_cc26t
++;
2781 if(vec_all_ne(var_vec_u16
[0], var_vec_b16
[1])) *var_cc26t
++;
2782 if(vec_all_ne(var_vec_u16
[0], var_vec_u16
[1])) *var_cc26t
++;
2783 if(vec_all_ne(var_vec_u32
[0], var_vec_b32
[1])) *var_cc26t
++;
2784 if(vec_all_ne(var_vec_u32
[0], var_vec_u32
[1])) *var_cc26t
++;
2785 if(vec_all_ne(var_vec_u8
[0], var_vec_b8
[1])) *var_cc26t
++;
2786 if(vec_all_ne(var_vec_u8
[0], var_vec_u8
[1])) *var_cc26t
++;
2787 if(vec_all_nge(var_vec_f32
[0], var_vec_f32
[1])) *var_cc26t
++;
2788 if(vec_all_ngt(var_vec_f32
[0], var_vec_f32
[1])) *var_cc26t
++;
2789 if(vec_all_nle(var_vec_f32
[0], var_vec_f32
[1])) *var_cc26tr
++;
2790 if(vec_all_nlt(var_vec_f32
[0], var_vec_f32
[1])) *var_cc26tr
++;
2791 if(vec_all_numeric(var_vec_f32
[0])) *var_cc24td
++;
2792 if(vec_any_eq(var_vec_b16
[0], var_vec_b16
[1])) *var_cc26f
++;
2793 if(vec_any_eq(var_vec_b16
[0], var_vec_s16
[1])) *var_cc26f
++;
2794 if(vec_any_eq(var_vec_b16
[0], var_vec_u16
[1])) *var_cc26f
++;
2795 if(vec_any_eq(var_vec_b32
[0], var_vec_b32
[1])) *var_cc26f
++;
2796 if(vec_any_eq(var_vec_b32
[0], var_vec_s32
[1])) *var_cc26f
++;
2797 if(vec_any_eq(var_vec_b32
[0], var_vec_u32
[1])) *var_cc26f
++;
2798 if(vec_any_eq(var_vec_b8
[0], var_vec_b8
[1])) *var_cc26f
++;
2799 if(vec_any_eq(var_vec_b8
[0], var_vec_s8
[1])) *var_cc26f
++;
2800 if(vec_any_eq(var_vec_b8
[0], var_vec_u8
[1])) *var_cc26f
++;
2801 if(vec_any_eq(var_vec_f32
[0], var_vec_f32
[1])) *var_cc26f
++;
2802 if(vec_any_eq(var_vec_p16
[0], var_vec_p16
[1])) *var_cc26f
++;
2803 if(vec_any_eq(var_vec_s16
[0], var_vec_b16
[1])) *var_cc26f
++;
2804 if(vec_any_eq(var_vec_s16
[0], var_vec_s16
[1])) *var_cc26f
++;
2805 if(vec_any_eq(var_vec_s32
[0], var_vec_b32
[1])) *var_cc26f
++;
2806 if(vec_any_eq(var_vec_s32
[0], var_vec_s32
[1])) *var_cc26f
++;
2807 if(vec_any_eq(var_vec_s8
[0], var_vec_b8
[1])) *var_cc26f
++;
2808 if(vec_any_eq(var_vec_s8
[0], var_vec_s8
[1])) *var_cc26f
++;
2809 if(vec_any_eq(var_vec_u16
[0], var_vec_b16
[1])) *var_cc26f
++;
2810 if(vec_any_eq(var_vec_u16
[0], var_vec_u16
[1])) *var_cc26f
++;
2811 if(vec_any_eq(var_vec_u32
[0], var_vec_b32
[1])) *var_cc26f
++;
2812 if(vec_any_eq(var_vec_u32
[0], var_vec_u32
[1])) *var_cc26f
++;
2813 if(vec_any_eq(var_vec_u8
[0], var_vec_b8
[1])) *var_cc26f
++;
2814 if(vec_any_eq(var_vec_u8
[0], var_vec_u8
[1])) *var_cc26f
++;
2815 if(vec_any_ge(var_vec_b16
[0], var_vec_s16
[1])) *var_cc24fr
++;
2816 if(vec_any_ge(var_vec_b16
[0], var_vec_u16
[1])) *var_cc24fr
++;
2817 if(vec_any_ge(var_vec_b32
[0], var_vec_s32
[1])) *var_cc24fr
++;
2818 if(vec_any_ge(var_vec_b32
[0], var_vec_u32
[1])) *var_cc24fr
++;
2819 if(vec_any_ge(var_vec_b8
[0], var_vec_s8
[1])) *var_cc24fr
++;
2820 if(vec_any_ge(var_vec_b8
[0], var_vec_u8
[1])) *var_cc24fr
++;
2821 if(vec_any_ge(var_vec_f32
[0], var_vec_f32
[1])) *var_cc26f
++;
2822 if(vec_any_ge(var_vec_s16
[0], var_vec_b16
[1])) *var_cc24fr
++;
2823 if(vec_any_ge(var_vec_s16
[0], var_vec_s16
[1])) *var_cc24fr
++;
2824 if(vec_any_ge(var_vec_s32
[0], var_vec_b32
[1])) *var_cc24fr
++;
2825 if(vec_any_ge(var_vec_s32
[0], var_vec_s32
[1])) *var_cc24fr
++;
2826 if(vec_any_ge(var_vec_s8
[0], var_vec_b8
[1])) *var_cc24fr
++;
2827 if(vec_any_ge(var_vec_s8
[0], var_vec_s8
[1])) *var_cc24fr
++;
2828 if(vec_any_ge(var_vec_u16
[0], var_vec_b16
[1])) *var_cc24fr
++;
2829 if(vec_any_ge(var_vec_u16
[0], var_vec_u16
[1])) *var_cc24fr
++;
2830 if(vec_any_ge(var_vec_u32
[0], var_vec_b32
[1])) *var_cc24fr
++;
2831 if(vec_any_ge(var_vec_u32
[0], var_vec_u32
[1])) *var_cc24fr
++;
2832 if(vec_any_ge(var_vec_u8
[0], var_vec_b8
[1])) *var_cc24fr
++;
2833 if(vec_any_ge(var_vec_u8
[0], var_vec_u8
[1])) *var_cc24fr
++;
2834 if(vec_any_gt(var_vec_b16
[0], var_vec_s16
[1])) *var_cc26f
++;
2835 if(vec_any_gt(var_vec_b16
[0], var_vec_u16
[1])) *var_cc26f
++;
2836 if(vec_any_gt(var_vec_b32
[0], var_vec_s32
[1])) *var_cc26f
++;
2837 if(vec_any_gt(var_vec_b32
[0], var_vec_u32
[1])) *var_cc26f
++;
2838 if(vec_any_gt(var_vec_b8
[0], var_vec_s8
[1])) *var_cc26f
++;
2839 if(vec_any_gt(var_vec_b8
[0], var_vec_u8
[1])) *var_cc26f
++;
2840 if(vec_any_gt(var_vec_f32
[0], var_vec_f32
[1])) *var_cc26f
++;
2841 if(vec_any_gt(var_vec_s16
[0], var_vec_b16
[1])) *var_cc26f
++;
2842 if(vec_any_gt(var_vec_s16
[0], var_vec_s16
[1])) *var_cc26f
++;
2843 if(vec_any_gt(var_vec_s32
[0], var_vec_b32
[1])) *var_cc26f
++;
2844 if(vec_any_gt(var_vec_s32
[0], var_vec_s32
[1])) *var_cc26f
++;
2845 if(vec_any_gt(var_vec_s8
[0], var_vec_b8
[1])) *var_cc26f
++;
2846 if(vec_any_gt(var_vec_s8
[0], var_vec_s8
[1])) *var_cc26f
++;
2847 if(vec_any_gt(var_vec_u16
[0], var_vec_b16
[1])) *var_cc26f
++;
2848 if(vec_any_gt(var_vec_u16
[0], var_vec_u16
[1])) *var_cc26f
++;
2849 if(vec_any_gt(var_vec_u32
[0], var_vec_b32
[1])) *var_cc26f
++;
2850 if(vec_any_gt(var_vec_u32
[0], var_vec_u32
[1])) *var_cc26f
++;
2851 if(vec_any_gt(var_vec_u8
[0], var_vec_b8
[1])) *var_cc26f
++;
2852 if(vec_any_gt(var_vec_u8
[0], var_vec_u8
[1])) *var_cc26f
++;
2853 if(vec_any_le(var_vec_b16
[0], var_vec_s16
[1])) *var_cc24f
++;
2854 if(vec_any_le(var_vec_b16
[0], var_vec_u16
[1])) *var_cc24f
++;
2855 if(vec_any_le(var_vec_b32
[0], var_vec_s32
[1])) *var_cc24f
++;
2856 if(vec_any_le(var_vec_b32
[0], var_vec_u32
[1])) *var_cc24f
++;
2857 if(vec_any_le(var_vec_b8
[0], var_vec_s8
[1])) *var_cc24f
++;
2858 if(vec_any_le(var_vec_b8
[0], var_vec_u8
[1])) *var_cc24f
++;
2859 if(vec_any_le(var_vec_f32
[0], var_vec_f32
[1])) *var_cc26fr
++;
2860 if(vec_any_le(var_vec_s16
[0], var_vec_b16
[1])) *var_cc24f
++;
2861 if(vec_any_le(var_vec_s16
[0], var_vec_s16
[1])) *var_cc24f
++;
2862 if(vec_any_le(var_vec_s32
[0], var_vec_b32
[1])) *var_cc24f
++;
2863 if(vec_any_le(var_vec_s32
[0], var_vec_s32
[1])) *var_cc24f
++;
2864 if(vec_any_le(var_vec_s8
[0], var_vec_b8
[1])) *var_cc24f
++;
2865 if(vec_any_le(var_vec_s8
[0], var_vec_s8
[1])) *var_cc24f
++;
2866 if(vec_any_le(var_vec_u16
[0], var_vec_b16
[1])) *var_cc24f
++;
2867 if(vec_any_le(var_vec_u16
[0], var_vec_u16
[1])) *var_cc24f
++;
2868 if(vec_any_le(var_vec_u32
[0], var_vec_b32
[1])) *var_cc24f
++;
2869 if(vec_any_le(var_vec_u32
[0], var_vec_u32
[1])) *var_cc24f
++;
2870 if(vec_any_le(var_vec_u8
[0], var_vec_b8
[1])) *var_cc24f
++;
2871 if(vec_any_le(var_vec_u8
[0], var_vec_u8
[1])) *var_cc24f
++;
2872 if(vec_any_lt(var_vec_b16
[0], var_vec_s16
[1])) *var_cc26fr
++;
2873 if(vec_any_lt(var_vec_b16
[0], var_vec_u16
[1])) *var_cc26fr
++;
2874 if(vec_any_lt(var_vec_b32
[0], var_vec_s32
[1])) *var_cc26fr
++;
2875 if(vec_any_lt(var_vec_b32
[0], var_vec_u32
[1])) *var_cc26fr
++;
2876 if(vec_any_lt(var_vec_b8
[0], var_vec_s8
[1])) *var_cc26fr
++;
2877 if(vec_any_lt(var_vec_b8
[0], var_vec_u8
[1])) *var_cc26fr
++;
2880 if(vec_any_lt(var_vec_f32
[0], var_vec_f32
[1])) *var_cc26fr
++;
2881 if(vec_any_lt(var_vec_s16
[0], var_vec_b16
[1])) *var_cc26fr
++;
2882 if(vec_any_lt(var_vec_s16
[0], var_vec_s16
[1])) *var_cc26fr
++;
2883 if(vec_any_lt(var_vec_s32
[0], var_vec_b32
[1])) *var_cc26fr
++;
2884 if(vec_any_lt(var_vec_s32
[0], var_vec_s32
[1])) *var_cc26fr
++;
2885 if(vec_any_lt(var_vec_s8
[0], var_vec_b8
[1])) *var_cc26fr
++;
2886 if(vec_any_lt(var_vec_s8
[0], var_vec_s8
[1])) *var_cc26fr
++;
2887 if(vec_any_lt(var_vec_u16
[0], var_vec_b16
[1])) *var_cc26fr
++;
2888 if(vec_any_lt(var_vec_u16
[0], var_vec_u16
[1])) *var_cc26fr
++;
2889 if(vec_any_lt(var_vec_u32
[0], var_vec_b32
[1])) *var_cc26fr
++;
2890 if(vec_any_lt(var_vec_u32
[0], var_vec_u32
[1])) *var_cc26fr
++;
2891 if(vec_any_lt(var_vec_u8
[0], var_vec_b8
[1])) *var_cc26fr
++;
2892 if(vec_any_lt(var_vec_u8
[0], var_vec_u8
[1])) *var_cc26fr
++;
2893 if(vec_any_nan(var_vec_f32
[0])) *var_cc24fd
++;
2894 if(vec_any_ne(var_vec_b16
[0], var_vec_b16
[1])) *var_cc24f
++;
2895 if(vec_any_ne(var_vec_b16
[0], var_vec_s16
[1])) *var_cc24f
++;
2896 if(vec_any_ne(var_vec_b16
[0], var_vec_u16
[1])) *var_cc24f
++;
2897 if(vec_any_ne(var_vec_b32
[0], var_vec_b32
[1])) *var_cc24f
++;
2898 if(vec_any_ne(var_vec_b32
[0], var_vec_s32
[1])) *var_cc24f
++;
2899 if(vec_any_ne(var_vec_b32
[0], var_vec_u32
[1])) *var_cc24f
++;
2900 if(vec_any_ne(var_vec_b8
[0], var_vec_b8
[1])) *var_cc24f
++;
2901 if(vec_any_ne(var_vec_b8
[0], var_vec_s8
[1])) *var_cc24f
++;
2902 if(vec_any_ne(var_vec_b8
[0], var_vec_u8
[1])) *var_cc24f
++;
2903 if(vec_any_ne(var_vec_f32
[0], var_vec_f32
[1])) *var_cc24f
++;
2904 if(vec_any_ne(var_vec_p16
[0], var_vec_p16
[1])) *var_cc24f
++;
2905 if(vec_any_ne(var_vec_s16
[0], var_vec_b16
[1])) *var_cc24f
++;
2906 if(vec_any_ne(var_vec_s16
[0], var_vec_s16
[1])) *var_cc24f
++;
2907 if(vec_any_ne(var_vec_s32
[0], var_vec_b32
[1])) *var_cc24f
++;
2908 if(vec_any_ne(var_vec_s32
[0], var_vec_s32
[1])) *var_cc24f
++;
2909 if(vec_any_ne(var_vec_s8
[0], var_vec_b8
[1])) *var_cc24f
++;
2910 if(vec_any_ne(var_vec_s8
[0], var_vec_s8
[1])) *var_cc24f
++;
2911 if(vec_any_ne(var_vec_u16
[0], var_vec_b16
[1])) *var_cc24f
++;
2912 if(vec_any_ne(var_vec_u16
[0], var_vec_u16
[1])) *var_cc24f
++;
2913 if(vec_any_ne(var_vec_u32
[0], var_vec_b32
[1])) *var_cc24f
++;
2914 if(vec_any_ne(var_vec_u32
[0], var_vec_u32
[1])) *var_cc24f
++;
2915 if(vec_any_ne(var_vec_u8
[0], var_vec_b8
[1])) *var_cc24f
++;
2916 if(vec_any_ne(var_vec_u8
[0], var_vec_u8
[1])) *var_cc24f
++;
2917 if(vec_any_nge(var_vec_f32
[0], var_vec_f32
[1])) *var_cc24f
++;
2918 if(vec_any_ngt(var_vec_f32
[0], var_vec_f32
[1])) *var_cc24f
++;
2919 if(vec_any_nle(var_vec_f32
[0], var_vec_f32
[1])) *var_cc24fr
++;
2920 if(vec_any_nlt(var_vec_f32
[0], var_vec_f32
[1])) *var_cc24fr
++;
2921 if(vec_any_numeric(var_vec_f32
[0])) *var_cc26fd
++;
2922 if(vec_any_out(var_vec_f32
[0], var_vec_f32
[1])) *var_cc26f
++;
2928 vec_dst(var_float_ptr
[0], var_int
[1], 0);
2929 vec_dst(var_float_ptr
[0], var_int
[1], 1);
2930 vec_dst(var_float_ptr
[0], var_int
[1], 2);
2931 vec_dst(var_float_ptr
[0], var_int
[1], 3);
2932 vec_dst(var_int_ptr
[0], var_int
[1], 0);
2933 vec_dst(var_int_ptr
[0], var_int
[1], 1);
2934 vec_dst(var_int_ptr
[0], var_int
[1], 2);
2935 vec_dst(var_int_ptr
[0], var_int
[1], 3);
2936 vec_dst(var_short_ptr
[0], var_int
[1], 0);
2937 vec_dst(var_short_ptr
[0], var_int
[1], 1);
2938 vec_dst(var_short_ptr
[0], var_int
[1], 2);
2939 vec_dst(var_short_ptr
[0], var_int
[1], 3);
2940 vec_dst(var_signed_char_ptr
[0], var_int
[1], 0);
2941 vec_dst(var_signed_char_ptr
[0], var_int
[1], 1);
2942 vec_dst(var_signed_char_ptr
[0], var_int
[1], 2);
2943 vec_dst(var_signed_char_ptr
[0], var_int
[1], 3);
2944 vec_dst(var_unsigned_char_ptr
[0], var_int
[1], 0);
2945 vec_dst(var_unsigned_char_ptr
[0], var_int
[1], 1);
2946 vec_dst(var_unsigned_char_ptr
[0], var_int
[1], 2);
2947 vec_dst(var_unsigned_char_ptr
[0], var_int
[1], 3);
2948 vec_dst(var_unsigned_int_ptr
[0], var_int
[1], 0);
2949 vec_dst(var_unsigned_int_ptr
[0], var_int
[1], 1);
2950 vec_dst(var_unsigned_int_ptr
[0], var_int
[1], 2);
2951 vec_dst(var_unsigned_int_ptr
[0], var_int
[1], 3);
2952 vec_dst(var_unsigned_short_ptr
[0], var_int
[1], 0);
2953 vec_dst(var_unsigned_short_ptr
[0], var_int
[1], 1);
2954 vec_dst(var_unsigned_short_ptr
[0], var_int
[1], 2);
2955 vec_dst(var_unsigned_short_ptr
[0], var_int
[1], 3);
2956 vec_dst(var_vec_b16_ptr
[0], var_int
[1], 0);
2957 vec_dst(var_vec_b16_ptr
[0], var_int
[1], 1);
2958 vec_dst(var_vec_b16_ptr
[0], var_int
[1], 2);
2959 vec_dst(var_vec_b16_ptr
[0], var_int
[1], 3);
2960 vec_dst(var_vec_b32_ptr
[0], var_int
[1], 0);
2961 vec_dst(var_vec_b32_ptr
[0], var_int
[1], 1);
2962 vec_dst(var_vec_b32_ptr
[0], var_int
[1], 2);
2963 vec_dst(var_vec_b32_ptr
[0], var_int
[1], 3);
2964 vec_dst(var_vec_b8_ptr
[0], var_int
[1], 0);
2965 vec_dst(var_vec_b8_ptr
[0], var_int
[1], 1);
2966 vec_dst(var_vec_b8_ptr
[0], var_int
[1], 2);
2967 vec_dst(var_vec_b8_ptr
[0], var_int
[1], 3);
2968 vec_dst(var_vec_f32_ptr
[0], var_int
[1], 0);
2969 vec_dst(var_vec_f32_ptr
[0], var_int
[1], 1);
2970 vec_dst(var_vec_f32_ptr
[0], var_int
[1], 2);
2971 vec_dst(var_vec_f32_ptr
[0], var_int
[1], 3);
2974 vec_dst(var_vec_p16_ptr
[0], var_int
[1], 0);
2975 vec_dst(var_vec_p16_ptr
[0], var_int
[1], 1);
2976 vec_dst(var_vec_p16_ptr
[0], var_int
[1], 2);
2977 vec_dst(var_vec_p16_ptr
[0], var_int
[1], 3);
2978 vec_dst(var_vec_s16_ptr
[0], var_int
[1], 0);
2979 vec_dst(var_vec_s16_ptr
[0], var_int
[1], 1);
2980 vec_dst(var_vec_s16_ptr
[0], var_int
[1], 2);
2981 vec_dst(var_vec_s16_ptr
[0], var_int
[1], 3);
2982 vec_dst(var_vec_s32_ptr
[0], var_int
[1], 0);
2983 vec_dst(var_vec_s32_ptr
[0], var_int
[1], 1);
2984 vec_dst(var_vec_s32_ptr
[0], var_int
[1], 2);
2985 vec_dst(var_vec_s32_ptr
[0], var_int
[1], 3);
2986 vec_dst(var_vec_s8_ptr
[0], var_int
[1], 0);
2987 vec_dst(var_vec_s8_ptr
[0], var_int
[1], 1);
2988 vec_dst(var_vec_s8_ptr
[0], var_int
[1], 2);
2989 vec_dst(var_vec_s8_ptr
[0], var_int
[1], 3);
2990 vec_dst(var_vec_u16_ptr
[0], var_int
[1], 0);
2991 vec_dst(var_vec_u16_ptr
[0], var_int
[1], 1);
2992 vec_dst(var_vec_u16_ptr
[0], var_int
[1], 2);
2993 vec_dst(var_vec_u16_ptr
[0], var_int
[1], 3);
2994 vec_dst(var_vec_u32_ptr
[0], var_int
[1], 0);
2995 vec_dst(var_vec_u32_ptr
[0], var_int
[1], 1);
2996 vec_dst(var_vec_u32_ptr
[0], var_int
[1], 2);
2997 vec_dst(var_vec_u32_ptr
[0], var_int
[1], 3);
2998 vec_dst(var_vec_u8_ptr
[0], var_int
[1], 0);
2999 vec_dst(var_vec_u8_ptr
[0], var_int
[1], 1);
3000 vec_dst(var_vec_u8_ptr
[0], var_int
[1], 2);
3001 vec_dst(var_vec_u8_ptr
[0], var_int
[1], 3);
3002 vec_dstst(var_float_ptr
[0], var_int
[1], 0);
3003 vec_dstst(var_float_ptr
[0], var_int
[1], 1);
3004 vec_dstst(var_float_ptr
[0], var_int
[1], 2);
3005 vec_dstst(var_float_ptr
[0], var_int
[1], 3);
3006 vec_dstst(var_int_ptr
[0], var_int
[1], 0);
3007 vec_dstst(var_int_ptr
[0], var_int
[1], 1);
3008 vec_dstst(var_int_ptr
[0], var_int
[1], 2);
3009 vec_dstst(var_int_ptr
[0], var_int
[1], 3);
3010 vec_dstst(var_short_ptr
[0], var_int
[1], 0);
3011 vec_dstst(var_short_ptr
[0], var_int
[1], 1);
3012 vec_dstst(var_short_ptr
[0], var_int
[1], 2);
3013 vec_dstst(var_short_ptr
[0], var_int
[1], 3);
3014 vec_dstst(var_signed_char_ptr
[0], var_int
[1], 0);
3015 vec_dstst(var_signed_char_ptr
[0], var_int
[1], 1);
3016 vec_dstst(var_signed_char_ptr
[0], var_int
[1], 2);
3017 vec_dstst(var_signed_char_ptr
[0], var_int
[1], 3);
3018 vec_dstst(var_unsigned_char_ptr
[0], var_int
[1], 0);
3019 vec_dstst(var_unsigned_char_ptr
[0], var_int
[1], 1);
3020 vec_dstst(var_unsigned_char_ptr
[0], var_int
[1], 2);
3021 vec_dstst(var_unsigned_char_ptr
[0], var_int
[1], 3);
3022 vec_dstst(var_unsigned_int_ptr
[0], var_int
[1], 0);
3023 vec_dstst(var_unsigned_int_ptr
[0], var_int
[1], 1);
3024 vec_dstst(var_unsigned_int_ptr
[0], var_int
[1], 2);
3025 vec_dstst(var_unsigned_int_ptr
[0], var_int
[1], 3);
3026 vec_dstst(var_unsigned_short_ptr
[0], var_int
[1], 0);
3027 vec_dstst(var_unsigned_short_ptr
[0], var_int
[1], 1);
3028 vec_dstst(var_unsigned_short_ptr
[0], var_int
[1], 2);
3029 vec_dstst(var_unsigned_short_ptr
[0], var_int
[1], 3);
3030 vec_dstst(var_vec_b16_ptr
[0], var_int
[1], 0);
3031 vec_dstst(var_vec_b16_ptr
[0], var_int
[1], 1);
3032 vec_dstst(var_vec_b16_ptr
[0], var_int
[1], 2);
3033 vec_dstst(var_vec_b16_ptr
[0], var_int
[1], 3);
3034 vec_dstst(var_vec_b32_ptr
[0], var_int
[1], 0);
3035 vec_dstst(var_vec_b32_ptr
[0], var_int
[1], 1);
3036 vec_dstst(var_vec_b32_ptr
[0], var_int
[1], 2);
3037 vec_dstst(var_vec_b32_ptr
[0], var_int
[1], 3);
3038 vec_dstst(var_vec_b8_ptr
[0], var_int
[1], 0);
3039 vec_dstst(var_vec_b8_ptr
[0], var_int
[1], 1);
3040 vec_dstst(var_vec_b8_ptr
[0], var_int
[1], 2);
3041 vec_dstst(var_vec_b8_ptr
[0], var_int
[1], 3);
3042 vec_dstst(var_vec_f32_ptr
[0], var_int
[1], 0);
3043 vec_dstst(var_vec_f32_ptr
[0], var_int
[1], 1);
3044 vec_dstst(var_vec_f32_ptr
[0], var_int
[1], 2);
3045 vec_dstst(var_vec_f32_ptr
[0], var_int
[1], 3);
3046 vec_dstst(var_vec_p16_ptr
[0], var_int
[1], 0);
3047 vec_dstst(var_vec_p16_ptr
[0], var_int
[1], 1);
3048 vec_dstst(var_vec_p16_ptr
[0], var_int
[1], 2);
3049 vec_dstst(var_vec_p16_ptr
[0], var_int
[1], 3);
3050 vec_dstst(var_vec_s16_ptr
[0], var_int
[1], 0);
3051 vec_dstst(var_vec_s16_ptr
[0], var_int
[1], 1);
3052 vec_dstst(var_vec_s16_ptr
[0], var_int
[1], 2);
3053 vec_dstst(var_vec_s16_ptr
[0], var_int
[1], 3);
3054 vec_dstst(var_vec_s32_ptr
[0], var_int
[1], 0);
3055 vec_dstst(var_vec_s32_ptr
[0], var_int
[1], 1);
3056 vec_dstst(var_vec_s32_ptr
[0], var_int
[1], 2);
3057 vec_dstst(var_vec_s32_ptr
[0], var_int
[1], 3);
3058 vec_dstst(var_vec_s8_ptr
[0], var_int
[1], 0);
3059 vec_dstst(var_vec_s8_ptr
[0], var_int
[1], 1);
3060 vec_dstst(var_vec_s8_ptr
[0], var_int
[1], 2);
3061 vec_dstst(var_vec_s8_ptr
[0], var_int
[1], 3);
3062 vec_dstst(var_vec_u16_ptr
[0], var_int
[1], 0);
3063 vec_dstst(var_vec_u16_ptr
[0], var_int
[1], 1);
3064 vec_dstst(var_vec_u16_ptr
[0], var_int
[1], 2);
3065 vec_dstst(var_vec_u16_ptr
[0], var_int
[1], 3);
3068 vec_dstst(var_vec_u32_ptr
[0], var_int
[1], 0);
3069 vec_dstst(var_vec_u32_ptr
[0], var_int
[1], 1);
3070 vec_dstst(var_vec_u32_ptr
[0], var_int
[1], 2);
3071 vec_dstst(var_vec_u32_ptr
[0], var_int
[1], 3);
3072 vec_dstst(var_vec_u8_ptr
[0], var_int
[1], 0);
3073 vec_dstst(var_vec_u8_ptr
[0], var_int
[1], 1);
3074 vec_dstst(var_vec_u8_ptr
[0], var_int
[1], 2);
3075 vec_dstst(var_vec_u8_ptr
[0], var_int
[1], 3);
3076 vec_dststt(var_float_ptr
[0], var_int
[1], 0);
3077 vec_dststt(var_float_ptr
[0], var_int
[1], 1);
3078 vec_dststt(var_float_ptr
[0], var_int
[1], 2);
3079 vec_dststt(var_float_ptr
[0], var_int
[1], 3);
3080 vec_dststt(var_int_ptr
[0], var_int
[1], 0);
3081 vec_dststt(var_int_ptr
[0], var_int
[1], 1);
3082 vec_dststt(var_int_ptr
[0], var_int
[1], 2);
3083 vec_dststt(var_int_ptr
[0], var_int
[1], 3);
3084 vec_dststt(var_short_ptr
[0], var_int
[1], 0);
3085 vec_dststt(var_short_ptr
[0], var_int
[1], 1);
3086 vec_dststt(var_short_ptr
[0], var_int
[1], 2);
3087 vec_dststt(var_short_ptr
[0], var_int
[1], 3);
3088 vec_dststt(var_signed_char_ptr
[0], var_int
[1], 0);
3089 vec_dststt(var_signed_char_ptr
[0], var_int
[1], 1);
3090 vec_dststt(var_signed_char_ptr
[0], var_int
[1], 2);
3091 vec_dststt(var_signed_char_ptr
[0], var_int
[1], 3);
3092 vec_dststt(var_unsigned_char_ptr
[0], var_int
[1], 0);
3093 vec_dststt(var_unsigned_char_ptr
[0], var_int
[1], 1);
3094 vec_dststt(var_unsigned_char_ptr
[0], var_int
[1], 2);
3095 vec_dststt(var_unsigned_char_ptr
[0], var_int
[1], 3);
3096 vec_dststt(var_unsigned_int_ptr
[0], var_int
[1], 0);
3097 vec_dststt(var_unsigned_int_ptr
[0], var_int
[1], 1);
3098 vec_dststt(var_unsigned_int_ptr
[0], var_int
[1], 2);
3099 vec_dststt(var_unsigned_int_ptr
[0], var_int
[1], 3);
3100 vec_dststt(var_unsigned_short_ptr
[0], var_int
[1], 0);
3101 vec_dststt(var_unsigned_short_ptr
[0], var_int
[1], 1);
3102 vec_dststt(var_unsigned_short_ptr
[0], var_int
[1], 2);
3103 vec_dststt(var_unsigned_short_ptr
[0], var_int
[1], 3);
3104 vec_dststt(var_vec_b16_ptr
[0], var_int
[1], 0);
3105 vec_dststt(var_vec_b16_ptr
[0], var_int
[1], 1);
3106 vec_dststt(var_vec_b16_ptr
[0], var_int
[1], 2);
3107 vec_dststt(var_vec_b16_ptr
[0], var_int
[1], 3);
3108 vec_dststt(var_vec_b32_ptr
[0], var_int
[1], 0);
3109 vec_dststt(var_vec_b32_ptr
[0], var_int
[1], 1);
3110 vec_dststt(var_vec_b32_ptr
[0], var_int
[1], 2);
3111 vec_dststt(var_vec_b32_ptr
[0], var_int
[1], 3);
3112 vec_dststt(var_vec_b8_ptr
[0], var_int
[1], 0);
3113 vec_dststt(var_vec_b8_ptr
[0], var_int
[1], 1);
3114 vec_dststt(var_vec_b8_ptr
[0], var_int
[1], 2);
3115 vec_dststt(var_vec_b8_ptr
[0], var_int
[1], 3);
3116 vec_dststt(var_vec_f32_ptr
[0], var_int
[1], 0);
3117 vec_dststt(var_vec_f32_ptr
[0], var_int
[1], 1);
3118 vec_dststt(var_vec_f32_ptr
[0], var_int
[1], 2);
3119 vec_dststt(var_vec_f32_ptr
[0], var_int
[1], 3);
3120 vec_dststt(var_vec_p16_ptr
[0], var_int
[1], 0);
3121 vec_dststt(var_vec_p16_ptr
[0], var_int
[1], 1);
3122 vec_dststt(var_vec_p16_ptr
[0], var_int
[1], 2);
3123 vec_dststt(var_vec_p16_ptr
[0], var_int
[1], 3);
3124 vec_dststt(var_vec_s16_ptr
[0], var_int
[1], 0);
3125 vec_dststt(var_vec_s16_ptr
[0], var_int
[1], 1);
3126 vec_dststt(var_vec_s16_ptr
[0], var_int
[1], 2);
3127 vec_dststt(var_vec_s16_ptr
[0], var_int
[1], 3);
3128 vec_dststt(var_vec_s32_ptr
[0], var_int
[1], 0);
3129 vec_dststt(var_vec_s32_ptr
[0], var_int
[1], 1);
3130 vec_dststt(var_vec_s32_ptr
[0], var_int
[1], 2);
3131 vec_dststt(var_vec_s32_ptr
[0], var_int
[1], 3);
3132 vec_dststt(var_vec_s8_ptr
[0], var_int
[1], 0);
3133 vec_dststt(var_vec_s8_ptr
[0], var_int
[1], 1);
3134 vec_dststt(var_vec_s8_ptr
[0], var_int
[1], 2);
3135 vec_dststt(var_vec_s8_ptr
[0], var_int
[1], 3);
3136 vec_dststt(var_vec_u16_ptr
[0], var_int
[1], 0);
3137 vec_dststt(var_vec_u16_ptr
[0], var_int
[1], 1);
3138 vec_dststt(var_vec_u16_ptr
[0], var_int
[1], 2);
3139 vec_dststt(var_vec_u16_ptr
[0], var_int
[1], 3);
3140 vec_dststt(var_vec_u32_ptr
[0], var_int
[1], 0);
3141 vec_dststt(var_vec_u32_ptr
[0], var_int
[1], 1);
3142 vec_dststt(var_vec_u32_ptr
[0], var_int
[1], 2);
3143 vec_dststt(var_vec_u32_ptr
[0], var_int
[1], 3);
3144 vec_dststt(var_vec_u8_ptr
[0], var_int
[1], 0);
3145 vec_dststt(var_vec_u8_ptr
[0], var_int
[1], 1);
3146 vec_dststt(var_vec_u8_ptr
[0], var_int
[1], 2);
3147 vec_dststt(var_vec_u8_ptr
[0], var_int
[1], 3);
3148 vec_dstt(var_float_ptr
[0], var_int
[1], 0);
3149 vec_dstt(var_float_ptr
[0], var_int
[1], 1);
3150 vec_dstt(var_float_ptr
[0], var_int
[1], 2);
3151 vec_dstt(var_float_ptr
[0], var_int
[1], 3);
3152 vec_dstt(var_int_ptr
[0], var_int
[1], 0);
3153 vec_dstt(var_int_ptr
[0], var_int
[1], 1);
3154 vec_dstt(var_int_ptr
[0], var_int
[1], 2);
3155 vec_dstt(var_int_ptr
[0], var_int
[1], 3);
3158 vec_dstt(var_short_ptr
[0], var_int
[1], 0);
3159 vec_dstt(var_short_ptr
[0], var_int
[1], 1);
3160 vec_dstt(var_short_ptr
[0], var_int
[1], 2);
3161 vec_dstt(var_short_ptr
[0], var_int
[1], 3);
3162 vec_dstt(var_signed_char_ptr
[0], var_int
[1], 0);
3163 vec_dstt(var_signed_char_ptr
[0], var_int
[1], 1);
3164 vec_dstt(var_signed_char_ptr
[0], var_int
[1], 2);
3165 vec_dstt(var_signed_char_ptr
[0], var_int
[1], 3);
3166 vec_dstt(var_unsigned_char_ptr
[0], var_int
[1], 0);
3167 vec_dstt(var_unsigned_char_ptr
[0], var_int
[1], 1);
3168 vec_dstt(var_unsigned_char_ptr
[0], var_int
[1], 2);
3169 vec_dstt(var_unsigned_char_ptr
[0], var_int
[1], 3);
3170 vec_dstt(var_unsigned_int_ptr
[0], var_int
[1], 0);
3171 vec_dstt(var_unsigned_int_ptr
[0], var_int
[1], 1);
3172 vec_dstt(var_unsigned_int_ptr
[0], var_int
[1], 2);
3173 vec_dstt(var_unsigned_int_ptr
[0], var_int
[1], 3);
3174 vec_dstt(var_unsigned_short_ptr
[0], var_int
[1], 0);
3175 vec_dstt(var_unsigned_short_ptr
[0], var_int
[1], 1);
3176 vec_dstt(var_unsigned_short_ptr
[0], var_int
[1], 2);
3177 vec_dstt(var_unsigned_short_ptr
[0], var_int
[1], 3);
3178 vec_dstt(var_vec_b16_ptr
[0], var_int
[1], 0);
3179 vec_dstt(var_vec_b16_ptr
[0], var_int
[1], 1);
3180 vec_dstt(var_vec_b16_ptr
[0], var_int
[1], 2);
3181 vec_dstt(var_vec_b16_ptr
[0], var_int
[1], 3);
3182 vec_dstt(var_vec_b32_ptr
[0], var_int
[1], 0);
3183 vec_dstt(var_vec_b32_ptr
[0], var_int
[1], 1);
3184 vec_dstt(var_vec_b32_ptr
[0], var_int
[1], 2);
3185 vec_dstt(var_vec_b32_ptr
[0], var_int
[1], 3);
3186 vec_dstt(var_vec_b8_ptr
[0], var_int
[1], 0);
3187 vec_dstt(var_vec_b8_ptr
[0], var_int
[1], 1);
3188 vec_dstt(var_vec_b8_ptr
[0], var_int
[1], 2);
3189 vec_dstt(var_vec_b8_ptr
[0], var_int
[1], 3);
3190 vec_dstt(var_vec_f32_ptr
[0], var_int
[1], 0);
3191 vec_dstt(var_vec_f32_ptr
[0], var_int
[1], 1);
3192 vec_dstt(var_vec_f32_ptr
[0], var_int
[1], 2);
3193 vec_dstt(var_vec_f32_ptr
[0], var_int
[1], 3);
3194 vec_dstt(var_vec_p16_ptr
[0], var_int
[1], 0);
3195 vec_dstt(var_vec_p16_ptr
[0], var_int
[1], 1);
3196 vec_dstt(var_vec_p16_ptr
[0], var_int
[1], 2);
3197 vec_dstt(var_vec_p16_ptr
[0], var_int
[1], 3);
3198 vec_dstt(var_vec_s16_ptr
[0], var_int
[1], 0);
3199 vec_dstt(var_vec_s16_ptr
[0], var_int
[1], 1);
3200 vec_dstt(var_vec_s16_ptr
[0], var_int
[1], 2);
3201 vec_dstt(var_vec_s16_ptr
[0], var_int
[1], 3);
3202 vec_dstt(var_vec_s32_ptr
[0], var_int
[1], 0);
3203 vec_dstt(var_vec_s32_ptr
[0], var_int
[1], 1);
3204 vec_dstt(var_vec_s32_ptr
[0], var_int
[1], 2);
3205 vec_dstt(var_vec_s32_ptr
[0], var_int
[1], 3);
3206 vec_dstt(var_vec_s8_ptr
[0], var_int
[1], 0);
3207 vec_dstt(var_vec_s8_ptr
[0], var_int
[1], 1);
3208 vec_dstt(var_vec_s8_ptr
[0], var_int
[1], 2);
3209 vec_dstt(var_vec_s8_ptr
[0], var_int
[1], 3);
3210 vec_dstt(var_vec_u16_ptr
[0], var_int
[1], 0);
3211 vec_dstt(var_vec_u16_ptr
[0], var_int
[1], 1);
3212 vec_dstt(var_vec_u16_ptr
[0], var_int
[1], 2);
3213 vec_dstt(var_vec_u16_ptr
[0], var_int
[1], 3);
3214 vec_dstt(var_vec_u32_ptr
[0], var_int
[1], 0);
3215 vec_dstt(var_vec_u32_ptr
[0], var_int
[1], 1);
3216 vec_dstt(var_vec_u32_ptr
[0], var_int
[1], 2);
3217 vec_dstt(var_vec_u32_ptr
[0], var_int
[1], 3);
3218 vec_dstt(var_vec_u8_ptr
[0], var_int
[1], 0);
3219 vec_dstt(var_vec_u8_ptr
[0], var_int
[1], 1);
3220 vec_dstt(var_vec_u8_ptr
[0], var_int
[1], 2);
3221 vec_dstt(var_vec_u8_ptr
[0], var_int
[1], 3);
3222 vec_mtvscr(var_vec_b16
[0]);
3223 vec_mtvscr(var_vec_b32
[0]);
3224 vec_mtvscr(var_vec_b8
[0]);
3225 vec_mtvscr(var_vec_p16
[0]);
3226 vec_mtvscr(var_vec_s16
[0]);
3227 vec_mtvscr(var_vec_s32
[0]);
3228 vec_mtvscr(var_vec_s8
[0]);
3229 vec_mtvscr(var_vec_u16
[0]);
3230 vec_mtvscr(var_vec_u32
[0]);
3231 vec_mtvscr(var_vec_u8
[0]);
3232 vec_st(var_vec_b16
[0], var_int
[1], var_vec_b16_ptr
[2]);
3233 vec_st(var_vec_b32
[0], var_int
[1], var_vec_b32_ptr
[2]);
3234 vec_st(var_vec_b8
[0], var_int
[1], var_vec_b8_ptr
[2]);
3235 vec_st(var_vec_f32
[0], var_int
[1], var_float_ptr
[2]);
3236 vec_st(var_vec_f32
[0], var_int
[1], var_vec_f32_ptr
[2]);
3237 vec_st(var_vec_p16
[0], var_int
[1], var_vec_p16_ptr
[2]);
3238 vec_st(var_vec_s16
[0], var_int
[1], var_short_ptr
[2]);
3239 vec_st(var_vec_s16
[0], var_int
[1], var_vec_s16_ptr
[2]);
3240 vec_st(var_vec_s32
[0], var_int
[1], var_int_ptr
[2]);
3241 vec_st(var_vec_s32
[0], var_int
[1], var_vec_s32_ptr
[2]);
3242 vec_st(var_vec_s8
[0], var_int
[1], var_signed_char_ptr
[2]);
3243 vec_st(var_vec_s8
[0], var_int
[1], var_vec_s8_ptr
[2]);
3244 vec_st(var_vec_u16
[0], var_int
[1], var_unsigned_short_ptr
[2]);
3245 vec_st(var_vec_u16
[0], var_int
[1], var_vec_u16_ptr
[2]);
3246 vec_st(var_vec_u32
[0], var_int
[1], var_unsigned_int_ptr
[2]);
3247 vec_st(var_vec_u32
[0], var_int
[1], var_vec_u32_ptr
[2]);
3248 vec_st(var_vec_u8
[0], var_int
[1], var_unsigned_char_ptr
[2]);
3249 vec_st(var_vec_u8
[0], var_int
[1], var_vec_u8_ptr
[2]);
3250 vec_ste(var_vec_f32
[0], var_int
[1], var_float_ptr
[2]);
3251 vec_ste(var_vec_s16
[0], var_int
[1], var_short_ptr
[2]);
3254 vec_ste(var_vec_s32
[0], var_int
[1], var_int_ptr
[2]);
3255 vec_ste(var_vec_s8
[0], var_int
[1], var_signed_char_ptr
[2]);
3256 vec_ste(var_vec_u16
[0], var_int
[1], var_unsigned_short_ptr
[2]);
3257 vec_ste(var_vec_u32
[0], var_int
[1], var_unsigned_int_ptr
[2]);
3258 vec_ste(var_vec_u8
[0], var_int
[1], var_unsigned_char_ptr
[2]);
3259 vec_stl(var_vec_b16
[0], var_int
[1], var_vec_b16_ptr
[2]);
3260 vec_stl(var_vec_b32
[0], var_int
[1], var_vec_b32_ptr
[2]);
3261 vec_stl(var_vec_b8
[0], var_int
[1], var_vec_b8_ptr
[2]);
3262 vec_stl(var_vec_f32
[0], var_int
[1], var_float_ptr
[2]);
3263 vec_stl(var_vec_f32
[0], var_int
[1], var_vec_f32_ptr
[2]);
3264 vec_stl(var_vec_p16
[0], var_int
[1], var_vec_p16_ptr
[2]);
3265 vec_stl(var_vec_s16
[0], var_int
[1], var_short_ptr
[2]);
3266 vec_stl(var_vec_s16
[0], var_int
[1], var_vec_s16_ptr
[2]);
3267 vec_stl(var_vec_s32
[0], var_int
[1], var_int_ptr
[2]);
3268 vec_stl(var_vec_s32
[0], var_int
[1], var_vec_s32_ptr
[2]);
3269 vec_stl(var_vec_s8
[0], var_int
[1], var_signed_char_ptr
[2]);
3270 vec_stl(var_vec_s8
[0], var_int
[1], var_vec_s8_ptr
[2]);
3271 vec_stl(var_vec_u16
[0], var_int
[1], var_unsigned_short_ptr
[2]);
3272 vec_stl(var_vec_u16
[0], var_int
[1], var_vec_u16_ptr
[2]);
3273 vec_stl(var_vec_u32
[0], var_int
[1], var_unsigned_int_ptr
[2]);
3274 vec_stl(var_vec_u32
[0], var_int
[1], var_vec_u32_ptr
[2]);
3275 vec_stl(var_vec_u8
[0], var_int
[1], var_unsigned_char_ptr
[2]);
3276 vec_stl(var_vec_u8
[0], var_int
[1], var_vec_u8_ptr
[2]);
3277 vec_stvebx(var_vec_s8
[0], var_int
[1], var_signed_char_ptr
[2]);
3278 vec_stvebx(var_vec_u8
[0], var_int
[1], var_unsigned_char_ptr
[2]);
3279 vec_stvehx(var_vec_s16
[0], var_int
[1], var_short_ptr
[2]);
3280 vec_stvehx(var_vec_u16
[0], var_int
[1], var_unsigned_short_ptr
[2]);
3281 vec_stvewx(var_vec_f32
[0], var_int
[1], var_float_ptr
[2]);
3282 vec_stvewx(var_vec_s32
[0], var_int
[1], var_int_ptr
[2]);
3283 vec_stvewx(var_vec_u32
[0], var_int
[1], var_unsigned_int_ptr
[2]);
3284 vec_stvx(var_vec_b16
[0], var_int
[1], var_vec_b16_ptr
[2]);
3285 vec_stvx(var_vec_b32
[0], var_int
[1], var_vec_b32_ptr
[2]);
3286 vec_stvx(var_vec_b8
[0], var_int
[1], var_vec_b8_ptr
[2]);
3287 vec_stvx(var_vec_f32
[0], var_int
[1], var_float_ptr
[2]);
3288 vec_stvx(var_vec_f32
[0], var_int
[1], var_vec_f32_ptr
[2]);
3289 vec_stvx(var_vec_p16
[0], var_int
[1], var_vec_p16_ptr
[2]);
3290 vec_stvx(var_vec_s16
[0], var_int
[1], var_short_ptr
[2]);
3291 vec_stvx(var_vec_s16
[0], var_int
[1], var_vec_s16_ptr
[2]);
3292 vec_stvx(var_vec_s32
[0], var_int
[1], var_int_ptr
[2]);
3293 vec_stvx(var_vec_s32
[0], var_int
[1], var_vec_s32_ptr
[2]);
3294 vec_stvx(var_vec_s8
[0], var_int
[1], var_signed_char_ptr
[2]);
3295 vec_stvx(var_vec_s8
[0], var_int
[1], var_vec_s8_ptr
[2]);
3296 vec_stvx(var_vec_u16
[0], var_int
[1], var_unsigned_short_ptr
[2]);
3297 vec_stvx(var_vec_u16
[0], var_int
[1], var_vec_u16_ptr
[2]);
3298 vec_stvx(var_vec_u32
[0], var_int
[1], var_unsigned_int_ptr
[2]);
3299 vec_stvx(var_vec_u32
[0], var_int
[1], var_vec_u32_ptr
[2]);
3300 vec_stvx(var_vec_u8
[0], var_int
[1], var_unsigned_char_ptr
[2]);
3301 vec_stvx(var_vec_u8
[0], var_int
[1], var_vec_u8_ptr
[2]);
3302 vec_stvxl(var_vec_b16
[0], var_int
[1], var_vec_b16_ptr
[2]);
3303 vec_stvxl(var_vec_b32
[0], var_int
[1], var_vec_b32_ptr
[2]);
3304 vec_stvxl(var_vec_b8
[0], var_int
[1], var_vec_b8_ptr
[2]);
3305 vec_stvxl(var_vec_f32
[0], var_int
[1], var_float_ptr
[2]);
3306 vec_stvxl(var_vec_f32
[0], var_int
[1], var_vec_f32_ptr
[2]);
3307 vec_stvxl(var_vec_p16
[0], var_int
[1], var_vec_p16_ptr
[2]);
3308 vec_stvxl(var_vec_s16
[0], var_int
[1], var_short_ptr
[2]);
3309 vec_stvxl(var_vec_s16
[0], var_int
[1], var_vec_s16_ptr
[2]);
3310 vec_stvxl(var_vec_s32
[0], var_int
[1], var_int_ptr
[2]);
3311 vec_stvxl(var_vec_s32
[0], var_int
[1], var_vec_s32_ptr
[2]);
3312 vec_stvxl(var_vec_s8
[0], var_int
[1], var_signed_char_ptr
[2]);
3313 vec_stvxl(var_vec_s8
[0], var_int
[1], var_vec_s8_ptr
[2]);
3314 vec_stvxl(var_vec_u16
[0], var_int
[1], var_unsigned_short_ptr
[2]);
3315 vec_stvxl(var_vec_u16
[0], var_int
[1], var_vec_u16_ptr
[2]);
3316 vec_stvxl(var_vec_u32
[0], var_int
[1], var_unsigned_int_ptr
[2]);
3317 vec_stvxl(var_vec_u32
[0], var_int
[1], var_vec_u32_ptr
[2]);
3318 vec_stvxl(var_vec_u8
[0], var_int
[1], var_unsigned_char_ptr
[2]);
3319 vec_stvxl(var_vec_u8
[0], var_int
[1], var_vec_u8_ptr
[2]);