1 .macro WRAPPER_IMPL_SSE2 callee
15 .macro WRAPPER_IMPL_SSE2_ff callee
18 movaps
%xmm1
, 16(%rsp
)
31 .macro WRAPPER_IMPL_SSE2_fFF callee
60 .macro WRAPPER_IMPL_AVX callee
65 vextractf128 $
1, %ymm0
, (%rsp
)
68 vmovapd
%xmm0
, 16(%rsp
)
72 vmovapd
16(%rsp
), %xmm0
73 vinsertf128 $
1, %xmm1
, %ymm0
, %ymm0
78 .macro WRAPPER_IMPL_AVX_ff callee
83 vextractf128 $
1, %ymm0
, 16(%rsp
)
84 vextractf128 $
1, %ymm1
, (%rsp
)
87 vmovaps
%xmm0
, 32(%rsp
)
88 vmovaps
16(%rsp
), %xmm0
92 vmovaps
32(%rsp
), %xmm0
93 vinsertf128 $
1, %xmm1
, %ymm0
, %ymm0
98 .macro WRAPPER_IMPL_AVX_fFF callee
107 vextractf128 $
1, %ymm0
, 32(%rsp
)
110 vmovaps
32(%rsp
), %xmm0
114 vmovapd
(%rsp
), %xmm0
115 vmovapd
16(%rsp
), %xmm1
116 vmovapd
%xmm0
, 16(%r13)
117 vmovapd
%xmm1
, 16(%r14)
125 .macro WRAPPER_IMPL_AVX512 callee
130 vmovups
%zmm0
, (%rsp
)
131 vmovupd
(%rsp
), %ymm0
133 vmovupd
%ymm0
, 64(%rsp
)
134 vmovupd
32(%rsp
), %ymm0
136 vmovupd
%ymm0
, 96(%rsp
)
137 vmovups
64(%rsp
), %zmm0
142 .macro WRAPPER_IMPL_AVX512_ff callee
147 vmovups
%zmm0
, (%rsp
)
148 vmovups
%zmm1
, 64(%rsp
)
149 vmovupd
(%rsp
), %ymm0
150 vmovupd
64(%rsp
), %ymm1
152 vmovupd
%ymm0
, 128(%rsp
)
153 vmovupd
32(%rsp
), %ymm0
154 vmovupd
96(%rsp
), %ymm1
156 vmovupd
%ymm0
, 160(%rsp
)
157 vmovups
128(%rsp
), %zmm0
162 .macro WRAPPER_IMPL_AVX512_fFF callee
170 vmovups
%zmm0
, (%rsp
)
172 vmovupd
(%rsp
), %ymm0
174 vmovupd
32(%rsp
), %ymm0
178 vmovupd
64(%rsp
), %ymm0
179 vmovupd
96(%rsp
), %ymm1
180 vmovupd
%ymm0
, 32(%r12)
181 vmovupd
%ymm1
, 32(%r13)
191 .globl _ZGVdN4vl8l8_sincos
192 .type _ZGVdN4vl8l8_sincos,@function
197 WRAPPER_IMPL_AVX_fFF _ZGVbN2vl8l8_sincos
198 .size _ZGVdN4vl8l8_sincos,.-_ZGVdN4vl8l8_sincos
201 .macro WRAPPER_IMPL_AVX2_fFF_vvv callee
206 vmovupd
%ymm0
, 128(%rsp
)
208 vmovdqu
%ymm1
, 64(%rdi
)
209 vmovdqu
%ymm2
, 96(%rdi
)
213 vmovupd
144(%rsp
), %xmm0
245 .globl _ZGVdN4vvv_sincos
246 .type _ZGVdN4vvv_sincos,@function
251 WRAPPER_IMPL_AVX2_fFF_vvv _ZGVbN2vl8l8_sincos
252 .size _ZGVdN4vvv_sincos,.-_ZGVdN4vvv_sincos