vmalloc: walk vmap_areas by sorted list instead of rb_next()
[linux/fpc-iii.git] / arch / mn10300 / lib / __ashrdi3.S
blob6f42382728cb381ef95c1ec6115dd6619be68082
1 /* MN10300 64-bit arithmetic right shift
2  *
3  * Copyright (C) 2007 Red Hat, Inc. All Rights Reserved.
4  * Written by David Howells (dhowells@redhat.com)
5  *
6  * This program is free software; you can redistribute it and/or
7  * modify it under the terms of the GNU General Public Licence
8  * as published by the Free Software Foundation; either version
9  * 2 of the Licence, or (at your option) any later version.
10  */
11 #include <asm/cache.h>
13         .text
14         .balign L1_CACHE_BYTES
16 ###############################################################################
18 # unsigned long long __ashrdi3(unsigned long long value [D1:D0],
19 #                              unsigned by [(12,SP)])
21 ###############################################################################
22         .globl  __ashrdi3
23         .type   __ashrdi3,@function
24 __ashrdi3:
25         mov     (12,sp),a0
26         and     +63,a0
27         beq     __ashrdi3_zero
29         cmp     +31,a0
30         bhi     __ashrdi3_32plus
32         # the count is in the range 1-31
33         lsr     a0,d0
35         mov     +32,a1
36         sub     a0,a1,a1                        # a1 = 32 - count
37         asl     a1,d1,a1                        # get underflow from MSW -> LSW
39         or_asr  a1,d0,a0,d1                     # insert underflow into LSW and
40                                                 # shift the MSW
41         rets
43         .balign L1_CACHE_BYTES
44         # the count is in the range 32-63
45 __ashrdi3_32plus:
46         asr     a0,d1,d0
47         ext     d0                              # sign-extend result through MDR
48         mov     mdr,d1
49 __ashrdi3_zero:
50         rets
52         .size   __ashrdi3, .-__ashrdi3