Merge tag 'v3.3.7' into 3.3/master
[zen-stable.git] / arch / x86 / lib / copy_user_64.S
blob024840266ba0d94144697de13194417d0427d22f
1 /*
2  * Copyright 2008 Vitaly Mayatskikh <vmayatsk@redhat.com>
3  * Copyright 2002 Andi Kleen, SuSE Labs.
4  * Subject to the GNU Public License v2.
5  *
6  * Functions to copy from and to user space.
7  */
9 #include <linux/linkage.h>
10 #include <asm/dwarf2.h>
12 #define FIX_ALIGNMENT 1
14 #include <asm/current.h>
15 #include <asm/asm-offsets.h>
16 #include <asm/thread_info.h>
17 #include <asm/cpufeature.h>
18 #include <asm/alternative-asm.h>
21  * By placing feature2 after feature1 in altinstructions section, we logically
22  * implement:
23  * If CPU has feature2, jmp to alt2 is used
24  * else if CPU has feature1, jmp to alt1 is used
25  * else jmp to orig is used.
26  */
27         .macro ALTERNATIVE_JUMP feature1,feature2,orig,alt1,alt2
29         .byte 0xe9      /* 32bit jump */
30         .long \orig-1f  /* by default jump to orig */
32         .section .altinstr_replacement,"ax"
33 2:      .byte 0xe9                      /* near jump with 32bit immediate */
34         .long \alt1-1b /* offset */   /* or alternatively to alt1 */
35 3:      .byte 0xe9                      /* near jump with 32bit immediate */
36         .long \alt2-1b /* offset */   /* or alternatively to alt2 */
37         .previous
39         .section .altinstructions,"a"
40         altinstruction_entry 0b,2b,\feature1,5,5
41         altinstruction_entry 0b,3b,\feature2,5,5
42         .previous
43         .endm
45         .macro ALIGN_DESTINATION
46 #ifdef FIX_ALIGNMENT
47         /* check for bad alignment of destination */
48         movl %edi,%ecx
49         andl $7,%ecx
50         jz 102f                         /* already aligned */
51         subl $8,%ecx
52         negl %ecx
53         subl %ecx,%edx
54 100:    movb (%rsi),%al
55 101:    movb %al,(%rdi)
56         incq %rsi
57         incq %rdi
58         decl %ecx
59         jnz 100b
60 102:
61         .section .fixup,"ax"
62 103:    addl %ecx,%edx                  /* ecx is zerorest also */
63         jmp copy_user_handle_tail
64         .previous
66         .section __ex_table,"a"
67         .align 8
68         .quad 100b,103b
69         .quad 101b,103b
70         .previous
71 #endif
72         .endm
74 /* Standard copy_to_user with segment limit checking */
75 ENTRY(_copy_to_user)
76         CFI_STARTPROC
77         GET_THREAD_INFO(%rax)
78         movq %rdi,%rcx
79         addq %rdx,%rcx
80         jc bad_to_user
81         cmpq TI_addr_limit(%rax),%rcx
82         ja bad_to_user
83         ALTERNATIVE_JUMP X86_FEATURE_REP_GOOD,X86_FEATURE_ERMS, \
84                 copy_user_generic_unrolled,copy_user_generic_string,    \
85                 copy_user_enhanced_fast_string
86         CFI_ENDPROC
87 ENDPROC(_copy_to_user)
89 /* Standard copy_from_user with segment limit checking */
90 ENTRY(_copy_from_user)
91         CFI_STARTPROC
92         GET_THREAD_INFO(%rax)
93         movq %rsi,%rcx
94         addq %rdx,%rcx
95         jc bad_from_user
96         cmpq TI_addr_limit(%rax),%rcx
97         ja bad_from_user
98         ALTERNATIVE_JUMP X86_FEATURE_REP_GOOD,X86_FEATURE_ERMS, \
99                 copy_user_generic_unrolled,copy_user_generic_string,    \
100                 copy_user_enhanced_fast_string
101         CFI_ENDPROC
102 ENDPROC(_copy_from_user)
104         .section .fixup,"ax"
105         /* must zero dest */
106 ENTRY(bad_from_user)
107 bad_from_user:
108         CFI_STARTPROC
109         movl %edx,%ecx
110         xorl %eax,%eax
111         rep
112         stosb
113 bad_to_user:
114         movl %edx,%eax
115         ret
116         CFI_ENDPROC
117 ENDPROC(bad_from_user)
118         .previous
121  * copy_user_generic_unrolled - memory copy with exception handling.
122  * This version is for CPUs like P4 that don't have efficient micro
123  * code for rep movsq
125  * Input:
126  * rdi destination
127  * rsi source
128  * rdx count
130  * Output:
131  * eax uncopied bytes or 0 if successful.
132  */
133 ENTRY(copy_user_generic_unrolled)
134         CFI_STARTPROC
135         cmpl $8,%edx
136         jb 20f          /* less then 8 bytes, go to byte copy loop */
137         ALIGN_DESTINATION
138         movl %edx,%ecx
139         andl $63,%edx
140         shrl $6,%ecx
141         jz 17f
142 1:      movq (%rsi),%r8
143 2:      movq 1*8(%rsi),%r9
144 3:      movq 2*8(%rsi),%r10
145 4:      movq 3*8(%rsi),%r11
146 5:      movq %r8,(%rdi)
147 6:      movq %r9,1*8(%rdi)
148 7:      movq %r10,2*8(%rdi)
149 8:      movq %r11,3*8(%rdi)
150 9:      movq 4*8(%rsi),%r8
151 10:     movq 5*8(%rsi),%r9
152 11:     movq 6*8(%rsi),%r10
153 12:     movq 7*8(%rsi),%r11
154 13:     movq %r8,4*8(%rdi)
155 14:     movq %r9,5*8(%rdi)
156 15:     movq %r10,6*8(%rdi)
157 16:     movq %r11,7*8(%rdi)
158         leaq 64(%rsi),%rsi
159         leaq 64(%rdi),%rdi
160         decl %ecx
161         jnz 1b
162 17:     movl %edx,%ecx
163         andl $7,%edx
164         shrl $3,%ecx
165         jz 20f
166 18:     movq (%rsi),%r8
167 19:     movq %r8,(%rdi)
168         leaq 8(%rsi),%rsi
169         leaq 8(%rdi),%rdi
170         decl %ecx
171         jnz 18b
172 20:     andl %edx,%edx
173         jz 23f
174         movl %edx,%ecx
175 21:     movb (%rsi),%al
176 22:     movb %al,(%rdi)
177         incq %rsi
178         incq %rdi
179         decl %ecx
180         jnz 21b
181 23:     xor %eax,%eax
182         ret
184         .section .fixup,"ax"
185 30:     shll $6,%ecx
186         addl %ecx,%edx
187         jmp 60f
188 40:     lea (%rdx,%rcx,8),%rdx
189         jmp 60f
190 50:     movl %ecx,%edx
191 60:     jmp copy_user_handle_tail /* ecx is zerorest also */
192         .previous
194         .section __ex_table,"a"
195         .align 8
196         .quad 1b,30b
197         .quad 2b,30b
198         .quad 3b,30b
199         .quad 4b,30b
200         .quad 5b,30b
201         .quad 6b,30b
202         .quad 7b,30b
203         .quad 8b,30b
204         .quad 9b,30b
205         .quad 10b,30b
206         .quad 11b,30b
207         .quad 12b,30b
208         .quad 13b,30b
209         .quad 14b,30b
210         .quad 15b,30b
211         .quad 16b,30b
212         .quad 18b,40b
213         .quad 19b,40b
214         .quad 21b,50b
215         .quad 22b,50b
216         .previous
217         CFI_ENDPROC
218 ENDPROC(copy_user_generic_unrolled)
220 /* Some CPUs run faster using the string copy instructions.
221  * This is also a lot simpler. Use them when possible.
223  * Only 4GB of copy is supported. This shouldn't be a problem
224  * because the kernel normally only writes from/to page sized chunks
225  * even if user space passed a longer buffer.
226  * And more would be dangerous because both Intel and AMD have
227  * errata with rep movsq > 4GB. If someone feels the need to fix
228  * this please consider this.
230  * Input:
231  * rdi destination
232  * rsi source
233  * rdx count
235  * Output:
236  * eax uncopied bytes or 0 if successful.
237  */
238 ENTRY(copy_user_generic_string)
239         CFI_STARTPROC
240         andl %edx,%edx
241         jz 4f
242         cmpl $8,%edx
243         jb 2f           /* less than 8 bytes, go to byte copy loop */
244         ALIGN_DESTINATION
245         movl %edx,%ecx
246         shrl $3,%ecx
247         andl $7,%edx
248 1:      rep
249         movsq
250 2:      movl %edx,%ecx
251 3:      rep
252         movsb
253 4:      xorl %eax,%eax
254         ret
256         .section .fixup,"ax"
257 11:     lea (%rdx,%rcx,8),%rcx
258 12:     movl %ecx,%edx          /* ecx is zerorest also */
259         jmp copy_user_handle_tail
260         .previous
262         .section __ex_table,"a"
263         .align 8
264         .quad 1b,11b
265         .quad 3b,12b
266         .previous
267         CFI_ENDPROC
268 ENDPROC(copy_user_generic_string)
271  * Some CPUs are adding enhanced REP MOVSB/STOSB instructions.
272  * It's recommended to use enhanced REP MOVSB/STOSB if it's enabled.
274  * Input:
275  * rdi destination
276  * rsi source
277  * rdx count
279  * Output:
280  * eax uncopied bytes or 0 if successful.
281  */
282 ENTRY(copy_user_enhanced_fast_string)
283         CFI_STARTPROC
284         andl %edx,%edx
285         jz 2f
286         movl %edx,%ecx
287 1:      rep
288         movsb
289 2:      xorl %eax,%eax
290         ret
292         .section .fixup,"ax"
293 12:     movl %ecx,%edx          /* ecx is zerorest also */
294         jmp copy_user_handle_tail
295         .previous
297         .section __ex_table,"a"
298         .align 8
299         .quad 1b,12b
300         .previous
301         CFI_ENDPROC
302 ENDPROC(copy_user_enhanced_fast_string)