WIP FPC-III support
[linux/fpc-iii.git] / arch / x86 / kernel / head_32.S
blob7ed84c2822332d9be00c4745ee08d93fc33032fa
1 /* SPDX-License-Identifier: GPL-2.0 */
2 /*
3  *
4  *  Copyright (C) 1991, 1992  Linus Torvalds
5  *
6  *  Enhanced CPU detection and feature setting code by Mike Jagdis
7  *  and Martin Mares, November 1997.
8  */
10 .text
11 #include <linux/threads.h>
12 #include <linux/init.h>
13 #include <linux/linkage.h>
14 #include <asm/segment.h>
15 #include <asm/page_types.h>
16 #include <asm/pgtable_types.h>
17 #include <asm/cache.h>
18 #include <asm/thread_info.h>
19 #include <asm/asm-offsets.h>
20 #include <asm/setup.h>
21 #include <asm/processor-flags.h>
22 #include <asm/msr-index.h>
23 #include <asm/cpufeatures.h>
24 #include <asm/percpu.h>
25 #include <asm/nops.h>
26 #include <asm/bootparam.h>
27 #include <asm/export.h>
28 #include <asm/pgtable_32.h>
30 /* Physical address */
31 #define pa(X) ((X) - __PAGE_OFFSET)
34  * References to members of the new_cpu_data structure.
35  */
37 #define X86             new_cpu_data+CPUINFO_x86
38 #define X86_VENDOR      new_cpu_data+CPUINFO_x86_vendor
39 #define X86_MODEL       new_cpu_data+CPUINFO_x86_model
40 #define X86_STEPPING    new_cpu_data+CPUINFO_x86_stepping
41 #define X86_HARD_MATH   new_cpu_data+CPUINFO_hard_math
42 #define X86_CPUID       new_cpu_data+CPUINFO_cpuid_level
43 #define X86_CAPABILITY  new_cpu_data+CPUINFO_x86_capability
44 #define X86_VENDOR_ID   new_cpu_data+CPUINFO_x86_vendor_id
47 #define SIZEOF_PTREGS 17*4
50  * Worst-case size of the kernel mapping we need to make:
51  * a relocatable kernel can live anywhere in lowmem, so we need to be able
52  * to map all of lowmem.
53  */
54 KERNEL_PAGES = LOWMEM_PAGES
56 INIT_MAP_SIZE = PAGE_TABLE_SIZE(KERNEL_PAGES) * PAGE_SIZE
57 RESERVE_BRK(pagetables, INIT_MAP_SIZE)
60  * 32-bit kernel entrypoint; only used by the boot CPU.  On entry,
61  * %esi points to the real-mode code as a 32-bit pointer.
62  * CS and DS must be 4 GB flat segments, but we don't depend on
63  * any particular GDT layout, because we load our own as soon as we
64  * can.
65  */
66 __HEAD
67 SYM_CODE_START(startup_32)
68         movl pa(initial_stack),%ecx
69         
71  * Set segments to known values.
72  */
73         lgdt pa(boot_gdt_descr)
74         movl $(__BOOT_DS),%eax
75         movl %eax,%ds
76         movl %eax,%es
77         movl %eax,%fs
78         movl %eax,%gs
79         movl %eax,%ss
80         leal -__PAGE_OFFSET(%ecx),%esp
83  * Clear BSS first so that there are no surprises...
84  */
85         cld
86         xorl %eax,%eax
87         movl $pa(__bss_start),%edi
88         movl $pa(__bss_stop),%ecx
89         subl %edi,%ecx
90         shrl $2,%ecx
91         rep ; stosl
93  * Copy bootup parameters out of the way.
94  * Note: %esi still has the pointer to the real-mode data.
95  * With the kexec as boot loader, parameter segment might be loaded beyond
96  * kernel image and might not even be addressable by early boot page tables.
97  * (kexec on panic case). Hence copy out the parameters before initializing
98  * page tables.
99  */
100         movl $pa(boot_params),%edi
101         movl $(PARAM_SIZE/4),%ecx
102         cld
103         rep
104         movsl
105         movl pa(boot_params) + NEW_CL_POINTER,%esi
106         andl %esi,%esi
107         jz 1f                   # No command line
108         movl $pa(boot_command_line),%edi
109         movl $(COMMAND_LINE_SIZE/4),%ecx
110         rep
111         movsl
114 #ifdef CONFIG_OLPC
115         /* save OFW's pgdir table for later use when calling into OFW */
116         movl %cr3, %eax
117         movl %eax, pa(olpc_ofw_pgd)
118 #endif
120 #ifdef CONFIG_MICROCODE
121         /* Early load ucode on BSP. */
122         call load_ucode_bsp
123 #endif
125         /* Create early pagetables. */
126         call  mk_early_pgtbl_32
128         /* Do early initialization of the fixmap area */
129         movl $pa(initial_pg_fixmap)+PDE_IDENT_ATTR,%eax
130 #ifdef  CONFIG_X86_PAE
131 #define KPMDS (((-__PAGE_OFFSET) >> 30) & 3) /* Number of kernel PMDs */
132         movl %eax,pa(initial_pg_pmd+0x1000*KPMDS-8)
133 #else
134         movl %eax,pa(initial_page_table+0xffc)
135 #endif
137         jmp .Ldefault_entry
138 SYM_CODE_END(startup_32)
140 #ifdef CONFIG_HOTPLUG_CPU
142  * Boot CPU0 entry point. It's called from play_dead(). Everything has been set
143  * up already except stack. We just set up stack here. Then call
144  * start_secondary().
145  */
146 SYM_FUNC_START(start_cpu0)
147         movl initial_stack, %ecx
148         movl %ecx, %esp
149         call *(initial_code)
150 1:      jmp 1b
151 SYM_FUNC_END(start_cpu0)
152 #endif
155  * Non-boot CPU entry point; entered from trampoline.S
156  * We can't lgdt here, because lgdt itself uses a data segment, but
157  * we know the trampoline has already loaded the boot_gdt for us.
159  * If cpu hotplug is not supported then this code can go in init section
160  * which will be freed later
161  */
162 SYM_FUNC_START(startup_32_smp)
163         cld
164         movl $(__BOOT_DS),%eax
165         movl %eax,%ds
166         movl %eax,%es
167         movl %eax,%fs
168         movl %eax,%gs
169         movl pa(initial_stack),%ecx
170         movl %eax,%ss
171         leal -__PAGE_OFFSET(%ecx),%esp
173 #ifdef CONFIG_MICROCODE
174         /* Early load ucode on AP. */
175         call load_ucode_ap
176 #endif
178 .Ldefault_entry:
179         movl $(CR0_STATE & ~X86_CR0_PG),%eax
180         movl %eax,%cr0
183  * We want to start out with EFLAGS unambiguously cleared. Some BIOSes leave
184  * bits like NT set. This would confuse the debugger if this code is traced. So
185  * initialize them properly now before switching to protected mode. That means
186  * DF in particular (even though we have cleared it earlier after copying the
187  * command line) because GCC expects it.
188  */
189         pushl $0
190         popfl
193  * New page tables may be in 4Mbyte page mode and may be using the global pages.
195  * NOTE! If we are on a 486 we may have no cr4 at all! Specifically, cr4 exists
196  * if and only if CPUID exists and has flags other than the FPU flag set.
197  */
198         movl $-1,pa(X86_CPUID)          # preset CPUID level
199         movl $X86_EFLAGS_ID,%ecx
200         pushl %ecx
201         popfl                           # set EFLAGS=ID
202         pushfl
203         popl %eax                       # get EFLAGS
204         testl $X86_EFLAGS_ID,%eax       # did EFLAGS.ID remained set?
205         jz .Lenable_paging              # hw disallowed setting of ID bit
206                                         # which means no CPUID and no CR4
208         xorl %eax,%eax
209         cpuid
210         movl %eax,pa(X86_CPUID)         # save largest std CPUID function
212         movl $1,%eax
213         cpuid
214         andl $~1,%edx                   # Ignore CPUID.FPU
215         jz .Lenable_paging              # No flags or only CPUID.FPU = no CR4
217         movl pa(mmu_cr4_features),%eax
218         movl %eax,%cr4
220         testb $X86_CR4_PAE, %al         # check if PAE is enabled
221         jz .Lenable_paging
223         /* Check if extended functions are implemented */
224         movl $0x80000000, %eax
225         cpuid
226         /* Value must be in the range 0x80000001 to 0x8000ffff */
227         subl $0x80000001, %eax
228         cmpl $(0x8000ffff-0x80000001), %eax
229         ja .Lenable_paging
231         /* Clear bogus XD_DISABLE bits */
232         call verify_cpu
234         mov $0x80000001, %eax
235         cpuid
236         /* Execute Disable bit supported? */
237         btl $(X86_FEATURE_NX & 31), %edx
238         jnc .Lenable_paging
240         /* Setup EFER (Extended Feature Enable Register) */
241         movl $MSR_EFER, %ecx
242         rdmsr
244         btsl $_EFER_NX, %eax
245         /* Make changes effective */
246         wrmsr
248 .Lenable_paging:
251  * Enable paging
252  */
253         movl $pa(initial_page_table), %eax
254         movl %eax,%cr3          /* set the page table pointer.. */
255         movl $CR0_STATE,%eax
256         movl %eax,%cr0          /* ..and set paging (PG) bit */
257         ljmp $__BOOT_CS,$1f     /* Clear prefetch and normalize %eip */
259         /* Shift the stack pointer to a virtual address */
260         addl $__PAGE_OFFSET, %esp
263  * start system 32-bit setup. We need to re-do some of the things done
264  * in 16-bit mode for the "real" operations.
265  */
266         movl setup_once_ref,%eax
267         andl %eax,%eax
268         jz 1f                           # Did we do this already?
269         call *%eax
273  * Check if it is 486
274  */
275         movb $4,X86                     # at least 486
276         cmpl $-1,X86_CPUID
277         je .Lis486
279         /* get vendor info */
280         xorl %eax,%eax                  # call CPUID with 0 -> return vendor ID
281         cpuid
282         movl %eax,X86_CPUID             # save CPUID level
283         movl %ebx,X86_VENDOR_ID         # lo 4 chars
284         movl %edx,X86_VENDOR_ID+4       # next 4 chars
285         movl %ecx,X86_VENDOR_ID+8       # last 4 chars
287         orl %eax,%eax                   # do we have processor info as well?
288         je .Lis486
290         movl $1,%eax            # Use the CPUID instruction to get CPU type
291         cpuid
292         movb %al,%cl            # save reg for future use
293         andb $0x0f,%ah          # mask processor family
294         movb %ah,X86
295         andb $0xf0,%al          # mask model
296         shrb $4,%al
297         movb %al,X86_MODEL
298         andb $0x0f,%cl          # mask mask revision
299         movb %cl,X86_STEPPING
300         movl %edx,X86_CAPABILITY
302 .Lis486:
303         movl $0x50022,%ecx      # set AM, WP, NE and MP
304         movl %cr0,%eax
305         andl $0x80000011,%eax   # Save PG,PE,ET
306         orl %ecx,%eax
307         movl %eax,%cr0
309         lgdt early_gdt_descr
310         ljmp $(__KERNEL_CS),$1f
311 1:      movl $(__KERNEL_DS),%eax        # reload all the segment registers
312         movl %eax,%ss                   # after changing gdt.
314         movl $(__USER_DS),%eax          # DS/ES contains default USER segment
315         movl %eax,%ds
316         movl %eax,%es
318         movl $(__KERNEL_PERCPU), %eax
319         movl %eax,%fs                   # set this cpu's percpu
321         movl $(__KERNEL_STACK_CANARY),%eax
322         movl %eax,%gs
324         xorl %eax,%eax                  # Clear LDT
325         lldt %ax
327         call *(initial_code)
328 1:      jmp 1b
329 SYM_FUNC_END(startup_32_smp)
331 #include "verify_cpu.S"
334  *  setup_once
336  *  The setup work we only want to run on the BSP.
338  *  Warning: %esi is live across this function.
339  */
340 __INIT
341 setup_once:
342 #ifdef CONFIG_STACKPROTECTOR
343         /*
344          * Configure the stack canary. The linker can't handle this by
345          * relocation.  Manually set base address in stack canary
346          * segment descriptor.
347          */
348         movl $gdt_page,%eax
349         movl $stack_canary,%ecx
350         movw %cx, 8 * GDT_ENTRY_STACK_CANARY + 2(%eax)
351         shrl $16, %ecx
352         movb %cl, 8 * GDT_ENTRY_STACK_CANARY + 4(%eax)
353         movb %ch, 8 * GDT_ENTRY_STACK_CANARY + 7(%eax)
354 #endif
356         andl $0,setup_once_ref  /* Once is enough, thanks */
357         ret
359 SYM_FUNC_START(early_idt_handler_array)
360         # 36(%esp) %eflags
361         # 32(%esp) %cs
362         # 28(%esp) %eip
363         # 24(%rsp) error code
364         i = 0
365         .rept NUM_EXCEPTION_VECTORS
366         .if ((EXCEPTION_ERRCODE_MASK >> i) & 1) == 0
367         pushl $0                # Dummy error code, to make stack frame uniform
368         .endif
369         pushl $i                # 20(%esp) Vector number
370         jmp early_idt_handler_common
371         i = i + 1
372         .fill early_idt_handler_array + i*EARLY_IDT_HANDLER_SIZE - ., 1, 0xcc
373         .endr
374 SYM_FUNC_END(early_idt_handler_array)
375         
376 SYM_CODE_START_LOCAL(early_idt_handler_common)
377         /*
378          * The stack is the hardware frame, an error code or zero, and the
379          * vector number.
380          */
381         cld
383         incl %ss:early_recursion_flag
385         /* The vector number is in pt_regs->gs */
387         cld
388         pushl   %fs             /* pt_regs->fs (__fsh varies by model) */
389         pushl   %es             /* pt_regs->es (__esh varies by model) */
390         pushl   %ds             /* pt_regs->ds (__dsh varies by model) */
391         pushl   %eax            /* pt_regs->ax */
392         pushl   %ebp            /* pt_regs->bp */
393         pushl   %edi            /* pt_regs->di */
394         pushl   %esi            /* pt_regs->si */
395         pushl   %edx            /* pt_regs->dx */
396         pushl   %ecx            /* pt_regs->cx */
397         pushl   %ebx            /* pt_regs->bx */
399         /* Fix up DS and ES */
400         movl    $(__KERNEL_DS), %ecx
401         movl    %ecx, %ds
402         movl    %ecx, %es
404         /* Load the vector number into EDX */
405         movl    PT_GS(%esp), %edx
407         /* Load GS into pt_regs->gs (and maybe clobber __gsh) */
408         movw    %gs, PT_GS(%esp)
410         movl    %esp, %eax      /* args are pt_regs (EAX), trapnr (EDX) */
411         call    early_fixup_exception
413         popl    %ebx            /* pt_regs->bx */
414         popl    %ecx            /* pt_regs->cx */
415         popl    %edx            /* pt_regs->dx */
416         popl    %esi            /* pt_regs->si */
417         popl    %edi            /* pt_regs->di */
418         popl    %ebp            /* pt_regs->bp */
419         popl    %eax            /* pt_regs->ax */
420         popl    %ds             /* pt_regs->ds (always ignores __dsh) */
421         popl    %es             /* pt_regs->es (always ignores __esh) */
422         popl    %fs             /* pt_regs->fs (always ignores __fsh) */
423         popl    %gs             /* pt_regs->gs (always ignores __gsh) */
424         decl    %ss:early_recursion_flag
425         addl    $4, %esp        /* pop pt_regs->orig_ax */
426         iret
427 SYM_CODE_END(early_idt_handler_common)
429 /* This is the default interrupt "handler" :-) */
430 SYM_FUNC_START(early_ignore_irq)
431         cld
432 #ifdef CONFIG_PRINTK
433         pushl %eax
434         pushl %ecx
435         pushl %edx
436         pushl %es
437         pushl %ds
438         movl $(__KERNEL_DS),%eax
439         movl %eax,%ds
440         movl %eax,%es
441         cmpl $2,early_recursion_flag
442         je hlt_loop
443         incl early_recursion_flag
444         pushl 16(%esp)
445         pushl 24(%esp)
446         pushl 32(%esp)
447         pushl 40(%esp)
448         pushl $int_msg
449         call printk
451         call dump_stack
453         addl $(5*4),%esp
454         popl %ds
455         popl %es
456         popl %edx
457         popl %ecx
458         popl %eax
459 #endif
460         iret
462 hlt_loop:
463         hlt
464         jmp hlt_loop
465 SYM_FUNC_END(early_ignore_irq)
467 __INITDATA
468         .align 4
469 SYM_DATA(early_recursion_flag, .long 0)
471 __REFDATA
472         .align 4
473 SYM_DATA(initial_code,          .long i386_start_kernel)
474 SYM_DATA(setup_once_ref,        .long setup_once)
476 #ifdef CONFIG_PAGE_TABLE_ISOLATION
477 #define PGD_ALIGN       (2 * PAGE_SIZE)
478 #define PTI_USER_PGD_FILL       1024
479 #else
480 #define PGD_ALIGN       (PAGE_SIZE)
481 #define PTI_USER_PGD_FILL       0
482 #endif
484  * BSS section
485  */
486 __PAGE_ALIGNED_BSS
487         .align PGD_ALIGN
488 #ifdef CONFIG_X86_PAE
489 .globl initial_pg_pmd
490 initial_pg_pmd:
491         .fill 1024*KPMDS,4,0
492 #else
493 .globl initial_page_table
494 initial_page_table:
495         .fill 1024,4,0
496 #endif
497         .align PGD_ALIGN
498 initial_pg_fixmap:
499         .fill 1024,4,0
500 .globl swapper_pg_dir
501         .align PGD_ALIGN
502 swapper_pg_dir:
503         .fill 1024,4,0
504         .fill PTI_USER_PGD_FILL,4,0
505 .globl empty_zero_page
506 empty_zero_page:
507         .fill 4096,1,0
508 EXPORT_SYMBOL(empty_zero_page)
511  * This starts the data section.
512  */
513 #ifdef CONFIG_X86_PAE
514 __PAGE_ALIGNED_DATA
515         /* Page-aligned for the benefit of paravirt? */
516         .align PGD_ALIGN
517 SYM_DATA_START(initial_page_table)
518         .long   pa(initial_pg_pmd+PGD_IDENT_ATTR),0     /* low identity map */
519 # if KPMDS == 3
520         .long   pa(initial_pg_pmd+PGD_IDENT_ATTR),0
521         .long   pa(initial_pg_pmd+PGD_IDENT_ATTR+0x1000),0
522         .long   pa(initial_pg_pmd+PGD_IDENT_ATTR+0x2000),0
523 # elif KPMDS == 2
524         .long   0,0
525         .long   pa(initial_pg_pmd+PGD_IDENT_ATTR),0
526         .long   pa(initial_pg_pmd+PGD_IDENT_ATTR+0x1000),0
527 # elif KPMDS == 1
528         .long   0,0
529         .long   0,0
530         .long   pa(initial_pg_pmd+PGD_IDENT_ATTR),0
531 # else
532 #  error "Kernel PMDs should be 1, 2 or 3"
533 # endif
534         .align PAGE_SIZE                /* needs to be page-sized too */
536 #ifdef CONFIG_PAGE_TABLE_ISOLATION
537         /*
538          * PTI needs another page so sync_initial_pagetable() works correctly
539          * and does not scribble over the data which is placed behind the
540          * actual initial_page_table. See clone_pgd_range().
541          */
542         .fill 1024, 4, 0
543 #endif
545 SYM_DATA_END(initial_page_table)
546 #endif
548 .data
549 .balign 4
551  * The SIZEOF_PTREGS gap is a convention which helps the in-kernel unwinder
552  * reliably detect the end of the stack.
553  */
554 SYM_DATA(initial_stack,
555                 .long init_thread_union + THREAD_SIZE -
556                 SIZEOF_PTREGS - TOP_OF_KERNEL_STACK_PADDING)
558 __INITRODATA
559 int_msg:
560         .asciz "Unknown interrupt or fault at: %p %p %p\n"
562 #include "../../x86/xen/xen-head.S"
565  * The IDT and GDT 'descriptors' are a strange 48-bit object
566  * only used by the lidt and lgdt instructions. They are not
567  * like usual segment descriptors - they consist of a 16-bit
568  * segment size, and 32-bit linear address value:
569  */
571         .data
572         ALIGN
573 # early boot GDT descriptor (must use 1:1 address mapping)
574         .word 0                         # 32 bit align gdt_desc.address
575 SYM_DATA_START_LOCAL(boot_gdt_descr)
576         .word __BOOT_DS+7
577         .long boot_gdt - __PAGE_OFFSET
578 SYM_DATA_END(boot_gdt_descr)
580 # boot GDT descriptor (later on used by CPU#0):
581         .word 0                         # 32 bit align gdt_desc.address
582 SYM_DATA_START(early_gdt_descr)
583         .word GDT_ENTRIES*8-1
584         .long gdt_page                  /* Overwritten for secondary CPUs */
585 SYM_DATA_END(early_gdt_descr)
588  * The boot_gdt must mirror the equivalent in setup.S and is
589  * used only for booting.
590  */
591         .align L1_CACHE_BYTES
592 SYM_DATA_START(boot_gdt)
593         .fill GDT_ENTRY_BOOT_CS,8,0
594         .quad 0x00cf9a000000ffff        /* kernel 4GB code at 0x00000000 */
595         .quad 0x00cf92000000ffff        /* kernel 4GB data at 0x00000000 */
596 SYM_DATA_END(boot_gdt)