Merge git://git.kernel.org/pub/scm/linux/kernel/git/torvalds/linux-2.6
[wrt350n-kernel.git] / arch / x86 / kernel / vmlinux_32.lds.S
blob75276811eb3d2999d3e0c67a12a619a2a26838c9
1 /* ld script to make i386 Linux kernel
2  * Written by Martin Mares <mj@atrey.karlin.mff.cuni.cz>;
3  *
4  * Don't define absolute symbols until and unless you know that symbol
5  * value is should remain constant even if kernel image is relocated
6  * at run time. Absolute symbols are not relocated. If symbol value should
7  * change if kernel is relocated, make the symbol section relative and
8  * put it inside the section definition.
9  */
11 #define LOAD_OFFSET __PAGE_OFFSET
13 #include <asm-generic/vmlinux.lds.h>
14 #include <asm/thread_info.h>
15 #include <asm/page.h>
16 #include <asm/cache.h>
17 #include <asm/boot.h>
19 OUTPUT_FORMAT("elf32-i386", "elf32-i386", "elf32-i386")
20 OUTPUT_ARCH(i386)
21 ENTRY(phys_startup_32)
22 jiffies = jiffies_64;
24 PHDRS {
25         text PT_LOAD FLAGS(5);  /* R_E */
26         data PT_LOAD FLAGS(7);  /* RWE */
27         note PT_NOTE FLAGS(0);  /* ___ */
29 SECTIONS
31   . = LOAD_OFFSET + LOAD_PHYSICAL_ADDR;
32   phys_startup_32 = startup_32 - LOAD_OFFSET;
34   .text.head : AT(ADDR(.text.head) - LOAD_OFFSET) {
35         _text = .;                      /* Text and read-only data */
36         *(.text.head)
37   } :text = 0x9090
39   /* read-only */
40   .text : AT(ADDR(.text) - LOAD_OFFSET) {
41 <<<<<<< HEAD:arch/x86/kernel/vmlinux_32.lds.S
42         . = ALIGN(4096); /* not really needed, already page aligned */
43 =======
44         . = ALIGN(PAGE_SIZE); /* not really needed, already page aligned */
45 >>>>>>> 264e3e889d86e552b4191d69bb60f4f3b383135a:arch/x86/kernel/vmlinux_32.lds.S
46         *(.text.page_aligned)
47         TEXT_TEXT
48         SCHED_TEXT
49         LOCK_TEXT
50         KPROBES_TEXT
51         *(.fixup)
52         *(.gnu.warning)
53         _etext = .;                     /* End of text section */
54   } :text = 0x9090
56   . = ALIGN(16);                /* Exception table */
57   __ex_table : AT(ADDR(__ex_table) - LOAD_OFFSET) {
58         __start___ex_table = .;
59          *(__ex_table)
60         __stop___ex_table = .;
61   }
63   NOTES :text :note
65   BUG_TABLE :text
67   . = ALIGN(4);
68   .tracedata : AT(ADDR(.tracedata) - LOAD_OFFSET) {
69         __tracedata_start = .;
70         *(.tracedata)
71         __tracedata_end = .;
72   }
74   RODATA
76   /* writeable */
77 <<<<<<< HEAD:arch/x86/kernel/vmlinux_32.lds.S
78   . = ALIGN(4096);
79 =======
80   . = ALIGN(PAGE_SIZE);
81 >>>>>>> 264e3e889d86e552b4191d69bb60f4f3b383135a:arch/x86/kernel/vmlinux_32.lds.S
82   .data : AT(ADDR(.data) - LOAD_OFFSET) {       /* Data */
83         DATA_DATA
84         CONSTRUCTORS
85         } :data
87 <<<<<<< HEAD:arch/x86/kernel/vmlinux_32.lds.S
88   . = ALIGN(4096);
89 =======
90   . = ALIGN(PAGE_SIZE);
91 >>>>>>> 264e3e889d86e552b4191d69bb60f4f3b383135a:arch/x86/kernel/vmlinux_32.lds.S
92   .data_nosave : AT(ADDR(.data_nosave) - LOAD_OFFSET) {
93         __nosave_begin = .;
94         *(.data.nosave)
95 <<<<<<< HEAD:arch/x86/kernel/vmlinux_32.lds.S
96         . = ALIGN(4096);
97 =======
98         . = ALIGN(PAGE_SIZE);
99 >>>>>>> 264e3e889d86e552b4191d69bb60f4f3b383135a:arch/x86/kernel/vmlinux_32.lds.S
100         __nosave_end = .;
101   }
103 <<<<<<< HEAD:arch/x86/kernel/vmlinux_32.lds.S
104   . = ALIGN(4096);
105 =======
106   . = ALIGN(PAGE_SIZE);
107 >>>>>>> 264e3e889d86e552b4191d69bb60f4f3b383135a:arch/x86/kernel/vmlinux_32.lds.S
108   .data.page_aligned : AT(ADDR(.data.page_aligned) - LOAD_OFFSET) {
109         *(.data.page_aligned)
110         *(.data.idt)
111   }
113   . = ALIGN(32);
114   .data.cacheline_aligned : AT(ADDR(.data.cacheline_aligned) - LOAD_OFFSET) {
115         *(.data.cacheline_aligned)
116   }
118   /* rarely changed data like cpu maps */
119   . = ALIGN(32);
120   .data.read_mostly : AT(ADDR(.data.read_mostly) - LOAD_OFFSET) {
121         *(.data.read_mostly)
122         _edata = .;             /* End of data section */
123   }
125   . = ALIGN(THREAD_SIZE);       /* init_task */
126   .data.init_task : AT(ADDR(.data.init_task) - LOAD_OFFSET) {
127         *(.data.init_task)
128   }
130   /* might get freed after init */
131 <<<<<<< HEAD:arch/x86/kernel/vmlinux_32.lds.S
132   . = ALIGN(4096);
133 =======
134   . = ALIGN(PAGE_SIZE);
135 >>>>>>> 264e3e889d86e552b4191d69bb60f4f3b383135a:arch/x86/kernel/vmlinux_32.lds.S
136   .smp_locks : AT(ADDR(.smp_locks) - LOAD_OFFSET) {
137         __smp_locks = .;
138         *(.smp_locks)
139         __smp_locks_end = .;
140   }
141   /* will be freed after init
142    * Following ALIGN() is required to make sure no other data falls on the
143    * same page where __smp_alt_end is pointing as that page might be freed
144    * after boot. Always make sure that ALIGN() directive is present after
145    * the section which contains __smp_alt_end.
146    */
147 <<<<<<< HEAD:arch/x86/kernel/vmlinux_32.lds.S
148   . = ALIGN(4096);
149 =======
150   . = ALIGN(PAGE_SIZE);
151 >>>>>>> 264e3e889d86e552b4191d69bb60f4f3b383135a:arch/x86/kernel/vmlinux_32.lds.S
153   /* will be freed after init */
154 <<<<<<< HEAD:arch/x86/kernel/vmlinux_32.lds.S
155   . = ALIGN(4096);              /* Init code and data */
156 =======
157   . = ALIGN(PAGE_SIZE);         /* Init code and data */
158 >>>>>>> 264e3e889d86e552b4191d69bb60f4f3b383135a:arch/x86/kernel/vmlinux_32.lds.S
159   .init.text : AT(ADDR(.init.text) - LOAD_OFFSET) {
160         __init_begin = .;
161         _sinittext = .;
162         INIT_TEXT
163         _einittext = .;
164   }
165   .init.data : AT(ADDR(.init.data) - LOAD_OFFSET) {
166         INIT_DATA
167   }
168   . = ALIGN(16);
169   .init.setup : AT(ADDR(.init.setup) - LOAD_OFFSET) {
170         __setup_start = .;
171         *(.init.setup)
172         __setup_end = .;
173    }
174   .initcall.init : AT(ADDR(.initcall.init) - LOAD_OFFSET) {
175         __initcall_start = .;
176         INITCALLS
177         __initcall_end = .;
178   }
179   .con_initcall.init : AT(ADDR(.con_initcall.init) - LOAD_OFFSET) {
180         __con_initcall_start = .;
181         *(.con_initcall.init)
182         __con_initcall_end = .;
183   }
184   SECURITY_INIT
185   . = ALIGN(4);
186   .altinstructions : AT(ADDR(.altinstructions) - LOAD_OFFSET) {
187         __alt_instructions = .;
188         *(.altinstructions)
189         __alt_instructions_end = .;
190   }
191   .altinstr_replacement : AT(ADDR(.altinstr_replacement) - LOAD_OFFSET) {
192         *(.altinstr_replacement)
193   }
194   . = ALIGN(4);
195   .parainstructions : AT(ADDR(.parainstructions) - LOAD_OFFSET) {
196         __parainstructions = .;
197         *(.parainstructions)
198         __parainstructions_end = .;
199   }
200   /* .exit.text is discard at runtime, not link time, to deal with references
201      from .altinstructions and .eh_frame */
202   .exit.text : AT(ADDR(.exit.text) - LOAD_OFFSET) {
203         EXIT_TEXT
204   }
205   .exit.data : AT(ADDR(.exit.data) - LOAD_OFFSET) {
206         EXIT_DATA
207   }
208 #if defined(CONFIG_BLK_DEV_INITRD)
209 <<<<<<< HEAD:arch/x86/kernel/vmlinux_32.lds.S
210   . = ALIGN(4096);
211 =======
212   . = ALIGN(PAGE_SIZE);
213 >>>>>>> 264e3e889d86e552b4191d69bb60f4f3b383135a:arch/x86/kernel/vmlinux_32.lds.S
214   .init.ramfs : AT(ADDR(.init.ramfs) - LOAD_OFFSET) {
215         __initramfs_start = .;
216         *(.init.ramfs)
217         __initramfs_end = .;
218   }
219 #endif
220 <<<<<<< HEAD:arch/x86/kernel/vmlinux_32.lds.S
221   . = ALIGN(4096);
222 =======
223   . = ALIGN(PAGE_SIZE);
224 >>>>>>> 264e3e889d86e552b4191d69bb60f4f3b383135a:arch/x86/kernel/vmlinux_32.lds.S
225   .data.percpu  : AT(ADDR(.data.percpu) - LOAD_OFFSET) {
226         __per_cpu_start = .;
227         *(.data.percpu)
228         *(.data.percpu.shared_aligned)
229         __per_cpu_end = .;
230   }
231 <<<<<<< HEAD:arch/x86/kernel/vmlinux_32.lds.S
232   . = ALIGN(4096);
233 =======
234   . = ALIGN(PAGE_SIZE);
235 >>>>>>> 264e3e889d86e552b4191d69bb60f4f3b383135a:arch/x86/kernel/vmlinux_32.lds.S
236   /* freed after init ends here */
237 <<<<<<< HEAD:arch/x86/kernel/vmlinux_32.lds.S
238         
239 =======
241 >>>>>>> 264e3e889d86e552b4191d69bb60f4f3b383135a:arch/x86/kernel/vmlinux_32.lds.S
242   .bss : AT(ADDR(.bss) - LOAD_OFFSET) {
243         __init_end = .;
244         __bss_start = .;                /* BSS */
245         *(.bss.page_aligned)
246         *(.bss)
247         . = ALIGN(4);
248         __bss_stop = .;
249         _end = . ;
250         /* This is where the kernel creates the early boot page tables */
251 <<<<<<< HEAD:arch/x86/kernel/vmlinux_32.lds.S
252         . = ALIGN(4096);
253 =======
254         . = ALIGN(PAGE_SIZE);
255 >>>>>>> 264e3e889d86e552b4191d69bb60f4f3b383135a:arch/x86/kernel/vmlinux_32.lds.S
256         pg0 = . ;
257   }
259   /* Sections to be discarded */
260   /DISCARD/ : {
261         *(.exitcall.exit)
262         }
264   STABS_DEBUG
266   DWARF_DEBUG