source: trunk/hal/x86_64/core/hal_gpt.c @ 114

Last change on this file since 114 was 114, checked in by max@…, 5 years ago

compute the offset for bootinfo

File size: 7.7 KB
Line 
1/*
2 * hal_gpt.c - implementation of the Generic Page Table API for x86_64
3 *
4 * Copyright (c) 2017 Maxime Villard
5 *
6 * This file is part of ALMOS-MKH.
7 *
8 * ALMOS-MKH is free software; you can redistribute it and/or modify it
9 * under the terms of the GNU General Public License as published by
10 * the Free Software Foundation; version 2.0 of the License.
11 *
12 * ALMOS-MKH is distributed in the hope that it will be useful, but
13 * WITHOUT ANY WARRANTY; without even the implied warranty of
14 * MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
15 * General Public License for more details.
16 *
17 * You should have received a copy of the GNU General Public License
18 * along with ALMOS-MKH.; if not, write to the Free Software Foundation,
19 * Inc., 51 Franklin St, Fifth Floor, Boston, MA 02110-1301 USA
20 */
21
22#include <hal_types.h>
23#include <hal_boot.h> /* XXX */
24#include <hal_gpt.h>
25#include <hal_special.h>
26#include <hal_internal.h>
27
28#include <printk.h>
29#include <bits.h>
30#include <string.h>
31#include <process.h>
32#include <kmem.h>
33#include <thread.h>
34#include <cluster.h>
35#include <ppm.h>
36#include <page.h>
37
38#define VA_SIGN_MASK            0xffff000000000000
39#define VA_SIGN_POS(va)         ((va) & ~VA_SIGN_MASK)
40
41#define pl1_i(VA)       (((VA_SIGN_POS(VA)) & L1_FRAME) >> L1_SHIFT)
42#define pl2_i(VA)       (((VA_SIGN_POS(VA)) & L2_FRAME) >> L2_SHIFT)
43#define pl3_i(VA)       (((VA_SIGN_POS(VA)) & L3_FRAME) >> L3_SHIFT)
44#define pl4_i(VA)       (((VA_SIGN_POS(VA)) & L4_FRAME) >> L4_SHIFT)
45
46extern vaddr_t __kernel_end;
47size_t kimg_size __in_kdata = 0;
48
49paddr_t pa_avail __in_kdata = 0;
50vaddr_t va_avail __in_kdata = 0;
51vaddr_t tmpva __in_kdata = (KERNBASE + NKL2_KIMG_ENTRIES * NBPD_L2);
52
53paddr_t hal_gpt_bootstrap_palloc(size_t npages)
54{
55        paddr_t pa = pa_avail;
56        pa_avail += npages * PAGE_SIZE;
57        return pa;
58}
59
60vaddr_t hal_gpt_bootstrap_valloc(size_t npages)
61{
62        vaddr_t va = va_avail;
63        va_avail += npages * PAGE_SIZE;
64        return va;
65}
66
67/*
68 * Reset the bootstrap VA we've used in cluster0 so far. After this
69 * function, cluster0's heap is empty.
70 */
71void hal_gpt_bootstrap_reset()
72{
73//      XXX: will be revisited later
74//      size_t npages = (va_avail - (CLUSTER_MIN_VA(0) + KERNEL_VA_SIZE)) / PAGE_SIZE;
75//      hal_gpt_leave_range(CLUSTER_MIN_VA(0) + KERNEL_VA_SIZE, npages);
76//      va_avail = CLUSTER_MIN_VA(0) + KERNEL_VA_SIZE;
77}
78
79void hal_gpt_enter(vaddr_t va, paddr_t pa, pt_entry_t flags)
80{
81        XASSERT(va % PAGE_SIZE == 0);
82        XASSERT(pa % PAGE_SIZE == 0);
83        XASSERT(va == tmpva || PTE_BASE[pl1_i(va)] == 0);
84        PTE_BASE[pl1_i(va)] = (pa & PG_FRAME) | flags;
85        invlpg(va);
86}
87
88void hal_gpt_enter_range(vaddr_t va, paddr_t pa, size_t n)
89{
90        pt_entry_t flags = PG_V | PG_KW | PG_NX;
91        size_t i;
92        for (i = 0; i < n; i++) {
93                hal_gpt_enter(va + i * PAGE_SIZE, pa + i * PAGE_SIZE, flags);
94        }
95}
96
97void hal_gpt_leave(vaddr_t va)
98{
99        XASSERT(va % PAGE_SIZE == 0);
100        XASSERT(PTE_BASE[pl1_i(va)] != 0);
101        PTE_BASE[pl1_i(va)] = 0;
102        invlpg(va);
103}
104
105void hal_gpt_leave_range(vaddr_t va, size_t n)
106{
107        size_t i;
108        for (i = 0; i < n; i++) {
109                hal_gpt_leave(va + i * PAGE_SIZE);
110        }
111}
112
113/*
114 * Create a page tree that can map va_start->va_end. The caller can then
115 * enter these addresses to physical locations.
116 *
117 * This functions is a bit complicated, and may need to be revisited.
118 */
119void hal_gpt_maptree_area(vaddr_t va_start, vaddr_t va_end)
120{
121        pt_entry_t flags = PG_V | PG_KW | PG_NX;
122        size_t L4start, L4end, nL4e;
123        size_t L3start, L3end, nL3e;
124        size_t L2start, L2end, nL2e;
125        paddr_t L3page, L2page, L1page;
126        paddr_t pa;
127        size_t i, npa;
128        pt_entry_t *pde;
129
130        /* Allocate L3 */
131        L4start = pl4_i(va_start);
132        L4end = pl4_i(va_end);
133        nL4e = (L4end - L4start + 1);
134        L3page = hal_gpt_bootstrap_palloc(nL4e);
135
136        /* Allocate L2 */
137        L3start = pl3_i(va_start);
138        L3end = pl3_i(va_end);
139        nL3e = (L3end - L3start + 1);
140        L2page = hal_gpt_bootstrap_palloc(nL3e);
141
142        /* Allocate L1 */
143        L2start = pl2_i(va_start);
144        L2end = pl2_i(va_end);
145        nL2e = (L2end - L2start + 1);
146        L1page = hal_gpt_bootstrap_palloc(nL2e);
147
148        /* Zero out L1 */
149        for (i = 0; i < nL2e; i++) {
150                pa = L1page + i * PAGE_SIZE;
151                hal_gpt_enter(tmpva, pa, flags);
152
153                memset((void *)tmpva, 0, PAGE_SIZE);
154        }
155
156        /* Zero out L2 */
157        for (i = 0; i < nL3e; i++) {
158                pa = L2page + i * PAGE_SIZE;
159                hal_gpt_enter(tmpva, pa, flags);
160
161                memset((void *)tmpva, 0, PAGE_SIZE);
162        }
163
164        /* Zero out L3 */
165        for (i = 0; i < nL4e; i++) {
166                pa = L3page + i * PAGE_SIZE;
167                hal_gpt_enter(tmpva, pa, flags);
168
169                memset((void *)tmpva, 0, PAGE_SIZE);
170        }
171
172        /* Create L2, linked to L1 */
173        npa = (L2start / NPDPG) * PAGE_SIZE;
174        for (i = L2start; i <= L2end; i++) {
175                pa = (paddr_t)&(((pt_entry_t *)L2page)[i]);
176                pa -= npa;      /* shift on the left */
177                pa &= PG_FRAME; /* rounddown to a page boundary */
178                hal_gpt_enter(tmpva, pa, flags);
179
180                pde = (pt_entry_t *)tmpva;
181                pa = L1page + (i - L2start) * PAGE_SIZE;
182                pde[i % NPDPG] = (pa & PG_FRAME) | PG_V | PG_KW;
183        }
184
185        /* Create L3, linked to L2 */
186        npa = (L3start / NPDPG) * PAGE_SIZE;
187        for (i = L3start; i <= L3end; i++) {
188                pa = (paddr_t)&(((pt_entry_t *)L3page)[i]);
189                pa -= npa;      /* shift on the left */
190                pa &= PG_FRAME; /* rounddown to a page boundary */
191                hal_gpt_enter(tmpva, pa, flags);
192
193                pde = (pt_entry_t *)tmpva;
194                pa = L2page + (i - L3start) * PAGE_SIZE;
195                pde[i % NPDPG] = (pa & PG_FRAME) | PG_V | PG_KW;
196        }
197
198        /* Link L3 into L4 */
199        for (i = 0; i < nL4e; i++) {
200                pa = L3page + i * PAGE_SIZE;
201                L4_BASE[L4start + i] = (pa & PG_FRAME) | PG_V | PG_KW;
202        }
203}
204
205void hal_gpt_init(paddr_t firstpa)
206{
207        paddr_t kimg_min_pa, kimg_max_pa;
208
209        /* Initialize global values */
210        pa_avail = firstpa;
211        va_avail = CLUSTER_MIN_VA(0) + KERNEL_VA_SIZE;
212        kimg_size = ((uint64_t)&__kernel_end - KERNBASE);
213        XASSERT(kimg_size % PAGE_SIZE == 0);
214
215        kimg_min_pa = 0;
216        kimg_max_pa = kimg_min_pa + kimg_size;
217
218        /* Create cluster0's heap entry. */
219        hal_gpt_maptree_area(CLUSTER_MIN_VA(0), CLUSTER_MAX_VA(0));
220
221        /* Manually enter cluster0's kimg */
222        hal_gpt_enter_range(CLUSTER_MIN_VA(0), kimg_min_pa, kimg_size / PAGE_SIZE);
223
224        /* Manually enter cluster0's heap */
225/*
226        hal_gpt_enter_range(CLUSTER_MIN_VA(0) + kimg_size, kimg_max_pa,
227            (CLUSTER_VA_SIZE - kimg_size) / PAGE_SIZE);
228*/
229}
230
231/* -------------------------------------------------------------------------- */
232
233/****************************************************************************************
234 * These global variables defines the masks for the Generic Page Table Entry attributes,
235 * and must be defined in all GPT implementation.
236 ***************************************************************************************/
237
238uint32_t  GPT_MAPPED;
239uint32_t  GPT_SMALL;
240uint32_t  GPT_READABLE;
241uint32_t  GPT_WRITABLE; 
242uint32_t  GPT_EXECUTABLE;
243uint32_t  GPT_CACHABLE; 
244uint32_t  GPT_USER; 
245uint32_t  GPT_DIRTY;
246uint32_t  GPT_ACCESSED;
247uint32_t  GPT_GLOBAL;
248uint32_t  GPT_COW;
249uint32_t  GPT_SWAP;
250uint32_t  GPT_LOCKED;
251
252error_t hal_gpt_create( gpt_t * gpt )
253{
254        x86_panic((char *)__func__);
255        return 0;
256}
257
258void hal_gpt_destroy( gpt_t * gpt )
259{
260        x86_panic((char *)__func__);
261}
262
263void hal_gpt_print( gpt_t * gpt )
264{
265        x86_panic((char *)__func__);
266}
267
268error_t hal_gpt_set_pte( gpt_t   * gpt,
269                         vpn_t     vpn,
270                         ppn_t     ppn,
271                         uint32_t  attr )
272{
273        x86_panic((char *)__func__);
274        return 0;
275}
276
277void hal_gpt_get_pte( gpt_t    * gpt,
278                      vpn_t      vpn,
279                      uint32_t * attr,
280                      ppn_t    * ppn )
281{
282        x86_panic((char *)__func__);
283}
284
285void hal_gpt_reset_pte( gpt_t * gpt,
286                        vpn_t   vpn )
287{
288        x86_panic((char *)__func__);
289}
290
291error_t hal_gpt_lock_pte( gpt_t * gpt,
292                          vpn_t   vpn )
293{
294        x86_panic((char *)__func__);
295        return 0;
296}
297
298error_t hal_gpt_unlock_pte( gpt_t * gpt,
299                            vpn_t   vpn )
300{
301        x86_panic((char *)__func__);
302        return 0;
303}
304
305error_t hal_gpt_copy( gpt_t  * dst_gpt,
306                      gpt_t  * src_gpt,
307                      bool_t   cow )
308{
309        x86_panic((char *)__func__);
310    return 0;
311}
312
Note: See TracBrowser for help on using the repository browser.