Kernel - Slight reworks to timer code
[tpg/acess2.git] / Kernel / arch / x86_64 / mm_virt.c
1 /*
2  * Acess2 x86_64 Port
3  * 
4  * Virtual Memory Manager
5  */
6 #define DEBUG   0
7 #include <acess.h>
8 #include <mm_virt.h>
9 #include <threads_int.h>
10 #include <proc.h>
11 #include <hal_proc.h>
12
13 // === DEBUG OPTIONS ===
14 #define TRACE_COW       0
15
16 // === CONSTANTS ===
17 #define PHYS_BITS       52      // TODO: Move out
18 #define VIRT_BITS       48
19
20 #define PML4_SHIFT      39
21 #define PDP_SHIFT       30
22 #define PDIR_SHIFT      21
23 #define PTAB_SHIFT      12
24
25 #define PADDR_MASK      0x7FFFFFFF##FFFFF000
26 #define PAGE_MASK       ((1LL << 36)-1)
27 #define TABLE_MASK      ((1LL << 27)-1)
28 #define PDP_MASK        ((1LL << 18)-1)
29 #define PML4_MASK       ((1LL << 9)-1)
30
31 #define PF_PRESENT      0x001
32 #define PF_WRITE        0x002
33 #define PF_USER         0x004
34 #define PF_LARGE        0x080
35 #define PF_GLOBAL       0x100
36 #define PF_COW          0x200
37 #define PF_PAGED        0x400
38 #define PF_NX           0x80000000##00000000
39
40 // === MACROS ===
41 #define PAGETABLE(idx)  (*((Uint64*)MM_FRACTAL_BASE+((idx)&PAGE_MASK)))
42 #define PAGEDIR(idx)    PAGETABLE((MM_FRACTAL_BASE>>12)+((idx)&TABLE_MASK))
43 #define PAGEDIRPTR(idx) PAGEDIR((MM_FRACTAL_BASE>>21)+((idx)&PDP_MASK))
44 #define PAGEMAPLVL4(idx)        PAGEDIRPTR((MM_FRACTAL_BASE>>30)+((idx)&PML4_MASK))
45
46 #define TMPCR3()        PAGEMAPLVL4(MM_TMPFRAC_BASE>>39)
47 #define TMPTABLE(idx)   (*((Uint64*)MM_TMPFRAC_BASE+((idx)&PAGE_MASK)))
48 #define TMPDIR(idx)     PAGETABLE((MM_TMPFRAC_BASE>>12)+((idx)&TABLE_MASK))
49 #define TMPDIRPTR(idx)  PAGEDIR((MM_TMPFRAC_BASE>>21)+((idx)&PDP_MASK))
50 #define TMPMAPLVL4(idx) PAGEDIRPTR((MM_TMPFRAC_BASE>>30)+((idx)&PML4_MASK))
51
52 #define INVLPG(__addr)  __asm__ __volatile__ ("invlpg (%0)"::"r"(__addr))
53 #define INVLPG_ALL()    __asm__ __volatile__ ("mov %cr3,%rax;\n\tmov %rax,%cr3;")
54 #define INVLPG_GLOBAL() __asm__ __volatile__ ("mov %cr4,%rax;\n\txorl $0x80, %eax;\n\tmov %rax,%cr4;\n\txorl $0x80, %eax;\n\tmov %rax,%cr4")
55
56 // === CONSTS ===
57 //tPAddr        * const gaPageTable = MM_FRACTAL_BASE;
58
59 // === IMPORTS ===
60 extern void     Error_Backtrace(Uint IP, Uint BP);
61 extern tPAddr   gInitialPML4[512];
62 extern void     Threads_SegFault(tVAddr Addr);
63 extern char     _UsertextBase[];
64
65 // === PROTOTYPES ===
66 void    MM_InitVirt(void);
67 //void  MM_FinishVirtualInit(void);
68 void    MM_int_ClonePageEnt( Uint64 *Ent, void *NextLevel, tVAddr Addr, int bTable );
69  int    MM_PageFault(tVAddr Addr, Uint ErrorCode, tRegs *Regs);
70 void    MM_int_DumpTablesEnt(tVAddr RangeStart, size_t Length, tPAddr Expected);
71 //void  MM_DumpTables(tVAddr Start, tVAddr End);
72  int    MM_GetPageEntryPtr(tVAddr Addr, BOOL bTemp, BOOL bAllocate, BOOL bLargePage, tPAddr **Pointer);
73  int    MM_MapEx(tVAddr VAddr, tPAddr PAddr, BOOL bTemp, BOOL bLarge);
74 // int  MM_Map(tVAddr VAddr, tPAddr PAddr);
75 void    MM_Unmap(tVAddr VAddr);
76 void    MM_int_ClearTableLevel(tVAddr VAddr, int LevelBits, int MaxEnts);
77 //void  MM_ClearUser(void);
78  int    MM_GetPageEntry(tVAddr Addr, tPAddr *Phys, Uint *Flags);
79
80 // === GLOBALS ===
81 tMutex  glMM_TempFractalLock;
82 tPAddr  gMM_ZeroPage;
83
84 // === CODE ===
85 void MM_InitVirt(void)
86 {
87 //      Log_Debug("MMVirt", "&PAGEMAPLVL4(0) = %p", &PAGEMAPLVL4(0));
88 //      MM_DumpTables(0, -1L);
89 }
90
91 void MM_FinishVirtualInit(void)
92 {
93         PAGEMAPLVL4(0) = 0;
94 }
95
96 /**
97  * \brief Clone a page from an entry
98  * \param Ent   Pointer to the entry in the PML4/PDP/PD/PT
99  * \param NextLevel     Pointer to contents of the entry
100  * \param Addr  Dest address
101  * \note Used in COW
102  */
103 void MM_int_ClonePageEnt( Uint64 *Ent, void *NextLevel, tVAddr Addr, int bTable )
104 {
105         tPAddr  curpage = *Ent & PADDR_MASK; 
106          int    bCopied = 0;
107         
108         if( MM_GetRefCount( curpage ) <= 0 ) {
109                 Log_KernelPanic("MMVirt", "Page %P still marked COW, but unreferenced", curpage);
110         }
111         if( MM_GetRefCount( curpage ) == 1 )
112         {
113                 *Ent &= ~PF_COW;
114                 *Ent |= PF_PRESENT|PF_WRITE;
115                 #if TRACE_COW
116                 Log_Debug("MMVirt", "COW ent at %p (%p) only %P", Ent, NextLevel, curpage);
117                 #endif
118         }
119         else
120         {
121                 void    *tmp;
122                 tPAddr  paddr;
123                 
124                 if( !(paddr = MM_AllocPhys()) ) {
125                         Threads_SegFault(Addr);
126                         return ;
127                 }
128
129                 ASSERT(paddr != curpage);
130                         
131                 tmp = (void*)MM_MapTemp(paddr);
132                 memcpy( tmp, NextLevel, 0x1000 );
133                 MM_FreeTemp( (tVAddr)tmp );
134                 
135                 #if TRACE_COW
136                 Log_Debug("MMVirt", "COW ent at %p (%p) from %P to %P", Ent, NextLevel, curpage, paddr);
137                 #endif
138
139                 MM_DerefPhys( curpage );
140                 *Ent &= PF_USER;
141                 *Ent |= paddr|PF_PRESENT|PF_WRITE;
142                 
143                 bCopied = 1;
144         }
145         INVLPG( (tVAddr)NextLevel );
146         
147         // Mark COW on contents if it's a PDPT, Dir or Table
148         if(bTable) 
149         {
150                 Uint64  *dp = NextLevel;
151                  int    i;
152                 for( i = 0; i < 512; i ++ )
153                 {
154                         if( !(dp[i] & PF_PRESENT) )
155                                 continue;
156                         
157                         if( bCopied )
158                                 MM_RefPhys( dp[i] & PADDR_MASK );
159                         if( dp[i] & PF_WRITE ) {
160                                 dp[i] &= ~PF_WRITE;
161                                 dp[i] |= PF_COW;
162                         }
163                 }
164         }
165 }
166
167 /*
168  * \brief Called on a page fault
169  */
170 int MM_PageFault(tVAddr Addr, Uint ErrorCode, tRegs *Regs)
171 {
172 //      Log_Debug("MMVirt", "Addr = %p, ErrorCode = %x", Addr, ErrorCode);
173
174         // Catch reserved bits first
175         if( ErrorCode & 0x8 )
176         {
177                 Log_Warning("MMVirt", "Reserved bits trashed!");
178                 Log_Warning("MMVirt", "PML4 Ent   = %P", PAGEMAPLVL4(Addr>>39));
179                 if( !(PAGEMAPLVL4(Addr>>39) & PF_PRESENT) )     goto print_done;
180                 Log_Warning("MMVirt", "PDP Ent    = %P", PAGEDIRPTR(Addr>>30));
181                 if( !(PAGEDIRPTR(Addr>>30) & PF_PRESENT) )      goto print_done;
182                 Log_Warning("MMVirt", "PDir Ent   = %P", PAGEDIR(Addr>>21));
183                 if( !(PAGEDIR(Addr>>21) & PF_PRESENT) ) goto print_done;
184                 Log_Warning("MMVirt", "PTable Ent = %P", PAGETABLE(Addr>>12));
185                 if( !(PAGETABLE(Addr>>12) & PF_PRESENT) )       goto print_done;
186         print_done:
187                 
188                 for(;;);
189         }
190
191         // TODO: Implement Copy-on-Write
192         #if 1
193         if( PAGEMAPLVL4(Addr>>39) & PF_PRESENT
194          && PAGEDIRPTR (Addr>>30) & PF_PRESENT
195          && PAGEDIR    (Addr>>21) & PF_PRESENT
196          && PAGETABLE  (Addr>>12) & PF_PRESENT )
197         {
198                 // PML4 Entry
199                 if( PAGEMAPLVL4(Addr>>39) & PF_COW )
200                 {
201                         tPAddr  *dp = &PAGEDIRPTR((Addr>>39)*512);
202                         MM_int_ClonePageEnt( &PAGEMAPLVL4(Addr>>39), dp, Addr, 1 );
203 //                      MM_DumpTables(Addr>>39 << 39, (((Addr>>39) + 1) << 39) - 1);
204                 }
205                 // PDP Entry
206                 if( PAGEDIRPTR(Addr>>30) & PF_COW )
207                 {
208                         tPAddr  *dp = &PAGEDIR( (Addr>>30)*512 );
209                         MM_int_ClonePageEnt( &PAGEDIRPTR(Addr>>30), dp, Addr, 1 );
210 //                      MM_DumpTables(Addr>>30 << 30, (((Addr>>30) + 1) << 30) - 1);
211                 }
212                 // PD Entry
213                 if( PAGEDIR(Addr>>21) & PF_COW )
214                 {
215                         tPAddr  *dp = &PAGETABLE( (Addr>>21)*512 );
216                         MM_int_ClonePageEnt( &PAGEDIR(Addr>>21), dp, Addr, 1 );
217 //                      MM_DumpTables(Addr>>21 << 21, (((Addr>>21) + 1) << 21) - 1);
218                 }
219                 // PT Entry
220                 if( PAGETABLE(Addr>>12) & PF_COW )
221                 {
222                         MM_int_ClonePageEnt( &PAGETABLE(Addr>>12), (void*)(Addr & ~0xFFF), Addr, 0 );
223                         INVLPG( Addr & ~0xFFF );
224                         return 0;
225                 }
226         }
227         #endif
228         
229         // If it was a user, tell the thread handler
230         if(ErrorCode & 4) {
231                 Warning("User %s %s memory%s",
232                         (ErrorCode&2?"write to":"read from"),
233                         (ErrorCode&1?"bad/locked":"non-present"),
234                         (ErrorCode&16?" (Instruction Fetch)":"")
235                         );
236                 Warning("User Pagefault: Instruction at %04x:%p accessed %p",
237                         Regs->CS, Regs->RIP, Addr);
238                 __asm__ __volatile__ ("sti");   // Restart IRQs
239                 Error_Backtrace(Regs->RIP, Regs->RBP);
240                 Threads_SegFault(Addr);
241                 return 0;
242         }
243         
244         // Kernel #PF
245         Debug_KernelPanic();
246         // -- Check Error Code --
247         if(ErrorCode & 8)
248                 Warning("Reserved Bits Trashed!");
249         else
250         {
251                 Warning("Kernel %s %s memory%s",
252                         (ErrorCode&2?"write to":"read from"),
253                         (ErrorCode&1?"bad/locked":"non-present"),
254                         (ErrorCode&16?" (Instruction Fetch)":"")
255                         );
256         }
257         
258         Log("Thread %i - Code at %p accessed %p", Threads_GetTID(), Regs->RIP, Addr);
259         // Print Stack Backtrace
260         Error_Backtrace(Regs->RIP, Regs->RBP);
261         
262         MM_DumpTables(0, -1);
263
264         return 1;       
265 }
266
267 void MM_int_DumpTablesEnt(tVAddr RangeStart, size_t Length, tPAddr Expected)
268 {
269         #define CANOICAL(addr)  ((addr)&0x800000000000?(addr)|0xFFFF000000000000:(addr))
270         LogF("%016llx => ", CANOICAL(RangeStart));
271 //      LogF("%6llx %6llx %6llx %016llx => ",
272 //              MM_GetPhysAddr( (tVAddr)&PAGEDIRPTR(RangeStart>>30) ),
273 //              MM_GetPhysAddr( (tVAddr)&PAGEDIR(RangeStart>>21) ),
274 //              MM_GetPhysAddr( (tVAddr)&PAGETABLE(RangeStart>>12) ),
275 //              CANOICAL(RangeStart)
276 //              );
277         if( gMM_ZeroPage && (PAGETABLE(RangeStart>>12) & PADDR_MASK) == gMM_ZeroPage )
278                 LogF("%13s", "zero" );
279         else
280                 LogF("%13llx", PAGETABLE(RangeStart>>12) & PADDR_MASK );
281         LogF(" : 0x%6llx (%c%c%c%c%c%c)\r\n",
282                 Length,
283                 (Expected & PF_GLOBAL ? 'G' : '-'),
284                 (Expected & PF_NX ? '-' : 'x'),
285                 (Expected & PF_PAGED ? 'p' : '-'),
286                 (Expected & PF_COW ? 'C' : '-'),
287                 (Expected & PF_USER ? 'U' : '-'),
288                 (Expected & PF_WRITE ? 'W' : '-')
289                 );
290         #undef CANOICAL
291 }
292
293 /**
294  * \brief Dumps the layout of the page tables
295  */
296 void MM_DumpTables(tVAddr Start, tVAddr End)
297 {
298         const tPAddr    FIXED_BITS = PF_PRESENT|PF_WRITE|PF_USER|PF_COW|PF_PAGED|PF_NX|PF_GLOBAL;
299         const tPAddr    CHANGEABLE_BITS = ~FIXED_BITS & 0xFFF;
300         const tPAddr    MASK = ~CHANGEABLE_BITS;        // Physical address and access bits
301         tVAddr  rangeStart = 0;
302         tPAddr  expected = CHANGEABLE_BITS;     // CHANGEABLE_BITS is used because it's not a vaild value
303         tVAddr  curPos;
304         Uint    page;
305         tPAddr  expected_pml4 = PF_WRITE|PF_USER;       
306         tPAddr  expected_pdp = PF_WRITE|PF_USER;        
307         tPAddr  expected_pd = PF_WRITE|PF_USER; 
308
309         Log("Table Entries: (%p to %p)", Start, End);
310         
311         End &= (1L << 48) - 1;
312         
313         Start >>= 12;   End >>= 12;
314         
315         for(page = Start, curPos = Start<<12;
316                 page < End;
317                 curPos += 0x1000, page++)
318         {
319                 //Debug("&PAGEMAPLVL4(%i page>>27) = %p", page>>27, &PAGEMAPLVL4(page>>27));
320                 //Debug("&PAGEDIRPTR(%i page>>18) = %p", page>>18, &PAGEDIRPTR(page>>18));
321                 //Debug("&PAGEDIR(%i page>>9) = %p", page>>9, &PAGEDIR(page>>9));
322                 //Debug("&PAGETABLE(%i page) = %p", page, &PAGETABLE(page));
323                 
324                 // End of a range
325                 if(!(PAGEMAPLVL4(page>>27) & PF_PRESENT)
326                 ||  (PAGEMAPLVL4(page>>27) & FIXED_BITS) != expected_pml4
327                 || !(PAGEDIRPTR(page>>18) & PF_PRESENT)
328                 ||  (PAGEDIRPTR(page>>18) & FIXED_BITS) != expected_pdp
329                 || !(PAGEDIR(page>>9) & PF_PRESENT)
330                 ||  (PAGEDIR(page>>9) & FIXED_BITS) != expected_pd
331                 || !(PAGETABLE(page) & PF_PRESENT)
332                 ||  (PAGETABLE(page) & MASK) != expected)
333                 {                       
334                         if(expected != CHANGEABLE_BITS)
335                         {
336                                 // Merge
337                                 expected &= expected_pml4 | ~(PF_WRITE|PF_USER);
338                                 expected &= expected_pdp  | ~(PF_WRITE|PF_USER);
339                                 expected &= expected_pd   | ~(PF_WRITE|PF_USER);
340                                 expected |= expected_pml4 & PF_NX;
341                                 expected |= expected_pdp  & PF_NX;
342                                 expected |= expected_pd   & PF_NX;
343                                 Log("expected (pml4 = %x, pdp = %x, pd = %x)",
344                                         expected_pml4, expected_pdp, expected_pd);
345                                 // Dump
346                                 MM_int_DumpTablesEnt( rangeStart, curPos - rangeStart, expected );
347                                 expected = CHANGEABLE_BITS;
348                         }
349                         
350                         if( curPos == 0x800000000000L )
351                                 curPos = 0xFFFF800000000000L;
352                 
353                         if( !(PAGEMAPLVL4(page>>27) & PF_PRESENT) ) {
354                                 page += (1 << 27) - 1;
355                                 curPos += (1L << 39) - 0x1000;
356                                 continue;
357                         }
358                         if( !(PAGEDIRPTR(page>>18) & PF_PRESENT) ) {
359                                 page += (1 << 18) - 1;
360                                 curPos += (1L << 30) - 0x1000;
361                                 continue;
362                         }
363                         if( !(PAGEDIR(page>>9) & PF_PRESENT) ) {
364                                 page += (1 << 9) - 1;
365                                 curPos += (1L << 21) - 0x1000;
366                                 continue;
367                         }
368                         if( !(PAGETABLE(page) & PF_PRESENT) )   continue;
369                         
370                         expected = (PAGETABLE(page) & MASK);
371                         expected_pml4 = (PAGEMAPLVL4(page>>27) & FIXED_BITS);
372                         expected_pdp  = (PAGEDIRPTR (page>>18) & FIXED_BITS);
373                         expected_pd   = (PAGEDIR    (page>> 9) & FIXED_BITS);
374                         rangeStart = curPos;
375                 }
376                 if(gMM_ZeroPage && (expected & PADDR_MASK) == gMM_ZeroPage )
377                         expected = expected;
378                 else if(expected != CHANGEABLE_BITS)
379                         expected += 0x1000;
380         }
381         
382         if(expected != CHANGEABLE_BITS) {
383                 // Merge
384                 
385                 // Dump
386                 MM_int_DumpTablesEnt( rangeStart, curPos - rangeStart, expected );
387                 expected = 0;
388         }
389 }
390
391 /**
392  * \brief Get a pointer to a page entry
393  * \param Addr  Virtual Address
394  * \param bTemp Use the Temporary fractal mapping
395  * \param bAllocate     Allocate entries
396  * \param bLargePage    Request a large page
397  * \param Pointer       Location to place the calculated pointer
398  * \return Page size, or -ve on error
399  */
400 int MM_GetPageEntryPtr(tVAddr Addr, BOOL bTemp, BOOL bAllocate, BOOL bLargePage, tPAddr **Pointer)
401 {
402         tPAddr  *pmlevels[4];
403         tPAddr  tmp;
404          int    i, size;
405         
406         #define BITMASK(bits)   ( (1LL << (bits))-1 )
407
408         if( bTemp )
409         {
410                 pmlevels[3] = &TMPTABLE(0);     // Page Table
411                 pmlevels[2] = &TMPDIR(0);       // PDIR
412                 pmlevels[1] = &TMPDIRPTR(0);    // PDPT
413                 pmlevels[0] = &TMPMAPLVL4(0);   // PML4
414         }
415         else
416         {
417                 pmlevels[3] = (void*)MM_FRACTAL_BASE;   // Page Table
418                 pmlevels[2] = &pmlevels[3][(MM_FRACTAL_BASE>>12)&BITMASK(VIRT_BITS-12)];        // PDIR
419                 pmlevels[1] = &pmlevels[2][(MM_FRACTAL_BASE>>21)&BITMASK(VIRT_BITS-21)];        // PDPT
420                 pmlevels[0] = &pmlevels[1][(MM_FRACTAL_BASE>>30)&BITMASK(VIRT_BITS-30)];        // PML4
421         }
422         
423         // Mask address
424         Addr &= (1ULL << 48)-1;
425         
426         for( size = 39, i = 0; size > 12; size -= 9, i ++ )
427         {
428                 Uint64  *ent = &pmlevels[i][Addr >> size];
429 //              INVLPG( &pmlevels[i][ (Addr >> ADDR_SIZES[i]) & 
430                 
431                 // Check for a free large page slot
432                 // TODO: Better support with selectable levels
433                 if( (Addr & ((1ULL << size)-1)) == 0 && bLargePage )
434                 {
435                         if(Pointer)     *Pointer = ent;
436                         return size;
437                 }
438                 // Allocate an entry if required
439                 if( !(*ent & PF_PRESENT) )
440                 {
441                         if( !bAllocate )        return -4;      // If allocation is not requested, error
442                         if( !(tmp = MM_AllocPhys()) )   return -2;
443                         *ent = tmp | 3;
444                         if( Addr < 0x800000000000 )
445                                 *ent |= PF_USER;
446                         INVLPG( &pmlevels[i+1][ (Addr>>size)*512 ] );
447                         memset( &pmlevels[i+1][ (Addr>>size)*512 ], 0, 0x1000 );
448                         LOG("Init PML%i ent 0x%x %p with %P (*ent = %P)", 4 - i,
449                                 Addr>>size, (Addr>>size) << size, tmp, *ent);
450                 }
451                 // Catch large pages
452                 else if( *ent & PF_LARGE )
453                 {
454                         // Alignment
455                         if( (Addr & ((1ULL << size)-1)) != 0 )  return -3;
456                         if(Pointer)     *Pointer = ent;
457                         return size;    // Large page warning
458                 }
459         }
460         
461         // And, set the page table entry
462         if(Pointer)     *Pointer = &pmlevels[i][Addr >> size];
463         return size;
464 }
465
466 /**
467  * \brief Map a physical page to a virtual one
468  * \param VAddr Target virtual address
469  * \param PAddr Physical address of page
470  * \param bTemp Use tempoary mappings
471  * \param bLarge        Treat as a large page
472  */
473 int MM_MapEx(tVAddr VAddr, tPAddr PAddr, BOOL bTemp, BOOL bLarge)
474 {
475         tPAddr  *ent;
476          int    rv;
477         
478         ENTER("pVAddr PPAddr", VAddr, PAddr);
479         
480         // Get page pointer (Allow allocating)
481         rv = MM_GetPageEntryPtr(VAddr, bTemp, 1, bLarge, &ent);
482         if(rv < 0)      LEAVE_RET('i', 0);
483         
484         if( *ent & 1 )  LEAVE_RET('i', 0);
485         
486         *ent = PAddr | 3;
487
488         if( VAddr < 0x800000000000 )
489                 *ent |= PF_USER;
490
491         INVLPG( VAddr );
492
493         LEAVE('i', 1);  
494         return 1;
495 }
496
497 /**
498  * \brief Map a physical page to a virtual one
499  * \param VAddr Target virtual address
500  * \param PAddr Physical address of page
501  */
502 int MM_Map(tVAddr VAddr, tPAddr PAddr)
503 {
504         return MM_MapEx(VAddr, PAddr, 0, 0);
505 }
506
507 /**
508  * \brief Removed a mapped page
509  */
510 void MM_Unmap(tVAddr VAddr)
511 {
512         // Check PML4
513         if( !(PAGEMAPLVL4(VAddr >> 39) & 1) )   return ;
514         // Check PDP
515         if( !(PAGEDIRPTR(VAddr >> 30) & 1) )    return ;
516         // Check Page Dir
517         if( !(PAGEDIR(VAddr >> 21) & 1) )       return ;
518
519         PAGETABLE(VAddr >> PTAB_SHIFT) = 0;
520         INVLPG( VAddr );
521 }
522
523 /**
524  * \brief Allocate a block of memory at the specified virtual address
525  */
526 tPAddr MM_Allocate(tVAddr VAddr)
527 {
528         tPAddr  ret;
529         
530         ENTER("xVAddr", VAddr);
531         
532         // Ensure the tables are allocated before the page (keeps things neat)
533         MM_GetPageEntryPtr(VAddr, 0, 1, 0, NULL);
534         
535         // Allocate the page
536         ret = MM_AllocPhys();
537         LOG("ret = %x", ret);
538         if(!ret)        LEAVE_RET('i', 0);
539         
540         if( !MM_Map(VAddr, ret) )
541         {
542                 Warning("MM_Allocate: Unable to map. Strange, we should have errored earlier");
543                 MM_DerefPhys(ret);
544                 LEAVE('i');
545                 return 0;
546         }
547         
548         LEAVE('X', ret);
549         return ret;
550 }
551
552 tPAddr MM_AllocateZero(tVAddr VAddr)
553 {
554         tPAddr  ret = gMM_ZeroPage;
555         
556         MM_GetPageEntryPtr(VAddr, 0, 1, 0, NULL);
557
558         if(!gMM_ZeroPage) {
559                 ret = gMM_ZeroPage = MM_AllocPhys();
560                 MM_RefPhys(ret);        // Don't free this please
561                 MM_Map(VAddr, ret);
562                 memset((void*)VAddr, 0, 0x1000);
563         }
564         else {
565                 MM_Map(VAddr, ret);
566         }
567         MM_RefPhys(ret);        // Refernce for this map
568         MM_SetFlags(VAddr, MM_PFLAG_COW, MM_PFLAG_COW);
569         return ret;
570 }
571
572 /**
573  * \brief Deallocate a page at a virtual address
574  */
575 void MM_Deallocate(tVAddr VAddr)
576 {
577         tPAddr  phys;
578         
579         phys = MM_GetPhysAddr(VAddr);
580         if(!phys)       return ;
581         
582         MM_Unmap(VAddr);
583         
584         MM_DerefPhys(phys);
585 }
586
587 /**
588  * \brief Get the page table entry of a virtual address
589  * \param Addr  Virtual Address
590  * \param Phys  Location to put the physical address
591  * \param Flags Flags on the entry (set to zero if unmapped)
592  * \return Size of the entry (in address bits) - 12 = 4KiB page
593  */
594 int MM_GetPageEntry(tVAddr Addr, tPAddr *Phys, Uint *Flags)
595 {
596         tPAddr  *ptr;
597          int    ret;
598         
599         if(!Phys || !Flags)     return 0;
600         
601         ret = MM_GetPageEntryPtr(Addr, 0, 0, 0, &ptr);
602         if( ret < 0 )   return 0;
603         
604         *Phys = *ptr & PADDR_MASK;
605         *Flags = *ptr & 0xFFF;
606         return ret;
607 }
608
609 /**
610  * \brief Get the physical address of a virtual location
611  */
612 tPAddr MM_GetPhysAddr(tVAddr Addr)
613 {
614         tPAddr  *ptr;
615          int    ret;
616         
617         ret = MM_GetPageEntryPtr(Addr, 0, 0, 0, &ptr);
618         if( ret < 0 )   return 0;
619         
620         if( !(*ptr & 1) )       return 0;
621         
622         return (*ptr & PADDR_MASK) | (Addr & 0xFFF);
623 }
624
625 /**
626  * \brief Sets the flags on a page
627  */
628 void MM_SetFlags(tVAddr VAddr, Uint Flags, Uint Mask)
629 {
630         tPAddr  *ent;
631          int    rv;
632         
633         // Get pointer
634         rv = MM_GetPageEntryPtr(VAddr, 0, 0, 0, &ent);
635         if(rv < 0)      return ;
636         
637         // Ensure the entry is valid
638         if( !(*ent & 1) )       return ;
639         
640         // Read-Only
641         if( Mask & MM_PFLAG_RO )
642         {
643                 if( Flags & MM_PFLAG_RO ) {
644                         *ent &= ~PF_WRITE;
645                 }
646                 else {
647                         *ent |= PF_WRITE;
648                 }
649         }
650         
651         // Kernel
652         if( Mask & MM_PFLAG_KERNEL )
653         {
654                 if( Flags & MM_PFLAG_KERNEL ) {
655                         *ent &= ~PF_USER;
656                 }
657                 else {
658                         *ent |= PF_USER;
659                 }
660         }
661         
662         // Copy-On-Write
663         if( Mask & MM_PFLAG_COW )
664         {
665                 if( Flags & MM_PFLAG_COW ) {
666                         *ent &= ~PF_WRITE;
667                         *ent |= PF_COW;
668         INVLPG_ALL();
669                 }
670                 else {
671                         *ent &= ~PF_COW;
672                         *ent |= PF_WRITE;
673                 }
674         }
675         
676         // Execute
677         if( Mask & MM_PFLAG_EXEC )
678         {
679                 if( Flags & MM_PFLAG_EXEC ) {
680                         *ent &= ~PF_NX;
681                 }
682                 else {
683                         *ent |= PF_NX;
684                 }
685         }
686 }
687
688 /**
689  * \brief Get the flags applied to a page
690  */
691 Uint MM_GetFlags(tVAddr VAddr)
692 {
693         tPAddr  *ent;
694          int    rv, ret = 0;
695         
696         rv = MM_GetPageEntryPtr(VAddr, 0, 0, 0, &ent);
697         if(rv < 0)      return 0;
698         
699         if( !(*ent & 1) )       return 0;
700         
701         // Read-Only
702         if( !(*ent & PF_WRITE) )        ret |= MM_PFLAG_RO;
703         // Kernel
704         if( !(*ent & PF_USER) ) ret |= MM_PFLAG_KERNEL;
705         // Copy-On-Write
706         if( *ent & PF_COW )     ret |= MM_PFLAG_COW;    
707         // Execute
708         if( !(*ent & PF_NX) )   ret |= MM_PFLAG_EXEC;
709         
710         return ret;
711 }
712
713 /**
714  * \brief Check if the provided buffer is valid
715  * \return Boolean valid
716  */
717 int MM_IsValidBuffer(tVAddr Addr, size_t Size)
718 {
719          int    bIsUser;
720         Uint64  pml4, pdp, dir, tab;
721
722         Size += Addr & (PAGE_SIZE-1);
723         Addr &= ~(PAGE_SIZE-1);
724         Addr &= ((1UL << 48)-1);        // Clap to address space
725
726         pml4 = Addr >> 39;
727         pdp = Addr >> 30;
728         dir = Addr >> 21;
729         tab = Addr >> 12;
730
731         if( !(PAGEMAPLVL4(pml4) & 1) )  return 0;
732         if( !(PAGEDIRPTR(pdp) & 1) )    return 0;
733         if( !(PAGEDIR(dir) & 1) )       return 0;
734         if( !(PAGETABLE(tab) & 1) )     return 0;
735         
736         bIsUser = !!(PAGETABLE(tab) & PF_USER);
737
738         while( Size >= PAGE_SIZE )
739         {
740                 if( (tab & 511) == 0 )
741                 {
742                         dir ++;
743                         if( ((dir >> 9) & 511) == 0 )
744                         {
745                                 pdp ++;
746                                 if( ((pdp >> 18) & 511) == 0 )
747                                 {
748                                         pml4 ++;
749                                         if( !(PAGEMAPLVL4(pml4) & 1) )  return 0;
750                                 }
751                                 if( !(PAGEDIRPTR(pdp) & 1) )    return 0;
752                         }
753                         if( !(PAGEDIR(dir) & 1) )       return 0;
754                 }
755                 
756                 if( !(PAGETABLE(tab) & 1) )   return 0;
757                 if( bIsUser && !(PAGETABLE(tab) & PF_USER) )    return 0;
758
759                 tab ++;
760                 Size -= PAGE_SIZE;
761         }
762         return 1;
763 }
764
765 // --- Hardware Mappings ---
766 /**
767  * \brief Map a range of hardware pages
768  */
769 tVAddr MM_MapHWPages(tPAddr PAddr, Uint Number)
770 {
771         tVAddr  ret;
772          int    num;
773         
774         //TODO: Add speedups (memory of first possible free)
775         for( ret = MM_HWMAP_BASE; ret < MM_HWMAP_TOP; ret += 0x1000 )
776         {
777                 for( num = Number; num -- && ret < MM_HWMAP_TOP; ret += 0x1000 )
778                 {
779                         if( MM_GetPhysAddr(ret) != 0 )  break;
780                 }
781                 if( num >= 0 )  continue;
782                 
783 //              Log_Debug("MMVirt", "Mapping %i pages to %p (base %P)", Number, ret-Number*0x1000, PAddr);
784
785                 PAddr += 0x1000 * Number;
786                 
787                 while( Number -- )
788                 {
789                         ret -= 0x1000;
790                         PAddr -= 0x1000;
791                         MM_Map(ret, PAddr);
792                         MM_RefPhys(PAddr);
793                 }
794                 
795                 return ret;
796         }
797         
798         Log_Error("MM", "MM_MapHWPages - No space for %i pages", Number);
799         return 0;
800 }
801
802 /**
803  * \brief Free a range of hardware pages
804  */
805 void MM_UnmapHWPages(tVAddr VAddr, Uint Number)
806 {
807 //      Log_KernelPanic("MM", "TODO: Implement MM_UnmapHWPages");
808         while( Number -- )
809         {
810                 MM_DerefPhys( MM_GetPhysAddr(VAddr) );
811                 MM_Unmap(VAddr);
812                 VAddr += 0x1000;
813         }
814 }
815
816
817 /**
818  * \fn tVAddr MM_AllocDMA(int Pages, int MaxBits, tPAddr *PhysAddr)
819  * \brief Allocates DMA physical memory
820  * \param Pages Number of pages required
821  * \param MaxBits       Maximum number of bits the physical address can have
822  * \param PhysAddr      Pointer to the location to place the physical address allocated
823  * \return Virtual address allocate
824  */
825 tVAddr MM_AllocDMA(int Pages, int MaxBits, tPAddr *PhysAddr)
826 {
827         tPAddr  phys;
828         tVAddr  ret;
829         
830         // Sanity Check
831         if(MaxBits < 12 || !PhysAddr)   return 0;
832         
833         // Fast Allocate
834         if(Pages == 1 && MaxBits >= PHYS_BITS)
835         {
836                 phys = MM_AllocPhys();
837                 *PhysAddr = phys;
838                 ret = MM_MapHWPages(phys, 1);
839                 MM_DerefPhys(phys);
840                 return ret;
841         }
842         
843         // Slow Allocate
844         phys = MM_AllocPhysRange(Pages, MaxBits);
845         // - Was it allocated?
846         if(phys == 0)   return 0;
847         
848         // Allocated successfully, now map
849         ret = MM_MapHWPages(phys, Pages);
850         // MapHWPages references the pages, so deref them back down to 1
851         for(;Pages--;phys+=0x1000)
852                 MM_DerefPhys(phys);
853         if( ret == 0 ) {
854                 // If it didn't map, free then return 0
855                 return 0;
856         }
857         
858         *PhysAddr = phys;
859         return ret;
860 }
861
862 // --- Tempory Mappings ---
863 tVAddr MM_MapTemp(tPAddr PAddr)
864 {
865         const int max_slots = (MM_TMPMAP_END - MM_TMPMAP_BASE) / PAGE_SIZE;
866         tVAddr  ret = MM_TMPMAP_BASE;
867          int    i;
868         
869         for( i = 0; i < max_slots; i ++, ret += PAGE_SIZE )
870         {
871                 tPAddr  *ent;
872                 if( MM_GetPageEntryPtr( ret, 0, 1, 0, &ent) < 0 ) {
873                         continue ;
874                 }
875
876                 if( *ent & 1 )
877                         continue ;
878
879                 *ent = PAddr | 3;
880                 MM_RefPhys(PAddr);
881                 INVLPG(ret);
882                 return ret;
883         }
884         return 0;
885 }
886
887 void MM_FreeTemp(tVAddr VAddr)
888 {
889         MM_Deallocate(VAddr);
890         return ;
891 }
892
893
894 // --- Address Space Clone --
895 tPAddr MM_Clone(void)
896 {
897         tPAddr  ret;
898          int    i;
899         tVAddr  kstackbase;
900
901         // #1 Create a copy of the PML4
902         ret = MM_AllocPhys();
903         if(!ret)        return 0;
904         
905         // #2 Alter the fractal pointer
906         Mutex_Acquire(&glMM_TempFractalLock);
907         TMPCR3() = ret | 3;
908         INVLPG_ALL();
909         
910         // #3 Set Copy-On-Write to all user pages
911         if( Threads_GetPID() != 0 )
912         {
913                 for( i = 0; i < 256; i ++)
914                 {
915                         if( PAGEMAPLVL4(i) & PF_WRITE ) {
916                                 PAGEMAPLVL4(i) |= PF_COW;
917                                 PAGEMAPLVL4(i) &= ~PF_WRITE;
918                         }
919         
920                         TMPMAPLVL4(i) = PAGEMAPLVL4(i);
921 //                      Log_Debug("MM", "TMPMAPLVL4(%i) = 0x%016llx", i, TMPMAPLVL4(i));
922                         if( !(TMPMAPLVL4(i) & PF_PRESENT) )     continue ;
923                         
924                         MM_RefPhys( TMPMAPLVL4(i) & PADDR_MASK );
925                 }
926         }
927         else
928         {
929                 for( i = 0; i < 256; i ++ )
930                 {
931                         TMPMAPLVL4(i) = 0;
932                 }
933         }
934         
935         // #4 Map in kernel pages
936         for( i = 256; i < 512; i ++ )
937         {
938                 // Skip addresses:
939                 // 320 0xFFFFA....      - Kernel Stacks
940                 if( i == MM_KSTACK_BASE>>39 )   continue;
941                 // 509 0xFFFFFE0..      - Fractal mapping
942                 if( i == MM_FRACTAL_BASE>>39 )  continue;
943                 // 510 0xFFFFFE8..      - Temp fractal mapping
944                 if( i == MM_TMPFRAC_BASE>>39 )  continue;
945                 
946                 TMPMAPLVL4(i) = PAGEMAPLVL4(i);
947                 if( TMPMAPLVL4(i) & 1 )
948                         MM_RefPhys( TMPMAPLVL4(i) & PADDR_MASK );
949         }
950
951         // Mark Per-Process data as COW
952         TMPMAPLVL4(MM_PPD_BASE>>39) |= PF_COW;
953         TMPMAPLVL4(MM_PPD_BASE>>39) &= ~PF_WRITE;
954         
955         // #5 Set fractal mapping
956         TMPMAPLVL4(MM_FRACTAL_BASE>>39) = ret | 3;      // Main
957         TMPMAPLVL4(MM_TMPFRAC_BASE>>39) = 0;    // Temp
958         
959         // #6 Create kernel stack
960         //  tThread->KernelStack is the top
961         //  There is 1 guard page below the stack
962         kstackbase = Proc_GetCurThread()->KernelStack - KERNEL_STACK_SIZE;
963
964         // Clone stack
965         TMPMAPLVL4(MM_KSTACK_BASE >> PML4_SHIFT) = 0;
966         for( i = 1; i < KERNEL_STACK_SIZE/0x1000; i ++ )
967         {
968                 tPAddr  phys = MM_AllocPhys();
969                 tVAddr  tmpmapping;
970                 MM_MapEx(kstackbase+i*0x1000, phys, 1, 0);
971                 
972                 tmpmapping = MM_MapTemp(phys);
973                 if( MM_GetPhysAddr( kstackbase+i*0x1000 ) )
974                         memcpy((void*)tmpmapping, (void*)(kstackbase+i*0x1000), 0x1000);
975                 else
976                         memset((void*)tmpmapping, 0, 0x1000);
977 //              if( i == 0xF )
978 //                      Debug_HexDump("MM_Clone: *tmpmapping = ", (void*)tmpmapping, 0x1000);
979                 MM_FreeTemp(tmpmapping);
980         }
981         
982 //      MAGIC_BREAK();
983
984         // #7 Return
985         TMPCR3() = 0;
986         INVLPG_ALL();
987         Mutex_Release(&glMM_TempFractalLock);
988 //      Log("MM_Clone: RETURN %P", ret);
989         return ret;
990 }
991
992 void MM_int_ClearTableLevel(tVAddr VAddr, int LevelBits, int MaxEnts)
993 {
994         Uint64  * const table_bases[] = {&PAGETABLE(0), &PAGEDIR(0), &PAGEDIRPTR(0), &PAGEMAPLVL4(0)};
995         Uint64  *table = table_bases[(LevelBits-12)/9] + (VAddr >> LevelBits);
996          int    i;
997 //      Log("MM_int_ClearTableLevel: (VAddr=%p, LevelBits=%i, MaxEnts=%i)", VAddr, LevelBits, MaxEnts);
998         for( i = 0; i < MaxEnts; i ++ )
999         {
1000                 // Skip non-present tables
1001                 if( !(table[i] & PF_PRESENT) ) {
1002                         table[i] = 0;
1003                         continue ;
1004                 }
1005         
1006                 if( (table[i] & PF_COW) && MM_GetRefCount(table[i] & PADDR_MASK) > 1 ) {
1007                         MM_DerefPhys(table[i] & PADDR_MASK);
1008                         table[i] = 0;
1009                         continue ;
1010                 }
1011                 // Clear table contents (if it is a table)
1012                 if( LevelBits > 12 )
1013                         MM_int_ClearTableLevel(VAddr + ((tVAddr)i << LevelBits), LevelBits-9, 512);
1014                 MM_DerefPhys(table[i] & PADDR_MASK);
1015                 table[i] = 0;
1016         }
1017 }
1018
1019 void MM_ClearUser(void)
1020 {
1021         MM_int_ClearTableLevel(0, 39, 256);     
1022 }
1023
1024 tVAddr MM_NewWorkerStack(void *StackData, size_t StackSize)
1025 {
1026         tVAddr  ret;
1027         tPAddr  phys;
1028          int    i;
1029         
1030         // #1 Set temp fractal to PID0
1031         Mutex_Acquire(&glMM_TempFractalLock);
1032         TMPCR3() = ((tPAddr)gInitialPML4 - KERNEL_BASE) | 3;
1033         INVLPG_ALL();
1034         
1035         // #2 Scan for a free stack addresss < 2^47
1036         for(ret = 0x100000; ret < (1ULL << 47); ret += KERNEL_STACK_SIZE)
1037         {
1038                 tPAddr  *ptr;
1039                 if( MM_GetPageEntryPtr(ret, 1, 0, 0, &ptr) <= 0 )       break;
1040                 if( !(*ptr & 1) )       break;
1041         }
1042         if( ret >= (1ULL << 47) ) {
1043                 Mutex_Release(&glMM_TempFractalLock);
1044                 return 0;
1045         }
1046         
1047         // #3 Map all save the last page in the range
1048         //  - This acts as as guard page
1049         MM_GetPageEntryPtr(ret, 1, 1, 0, NULL); // Make sure tree is allocated
1050         for( i = 0; i < KERNEL_STACK_SIZE/0x1000 - 1; i ++ )
1051         {
1052                 phys = MM_AllocPhys();
1053                 if(!phys) {
1054                         // TODO: Clean up
1055                         Log_Error("MM", "MM_NewWorkerStack - Unable to allocate page");
1056                         return 0;
1057                 }
1058                 MM_MapEx(ret + i*0x1000, phys, 1, 0);
1059                 MM_SetFlags(ret + i*0x1000, MM_PFLAG_KERNEL|MM_PFLAG_RO, MM_PFLAG_KERNEL);
1060         }
1061
1062         // Copy data
1063         if( StackSize > 0x1000 ) {
1064                 Log_Error("MM", "MM_NewWorkerStack: StackSize(0x%x) > 0x1000, cbf handling", StackSize);
1065         }
1066         else {
1067                 tVAddr  tmp_addr, dest;
1068                 tmp_addr = MM_MapTemp(phys);
1069                 dest = tmp_addr + (0x1000 - StackSize);
1070                 memcpy( (void*)dest, StackData, StackSize );
1071                 Log_Debug("MM", "MM_NewWorkerStack: %p->%p %i bytes (i=%i)", StackData, dest, StackSize, i);
1072                 Log_Debug("MM", "MM_NewWorkerStack: ret = %p", ret);
1073                 MM_FreeTemp(tmp_addr);
1074         }
1075
1076         TMPCR3() = 0;
1077         Mutex_Release(&glMM_TempFractalLock);
1078         
1079         return ret + i*0x1000;
1080 }
1081
1082 /**
1083  * \brief Allocate a new kernel stack
1084  */
1085 tVAddr MM_NewKStack(void)
1086 {
1087         tVAddr  base = MM_KSTACK_BASE;
1088         Uint    i;
1089         for( ; base < MM_KSTACK_TOP; base += KERNEL_STACK_SIZE )
1090         {
1091                 if(MM_GetPhysAddr(base+KERNEL_STACK_SIZE-0x1000) != 0)
1092                         continue;
1093                 
1094                 //Log("MM_NewKStack: Found one at %p", base + KERNEL_STACK_SIZE);
1095                 for( i = 0x1000; i < KERNEL_STACK_SIZE; i += 0x1000)
1096                 {
1097                         if( !MM_Allocate(base+i) )
1098                         {
1099                                 Log_Warning("MM", "MM_NewKStack - Allocation failed");
1100                                 for( i -= 0x1000; i; i -= 0x1000)
1101                                         MM_Deallocate(base+i);
1102                                 return 0;
1103                         }
1104                 }
1105                 
1106                 return base + KERNEL_STACK_SIZE;
1107         }
1108         Log_Warning("MM", "MM_NewKStack - No address space left\n");
1109         return 0;
1110 }

UCC git Repository :: git.ucc.asn.au