Kernel - Fix compilation on x86_64 and armv7 (for MM changes)
[tpg/acess2.git] / KernelLand / Kernel / arch / x86_64 / mm_virt.c
1 /*
2  * Acess2 x86_64 Port
3  * 
4  * Virtual Memory Manager
5  */
6 #define DEBUG   0
7 #include <acess.h>
8 #include <mm_virt.h>
9 #include <threads_int.h>
10 #include <proc.h>
11 #include <hal_proc.h>
12
13 // === DEBUG OPTIONS ===
14 #define TRACE_COW       0
15
16 // === CONSTANTS ===
17 #define PHYS_BITS       52      // TODO: Move out
18 #define VIRT_BITS       48
19
20 #define PML4_SHIFT      39
21 #define PDP_SHIFT       30
22 #define PDIR_SHIFT      21
23 #define PTAB_SHIFT      12
24
25 #define PADDR_MASK      0x7FFFFFFF##FFFFF000
26 #define PAGE_MASK       ((1LL << 36)-1)
27 #define TABLE_MASK      ((1LL << 27)-1)
28 #define PDP_MASK        ((1LL << 18)-1)
29 #define PML4_MASK       ((1LL << 9)-1)
30
31 #define PF_PRESENT      0x001
32 #define PF_WRITE        0x002
33 #define PF_USER         0x004
34 #define PF_LARGE        0x080
35 #define PF_GLOBAL       0x100
36 #define PF_COW          0x200
37 #define PF_PAGED        0x400
38 #define PF_NX           0x80000000##00000000
39
40 // === MACROS ===
41 #define PAGETABLE(idx)  (*((Uint64*)MM_FRACTAL_BASE+((idx)&PAGE_MASK)))
42 #define PAGEDIR(idx)    PAGETABLE((MM_FRACTAL_BASE>>12)+((idx)&TABLE_MASK))
43 #define PAGEDIRPTR(idx) PAGEDIR((MM_FRACTAL_BASE>>21)+((idx)&PDP_MASK))
44 #define PAGEMAPLVL4(idx)        PAGEDIRPTR((MM_FRACTAL_BASE>>30)+((idx)&PML4_MASK))
45
46 #define TMPCR3()        PAGEMAPLVL4(MM_TMPFRAC_BASE>>39)
47 #define TMPTABLE(idx)   (*((Uint64*)MM_TMPFRAC_BASE+((idx)&PAGE_MASK)))
48 #define TMPDIR(idx)     PAGETABLE((MM_TMPFRAC_BASE>>12)+((idx)&TABLE_MASK))
49 #define TMPDIRPTR(idx)  PAGEDIR((MM_TMPFRAC_BASE>>21)+((idx)&PDP_MASK))
50 #define TMPMAPLVL4(idx) PAGEDIRPTR((MM_TMPFRAC_BASE>>30)+((idx)&PML4_MASK))
51
52 #define INVLPG(__addr)  __asm__ __volatile__ ("invlpg (%0)"::"r"(__addr))
53 #define INVLPG_ALL()    __asm__ __volatile__ ("mov %cr3,%rax;\n\tmov %rax,%cr3;")
54 #define INVLPG_GLOBAL() __asm__ __volatile__ ("mov %cr4,%rax;\n\txorl $0x80, %eax;\n\tmov %rax,%cr4;\n\txorl $0x80, %eax;\n\tmov %rax,%cr4")
55
56 // === CONSTS ===
57 //tPAddr        * const gaPageTable = MM_FRACTAL_BASE;
58
59 // === IMPORTS ===
60 extern void     Error_Backtrace(Uint IP, Uint BP);
61 extern tPAddr   gInitialPML4[512];
62 extern void     Threads_SegFault(tVAddr Addr);
63 extern char     _UsertextBase[];
64
65 // === PROTOTYPES ===
66 void    MM_InitVirt(void);
67 //void  MM_FinishVirtualInit(void);
68 void    MM_int_ClonePageEnt( Uint64 *Ent, void *NextLevel, tVAddr Addr, int bTable );
69  int    MM_PageFault(tVAddr Addr, Uint ErrorCode, tRegs *Regs);
70 void    MM_int_DumpTablesEnt(tVAddr RangeStart, size_t Length, tPAddr Expected);
71 //void  MM_DumpTables(tVAddr Start, tVAddr End);
72  int    MM_GetPageEntryPtr(tVAddr Addr, BOOL bTemp, BOOL bAllocate, BOOL bLargePage, tPAddr **Pointer);
73  int    MM_MapEx(volatile void *VAddr, tPAddr PAddr, BOOL bTemp, BOOL bLarge);
74 // int  MM_Map(tVAddr VAddr, tPAddr PAddr);
75 void    MM_Unmap(tVAddr VAddr);
76 void    MM_int_ClearTableLevel(tVAddr VAddr, int LevelBits, int MaxEnts);
77 //void  MM_ClearUser(void);
78  int    MM_GetPageEntry(tVAddr Addr, tPAddr *Phys, Uint *Flags);
79
80 // === GLOBALS ===
81 tMutex  glMM_TempFractalLock;
82 tShortSpinlock  glMM_ZeroPage;
83 tPAddr  gMM_ZeroPage;
84
85 // === CODE ===
86 void MM_InitVirt(void)
87 {
88 //      Log_Debug("MMVirt", "&PAGEMAPLVL4(0) = %p", &PAGEMAPLVL4(0));
89 //      MM_DumpTables(0, -1L);
90 }
91
92 void MM_FinishVirtualInit(void)
93 {
94         PAGEMAPLVL4(0) = 0;
95 }
96
97 /**
98  * \brief Clone a page from an entry
99  * \param Ent   Pointer to the entry in the PML4/PDP/PD/PT
100  * \param NextLevel     Pointer to contents of the entry
101  * \param Addr  Dest address
102  * \note Used in COW
103  */
104 void MM_int_ClonePageEnt( Uint64 *Ent, void *NextLevel, tVAddr Addr, int bTable )
105 {
106         tPAddr  curpage = *Ent & PADDR_MASK; 
107          int    bCopied = 0;
108         
109         if( MM_GetRefCount( curpage ) <= 0 ) {
110                 Log_KernelPanic("MMVirt", "Page %P still marked COW, but unreferenced", curpage);
111         }
112         if( MM_GetRefCount( curpage ) == 1 )
113         {
114                 *Ent &= ~PF_COW;
115                 *Ent |= PF_PRESENT|PF_WRITE;
116                 #if TRACE_COW
117                 Log_Debug("MMVirt", "COW ent at %p (%p) only %P", Ent, NextLevel, curpage);
118                 #endif
119         }
120         else
121         {
122                 void    *tmp;
123                 tPAddr  paddr;
124                 
125                 if( !(paddr = MM_AllocPhys()) ) {
126                         Threads_SegFault(Addr);
127                         return ;
128                 }
129
130                 ASSERT(paddr != curpage);
131                         
132                 tmp = MM_MapTemp(paddr);
133                 memcpy( tmp, NextLevel, 0x1000 );
134                 MM_FreeTemp( tmp );
135                 
136                 #if TRACE_COW
137                 Log_Debug("MMVirt", "COW ent at %p (%p) from %P to %P", Ent, NextLevel, curpage, paddr);
138                 #endif
139
140                 MM_DerefPhys( curpage );
141                 *Ent &= PF_USER;
142                 *Ent |= paddr|PF_PRESENT|PF_WRITE;
143                 
144                 bCopied = 1;
145         }
146         INVLPG( (tVAddr)NextLevel );
147         
148         // Mark COW on contents if it's a PDPT, Dir or Table
149         if(bTable) 
150         {
151                 Uint64  *dp = NextLevel;
152                  int    i;
153                 for( i = 0; i < 512; i ++ )
154                 {
155                         if( !(dp[i] & PF_PRESENT) )
156                                 continue;
157                         
158                         if( bCopied )
159                                 MM_RefPhys( dp[i] & PADDR_MASK );
160                         if( dp[i] & PF_WRITE ) {
161                                 dp[i] &= ~PF_WRITE;
162                                 dp[i] |= PF_COW;
163                         }
164                 }
165         }
166 }
167
168 /*
169  * \brief Called on a page fault
170  */
171 int MM_PageFault(tVAddr Addr, Uint ErrorCode, tRegs *Regs)
172 {
173 //      Log_Debug("MMVirt", "Addr = %p, ErrorCode = %x", Addr, ErrorCode);
174
175         // Catch reserved bits first
176         if( ErrorCode & 0x8 )
177         {
178                 Log_Warning("MMVirt", "Reserved bits trashed!");
179                 Log_Warning("MMVirt", "PML4 Ent   = %P", PAGEMAPLVL4(Addr>>39));
180                 if( !(PAGEMAPLVL4(Addr>>39) & PF_PRESENT) )     goto print_done;
181                 Log_Warning("MMVirt", "PDP Ent    = %P", PAGEDIRPTR(Addr>>30));
182                 if( !(PAGEDIRPTR(Addr>>30) & PF_PRESENT) )      goto print_done;
183                 Log_Warning("MMVirt", "PDir Ent   = %P", PAGEDIR(Addr>>21));
184                 if( !(PAGEDIR(Addr>>21) & PF_PRESENT) ) goto print_done;
185                 Log_Warning("MMVirt", "PTable Ent = %P", PAGETABLE(Addr>>12));
186                 if( !(PAGETABLE(Addr>>12) & PF_PRESENT) )       goto print_done;
187         print_done:
188                 
189                 for(;;);
190         }
191
192         // TODO: Implement Copy-on-Write
193         #if 1
194         if( PAGEMAPLVL4(Addr>>39) & PF_PRESENT
195          && PAGEDIRPTR (Addr>>30) & PF_PRESENT
196          && PAGEDIR    (Addr>>21) & PF_PRESENT
197          && PAGETABLE  (Addr>>12) & PF_PRESENT )
198         {
199                 // PML4 Entry
200                 if( PAGEMAPLVL4(Addr>>39) & PF_COW )
201                 {
202                         tPAddr  *dp = &PAGEDIRPTR((Addr>>39)*512);
203                         MM_int_ClonePageEnt( &PAGEMAPLVL4(Addr>>39), dp, Addr, 1 );
204 //                      MM_DumpTables(Addr>>39 << 39, (((Addr>>39) + 1) << 39) - 1);
205                 }
206                 // PDP Entry
207                 if( PAGEDIRPTR(Addr>>30) & PF_COW )
208                 {
209                         tPAddr  *dp = &PAGEDIR( (Addr>>30)*512 );
210                         MM_int_ClonePageEnt( &PAGEDIRPTR(Addr>>30), dp, Addr, 1 );
211 //                      MM_DumpTables(Addr>>30 << 30, (((Addr>>30) + 1) << 30) - 1);
212                 }
213                 // PD Entry
214                 if( PAGEDIR(Addr>>21) & PF_COW )
215                 {
216                         tPAddr  *dp = &PAGETABLE( (Addr>>21)*512 );
217                         MM_int_ClonePageEnt( &PAGEDIR(Addr>>21), dp, Addr, 1 );
218 //                      MM_DumpTables(Addr>>21 << 21, (((Addr>>21) + 1) << 21) - 1);
219                 }
220                 // PT Entry
221                 if( PAGETABLE(Addr>>12) & PF_COW )
222                 {
223                         MM_int_ClonePageEnt( &PAGETABLE(Addr>>12), (void*)(Addr & ~0xFFF), Addr, 0 );
224                         INVLPG( Addr & ~0xFFF );
225                         return 0;
226                 }
227         }
228         #endif
229         
230         // If it was a user, tell the thread handler
231         if(ErrorCode & 4) {
232                 Warning("User %s %s memory%s",
233                         (ErrorCode&2?"write to":"read from"),
234                         (ErrorCode&1?"bad/locked":"non-present"),
235                         (ErrorCode&16?" (Instruction Fetch)":"")
236                         );
237                 Warning("User Pagefault: Instruction at %04x:%p accessed %p",
238                         Regs->CS, Regs->RIP, Addr);
239                 __asm__ __volatile__ ("sti");   // Restart IRQs
240                 Error_Backtrace(Regs->RIP, Regs->RBP);
241                 Threads_SegFault(Addr);
242                 return 0;
243         }
244         
245         // Kernel #PF
246         Debug_KernelPanic();
247         // -- Check Error Code --
248         if(ErrorCode & 8)
249                 Warning("Reserved Bits Trashed!");
250         else
251         {
252                 Warning("Kernel %s %s memory%s",
253                         (ErrorCode&2?"write to":"read from"),
254                         (ErrorCode&1?"bad/locked":"non-present"),
255                         (ErrorCode&16?" (Instruction Fetch)":"")
256                         );
257         }
258         
259         Log("Thread %i - Code at %p accessed %p", Threads_GetTID(), Regs->RIP, Addr);
260         // Print Stack Backtrace
261         Error_Backtrace(Regs->RIP, Regs->RBP);
262         
263         MM_DumpTables(0, -1);
264
265         return 1;       
266 }
267
268 void MM_int_DumpTablesEnt(tVAddr RangeStart, size_t Length, tPAddr Expected)
269 {
270         #define CANOICAL(addr)  ((addr)&0x800000000000?(addr)|0xFFFF000000000000:(addr))
271         LogF("%016llx => ", CANOICAL(RangeStart));
272 //      LogF("%6llx %6llx %6llx %016llx => ",
273 //              MM_GetPhysAddr( &PAGEDIRPTR(RangeStart>>30) ),
274 //              MM_GetPhysAddr( &PAGEDIR(RangeStart>>21) ),
275 //              MM_GetPhysAddr( &PAGETABLE(RangeStart>>12) ),
276 //              CANOICAL(RangeStart)
277 //              );
278         if( gMM_ZeroPage && (PAGETABLE(RangeStart>>12) & PADDR_MASK) == gMM_ZeroPage )
279                 LogF("%13s", "zero" );
280         else
281                 LogF("%13llx", PAGETABLE(RangeStart>>12) & PADDR_MASK );
282         LogF(" : 0x%6llx (%c%c%c%c%c%c)\r\n",
283                 Length,
284                 (Expected & PF_GLOBAL ? 'G' : '-'),
285                 (Expected & PF_NX ? '-' : 'x'),
286                 (Expected & PF_PAGED ? 'p' : '-'),
287                 (Expected & PF_COW ? 'C' : '-'),
288                 (Expected & PF_USER ? 'U' : '-'),
289                 (Expected & PF_WRITE ? 'W' : '-')
290                 );
291         #undef CANOICAL
292 }
293
294 /**
295  * \brief Dumps the layout of the page tables
296  */
297 void MM_DumpTables(tVAddr Start, tVAddr End)
298 {
299         const tPAddr    FIXED_BITS = PF_PRESENT|PF_WRITE|PF_USER|PF_COW|PF_PAGED|PF_NX|PF_GLOBAL;
300         const tPAddr    CHANGEABLE_BITS = ~FIXED_BITS & 0xFFF;
301         const tPAddr    MASK = ~CHANGEABLE_BITS;        // Physical address and access bits
302         tVAddr  rangeStart = 0;
303         tPAddr  expected = CHANGEABLE_BITS;     // CHANGEABLE_BITS is used because it's not a vaild value
304         tVAddr  curPos;
305         Uint    page;
306         tPAddr  expected_pml4 = PF_WRITE|PF_USER;       
307         tPAddr  expected_pdp = PF_WRITE|PF_USER;        
308         tPAddr  expected_pd = PF_WRITE|PF_USER; 
309
310         Log("Table Entries: (%p to %p)", Start, End);
311         
312         End &= (1L << 48) - 1;
313         
314         Start >>= 12;   End >>= 12;
315         
316         for(page = Start, curPos = Start<<12;
317                 page < End;
318                 curPos += 0x1000, page++)
319         {
320                 //Debug("&PAGEMAPLVL4(%i page>>27) = %p", page>>27, &PAGEMAPLVL4(page>>27));
321                 //Debug("&PAGEDIRPTR(%i page>>18) = %p", page>>18, &PAGEDIRPTR(page>>18));
322                 //Debug("&PAGEDIR(%i page>>9) = %p", page>>9, &PAGEDIR(page>>9));
323                 //Debug("&PAGETABLE(%i page) = %p", page, &PAGETABLE(page));
324                 
325                 // End of a range
326                 if(!(PAGEMAPLVL4(page>>27) & PF_PRESENT)
327                 ||  (PAGEMAPLVL4(page>>27) & FIXED_BITS) != expected_pml4
328                 || !(PAGEDIRPTR(page>>18) & PF_PRESENT)
329                 ||  (PAGEDIRPTR(page>>18) & FIXED_BITS) != expected_pdp
330                 || !(PAGEDIR(page>>9) & PF_PRESENT)
331                 ||  (PAGEDIR(page>>9) & FIXED_BITS) != expected_pd
332                 || !(PAGETABLE(page) & PF_PRESENT)
333                 ||  (PAGETABLE(page) & MASK) != expected)
334                 {                       
335                         if(expected != CHANGEABLE_BITS)
336                         {
337                                 // Merge
338                                 expected &= expected_pml4 | ~(PF_WRITE|PF_USER);
339                                 expected &= expected_pdp  | ~(PF_WRITE|PF_USER);
340                                 expected &= expected_pd   | ~(PF_WRITE|PF_USER);
341                                 expected |= expected_pml4 & PF_NX;
342                                 expected |= expected_pdp  & PF_NX;
343                                 expected |= expected_pd   & PF_NX;
344 //                              Log("expected (pml4 = %x, pdp = %x, pd = %x)",
345 //                                      expected_pml4, expected_pdp, expected_pd);
346                                 // Dump
347                                 MM_int_DumpTablesEnt( rangeStart, curPos - rangeStart, expected );
348                                 expected = CHANGEABLE_BITS;
349                         }
350                         
351                         if( curPos == 0x800000000000L )
352                                 curPos = 0xFFFF800000000000L;
353                 
354                         if( !(PAGEMAPLVL4(page>>27) & PF_PRESENT) ) {
355                                 page += (1 << 27) - 1;
356                                 curPos += (1L << 39) - 0x1000;
357                                 continue;
358                         }
359                         if( !(PAGEDIRPTR(page>>18) & PF_PRESENT) ) {
360                                 page += (1 << 18) - 1;
361                                 curPos += (1L << 30) - 0x1000;
362                                 continue;
363                         }
364                         if( !(PAGEDIR(page>>9) & PF_PRESENT) ) {
365                                 page += (1 << 9) - 1;
366                                 curPos += (1L << 21) - 0x1000;
367                                 continue;
368                         }
369                         if( !(PAGETABLE(page) & PF_PRESENT) )   continue;
370                         
371                         expected = (PAGETABLE(page) & MASK);
372                         expected_pml4 = (PAGEMAPLVL4(page>>27) & FIXED_BITS);
373                         expected_pdp  = (PAGEDIRPTR (page>>18) & FIXED_BITS);
374                         expected_pd   = (PAGEDIR    (page>> 9) & FIXED_BITS);
375                         rangeStart = curPos;
376                 }
377                 if(gMM_ZeroPage && (expected & PADDR_MASK) == gMM_ZeroPage )
378                         expected = expected;
379                 else if(expected != CHANGEABLE_BITS)
380                         expected += 0x1000;
381         }
382         
383         if(expected != CHANGEABLE_BITS) {
384                 // Merge
385                 
386                 // Dump
387                 MM_int_DumpTablesEnt( rangeStart, curPos - rangeStart, expected );
388                 expected = 0;
389         }
390 }
391
392 /**
393  * \brief Get a pointer to a page entry
394  * \param Addr  Virtual Address
395  * \param bTemp Use the Temporary fractal mapping
396  * \param bAllocate     Allocate entries
397  * \param bLargePage    Request a large page
398  * \param Pointer       Location to place the calculated pointer
399  * \return Page size, or -ve on error
400  */
401 int MM_GetPageEntryPtr(tVAddr Addr, BOOL bTemp, BOOL bAllocate, BOOL bLargePage, tPAddr **Pointer)
402 {
403         tPAddr  *pmlevels[4];
404         tPAddr  tmp;
405          int    i, size;
406         
407         #define BITMASK(bits)   ( (1LL << (bits))-1 )
408
409         if( bTemp )
410         {
411                 pmlevels[3] = &TMPTABLE(0);     // Page Table
412                 pmlevels[2] = &TMPDIR(0);       // PDIR
413                 pmlevels[1] = &TMPDIRPTR(0);    // PDPT
414                 pmlevels[0] = &TMPMAPLVL4(0);   // PML4
415         }
416         else
417         {
418                 pmlevels[3] = (void*)MM_FRACTAL_BASE;   // Page Table
419                 pmlevels[2] = &pmlevels[3][(MM_FRACTAL_BASE>>12)&BITMASK(VIRT_BITS-12)];        // PDIR
420                 pmlevels[1] = &pmlevels[2][(MM_FRACTAL_BASE>>21)&BITMASK(VIRT_BITS-21)];        // PDPT
421                 pmlevels[0] = &pmlevels[1][(MM_FRACTAL_BASE>>30)&BITMASK(VIRT_BITS-30)];        // PML4
422         }
423         
424         // Mask address
425         Addr &= (1ULL << 48)-1;
426         
427         for( size = 39, i = 0; size > 12; size -= 9, i ++ )
428         {
429                 Uint64  *ent = &pmlevels[i][Addr >> size];
430 //              INVLPG( &pmlevels[i][ (Addr >> ADDR_SIZES[i]) & 
431                 
432                 // Check for a free large page slot
433                 // TODO: Better support with selectable levels
434                 if( (Addr & ((1ULL << size)-1)) == 0 && bLargePage )
435                 {
436                         if(Pointer)     *Pointer = ent;
437                         return size;
438                 }
439                 // Allocate an entry if required
440                 if( !(*ent & PF_PRESENT) )
441                 {
442                         if( !bAllocate )        return -4;      // If allocation is not requested, error
443                         if( !(tmp = MM_AllocPhys()) )   return -2;
444                         *ent = tmp | 3;
445                         if( Addr < 0x800000000000 )
446                                 *ent |= PF_USER;
447                         INVLPG( &pmlevels[i+1][ (Addr>>size)*512 ] );
448                         memset( &pmlevels[i+1][ (Addr>>size)*512 ], 0, 0x1000 );
449                         LOG("Init PML%i ent 0x%x %p with %P (*ent = %P)", 4 - i,
450                                 Addr>>size, (Addr>>size) << size, tmp, *ent);
451                 }
452                 // Catch large pages
453                 else if( *ent & PF_LARGE )
454                 {
455                         // Alignment
456                         if( (Addr & ((1ULL << size)-1)) != 0 )  return -3;
457                         if(Pointer)     *Pointer = ent;
458                         return size;    // Large page warning
459                 }
460         }
461         
462         // And, set the page table entry
463         if(Pointer)     *Pointer = &pmlevels[i][Addr >> size];
464         return size;
465 }
466
467 /**
468  * \brief Map a physical page to a virtual one
469  * \param VAddr Target virtual address
470  * \param PAddr Physical address of page
471  * \param bTemp Use tempoary mappings
472  * \param bLarge        Treat as a large page
473  */
474 int MM_MapEx(volatile void *VAddr, tPAddr PAddr, BOOL bTemp, BOOL bLarge)
475 {
476         tPAddr  *ent;
477          int    rv;
478         
479         ENTER("pVAddr PPAddr", VAddr, PAddr);
480         
481         // Get page pointer (Allow allocating)
482         rv = MM_GetPageEntryPtr( (tVAddr)VAddr, bTemp, 1, bLarge, &ent);
483         if(rv < 0)      LEAVE_RET('i', 0);
484         
485         if( *ent & 1 )  LEAVE_RET('i', 0);
486         
487         *ent = PAddr | 3;
488
489         if( (tVAddr)VAddr < USER_MAX )
490                 *ent |= PF_USER;
491         INVLPG( VAddr );
492
493         LEAVE('i', 1);  
494         return 1;
495 }
496
497 /**
498  * \brief Map a physical page to a virtual one
499  * \param VAddr Target virtual address
500  * \param PAddr Physical address of page
501  */
502 int MM_Map(volatile void *VAddr, tPAddr PAddr)
503 {
504         return MM_MapEx(VAddr, PAddr, 0, 0);
505 }
506
507 /**
508  * \brief Removed a mapped page
509  */
510 void MM_Unmap(tVAddr VAddr)
511 {
512         // Check PML4
513         if( !(PAGEMAPLVL4(VAddr >> 39) & 1) )   return ;
514         // Check PDP
515         if( !(PAGEDIRPTR(VAddr >> 30) & 1) )    return ;
516         // Check Page Dir
517         if( !(PAGEDIR(VAddr >> 21) & 1) )       return ;
518
519         tPAddr  *ent = &PAGETABLE(VAddr >> PTAB_SHIFT);
520         *ent = 0;
521         INVLPG( VAddr );
522 }
523
524 /**
525  * \brief Allocate a block of memory at the specified virtual address
526  */
527 tPAddr MM_Allocate(volatile void *VAddr)
528 {
529         tPAddr  ret;
530         
531         ENTER("pVAddr", VAddr);
532         
533         // Ensure the tables are allocated before the page (keeps things neat)
534         MM_GetPageEntryPtr( (tVAddr)VAddr, 0, 1, 0, NULL );
535         
536         // Allocate the page
537         ret = MM_AllocPhys();
538         LOG("ret = %x", ret);
539         if(!ret)        LEAVE_RET('i', 0);
540         
541         if( !MM_Map(VAddr, ret) )
542         {
543                 Warning("MM_Allocate: Unable to map. Strange, we should have errored earlier");
544                 MM_DerefPhys(ret);
545                 LEAVE('i');
546                 return 0;
547         }
548         
549         LEAVE('X', ret);
550         return ret;
551 }
552
553 void MM_AllocateZero(volatile void *VAddr)
554 {
555         // Ensure dir is populated
556         MM_GetPageEntryPtr((tVAddr)VAddr, 0, 1, 0, NULL);
557
558         if(!gMM_ZeroPage)
559         {
560                 SHORTLOCK(&glMM_ZeroPage);
561                 if( !gMM_ZeroPage )
562                 {
563                         gMM_ZeroPage = MM_AllocPhys();
564                         MM_Map(VAddr, gMM_ZeroPage);
565                         memset((void*)VAddr, 0, PAGE_SIZE);
566                 }
567                 SHORTREL(&glMM_ZeroPage);
568         }
569         else
570         {
571                 MM_Map(VAddr, gMM_ZeroPage);
572         }
573         MM_RefPhys(gMM_ZeroPage);       // Refernce for this map
574         MM_SetFlags(VAddr, MM_PFLAG_COW, MM_PFLAG_COW);
575 }
576
577 /**
578  * \brief Deallocate a page at a virtual address
579  */
580 void MM_Deallocate(volatile void *VAddr)
581 {
582         tPAddr  phys = MM_GetPhysAddr( VAddr );
583         if(!phys)       return ;
584         
585         MM_Unmap((tVAddr)VAddr);
586         
587         MM_DerefPhys(phys);
588 }
589
590 /**
591  * \brief Get the page table entry of a virtual address
592  * \param Addr  Virtual Address
593  * \param Phys  Location to put the physical address
594  * \param Flags Flags on the entry (set to zero if unmapped)
595  * \return Size of the entry (in address bits) - 12 = 4KiB page
596  */
597 int MM_GetPageEntry(tVAddr Addr, tPAddr *Phys, Uint *Flags)
598 {
599         tPAddr  *ptr;
600          int    ret;
601         
602         if(!Phys || !Flags)     return 0;
603         
604         ret = MM_GetPageEntryPtr(Addr, 0, 0, 0, &ptr);
605         if( ret < 0 )   return 0;
606         
607         *Phys = *ptr & PADDR_MASK;
608         *Flags = *ptr & 0xFFF;
609         return ret;
610 }
611
612 /**
613  * \brief Get the physical address of a virtual location
614  */
615 tPAddr MM_GetPhysAddr(volatile const void *Ptr)
616 {
617         tVAddr  Addr = (tVAddr)Ptr;
618         tPAddr  *ptr;
619          int    ret;
620         
621         ret = MM_GetPageEntryPtr(Addr, 0, 0, 0, &ptr);
622         if( ret < 0 )   return 0;
623         
624         if( !(*ptr & 1) )       return 0;
625         
626         return (*ptr & PADDR_MASK) | (Addr & 0xFFF);
627 }
628
629 /**
630  * \brief Sets the flags on a page
631  */
632 void MM_SetFlags(volatile void *VAddr, Uint Flags, Uint Mask)
633 {
634         tPAddr  *ent;
635          int    rv;
636         
637         // Get pointer
638         rv = MM_GetPageEntryPtr( (tVAddr)VAddr, 0, 0, 0, &ent);
639         if(rv < 0)      return ;
640         
641         // Ensure the entry is valid
642         if( !(*ent & 1) )       return ;
643         
644         // Read-Only
645         if( Mask & MM_PFLAG_RO )
646         {
647                 if( Flags & MM_PFLAG_RO ) {
648                         *ent &= ~PF_WRITE;
649                 }
650                 else {
651                         *ent |= PF_WRITE;
652                 }
653         }
654         
655         // Kernel
656         if( Mask & MM_PFLAG_KERNEL )
657         {
658                 if( Flags & MM_PFLAG_KERNEL ) {
659                         *ent &= ~PF_USER;
660                 }
661                 else {
662                         *ent |= PF_USER;
663                 }
664         }
665         
666         // Copy-On-Write
667         if( Mask & MM_PFLAG_COW )
668         {
669                 if( Flags & MM_PFLAG_COW ) {
670                         *ent &= ~PF_WRITE;
671                         *ent |= PF_COW;
672                 }
673                 else {
674                         *ent &= ~PF_COW;
675                         *ent |= PF_WRITE;
676                 }
677         }
678         
679         // Execute
680         if( Mask & MM_PFLAG_EXEC )
681         {
682                 if( Flags & MM_PFLAG_EXEC ) {
683                         *ent &= ~PF_NX;
684                 }
685                 else {
686                         *ent |= PF_NX;
687                 }
688         }
689 }
690
691 /**
692  * \brief Get the flags applied to a page
693  */
694 Uint MM_GetFlags(volatile const void *VAddr)
695 {
696         tPAddr  *ent;
697          int    rv, ret = 0;
698         
699         rv = MM_GetPageEntryPtr((tVAddr)VAddr, 0, 0, 0, &ent);
700         if(rv < 0)      return 0;
701         
702         if( !(*ent & 1) )       return 0;
703         
704         // Read-Only
705         if( !(*ent & PF_WRITE) )        ret |= MM_PFLAG_RO;
706         // Kernel
707         if( !(*ent & PF_USER) ) ret |= MM_PFLAG_KERNEL;
708         // Copy-On-Write
709         if( *ent & PF_COW )     ret |= MM_PFLAG_COW;    
710         // Execute
711         if( !(*ent & PF_NX) )   ret |= MM_PFLAG_EXEC;
712         
713         return ret;
714 }
715
716 /**
717  * \brief Check if the provided buffer is valid
718  * \return Boolean valid
719  */
720 int MM_IsValidBuffer(tVAddr Addr, size_t Size)
721 {
722          int    bIsUser;
723         Uint64  pml4, pdp, dir, tab;
724
725         Size += Addr & (PAGE_SIZE-1);
726         Addr &= ~(PAGE_SIZE-1);
727         // NC addr
728         if( ((Addr >> 47) & 1) != ((Addr>>48) == 0xFFFF))
729                 return 0;
730         Addr &= ((1UL << 48)-1);        // Clamp to address space
731
732         pml4 = Addr >> 39;
733         pdp = Addr >> 30;
734         dir = Addr >> 21;
735         tab = Addr >> 12;
736
737         if( !(PAGEMAPLVL4(pml4) & 1) ) {
738                 Log_Debug("MMVirt", "PML4E %i NP", pml4);
739                 return 0;
740         }
741         if( !(PAGEDIRPTR(pdp) & 1) ) {
742                 Log_Debug("MMVirt", "PDPE %i NP", pdp);
743                 return 0;
744         }
745         if( !(PAGEDIR(dir) & 1) ) {
746                 Log_Debug("MMVirt", "PDE %i NP", dir);
747                 return 0;
748         }
749         if( !(PAGETABLE(tab) & 1) ) {
750                 Log_Debug("MMVirt", "PTE %i NP", tab);
751                 return 0;
752         }
753         
754         bIsUser = !!(PAGETABLE(tab) & PF_USER);
755
756         while( Size >= PAGE_SIZE )
757         {
758                 tab ++;
759                 Size -= PAGE_SIZE;
760                 
761                 if( (tab & 511) == 0 )
762                 {
763                         dir ++;
764                         if( (dir & 511) == 0 )
765                         {
766                                 pdp ++;
767                                 if( (pdp & 511) == 0 )
768                                 {
769                                         pml4 ++;
770                                         if( !(PAGEMAPLVL4(pml4) & 1) ) {
771                                                 Log_Debug("MMVirt", "IsValidBuffer - PML4E %x NP, Size=%x", pml4, Size);
772                                                 return 0;
773                                         }
774                                 }
775                                 if( !(PAGEDIRPTR(pdp) & 1) ) {
776                                         Log_Debug("MMVirt", "IsValidBuffer - PDPE %x NP", pdp);
777                                         return 0;
778                                 }
779                         }
780                         if( !(PAGEDIR(dir) & 1) ) {
781                                 Log_Debug("MMVirt", "IsValidBuffer - PDE %x NP", dir);
782                                 return 0;
783                         }
784                 }
785                 
786                 if( !(PAGETABLE(tab) & 1) ) {
787                         Log_Debug("MMVirt", "IsValidBuffer - PTE %x NP", tab);
788                         return 0;
789                 }
790                 if( bIsUser && !(PAGETABLE(tab) & PF_USER) ) {
791                         Log_Debug("MMVirt", "IsValidBuffer - PTE %x Not user", tab);
792                         return 0;
793                 }
794         }
795         return 1;
796 }
797
798 // --- Hardware Mappings ---
799 /**
800  * \brief Map a range of hardware pages
801  */
802 void *MM_MapHWPages(tPAddr PAddr, Uint Number)
803 {
804         //TODO: Add speedups (memory of first possible free)
805         for( tPage *ret = (void*)MM_HWMAP_BASE; ret < (tPage*)MM_HWMAP_TOP; ret ++ )
806         {
807                 // Check if this region has already been used
808                  int    num;
809                 for( num = Number; num -- && ret < (tPage*)MM_HWMAP_TOP; ret ++ )
810                 {
811                         if( MM_GetPhysAddr( ret ) != 0 )
812                                 break;
813                 }
814                 if( num >= 0 )  continue;
815                 
816 //              Log_Debug("MMVirt", "Mapping %i pages to %p (base %P)", Number, ret-Number*0x1000, PAddr);
817
818                 // Map backwards (because `ret` is at the top of the region atm)
819                 PAddr += 0x1000 * Number;
820                 while( Number -- )
821                 {
822                         ret --;
823                         PAddr -= 0x1000;
824                         MM_Map(ret, PAddr);
825                         MM_RefPhys(PAddr);
826                 }
827                 
828                 return ret;
829         }
830         
831         Log_Error("MM", "MM_MapHWPages - No space for %i pages", Number);
832         return 0;
833 }
834
835 /**
836  * \brief Free a range of hardware pages
837  */
838 void MM_UnmapHWPages(volatile void *VAddr, Uint Number)
839 {
840 //      Log_KernelPanic("MM", "TODO: Implement MM_UnmapHWPages");
841         tPage   *page = (void*)VAddr;
842         while( Number -- )
843         {
844                 MM_DerefPhys( MM_GetPhysAddr(page) );
845                 MM_Unmap((tVAddr)page);
846                 page ++;
847         }
848 }
849
850
851 /**
852  * \fn tVAddr MM_AllocDMA(int Pages, int MaxBits, tPAddr *PhysAddr)
853  * \brief Allocates DMA physical memory
854  * \param Pages Number of pages required
855  * \param MaxBits       Maximum number of bits the physical address can have
856  * \param PhysAddr      Pointer to the location to place the physical address allocated
857  * \return Virtual address allocate
858  */
859 void *MM_AllocDMA(int Pages, int MaxBits, tPAddr *PhysAddr)
860 {
861         tPAddr  phys;
862         void    *ret;
863         
864         // Sanity Check
865         if(MaxBits < 12 || !PhysAddr)   return 0;
866         
867         // Fast Allocate
868         if(Pages == 1 && MaxBits >= PHYS_BITS)
869         {
870                 phys = MM_AllocPhys();
871                 *PhysAddr = phys;
872                 ret = MM_MapHWPages(phys, 1);
873                 MM_DerefPhys(phys);
874                 return ret;
875         }
876         
877         // Slow Allocate
878         phys = MM_AllocPhysRange(Pages, MaxBits);
879         // - Was it allocated?
880         if(phys == 0)   return 0;
881         
882         // Allocated successfully, now map
883         ret = MM_MapHWPages(phys, Pages);
884         *PhysAddr = phys;
885         // MapHWPages references the pages, so deref them back down to 1
886         for(;Pages--;phys+=0x1000)
887                 MM_DerefPhys(phys);
888         if( ret == 0 ) {
889                 // If it didn't map, free then return 0
890                 return 0;
891         }
892         
893         return ret;
894 }
895
896 // --- Tempory Mappings ---
897 void *MM_MapTemp(tPAddr PAddr)
898 {
899         const int max_slots = (MM_TMPMAP_END - MM_TMPMAP_BASE) / PAGE_SIZE;
900         tVAddr  ret = MM_TMPMAP_BASE;
901          int    i;
902         
903         for( i = 0; i < max_slots; i ++, ret += PAGE_SIZE )
904         {
905                 tPAddr  *ent;
906                 if( MM_GetPageEntryPtr( ret, 0, 1, 0, &ent) < 0 ) {
907                         continue ;
908                 }
909
910                 if( *ent & 1 )
911                         continue ;
912
913                 *ent = PAddr | 3;
914                 MM_RefPhys(PAddr);
915                 INVLPG(ret);
916                 return (void*)ret;
917         }
918         return 0;
919 }
920
921 void MM_FreeTemp(void *Ptr)
922 {
923         MM_Deallocate(Ptr);
924 }
925
926
927 // --- Address Space Clone --
928 tPAddr MM_Clone(int bNoUserCopy)
929 {
930         tPAddr  ret;
931          int    i;
932
933         // #1 Create a copy of the PML4
934         ret = MM_AllocPhys();
935         if(!ret)        return 0;
936         
937         // #2 Alter the fractal pointer
938         Mutex_Acquire(&glMM_TempFractalLock);
939         TMPCR3() = ret | 3;
940         INVLPG_ALL();
941         
942         // #3 Set Copy-On-Write to all user pages
943         if( Threads_GetPID() != 0 && !bNoUserCopy )
944         {
945                 for( i = 0; i < 256; i ++)
946                 {
947                         if( PAGEMAPLVL4(i) & PF_WRITE ) {
948                                 PAGEMAPLVL4(i) |= PF_COW;
949                                 PAGEMAPLVL4(i) &= ~PF_WRITE;
950                         }
951         
952                         TMPMAPLVL4(i) = PAGEMAPLVL4(i);
953 //                      Log_Debug("MM", "TMPMAPLVL4(%i) = 0x%016llx", i, TMPMAPLVL4(i));
954                         if( !(TMPMAPLVL4(i) & PF_PRESENT) )     continue ;
955                         
956                         MM_RefPhys( TMPMAPLVL4(i) & PADDR_MASK );
957                 }
958         }
959         else
960         {
961                 for( i = 0; i < 256; i ++ )
962                 {
963                         TMPMAPLVL4(i) = 0;
964                 }
965         }
966         
967         // #4 Map in kernel pages
968         for( i = 256; i < 512; i ++ )
969         {
970                 // Skip addresses:
971                 // 320 0xFFFFA....      - Kernel Stacks
972                 if( i == MM_KSTACK_BASE>>39 )   continue;
973                 // 509 0xFFFFFE0..      - Fractal mapping
974                 if( i == MM_FRACTAL_BASE>>39 )  continue;
975                 // 510 0xFFFFFE8..      - Temp fractal mapping
976                 if( i == MM_TMPFRAC_BASE>>39 )  continue;
977                 
978                 TMPMAPLVL4(i) = PAGEMAPLVL4(i);
979                 if( TMPMAPLVL4(i) & 1 )
980                         MM_RefPhys( TMPMAPLVL4(i) & PADDR_MASK );
981         }
982
983         // Mark Per-Process data as COW
984         TMPMAPLVL4(MM_PPD_BASE>>39) |= PF_COW;
985         TMPMAPLVL4(MM_PPD_BASE>>39) &= ~PF_WRITE;
986         
987         // #5 Set fractal mapping
988         TMPMAPLVL4(MM_FRACTAL_BASE>>39) = ret | 3;      // Main
989         TMPMAPLVL4(MM_TMPFRAC_BASE>>39) = 0;    // Temp
990         
991         // #6 Create kernel stack
992         //  tThread->KernelStack is the top
993         //  There is 1 guard page below the stack
994         tPage *kstackbase = (void*)( Proc_GetCurThread()->KernelStack - KERNEL_STACK_SIZE );
995
996         // Clone stack
997         TMPMAPLVL4(MM_KSTACK_BASE >> PML4_SHIFT) = 0;
998         for( i = 1; i < KERNEL_STACK_SIZE/PAGE_SIZE; i ++ )
999         {
1000                 tPAddr  phys = MM_AllocPhys();
1001                 void    *tmpmapping;
1002                 MM_MapEx(kstackbase + i, phys, 1, 0);
1003                 
1004                 tmpmapping = MM_MapTemp(phys);
1005                 // If the current thread's stack is shorter than the new one, zero
1006                 if( MM_GetPhysAddr( kstackbase + i ) )
1007                         memcpy(tmpmapping, kstackbase + i, 0x1000);
1008                 else
1009                         memset(tmpmapping, 0, 0x1000);
1010 //              if( i == 0xF )
1011 //                      Debug_HexDump("MM_Clone: *tmpmapping = ", (void*)tmpmapping, 0x1000);
1012                 MM_FreeTemp(tmpmapping);
1013         }
1014         
1015 //      MAGIC_BREAK();
1016
1017         // #7 Return
1018         TMPCR3() = 0;
1019         INVLPG_ALL();
1020         Mutex_Release(&glMM_TempFractalLock);
1021 //      Log("MM_Clone: RETURN %P", ret);
1022         return ret;
1023 }
1024
1025 void MM_int_ClearTableLevel(tVAddr VAddr, int LevelBits, int MaxEnts)
1026 {
1027         Uint64  * const table_bases[] = {&PAGETABLE(0), &PAGEDIR(0), &PAGEDIRPTR(0), &PAGEMAPLVL4(0)};
1028         Uint64  *table = table_bases[(LevelBits-12)/9] + (VAddr >> LevelBits);
1029          int    i;
1030 //      Log("MM_int_ClearTableLevel: (VAddr=%p, LevelBits=%i, MaxEnts=%i)", VAddr, LevelBits, MaxEnts);
1031         for( i = 0; i < MaxEnts; i ++ )
1032         {
1033                 // Skip non-present tables
1034                 if( !(table[i] & PF_PRESENT) ) {
1035                         table[i] = 0;
1036                         continue ;
1037                 }
1038         
1039                 if( (table[i] & PF_COW) && MM_GetRefCount(table[i] & PADDR_MASK) > 1 ) {
1040                         MM_DerefPhys(table[i] & PADDR_MASK);
1041                         table[i] = 0;
1042                         continue ;
1043                 }
1044                 // Clear table contents (if it is a table)
1045                 if( LevelBits > 12 )
1046                         MM_int_ClearTableLevel(VAddr + ((tVAddr)i << LevelBits), LevelBits-9, 512);
1047                 MM_DerefPhys(table[i] & PADDR_MASK);
1048                 table[i] = 0;
1049         }
1050 }
1051
1052 void MM_ClearUser(void)
1053 {
1054         MM_int_ClearTableLevel(0, 39, 256);
1055 }
1056
1057 tVAddr MM_NewWorkerStack(void *StackData, size_t StackSize)
1058 {
1059         tVAddr  ret;
1060         tPAddr  phys;
1061          int    i;
1062         
1063         // #1 Set temp fractal to PID0
1064         Mutex_Acquire(&glMM_TempFractalLock);
1065         TMPCR3() = ((tPAddr)gInitialPML4 - KERNEL_BASE) | 3;
1066         INVLPG_ALL();
1067         
1068         // #2 Scan for a free stack addresss < 2^47
1069         for(ret = 0x100000; ret < (1ULL << 47); ret += KERNEL_STACK_SIZE)
1070         {
1071                 tPAddr  *ptr;
1072                 if( MM_GetPageEntryPtr(ret, 1, 0, 0, &ptr) <= 0 )       break;
1073                 if( !(*ptr & 1) )       break;
1074         }
1075         if( ret >= (1ULL << 47) ) {
1076                 Mutex_Release(&glMM_TempFractalLock);
1077                 return 0;
1078         }
1079         
1080         // #3 Map all save the last page in the range
1081         //  - This acts as as guard page
1082         MM_GetPageEntryPtr(ret, 1, 1, 0, NULL); // Make sure tree is allocated
1083         for( i = 0; i < KERNEL_STACK_SIZE/0x1000 - 1; i ++ )
1084         {
1085                 phys = MM_AllocPhys();
1086                 if(!phys) {
1087                         // TODO: Clean up
1088                         Log_Error("MM", "MM_NewWorkerStack - Unable to allocate page");
1089                         return 0;
1090                 }
1091                 MM_MapEx( (void*)(ret + i*0x1000), phys, 1, 0);
1092                 // XXX: ... this doesn't change the correct address space
1093                 MM_SetFlags( (void*)(ret + i*0x1000), MM_PFLAG_KERNEL|MM_PFLAG_RO, MM_PFLAG_KERNEL);
1094         }
1095
1096         // Copy data
1097         if( StackSize > 0x1000 ) {
1098                 Log_Error("MM", "MM_NewWorkerStack: StackSize(0x%x) > 0x1000, cbf handling", StackSize);
1099         }
1100         else {
1101                 void    *tmp_addr, *dest;
1102                 tmp_addr = MM_MapTemp(phys);
1103                 dest = (char*)tmp_addr + (0x1000 - StackSize);
1104                 memcpy( dest, StackData, StackSize );
1105                 MM_FreeTemp(tmp_addr);
1106         }
1107
1108         TMPCR3() = 0;
1109         Mutex_Release(&glMM_TempFractalLock);
1110         
1111         return ret + i*0x1000;
1112 }
1113
1114 /**
1115  * \brief Allocate a new kernel stack
1116  */
1117 tVAddr MM_NewKStack(void)
1118 {
1119         tVAddr  base = MM_KSTACK_BASE;
1120         Uint    i;
1121         for( ; base < MM_KSTACK_TOP; base += KERNEL_STACK_SIZE )
1122         {
1123                 if(MM_GetPhysAddr( (void*)(base+KERNEL_STACK_SIZE-0x1000) ) != 0)
1124                         continue;
1125                 
1126                 //Log("MM_NewKStack: Found one at %p", base + KERNEL_STACK_SIZE);
1127                 for( i = 0x1000; i < KERNEL_STACK_SIZE; i += 0x1000)
1128                 {
1129                         if( !MM_Allocate( (void*)(base+i) ) )
1130                         {
1131                                 Log_Warning("MM", "MM_NewKStack - Allocation failed");
1132                                 for( i -= 0x1000; i; i -= 0x1000)
1133                                         MM_Deallocate((void*)(base+i));
1134                                 return 0;
1135                         }
1136                 }
1137                 
1138                 return base + KERNEL_STACK_SIZE;
1139         }
1140         Log_Warning("MM", "MM_NewKStack - No address space left\n");
1141         return 0;
1142 }

UCC git Repository :: git.ucc.asn.au