Merge branch 'master' of git://git.ucc.asn.au/tpg/acess2
[tpg/acess2.git] / Kernel / arch / x86 / include / arch.h
index 0126be3..8a98705 100644 (file)
@@ -1,7 +1,7 @@
 /*
  * Acess2
  * - x86 Architecture
- * arch/i386/include/arch.h
+ * arch/x86/include/arch.h
  */
 #ifndef _ARCH_H_
 #define _ARCH_H_
@@ -9,13 +9,15 @@
 // - Base Defintions
 #define        KERNEL_BASE     0xC0000000
 #define BITS   32
+#define PAGE_SIZE      0x1000
+
+#define INVLPTR        ((void*)-1)
 
 // Allow nested spinlocks?
-#define STACKED_LOCKS  1
-#define LOCK_DISABLE_INTS      0
+#define LOCK_DISABLE_INTS      1
 
 // - Processor/Machine Specific Features
-#if ARCH != i386 && ARCH != i486 && ARCH != i586
+#if ARCH != x86 && ARCH != x86_smp
 # error "Unknown architecture '" #ARCH "'"
 #endif
 
  */
 struct sShortSpinlock {
        volatile int    Lock;   //!< Lock value
+       
        #if LOCK_DISABLE_INTS
         int    IF;     //!< Interrupt state on call to SHORTLOCK
        #endif
-       #if STACKED_LOCKS
-        int    Depth;
-       #endif
 };
-/**
- * \brief Determine if a short spinlock is locked
- * \param Lock Lock pointer
- */
-static inline int IS_LOCKED(struct sShortSpinlock *Lock) {
-       return !!Lock->Lock;
-}
-
-/**
- * \brief Check if the current CPU has the lock
- * \param Lock Lock pointer
- */
-static inline int CPU_HAS_LOCK(struct sShortSpinlock *Lock) {
-       extern int      GetCPUNum(void);
-       return Lock->Lock == GetCPUNum() + 1;
-}
-
-/**
- * \brief Acquire a Short Spinlock
- * \param Lock Lock pointer
- * 
- * This type of mutex should only be used for very short sections of code,
- * or in places where a Mutex_* would be overkill, such as appending
- * an element to linked list (usually two assignement lines in C)
- * 
- * \note This type of lock halts interrupts, so ensure that no timing
- * functions are called while it is held. As a matter of fact, spend as
- * little time as possible with this lock held
- */
-static inline void SHORTLOCK(struct sShortSpinlock *Lock) {
-        int    v = 1;
-       #if LOCK_DISABLE_INTS
-        int    IF;
-       #endif
-       #if STACKED_LOCKS
-       extern int      GetCPUNum(void);
-        int    cpu = GetCPUNum() + 1;
-       #endif
-       
-       #if LOCK_DISABLE_INTS
-       // Save interrupt state and clear interrupts
-       __ASM__ ("pushf;\n\tpop %%eax\n\tcli" : "=a"(IF));
-       IF &= 0x200;    // AND out all but the interrupt flag
-       #endif
-       
-       #if STACKED_LOCKS
-       if( Lock->Lock == cpu ) {
-               Lock->Depth ++;
-               return ;
-       }
-       #endif
-       
-       // Wait for another CPU to release
-       while(v) {
-               #if STACKED_LOCKS
-               // CMPXCHG:
-               //  If r/m32 == EAX, set ZF and set r/m32 = r32
-               //  Else, clear ZF and set EAX = r/m32
-               __ASM__("lock cmpxchgl %2, (%3)"
-                       : "=a"(v)
-                       : "a"(0), "r"(cpu), "r"(&Lock->Lock)
-                       );
-               #else
-               __ASM__("xchgl %%eax, (%%edi)":"=a"(v):"a"(1),"D"(&Lock->Lock));
-               #endif
-       }
-       
-       #if LOCK_DISABLE_INTS
-       Lock->IF = IF;
-       #endif
-}
-/**
- * \brief Release a short lock
- * \param Lock Lock pointer
- */
-static inline void SHORTREL(struct sShortSpinlock *Lock) {
-       #if STACKED_LOCKS
-       if( Lock->Depth ) {
-               Lock->Depth --;
-               return ;
-       }
-       #endif
-       
-       #if LOCK_DISABLE_INTS
-       // Lock->IF can change anytime once Lock->Lock is zeroed
-       if(Lock->IF) {
-               Lock->Lock = 0;
-               __ASM__ ("sti");
-       }
-       else {
-               Lock->Lock = 0;
-       }
-       #else
-       Lock->Lock = 0;
-       #endif
-}
 
 // === MACROS ===
 /**
- * \brief Halt the CPU
+ * \brief Halt the CPU (shorter version of yield)
  */
+#if 1
+#define        HALT()  do { \
+       Uint32  flags; \
+       __asm__ __volatile__ ("pushf;pop %0" : "=a"(flags)); \
+       if( !(flags & 0x200) )  Panic("HALT called with interrupts disabled"); \
+       __asm__ __volatile__ ("hlt"); \
+} while(0)
+#else
 #define        HALT()  __asm__ __volatile__ ("hlt")
+#endif
 /**
  * \brief Fire a magic breakpoint (bochs)
  */
@@ -165,17 +78,18 @@ typedef signed short       Sint16;
 typedef signed long            Sint32;
 typedef signed long long       Sint64;
 typedef Uint   size_t;
+typedef char   BOOL;
 
-typedef Uint64 tPAddr;
+typedef Uint32 tPAddr;
 typedef Uint32 tVAddr;
 
 typedef struct {
-    Uint       gs, fs, es, ds;
-    Uint       edi, esi, ebp, kesp;
-       Uint    ebx, edx, ecx, eax;
-    Uint       int_num, err_code;
-    Uint       eip, cs;
-       Uint    eflags, esp, ss;
+       Uint32  gs, fs, es, ds;
+       Uint32  edi, esi, ebp, kesp;
+       Uint32  ebx, edx, ecx, eax;
+       Uint32  int_num, err_code;
+       Uint32  eip, cs;
+       Uint32  eflags, esp, ss;
 } tRegs;
 
 typedef struct {
@@ -201,16 +115,13 @@ typedef struct {
        Uint    Resvd4[1];      // SS
 } tSyscallRegs;
 
-typedef struct {
-       #if USE_PAE
-       Uint    PDPT[4];
-       #else
-       Uint    CR3;
-       #endif
-} tMemoryState;
+// === FUNCTIONS ===
+extern void    Debug_PutCharDebug(char ch);
+extern void    Debug_PutStringDebug(const char *String);
 
-typedef struct {
-       Uint    EIP, ESP, EBP;
-} tTaskState;
+extern int     IS_LOCKED(struct sShortSpinlock *Lock);
+extern int     CPU_HAS_LOCK(struct sShortSpinlock *Lock);
+extern void    SHORTLOCK(struct sShortSpinlock *Lock);
+extern void    SHORTREL(struct sShortSpinlock *Lock);
 
 #endif // !defined(_ARCH_H_)

UCC git Repository :: git.ucc.asn.au