Kernel/x86 - Distinguished tracing of unaligned memcpys from aligned
[tpg/acess2.git] / Kernel / arch / x86 / lib.c
index 0d493bb..0b802d1 100644 (file)
@@ -1,6 +1,8 @@
 /*
- * AcessOS Microkernel Version
- * lib.c
+ * Acess2
+ *
+ * arch/x86/lib.c
+ * - General arch-specific stuff
  */
 #include <acess.h>
 #include <threads_int.h>
@@ -322,9 +324,12 @@ int memcmp(const void *m1, const void *m2, size_t Num)
  */
 void *memcpy(void *Dest, const void *Src, size_t Num)
 {
-       if( ((Uint)Dest & 3) || ((Uint)Src & 3) )
+       if( ((Uint)Dest & 3) || ((Uint)Src & 3) ) {
                __asm__ __volatile__ ("rep movsb" :: "D" (Dest), "S" (Src), "c" (Num));
+//             Debug("\nmemcpy:Num=0x%x by %p (UA)", Num, __builtin_return_address(0));
+       }
        else {
+//             Debug("\nmemcpy:Num=0x%x by %p", Num, __builtin_return_address(0));
                __asm__ __volatile__ (
                        "rep movsl;\n\t"
                        "mov %3, %%ecx;\n\t"
@@ -343,6 +348,25 @@ void *memcpyd(void *Dest, const void *Src, size_t Num)
        return Dest;
 }
 
+Uint64 DivMod64U(Uint64 Num, Uint64 Div, Uint64 *Rem)
+{
+       Uint64  ret;
+       if( Div < 0x100000000ULL && Num < 0xFFFFFFFF * Div ) {
+               Uint32  rem, ret_32;
+               __asm__ __volatile__(
+                       "div %4"
+                       : "=a" (ret_32), "=d" (rem)
+                       : "a" ( (Uint32)(Num & 0xFFFFFFFF) ), "d" ((Uint32)(Num >> 32)), "r" (Div)
+                       );
+               if(Rem) *Rem = rem;
+               return ret_32;
+       }
+
+       ret = __udivdi3(Num, Div);
+       if(Rem) *Rem = __umoddi3(Num, Div);
+       return ret;
+}
+
 /**
  * \fn Uint64 __udivdi3(Uint64 Num, Uint64 Den)
  * \brief Divide two 64-bit integers

UCC git Repository :: git.ucc.asn.au