[project @ 2003-09-15 20:39:38 by sof]
[ghc-hetmet.git] / ghc / rts / MBlock.c
index 57d113a..d276be0 100644 (file)
@@ -1,5 +1,5 @@
 /* -----------------------------------------------------------------------------
- * $Id: MBlock.c,v 1.38 2002/11/07 14:42:25 simonmar Exp $
+ * $Id: MBlock.c,v 1.47 2003/06/26 20:49:32 panne Exp $
  *
  * (c) The GHC Team 1998-1999
  *
@@ -21,6 +21,9 @@
 #ifdef HAVE_STDLIB_H
 #include <stdlib.h>
 #endif
+#ifdef HAVE_STRING_H
+#include <string.h>
+#endif
 #ifdef HAVE_UNISTD_H
 #include <unistd.h>
 #endif
@@ -50,13 +53,9 @@ lnat mblocks_allocated = 0;
    The MBlock Map: provides our implementation of HEAP_ALLOCED()
    -------------------------------------------------------------------------- */
 
-StgWord8 mblock_map[4096]; // initially all zeros
-
-static void
-mblockIsHeap (void *p)
-{
-    mblock_map[((StgWord)p & ~MBLOCK_MASK) >> MBLOCK_SHIFT] = 1;
-}
+#ifdef MBLOCK_MAP_SIZE
+StgWord8 mblock_map[MBLOCK_MAP_SIZE]; // initially all zeros
+#endif
 
 /* -----------------------------------------------------------------------------
    Allocate new mblock(s)
@@ -91,7 +90,7 @@ getMBlock(void)
 // the mmap() interface.
 
 static void *
-my_mmap (void *addr, int size)
+my_mmap (void *addr, lnat size)
 {
     void *ret;
 
@@ -125,15 +124,19 @@ my_mmap (void *addr, int size)
     else
        vm_protect(mach_task_self(),ret,size,FALSE,VM_PROT_READ|VM_PROT_WRITE);
 #else
-    ret = mmap(addr, size, PROT_READ | PROT_WRITE, 
+    ret = mmap(addr, size, PROT_READ | PROT_WRITE | PROT_EXEC, 
               MAP_ANON | MAP_PRIVATE, -1, 0);
 #endif
 
     if (ret == (void *)-1) {
-       if (errno == ENOMEM) {
-           barf("out of memory (requested %d bytes)", size);
+       if (errno == ENOMEM || 
+           (errno == EINVAL && sizeof(void*)==4 && size >= 0xc0000000)) {
+           // If we request more than 3Gig, then we get EINVAL
+           // instead of ENOMEM (at least on Linux).
+           prog_belch("out of memory (requested %d bytes)", size);
+           stg_exit(EXIT_FAILURE);
        } else {
-           barf("getMBlock: mmap failed");
+           barf("getMBlock: mmap: %s", strerror(errno));
        }
     }
 
@@ -144,7 +147,7 @@ my_mmap (void *addr, int size)
 // mblocks.
 
 static void *
-gen_map_mblocks (int size)
+gen_map_mblocks (lnat size)
 {
     int slop;
     void *ret;
@@ -156,16 +159,25 @@ gen_map_mblocks (int size)
     
     // unmap the slop bits around the chunk we allocated
     slop = (W_)ret & MBLOCK_MASK;
-       
+    
     if (munmap(ret, MBLOCK_SIZE - slop) == -1) {
-       barf("gen_map_mblocks: munmap failed");
+      barf("gen_map_mblocks: munmap failed");
     }
     if (slop > 0 && munmap(ret+size-slop, slop) == -1) {
-       barf("gen_map_mblocks: munmap failed");
+      barf("gen_map_mblocks: munmap failed");
     }
-    
+
     // ToDo: if we happened to get an aligned block, then don't
-    // unmap the excess, just use it.
+    // unmap the excess, just use it. For this to work, you
+    // need to keep in mind the following:
+    //     * Calling my_mmap() with an 'addr' arg pointing to
+    //       already my_mmap()ed space is OK and won't fail.
+    //     * If my_mmap() can't satisfy the request at the
+    //       given 'next_request' address in getMBlocks(), that
+    //       you unmap the extra mblock mmap()ed here (or simply
+    //       satisfy yourself that the slop introduced isn't worth
+    //       salvaging.)
+    // 
 
     // next time, try after the block we just got.
     ret += MBLOCK_SIZE - slop;
@@ -192,10 +204,10 @@ getMBlocks(nat n)
 
       if (((W_)ret & MBLOCK_MASK) != 0) {
          // misaligned block!
-#ifdef DEBUG
+#if 0 // defined(DEBUG)
          belch("warning: getMBlock: misaligned block %p returned when allocating %d megablock(s) at %p", ret, n, next_request);
 #endif
-         
+
          // unmap this block...
          if (munmap(ret, size) == -1) {
              barf("getMBlock: munmap failed");
@@ -213,7 +225,7 @@ getMBlocks(nat n)
 
   // fill in the table
   for (i = 0; i < n; i++) {
-      mblockIsHeap( ret + i * MBLOCK_SIZE );
+      MARK_HEAP_ALLOCED( ret + i * MBLOCK_SIZE );
   }
 
   mblocks_allocated += n;
@@ -316,7 +328,7 @@ getMBlocks(nat n)
   
   // fill in the table
   for (i = 0; i < n; i++) {
-      mblockIsHeap( ret + i * MBLOCK_SIZE );
+      MARK_HEAP_ALLOCED ( ret + i * MBLOCK_SIZE );
   }
 
   return ret;