Refactoring only
authorSimon Marlow <marlowsd@gmail.com>
Wed, 2 Dec 2009 12:38:06 +0000 (12:38 +0000)
committerSimon Marlow <marlowsd@gmail.com>
Wed, 2 Dec 2009 12:38:06 +0000 (12:38 +0000)
16 files changed:
rts/Interpreter.c
rts/Linker.c
rts/RaiseAsync.c
rts/RetainerProfile.c
rts/Schedule.c
rts/Stats.h
rts/parallel/Global.c
rts/parallel/Pack.c
rts/sm/BlockAlloc.c
rts/sm/BlockAlloc.h
rts/sm/GCUtils.c
rts/sm/Sanity.c [moved from rts/Sanity.c with 77% similarity]
rts/sm/Sanity.h [moved from rts/Sanity.h with 97% similarity]
rts/sm/Storage.c
rts/sm/Storage.h
rts/sm/Sweep.c

index b95d5a9..d1b11ae 100644 (file)
 
 // internal headers
 #include "sm/Storage.h"
+#include "sm/Sanity.h"
 #include "RtsUtils.h"
 #include "Schedule.h"
 #include "Updates.h"
-#include "Sanity.h"
 #include "Prelude.h"
 #include "Stable.h"
 #include "Printer.h"
index 2412864..90ceaca 100644 (file)
@@ -21,6 +21,7 @@
 #include "HsFFI.h"
 
 #include "sm/Storage.h"
+#include "Stats.h"
 #include "Hash.h"
 #include "LinkerInternals.h"
 #include "RtsUtils.h"
index fad2803..5a6f8c9 100644 (file)
@@ -16,7 +16,7 @@
 #include "Schedule.h"
 #include "Updates.h"
 #include "STM.h"
-#include "Sanity.h"
+#include "sm/Sanity.h"
 #include "Profiling.h"
 #if defined(mingw32_HOST_OS)
 #include "win32/IOManager.h"
index fdddd8d..4fca19c 100644 (file)
@@ -25,7 +25,7 @@
 #include "Schedule.h"
 #include "Printer.h"
 #include "Weak.h"
-#include "Sanity.h"
+#include "sm/Sanity.h"
 #include "Profiling.h"
 #include "Stats.h"
 #include "ProfHeap.h"
index 6dbc7c4..be3b7cb 100644 (file)
@@ -17,7 +17,7 @@
 #include "Interpreter.h"
 #include "Printer.h"
 #include "RtsSignals.h"
-#include "Sanity.h"
+#include "sm/Sanity.h"
 #include "Stats.h"
 #include "STM.h"
 #include "Prelude.h"
index f132215..02adcf9 100644 (file)
@@ -61,6 +61,8 @@ Ticks stat_getElapsedTime(void);
 void statsPrintf( char *s, ... ) 
     GNUC3_ATTRIBUTE(format (printf, 1, 2));
 
+HsInt64 getAllocations (void);
+
 END_RTS_PRIVATE
 
 #endif /* STATS_H */
index b254135..aea3f8a 100644 (file)
@@ -1,5 +1,5 @@
 /* ---------------------------------------------------------------------------
-   Time-stamp: <Wed Mar 21 2001 16:32:23 Stardate: [-30]6363.44 hwloidl>
+   Time-stamp: <2009-12-02 12:26:23 simonmar>
 
    (c) The AQUA/Parade Projects, Glasgow University, 1995
        The GdH/APART 624 Projects, Heriot-Watt University, Edinburgh, 1999
@@ -36,7 +36,7 @@
 #include "HLC.h"
 #include "ParallelRts.h"
 #if defined(DEBUG)
-# include "Sanity.h"
+# include "sm/Sanity.h"
 #include "ParallelDebug.h"
 #endif
 #if defined(DIST)
index e8653f6..43d309e 100644 (file)
@@ -1,5 +1,5 @@
 /* 
-   Time-stamp: <Wed Mar 21 2001 16:32:47 Stardate: [-30]6363.44 hwloidl>
+   Time-stamp: <2009-12-02 12:26:34 simonmar>
 
    Graph packing and unpacking code for sending it to another processor
    and retrieving the original graph structure from the packet.
@@ -50,7 +50,7 @@
 #include "GranSimRts.h"
 #include "ParallelRts.h"
 # if defined(DEBUG)
-# include "Sanity.h"
+# include "sm/Sanity.h"
 # include "Printer.h"
 # include "ParallelDebug.h"
 # endif
index d30d29b..898624a 100644 (file)
@@ -629,6 +629,40 @@ initMBlock(void *mblock)
 }
 
 /* -----------------------------------------------------------------------------
+   Stats / metrics
+   -------------------------------------------------------------------------- */
+
+nat
+countBlocks(bdescr *bd)
+{
+    nat n;
+    for (n=0; bd != NULL; bd=bd->link) {
+       n += bd->blocks;
+    }
+    return n;
+}
+
+// (*1) Just like countBlocks, except that we adjust the count for a
+// megablock group so that it doesn't include the extra few blocks
+// that would be taken up by block descriptors in the second and
+// subsequent megablock.  This is so we can tally the count with the
+// number of blocks allocated in the system, for memInventory().
+nat
+countAllocdBlocks(bdescr *bd)
+{
+    nat n;
+    for (n=0; bd != NULL; bd=bd->link) {
+       n += bd->blocks;
+       // hack for megablock groups: see (*1) above
+       if (bd->blocks > BLOCKS_PER_MBLOCK) {
+           n -= (MBLOCK_SIZE / BLOCK_SIZE - BLOCKS_PER_MBLOCK)
+               * (bd->blocks/(MBLOCK_SIZE/BLOCK_SIZE));
+       }
+    }
+    return n;
+}
+
+/* -----------------------------------------------------------------------------
    Debugging
    -------------------------------------------------------------------------- */
 
index 00efeb4..b6d451f 100644 (file)
@@ -13,6 +13,9 @@ BEGIN_RTS_PRIVATE
 
 /* Debugging  -------------------------------------------------------------- */
 
+extern nat countBlocks       (bdescr *bd);
+extern nat countAllocdBlocks (bdescr *bd);
+
 #ifdef DEBUG
 void checkFreeListSanity(void);
 nat  countFreeList(void);
index 7e99e29..39a79f6 100644 (file)
@@ -14,6 +14,7 @@
 #include "PosixSource.h"
 #include "Rts.h"
 
+#include "BlockAlloc.h"
 #include "Storage.h"
 #include "GC.h"
 #include "GCThread.h"
similarity index 77%
rename from rts/Sanity.c
rename to rts/sm/Sanity.c
index 5457cb9..b6edba8 100644 (file)
@@ -25,6 +25,7 @@
 #include "Schedule.h"
 #include "Apply.h"
 #include "Printer.h"
+#include "Arena.h"
 
 /* -----------------------------------------------------------------------------
    Forward decls.
@@ -730,4 +731,176 @@ checkSanity( rtsBool check_heap )
 #endif
 }
 
+// If memInventory() calculates that we have a memory leak, this
+// function will try to find the block(s) that are leaking by marking
+// all the ones that we know about, and search through memory to find
+// blocks that are not marked.  In the debugger this can help to give
+// us a clue about what kind of block leaked.  In the future we might
+// annotate blocks with their allocation site to give more helpful
+// info.
+static void
+findMemoryLeak (void)
+{
+  nat g, s, i;
+  for (g = 0; g < RtsFlags.GcFlags.generations; g++) {
+      for (i = 0; i < n_capabilities; i++) {
+         markBlocks(capabilities[i].mut_lists[g]);
+      }
+      markBlocks(generations[g].mut_list);
+      for (s = 0; s < generations[g].n_steps; s++) {
+         markBlocks(generations[g].steps[s].blocks);
+         markBlocks(generations[g].steps[s].large_objects);
+      }
+  }
+
+  for (i = 0; i < n_capabilities; i++) {
+      markBlocks(nurseries[i].blocks);
+      markBlocks(nurseries[i].large_objects);
+  }
+
+#ifdef PROFILING
+  // TODO:
+  // if (RtsFlags.ProfFlags.doHeapProfile == HEAP_BY_RETAINER) {
+  //    markRetainerBlocks();
+  // }
+#endif
+
+  // count the blocks allocated by the arena allocator
+  // TODO:
+  // markArenaBlocks();
+
+  // count the blocks containing executable memory
+  markBlocks(exec_block);
+
+  reportUnmarkedBlocks();
+}
+
+
+/* -----------------------------------------------------------------------------
+   Memory leak detection
+
+   memInventory() checks for memory leaks by counting up all the
+   blocks we know about and comparing that to the number of blocks
+   allegedly floating around in the system.
+   -------------------------------------------------------------------------- */
+
+// Useful for finding partially full blocks in gdb
+void findSlop(bdescr *bd);
+void findSlop(bdescr *bd)
+{
+    lnat slop;
+
+    for (; bd != NULL; bd = bd->link) {
+        slop = (bd->blocks * BLOCK_SIZE_W) - (bd->free - bd->start);
+        if (slop > (1024/sizeof(W_))) {
+            debugBelch("block at %p (bdescr %p) has %ldKB slop\n",
+                       bd->start, bd, slop / (1024/sizeof(W_)));
+        }
+    }
+}
+
+static lnat
+stepBlocks (step *stp)
+{
+    ASSERT(countBlocks(stp->blocks) == stp->n_blocks);
+    ASSERT(countBlocks(stp->large_objects) == stp->n_large_blocks);
+    return stp->n_blocks + stp->n_old_blocks + 
+           countAllocdBlocks(stp->large_objects);
+}
+
+void
+memInventory (rtsBool show)
+{
+  nat g, s, i;
+  step *stp;
+  lnat gen_blocks[RtsFlags.GcFlags.generations];
+  lnat nursery_blocks, retainer_blocks,
+       arena_blocks, exec_blocks;
+  lnat live_blocks = 0, free_blocks = 0;
+  rtsBool leak;
+
+  // count the blocks we current have
+
+  for (g = 0; g < RtsFlags.GcFlags.generations; g++) {
+      gen_blocks[g] = 0;
+      for (i = 0; i < n_capabilities; i++) {
+         gen_blocks[g] += countBlocks(capabilities[i].mut_lists[g]);
+      }          
+      gen_blocks[g] += countAllocdBlocks(generations[g].mut_list);
+      for (s = 0; s < generations[g].n_steps; s++) {
+         stp = &generations[g].steps[s];
+         gen_blocks[g] += stepBlocks(stp);
+      }
+  }
+
+  nursery_blocks = 0;
+  for (i = 0; i < n_capabilities; i++) {
+      nursery_blocks += stepBlocks(&nurseries[i]);
+  }
+
+  retainer_blocks = 0;
+#ifdef PROFILING
+  if (RtsFlags.ProfFlags.doHeapProfile == HEAP_BY_RETAINER) {
+      retainer_blocks = retainerStackBlocks();
+  }
+#endif
+
+  // count the blocks allocated by the arena allocator
+  arena_blocks = arenaBlocks();
+
+  // count the blocks containing executable memory
+  exec_blocks = countAllocdBlocks(exec_block);
+
+  /* count the blocks on the free list */
+  free_blocks = countFreeList();
+
+  live_blocks = 0;
+  for (g = 0; g < RtsFlags.GcFlags.generations; g++) {
+      live_blocks += gen_blocks[g];
+  }
+  live_blocks += nursery_blocks + 
+               + retainer_blocks + arena_blocks + exec_blocks;
+
+#define MB(n) (((n) * BLOCK_SIZE_W) / ((1024*1024)/sizeof(W_)))
+
+  leak = live_blocks + free_blocks != mblocks_allocated * BLOCKS_PER_MBLOCK;
+
+  if (show || leak)
+  {
+      if (leak) { 
+          debugBelch("Memory leak detected:\n");
+      } else {
+          debugBelch("Memory inventory:\n");
+      }
+      for (g = 0; g < RtsFlags.GcFlags.generations; g++) {
+         debugBelch("  gen %d blocks : %5lu blocks (%lu MB)\n", g, 
+                     gen_blocks[g], MB(gen_blocks[g]));
+      }
+      debugBelch("  nursery      : %5lu blocks (%lu MB)\n", 
+                 nursery_blocks, MB(nursery_blocks));
+      debugBelch("  retainer     : %5lu blocks (%lu MB)\n", 
+                 retainer_blocks, MB(retainer_blocks));
+      debugBelch("  arena blocks : %5lu blocks (%lu MB)\n", 
+                 arena_blocks, MB(arena_blocks));
+      debugBelch("  exec         : %5lu blocks (%lu MB)\n", 
+                 exec_blocks, MB(exec_blocks));
+      debugBelch("  free         : %5lu blocks (%lu MB)\n", 
+                 free_blocks, MB(free_blocks));
+      debugBelch("  total        : %5lu blocks (%lu MB)\n",
+                 live_blocks + free_blocks, MB(live_blocks+free_blocks));
+      if (leak) {
+          debugBelch("\n  in system    : %5lu blocks (%lu MB)\n", 
+                     mblocks_allocated * BLOCKS_PER_MBLOCK, mblocks_allocated);
+      }
+  }
+
+  if (leak) {
+      debugBelch("\n");
+      findMemoryLeak();
+  }
+  ASSERT(n_alloc_blocks == live_blocks);
+  ASSERT(!leak);
+}
+
+
 #endif /* DEBUG */
similarity index 97%
rename from rts/Sanity.h
rename to rts/sm/Sanity.h
index da873bf..1156222 100644 (file)
@@ -36,6 +36,8 @@ StgOffset checkClosure  ( StgClosure* p );
 void checkMutableList   ( bdescr *bd, nat gen );
 void checkMutableLists  ( rtsBool checkTSOs );
 
+void memInventory (rtsBool show);
+
 void checkBQ (StgTSO *bqe, StgClosure *closure);
 
 END_RTS_PRIVATE
index 2b372a5..0f74893 100644 (file)
@@ -43,7 +43,7 @@ rtsBool       keepCAFs;
 nat alloc_blocks_lim;    /* GC if n_large_blocks in any nursery
                           * reaches this. */
 
-static bdescr *exec_block;
+bdescr *exec_block;
 
 generation *generations = NULL;        /* all the generations */
 generation *g0         = NULL; /* generation 0, for convenience */
@@ -54,8 +54,7 @@ step *all_steps         = NULL; /* single array of steps */
 
 ullong total_allocated = 0;    /* total memory allocated during run */
 
-nat n_nurseries         = 0;    /* == RtsFlags.ParFlags.nNodes, convenience */
-step *nurseries         = NULL; /* array of nurseries, >1 only if THREADED_RTS */
+step *nurseries         = NULL; /* array of nurseries, size == n_capabilities */
 
 #ifdef THREADED_RTS
 /*
@@ -185,8 +184,7 @@ initStorage( void )
     g0->steps   = all_steps;
   }
 
-  n_nurseries = n_capabilities;
-  nurseries = stgMallocBytes (n_nurseries * sizeof(struct step_),
+  nurseries = stgMallocBytes (n_capabilities * sizeof(struct step_),
                              "initStorage: nurseries");
 
   /* Initialise all steps */
@@ -196,7 +194,7 @@ initStorage( void )
     }
   }
   
-  for (s = 0; s < n_nurseries; s++) {
+  for (s = 0; s < n_capabilities; s++) {
       initStep(&nurseries[s], 0, s);
   }
   
@@ -209,7 +207,7 @@ initStorage( void )
   }
   oldest_gen->steps[0].to = &oldest_gen->steps[0];
   
-  for (s = 0; s < n_nurseries; s++) {
+  for (s = 0; s < n_capabilities; s++) {
       nurseries[s].to = generations[0].steps[0].to;
   }
   
@@ -417,7 +415,7 @@ assignNurseriesToCapabilities (void)
 {
     nat i;
 
-    for (i = 0; i < n_nurseries; i++) {
+    for (i = 0; i < n_capabilities; i++) {
        capabilities[i].r.rNursery        = &nurseries[i];
        capabilities[i].r.rCurrentNursery = nurseries[i].blocks;
        capabilities[i].r.rCurrentAlloc   = NULL;
@@ -429,7 +427,7 @@ allocNurseries( void )
 { 
     nat i;
 
-    for (i = 0; i < n_nurseries; i++) {
+    for (i = 0; i < n_capabilities; i++) {
        nurseries[i].blocks = 
            allocNursery(&nurseries[i], NULL, 
                         RtsFlags.GcFlags.minAllocAreaSize);
@@ -447,7 +445,7 @@ resetNurseries( void )
     bdescr *bd;
     step *stp;
 
-    for (i = 0; i < n_nurseries; i++) {
+    for (i = 0; i < n_capabilities; i++) {
        stp = &nurseries[i];
        for (bd = stp->blocks; bd; bd = bd->link) {
            bd->free = bd->start;
@@ -469,7 +467,7 @@ countNurseryBlocks (void)
     nat i;
     lnat blocks = 0;
 
-    for (i = 0; i < n_nurseries; i++) {
+    for (i = 0; i < n_capabilities; i++) {
        blocks += nurseries[i].n_blocks;
         blocks += nurseries[i].n_large_blocks;
     }
@@ -523,7 +521,7 @@ void
 resizeNurseriesFixed (nat blocks)
 {
     nat i;
-    for (i = 0; i < n_nurseries; i++) {
+    for (i = 0; i < n_capabilities; i++) {
        resizeNursery(&nurseries[i], blocks);
     }
 }
@@ -536,7 +534,7 @@ resizeNurseries (nat blocks)
 {
     // If there are multiple nurseries, then we just divide the number
     // of available blocks between them.
-    resizeNurseriesFixed(blocks / n_nurseries);
+    resizeNurseriesFixed(blocks / n_capabilities);
 }
 
 
@@ -824,8 +822,7 @@ dirty_MVAR(StgRegTable *reg, StgClosure *p)
  *
  * Approximate how much we've allocated: number of blocks in the
  * nursery + blocks allocated via allocate() - unused nusery blocks.
- * This leaves a little slop at the end of each block, and doesn't
- * take into account large objects (ToDo).
+ * This leaves a little slop at the end of each block.
  * -------------------------------------------------------------------------- */
 
 lnat
@@ -1088,210 +1085,8 @@ void freeExec (void *addr)
 
 #endif /* mingw32_HOST_OS */
 
-/* -----------------------------------------------------------------------------
-   Debugging
-
-   memInventory() checks for memory leaks by counting up all the
-   blocks we know about and comparing that to the number of blocks
-   allegedly floating around in the system.
-   -------------------------------------------------------------------------- */
-
 #ifdef DEBUG
 
-// Useful for finding partially full blocks in gdb
-void findSlop(bdescr *bd);
-void findSlop(bdescr *bd)
-{
-    lnat slop;
-
-    for (; bd != NULL; bd = bd->link) {
-        slop = (bd->blocks * BLOCK_SIZE_W) - (bd->free - bd->start);
-        if (slop > (1024/sizeof(W_))) {
-            debugBelch("block at %p (bdescr %p) has %ldKB slop\n",
-                       bd->start, bd, slop / (1024/sizeof(W_)));
-        }
-    }
-}
-
-nat
-countBlocks(bdescr *bd)
-{
-    nat n;
-    for (n=0; bd != NULL; bd=bd->link) {
-       n += bd->blocks;
-    }
-    return n;
-}
-
-// (*1) Just like countBlocks, except that we adjust the count for a
-// megablock group so that it doesn't include the extra few blocks
-// that would be taken up by block descriptors in the second and
-// subsequent megablock.  This is so we can tally the count with the
-// number of blocks allocated in the system, for memInventory().
-static nat
-countAllocdBlocks(bdescr *bd)
-{
-    nat n;
-    for (n=0; bd != NULL; bd=bd->link) {
-       n += bd->blocks;
-       // hack for megablock groups: see (*1) above
-       if (bd->blocks > BLOCKS_PER_MBLOCK) {
-           n -= (MBLOCK_SIZE / BLOCK_SIZE - BLOCKS_PER_MBLOCK)
-               * (bd->blocks/(MBLOCK_SIZE/BLOCK_SIZE));
-       }
-    }
-    return n;
-}
-
-static lnat
-stepBlocks (step *stp)
-{
-    ASSERT(countBlocks(stp->blocks) == stp->n_blocks);
-    ASSERT(countBlocks(stp->large_objects) == stp->n_large_blocks);
-    return stp->n_blocks + stp->n_old_blocks + 
-           countAllocdBlocks(stp->large_objects);
-}
-
-// If memInventory() calculates that we have a memory leak, this
-// function will try to find the block(s) that are leaking by marking
-// all the ones that we know about, and search through memory to find
-// blocks that are not marked.  In the debugger this can help to give
-// us a clue about what kind of block leaked.  In the future we might
-// annotate blocks with their allocation site to give more helpful
-// info.
-static void
-findMemoryLeak (void)
-{
-  nat g, s, i;
-  for (g = 0; g < RtsFlags.GcFlags.generations; g++) {
-      for (i = 0; i < n_capabilities; i++) {
-         markBlocks(capabilities[i].mut_lists[g]);
-      }
-      markBlocks(generations[g].mut_list);
-      for (s = 0; s < generations[g].n_steps; s++) {
-         markBlocks(generations[g].steps[s].blocks);
-         markBlocks(generations[g].steps[s].large_objects);
-      }
-  }
-
-  for (i = 0; i < n_nurseries; i++) {
-      markBlocks(nurseries[i].blocks);
-      markBlocks(nurseries[i].large_objects);
-  }
-
-#ifdef PROFILING
-  // TODO:
-  // if (RtsFlags.ProfFlags.doHeapProfile == HEAP_BY_RETAINER) {
-  //    markRetainerBlocks();
-  // }
-#endif
-
-  // count the blocks allocated by the arena allocator
-  // TODO:
-  // markArenaBlocks();
-
-  // count the blocks containing executable memory
-  markBlocks(exec_block);
-
-  reportUnmarkedBlocks();
-}
-
-
-void
-memInventory (rtsBool show)
-{
-  nat g, s, i;
-  step *stp;
-  lnat gen_blocks[RtsFlags.GcFlags.generations];
-  lnat nursery_blocks, retainer_blocks,
-       arena_blocks, exec_blocks;
-  lnat live_blocks = 0, free_blocks = 0;
-  rtsBool leak;
-
-  // count the blocks we current have
-
-  for (g = 0; g < RtsFlags.GcFlags.generations; g++) {
-      gen_blocks[g] = 0;
-      for (i = 0; i < n_capabilities; i++) {
-         gen_blocks[g] += countBlocks(capabilities[i].mut_lists[g]);
-      }          
-      gen_blocks[g] += countAllocdBlocks(generations[g].mut_list);
-      for (s = 0; s < generations[g].n_steps; s++) {
-         stp = &generations[g].steps[s];
-         gen_blocks[g] += stepBlocks(stp);
-      }
-  }
-
-  nursery_blocks = 0;
-  for (i = 0; i < n_nurseries; i++) {
-      nursery_blocks += stepBlocks(&nurseries[i]);
-  }
-
-  retainer_blocks = 0;
-#ifdef PROFILING
-  if (RtsFlags.ProfFlags.doHeapProfile == HEAP_BY_RETAINER) {
-      retainer_blocks = retainerStackBlocks();
-  }
-#endif
-
-  // count the blocks allocated by the arena allocator
-  arena_blocks = arenaBlocks();
-
-  // count the blocks containing executable memory
-  exec_blocks = countAllocdBlocks(exec_block);
-
-  /* count the blocks on the free list */
-  free_blocks = countFreeList();
-
-  live_blocks = 0;
-  for (g = 0; g < RtsFlags.GcFlags.generations; g++) {
-      live_blocks += gen_blocks[g];
-  }
-  live_blocks += nursery_blocks + 
-               + retainer_blocks + arena_blocks + exec_blocks;
-
-#define MB(n) (((n) * BLOCK_SIZE_W) / ((1024*1024)/sizeof(W_)))
-
-  leak = live_blocks + free_blocks != mblocks_allocated * BLOCKS_PER_MBLOCK;
-
-  if (show || leak)
-  {
-      if (leak) { 
-          debugBelch("Memory leak detected:\n");
-      } else {
-          debugBelch("Memory inventory:\n");
-      }
-      for (g = 0; g < RtsFlags.GcFlags.generations; g++) {
-         debugBelch("  gen %d blocks : %5lu blocks (%lu MB)\n", g, 
-                     gen_blocks[g], MB(gen_blocks[g]));
-      }
-      debugBelch("  nursery      : %5lu blocks (%lu MB)\n", 
-                 nursery_blocks, MB(nursery_blocks));
-      debugBelch("  retainer     : %5lu blocks (%lu MB)\n", 
-                 retainer_blocks, MB(retainer_blocks));
-      debugBelch("  arena blocks : %5lu blocks (%lu MB)\n", 
-                 arena_blocks, MB(arena_blocks));
-      debugBelch("  exec         : %5lu blocks (%lu MB)\n", 
-                 exec_blocks, MB(exec_blocks));
-      debugBelch("  free         : %5lu blocks (%lu MB)\n", 
-                 free_blocks, MB(free_blocks));
-      debugBelch("  total        : %5lu blocks (%lu MB)\n",
-                 live_blocks + free_blocks, MB(live_blocks+free_blocks));
-      if (leak) {
-          debugBelch("\n  in system    : %5lu blocks (%lu MB)\n", 
-                     mblocks_allocated * BLOCKS_PER_MBLOCK, mblocks_allocated);
-      }
-  }
-
-  if (leak) {
-      debugBelch("\n");
-      findMemoryLeak();
-  }
-  ASSERT(n_alloc_blocks == live_blocks);
-  ASSERT(!leak);
-}
-
-
 // handy function for use in gdb, because Bdescr() is inlined.
 extern bdescr *_bdescr( StgPtr p );
 
index f810a85..02f5637 100644 (file)
@@ -139,17 +139,13 @@ lnat    calcLiveBlocks (void);
 lnat    calcLiveWords  (void);
 lnat    countOccupied  (bdescr *bd);
 lnat    calcNeeded     (void);
-HsInt64 getAllocations (void);
-
-#if defined(DEBUG)
-void    memInventory       (rtsBool show);
-nat     countBlocks        (bdescr *);
-#endif
 
 /* ----------------------------------------------------------------------------
    Storage manager internal APIs and globals
    ------------------------------------------------------------------------- */
 
+extern bdescr *exec_block;
+
 #define END_OF_STATIC_LIST ((StgClosure*)1)
 
 void move_TSO  (StgTSO *src, StgTSO *dest);
index b657402..0525f7e 100644 (file)
@@ -14,7 +14,7 @@
 #include "PosixSource.h"
 #include "Rts.h"
 
-#include "Storage.h"
+#include "BlockAlloc.h"
 #include "Sweep.h"
 #include "Trace.h"