A small GC optimisation
[ghc-hetmet.git] / rts / sm / GCThread.h
index 1d0a05c..62dd1fb 100644 (file)
  *
  * ---------------------------------------------------------------------------*/
 
-#ifndef GCTHREAD_H
-#define GCTHREAD_H
+#ifndef SM_GCTHREAD_H
+#define SM_GCTHREAD_H
 
-#include "OSThreads.h"
+#include "WSDeque.h"
+
+#include "BeginPrivate.h"
 
 /* -----------------------------------------------------------------------------
    General scheme
    thread-local data.  We'll keep a pointer to this in a thread-local
    variable, or possibly in a register.
 
-   In the gc_thread structure is a step_workspace for each step.  The
-   primary purpose of the step_workspace is to hold evacuated objects;
+   In the gc_thread structure is a gen_workspace for each generation.  The
+   primary purpose of the gen_workspace is to hold evacuated objects;
    when an object is evacuated, it is copied to the "todo" block in
-   the thread's workspace for the appropriate step.  When the todo
-   block is full, it is pushed to the global step->todos list, which
+   the thread's workspace for the appropriate generation.  When the todo
+   block is full, it is pushed to the global gen->todos list, which
    is protected by a lock.  (in fact we intervene a one-place buffer
    here to reduce contention).
 
    A thread repeatedly grabs a block of work from one of the
-   step->todos lists, scavenges it, and keeps the scavenged block on
+   gen->todos lists, scavenges it, and keeps the scavenged block on
    its own ws->scavd_list (this is to avoid unnecessary contention
-   returning the completed buffers back to the step: we can just
+   returning the completed buffers back to the generation: we can just
    collect them all later).
 
    When there is no global work to do, we start scavenging the todo
@@ -55,7 +57,7 @@
    scan_bd may still be the same as todo_bd, or it might be different:
    if enough objects were copied into this block that it filled up,
    then we will have allocated a new todo block, but *not* pushed the
-   old one to the step, because it is partially scanned.
+   old one to the generation, because it is partially scanned.
 
    The reason to leave scanning the todo blocks until last is that we
    want to deal with full blocks as far as possible.
 
 
 /* -----------------------------------------------------------------------------
-   Step Workspace
+   Generation Workspace
   
-   A step workspace exists for each step for each GC thread. The GC
-   thread takes a block from the todos list of the step into the
-   scanbd and then scans it.  Objects referred to by those in the scan
-   block are copied into the todo or scavd blocks of the relevant step.
+   A generation workspace exists for each generation for each GC
+   thread. The GC thread takes a block from the todos list of the
+   generation into the scanbd and then scans it.  Objects referred to
+   by those in the scan block are copied into the todo or scavd blocks
+   of the relevant generation.
   
    ------------------------------------------------------------------------- */
 
-typedef struct step_workspace_ {
-    step * step;               // the step for this workspace 
-    struct gc_thread_ * gct;    // the gc_thread that contains this workspace
+typedef struct gen_workspace_ {
+    generation * gen;          // the gen for this workspace 
+    struct gc_thread_ * my_gct; // the gc_thread that contains this workspace
 
     // where objects to be scavenged go
     bdescr *     todo_bd;
     StgPtr       todo_free;            // free ptr for todo_bd
     StgPtr       todo_lim;             // lim for todo_bd
 
-    bdescr *     buffer_todo_bd;     // buffer to reduce contention
-                                     // on the step's todos list
+    WSDeque *    todo_q;
+    bdescr *     todo_overflow;
+    nat          n_todo_overflow;
 
     // where large objects to be scavenged go
     bdescr *     todo_large_objects;
 
-    // Objects that have already been, scavenged.
+    // Objects that have already been scavenged.
     bdescr *     scavd_list;
     nat          n_scavd_blocks;     // count of blocks in this list
 
@@ -95,19 +99,19 @@ typedef struct step_workspace_ {
     bdescr *     part_list;
     unsigned int n_part_blocks;      // count of above
 
-    StgWord pad[5];
+    StgWord pad[3];
 
-} step_workspace ATTRIBUTE_ALIGNED(64);
-// align so that computing gct->steps[n] is a shift, not a multiply
+} gen_workspace ATTRIBUTE_ALIGNED(64);
+// align so that computing gct->gens[n] is a shift, not a multiply
 // fails if the size is <64, which is why we need the pad above
 
 /* ----------------------------------------------------------------------------
    GC thread object
 
-   Every GC thread has one of these. It contains all the step specific
-   workspaces and other GC thread local information. At some later
-   point it maybe useful to move this other into the TLS store of the
-   GC threads
+   Every GC thread has one of these. It contains all the generation
+   specific workspaces and other GC thread local information. At some
+   later point it maybe useful to move this other into the TLS store
+   of the GC threads
    ------------------------------------------------------------------------- */
 
 typedef struct gc_thread_ {
@@ -131,10 +135,18 @@ typedef struct gc_thread_ {
     // block that is currently being scanned
     bdescr *     scan_bd;
 
+    // Remembered sets on this CPU.  Each GC thread has its own
+    // private per-generation remembered sets, so it can add an item
+    // to the remembered set without taking a lock.  The mut_lists
+    // array on a gc_thread is the same as the one on the
+    // corresponding Capability; we stash it here too for easy access
+    // during GC; see recordMutableGen_GC().
+    bdescr **    mut_lists;
+
     // --------------------
     // evacuate flags
 
-    step *evac_step;               // Youngest generation that objects
+    nat evac_gen_no;               // Youngest generation that objects
                                    // should be evacuated to in
                                    // evacuate().  (Logically an
                                    // argument to evacuate, but it's
@@ -173,14 +185,12 @@ typedef struct gc_thread_ {
     // the gc_thread pointer to a workspace using only pointer
     // arithmetic, no memory access.  This happens in the inner loop
     // of the GC, see Evac.c:alloc_for_copy().
-    step_workspace steps[];
+    gen_workspace gens[];
 } gc_thread;
 
 
 extern nat n_gc_threads;
 
-extern gc_thread **gc_threads;
-
 /* -----------------------------------------------------------------------------
    The gct variable is thread-local and points to the current thread's
    gc_thread structure.  It is heavily accessed, so we try to put gct
@@ -193,15 +203,44 @@ extern gc_thread **gc_threads;
    __thread version.
    -------------------------------------------------------------------------- */
 
+extern gc_thread **gc_threads;
+
+#if defined(THREADED_RTS)
+
 #define GLOBAL_REG_DECL(type,name,reg) register type name REG(reg);
 
-#if defined(sparc_HOST_ARCH)
-// Don't use REG_base or R1 for gct on SPARC because they're getting clobbered 
-//     by something else. Not sure what yet. -- BL 2009/01/03
+#define SET_GCT(to) gct = (to)
+
+
+
+#if (defined(i386_HOST_ARCH) && defined(linux_HOST_OS))
+// Using __thread is better than stealing a register on x86/Linux, because
+// we have too few registers available.  In my tests it was worth
+// about 5% in GC performance, but of course that might change as gcc
+// improves. -- SDM 2009/04/03
+//
+// We ought to do the same on MacOS X, but __thread is not
+// supported there yet (gcc 4.0.1).
+
+extern __thread gc_thread* gct;
+#define DECLARE_GCT __thread gc_thread* gct;
+
+
+#elif defined(sparc_HOST_ARCH)
+// On SPARC we can't pin gct to a register. Names like %l1 are just offsets
+//     into the register window, which change on each function call.
+//     
+//     There are eight global (non-window) registers, but they're used for other purposes.
+//     %g0     -- always zero
+//     %g1     -- volatile over function calls, used by the linker
+//     %g2-%g3 -- used as scratch regs by the C compiler (caller saves)
+//     %g4     -- volatile over function calls, used by the linker
+//     %g5-%g7 -- reserved by the OS
 
 extern __thread gc_thread* gct;
 #define DECLARE_GCT __thread gc_thread* gct;
 
+
 #elif defined(REG_Base) && !defined(i386_HOST_ARCH)
 // on i386, REG_Base is %ebx which is also used for PIC, so we don't
 // want to steal it
@@ -209,11 +248,13 @@ extern __thread gc_thread* gct;
 GLOBAL_REG_DECL(gc_thread*, gct, REG_Base)
 #define DECLARE_GCT /* nothing */
 
+
 #elif defined(REG_R1)
 
 GLOBAL_REG_DECL(gc_thread*, gct, REG_R1)
 #define DECLARE_GCT /* nothing */
 
+
 #elif defined(__GNUC__)
 
 extern __thread gc_thread* gct;
@@ -225,5 +266,17 @@ extern __thread gc_thread* gct;
 
 #endif
 
-#endif // GCTHREAD_H
+#else  // not the threaded RTS
+
+extern StgWord8 the_gc_thread[];
+
+#define gct ((gc_thread*)&the_gc_thread)
+#define SET_GCT(to) /*nothing*/
+#define DECLARE_GCT /*nothing*/
+
+#endif
+
+#include "EndPrivate.h"
+
+#endif // SM_GCTHREAD_H