Remove the optimisation of avoiding scavenging for certain objects
[ghc-hetmet.git] / rts / sm / GC.h
1 /* -----------------------------------------------------------------------------
2  *
3  * (c) The GHC Team 1998-2006
4  *
5  * Generational garbage collector
6  *
7  * Documentation on the architecture of the Garbage Collector can be
8  * found in the online commentary:
9  * 
10  *   http://hackage.haskell.org/trac/ghc/wiki/Commentary/Rts/Storage/GC
11  *
12  * ---------------------------------------------------------------------------*/
13
14 #ifndef GC_H
15 #define GC_H
16
17 #include "OSThreads.h"
18
19 /* -----------------------------------------------------------------------------
20    General scheme
21    
22    ToDo: move this to the wiki when the implementation is done.
23
24    We're only going to try to parallelise the copying GC for now.  The
25    Plan is as follows.
26
27    Each thread has a gc_thread structure (see below) which holds its
28    thread-local data.  We'll keep a pointer to this in a thread-local
29    variable, or possibly in a register.
30
31    In the gc_thread structure is a step_workspace for each step.  The
32    primary purpose of the step_workspace is to hold evacuated objects;
33    when an object is evacuated, it is copied to the "todo" block in
34    the thread's workspace for the appropriate step.  When the todo
35    block is full, it is pushed to the global step->todos list, which
36    is protected by a lock.  (in fact we intervene a one-place buffer
37    here to reduce contention).
38
39    A thread repeatedly grabs a block of work from one of the
40    step->todos lists, scavenges it, and keeps the scavenged block on
41    its own ws->scavd_list (this is to avoid unnecessary contention
42    returning the completed buffers back to the step: we can just
43    collect them all later).
44
45    When there is no global work to do, we start scavenging the todo
46    blocks in the workspaces.  This is where the scan_bd field comes
47    in: we can scan the contents of the todo block, when we have
48    scavenged the contents of the todo block (up to todo_bd->free), we
49    don't want to move this block immediately to the scavd_list,
50    because it is probably only partially full.  So we remember that we
51    have scanned up to this point by saving the block in ws->scan_bd,
52    with the current scan pointer in ws->scan.  Later, when more
53    objects have been copied to this block, we can come back and scan
54    the rest.  When we visit this workspace again in the future,
55    scan_bd may still be the same as todo_bd, or it might be different:
56    if enough objects were copied into this block that it filled up,
57    then we will have allocated a new todo block, but *not* pushed the
58    old one to the step, because it is partially scanned.
59
60    The reason to leave scanning the todo blocks until last is that we
61    want to deal with full blocks as far as possible.
62    ------------------------------------------------------------------------- */
63
64
65 /* -----------------------------------------------------------------------------
66    Step Workspace
67   
68    A step workspace exists for each step for each GC thread. The GC
69    thread takes a block from the todos list of the step into the
70    scanbd and then scans it.  Objects referred to by those in the scan
71    block are copied into the todo or scavd blocks of the relevant step.
72   
73    ------------------------------------------------------------------------- */
74
75 typedef struct step_workspace_ {
76     step * stp;                 // the step for this workspace 
77     struct gc_thread_ * gct;    // the gc_thread that contains this workspace
78
79     // block that is currently being scanned
80     bdescr *     scan_bd;
81     StgPtr       scan;               // the scan pointer
82
83     // where objects to be scavenged go
84     bdescr *     todo_bd;
85     bdescr *     buffer_todo_bd;     // buffer to reduce contention
86                                      // on the step's todos list
87
88     // where large objects to be scavenged go
89     bdescr *     todo_large_objects;
90
91     // Objects that need not be, or have already been, scavenged.
92     bdescr *     scavd_list;
93     lnat         n_scavd_blocks;     // count of blocks in this list
94
95 } step_workspace;
96
97 /* ----------------------------------------------------------------------------
98    GC thread object
99
100    Every GC thread has one of these. It contains all the step specific
101    workspaces and other GC thread loacl information. At some later
102    point it maybe useful to move this other into the TLS store of the
103    GC threads
104    ------------------------------------------------------------------------- */
105
106 typedef struct gc_thread_ {
107 #ifdef THREADED_RTS
108     OSThreadId id;                 // The OS thread that this struct belongs to
109     Mutex      wake_mutex;
110     Condition  wake_cond;          // So we can go to sleep between GCs
111     rtsBool    wakeup;
112     rtsBool    exit;
113 #endif
114     nat thread_index;              // a zero based index identifying the thread
115
116     step_workspace ** steps;       // 2-d array (gen,step) of workspaces
117
118     bdescr * free_blocks;          // a buffer of free blocks for this thread
119                                    //  during GC without accessing the block
120                                    //   allocators spin lock. 
121
122     lnat gc_count;                 // number of gc's this thread has done
123
124     // --------------------
125     // evacuate flags
126
127     step *evac_step;               // Youngest generation that objects
128                                    // should be evacuated to in
129                                    // evacuate().  (Logically an
130                                    // argument to evacuate, but it's
131                                    // static a lot of the time so we
132                                    // optimise it into a per-thread
133                                    // variable).
134
135     rtsBool failed_to_evac;        // failue to evacuate an object typically 
136                                    //  causes it to be recorded in the mutable 
137                                    //  object list
138
139     rtsBool eager_promotion;       // forces promotion to the evac gen
140                                    // instead of the to-space
141                                    // corresponding to the object
142
143     lnat thunk_selector_depth;     // ummm.... not used as of now
144
145 } gc_thread;
146
147 extern nat N;
148 extern rtsBool major_gc;
149
150 extern gc_thread *gc_threads;
151 register gc_thread *gct __asm__("%rbx");
152 // extern gc_thread *gct;  // this thread's gct TODO: make thread-local
153
154 extern StgClosure* static_objects;
155 extern StgClosure* scavenged_static_objects;
156
157 extern bdescr *mark_stack_bdescr;
158 extern StgPtr *mark_stack;
159 extern StgPtr *mark_sp;
160 extern StgPtr *mark_splim;
161
162 extern rtsBool mark_stack_overflowed;
163 extern bdescr *oldgen_scan_bd;
164 extern StgPtr  oldgen_scan;
165
166 extern long copied;
167 extern long scavd_copied;
168
169 #ifdef THREADED_RTS
170 extern SpinLock static_objects_sync;
171 #endif
172
173 #ifdef DEBUG
174 extern nat mutlist_MUTVARS, mutlist_MUTARRS, mutlist_MVARS, mutlist_OTHERS;
175 #endif
176
177 StgClosure * isAlive(StgClosure *p);
178
179 #endif /* GC_H */