warning fix
[ghc-hetmet.git] / ghc / rts / LdvProfile.c
1 /* -----------------------------------------------------------------------------
2  *
3  * (c) The GHC Team, 2001
4  * Author: Sungwoo Park
5  *
6  * Lag/Drag/Void profiling.
7  *
8  * ---------------------------------------------------------------------------*/
9
10 #ifdef PROFILING
11
12 #include "Rts.h"
13 #include "LdvProfile.h"
14 #include "RtsFlags.h"
15 #include "Profiling.h"
16 #include "Stats.h"
17 #include "Storage.h"
18 #include "RtsUtils.h"
19 #include "Schedule.h"
20
21 /* --------------------------------------------------------------------------
22  * Fills in the slop when a *dynamic* closure changes its type.
23  * First calls LDV_recordDead() to declare the closure is dead, and then
24  * fills in the slop.
25  * 
26  *  Invoked when:
27  *    1) blackholing, UPD_BH_UPDATABLE() and UPD_BH_SINGLE_ENTRY (in
28  *       includes/StgMacros.h), threadLazyBlackHole() and 
29  *       threadSqueezeStack() (in GC.c).
30  *    2) updating with indirection closures, updateWithIndirection() 
31  *       and updateWithPermIndirection() (in Storage.h).
32  * 
33  *  LDV_recordDead_FILL_SLOP_DYNAMIC() is not called on 'inherently used' 
34  *  closures such as TSO. It is not called on PAP because PAP is not updatable.
35  *  ----------------------------------------------------------------------- */
36 void 
37 LDV_recordDead_FILL_SLOP_DYNAMIC( StgClosure *p )
38 {
39     nat size, i;
40
41 #if defined(__GNUC__) && __GNUC__ < 3 && defined(DEBUG)
42 #error Please use gcc 3.0+ to compile this file with DEBUG; gcc < 3.0 miscompiles it
43 #endif
44
45     if (era > 0) {
46         // very like FILL_SLOP(), except that we call LDV_recordDead().
47         size = closure_sizeW(p);
48
49         LDV_recordDead((StgClosure *)(p), size);
50
51         if (size > sizeofW(StgThunkHeader)) {
52             for (i = 0; i < size - sizeofW(StgThunkHeader); i++) {
53                 ((StgThunk *)(p))->payload[i] = 0;
54             }
55         }
56     }
57 }
58
59 /* --------------------------------------------------------------------------
60  * This function is called eventually on every object destroyed during
61  * a garbage collection, whether it is a major garbage collection or
62  * not.  If c is an 'inherently used' closure, nothing happens.  If c
63  * is an ordinary closure, LDV_recordDead() is called on c with its
64  * proper size which excludes the profiling header portion in the
65  * closure.  Returns the size of the closure, including the profiling
66  * header portion, so that the caller can find the next closure.
67  * ----------------------------------------------------------------------- */
68 STATIC_INLINE nat
69 processHeapClosureForDead( StgClosure *c )
70 {
71     nat size;
72     StgInfoTable *info;
73
74     info = get_itbl(c);
75
76     if (info->type != EVACUATED) {
77         ASSERT(((LDVW(c) & LDV_CREATE_MASK) >> LDV_SHIFT) <= era &&
78                ((LDVW(c) & LDV_CREATE_MASK) >> LDV_SHIFT) > 0);
79         ASSERT(((LDVW(c) & LDV_STATE_MASK) == LDV_STATE_CREATE) ||
80                (
81                    (LDVW(c) & LDV_LAST_MASK) <= era &&
82                    (LDVW(c) & LDV_LAST_MASK) > 0
83                    ));
84     }
85
86     if (info->type == EVACUATED) {
87         // The size of the evacuated closure is currently stored in
88         // the LDV field.  See SET_EVACUAEE_FOR_LDV() in
89         // includes/StgLdvProf.h.
90         return LDVW(c);
91     }
92
93     size = closure_sizeW(c);
94
95     switch (info->type) {
96         /*
97           'inherently used' cases: do nothing.
98         */
99     case TSO:
100     case MVAR:
101     case MUT_ARR_PTRS_CLEAN:
102     case MUT_ARR_PTRS_DIRTY:
103     case MUT_ARR_PTRS_FROZEN:
104     case MUT_ARR_PTRS_FROZEN0:
105     case ARR_WORDS:
106     case WEAK:
107     case MUT_VAR_CLEAN:
108     case MUT_VAR_DIRTY:
109     case BCO:
110     case STABLE_NAME:
111         return size;
112
113         /*
114           ordinary cases: call LDV_recordDead().
115         */
116     case THUNK:
117     case THUNK_1_0:
118     case THUNK_0_1:
119     case THUNK_SELECTOR:
120     case THUNK_2_0:
121     case THUNK_1_1:
122     case THUNK_0_2:
123     case AP:
124     case PAP:
125     case AP_STACK:
126     case CONSTR:
127     case CONSTR_1_0:
128     case CONSTR_0_1:
129     case CONSTR_2_0:
130     case CONSTR_1_1:
131     case CONSTR_0_2:
132     case FUN:
133     case FUN_1_0:
134     case FUN_0_1:
135     case FUN_2_0:
136     case FUN_1_1:
137     case FUN_0_2:
138     case BLACKHOLE:
139     case SE_BLACKHOLE:
140     case CAF_BLACKHOLE:
141     case SE_CAF_BLACKHOLE:
142     case IND_PERM:
143     case IND_OLDGEN_PERM:
144         /*
145           'Ingore' cases
146         */
147         // Why can we ignore IND/IND_OLDGEN closures? We assume that
148         // any census is preceded by a major garbage collection, which
149         // IND/IND_OLDGEN closures cannot survive. Therefore, it is no
150         // use considering IND/IND_OLDGEN closures in the meanwhile
151         // because they will perish before the next census at any
152         // rate.
153     case IND:
154     case IND_OLDGEN:
155         // Found a dead closure: record its size
156         LDV_recordDead(c, size);
157         return size;
158
159         /*
160           Error case
161         */
162         // static objects
163     case IND_STATIC:
164     case CONSTR_STATIC:
165     case FUN_STATIC:
166     case THUNK_STATIC:
167     case CONSTR_INTLIKE:
168     case CONSTR_CHARLIKE:
169     case CONSTR_NOCAF_STATIC:
170         // stack objects
171     case UPDATE_FRAME:
172     case CATCH_FRAME:
173     case STOP_FRAME:
174     case RET_DYN:
175     case RET_BCO:
176     case RET_SMALL:
177     case RET_VEC_SMALL:
178     case RET_BIG:
179     case RET_VEC_BIG:
180         // others
181     case BLOCKED_FETCH:
182     case FETCH_ME:
183     case FETCH_ME_BQ:
184     case RBH:
185     case REMOTE_REF:
186     case INVALID_OBJECT:
187     default:
188         barf("Invalid object in processHeapClosureForDead(): %d", info->type);
189         return 0;
190     }
191 }
192
193 /* --------------------------------------------------------------------------
194  * Calls processHeapClosureForDead() on every *dead* closures in the
195  * heap blocks starting at bd.
196  * ----------------------------------------------------------------------- */
197 static void
198 processHeapForDead( bdescr *bd )
199 {
200     StgPtr p;
201
202     while (bd != NULL) {
203         p = bd->start;
204         while (p < bd->free) {
205             p += processHeapClosureForDead((StgClosure *)p);
206             while (p < bd->free && !*p)   // skip slop
207                 p++;
208         }
209         ASSERT(p == bd->free);
210         bd = bd->link;
211     }
212 }
213
214 /* --------------------------------------------------------------------------
215  * Calls processHeapClosureForDead() on every *dead* closures in the nursery.
216  * ----------------------------------------------------------------------- */
217 static void
218 processNurseryForDead( void )
219 {
220     StgPtr p, bdLimit;
221     bdescr *bd;
222
223     bd = MainCapability.r.rNursery->blocks;
224     while (bd->start < bd->free) {
225         p = bd->start;
226         bdLimit = bd->start + BLOCK_SIZE_W;
227         while (p < bd->free && p < bdLimit) {
228             p += processHeapClosureForDead((StgClosure *)p);
229             while (p < bd->free && p < bdLimit && !*p)  // skip slop
230                 p++;
231         }
232         bd = bd->link;
233         if (bd == NULL)
234             break;
235     }
236 }
237
238 /* --------------------------------------------------------------------------
239  * Calls processHeapClosureForDead() on every *dead* closures in the
240  * small object pool.
241  * ----------------------------------------------------------------------- */
242 static void
243 processSmallObjectPoolForDead( void )
244 {
245     bdescr *bd;
246     StgPtr p;
247
248     bd = small_alloc_list;
249
250     // first block
251     if (bd == NULL)
252         return;
253
254     p = bd->start;
255     while (p < alloc_Hp) {
256         p += processHeapClosureForDead((StgClosure *)p);
257         while (p < alloc_Hp && !*p)     // skip slop
258             p++;
259     }
260     ASSERT(p == alloc_Hp);
261
262     bd = bd->link;
263     while (bd != NULL) {
264         p = bd->start;
265         while (p < bd->free) {
266             p += processHeapClosureForDead((StgClosure *)p);
267             while (p < bd->free && !*p)    // skip slop
268                 p++;
269         }
270         ASSERT(p == bd->free);
271         bd = bd->link;
272     }
273 }
274
275 /* --------------------------------------------------------------------------
276  * Calls processHeapClosureForDead() on every *dead* closures in the closure
277  * chain.
278  * ----------------------------------------------------------------------- */
279 static void
280 processChainForDead( bdescr *bd )
281 {
282     // Any object still in the chain is dead!
283     while (bd != NULL) {
284         processHeapClosureForDead((StgClosure *)bd->start);
285         bd = bd->link;
286     }
287 }
288
289 /* --------------------------------------------------------------------------
290  * Start a census for *dead* closures, and calls
291  * processHeapClosureForDead() on every closure which died in the
292  * current garbage collection.  This function is called from a garbage
293  * collector right before tidying up, when all dead closures are still
294  * stored in the heap and easy to identify.  Generations 0 through N
295  * have just beed garbage collected.
296  * ----------------------------------------------------------------------- */
297 void
298 LdvCensusForDead( nat N )
299 {
300     nat g, s;
301
302     // ldvTime == 0 means that LDV profiling is currently turned off.
303     if (era == 0)
304         return;
305
306     if (RtsFlags.GcFlags.generations == 1) {
307         //
308         // Todo: support LDV for two-space garbage collection.
309         //
310         barf("Lag/Drag/Void profiling not supported with -G1");
311     } else {
312         for (g = 0; g <= N; g++)
313             for (s = 0; s < generations[g].n_steps; s++) {
314                 if (g == 0 && s == 0) {
315                     processSmallObjectPoolForDead();
316                     processNurseryForDead();
317                     processChainForDead(generations[g].steps[s].large_objects);
318                 } else{
319                     processHeapForDead(generations[g].steps[s].blocks);
320                     processChainForDead(generations[g].steps[s].large_objects);
321                 }
322             }
323     }
324 }
325
326 /* --------------------------------------------------------------------------
327  * Regard any closure in the current heap as dead or moribund and update
328  * LDV statistics accordingly.
329  * Called from shutdownHaskell() in RtsStartup.c.
330  * Also, stops LDV profiling by resetting ldvTime to 0.
331  * ----------------------------------------------------------------------- */
332 void
333 LdvCensusKillAll( void )
334 {
335     LdvCensusForDead(RtsFlags.GcFlags.generations - 1);
336 }
337
338 #endif /* PROFILING */