count "dud" sparks (expressions that were already evaluated when sparked)
[ghc-hetmet.git] / rts / Capability.h
1 /* ---------------------------------------------------------------------------
2  *
3  * (c) The GHC Team, 2001-2006
4  *
5  * Capabilities
6  *
7  * For details on the high-level design, see
8  *   http://hackage.haskell.org/trac/ghc/wiki/Commentary/Rts/Scheduler
9  *
10  * A Capability holds all the state an OS thread/task needs to run
11  * Haskell code: its STG registers, a pointer to its TSO, a nursery
12  * etc. During STG execution, a pointer to the Capabilitity is kept in
13  * a register (BaseReg).
14  *
15  * Only in a THREADED_RTS build will there be multiple capabilities,
16  * in the non-threaded RTS there is one global capability, called
17  * MainCapability.
18  *
19  * --------------------------------------------------------------------------*/
20
21 #ifndef CAPABILITY_H
22 #define CAPABILITY_H
23
24 #include "sm/GC.h" // for evac_fn
25 #include "Task.h"
26 #include "Sparks.h"
27
28 #include "BeginPrivate.h"
29
30 struct Capability_ {
31     // State required by the STG virtual machine when running Haskell
32     // code.  During STG execution, the BaseReg register always points
33     // to the StgRegTable of the current Capability (&cap->r).
34     StgFunTable f;
35     StgRegTable r;
36
37     nat no;  // capability number.
38
39     // The Task currently holding this Capability.  This task has
40     // exclusive access to the contents of this Capability (apart from
41     // returning_tasks_hd/returning_tasks_tl).
42     // Locks required: cap->lock.
43     Task *running_task;
44
45     // true if this Capability is running Haskell code, used for
46     // catching unsafe call-ins.
47     rtsBool in_haskell;
48
49     // The run queue.  The Task owning this Capability has exclusive
50     // access to its run queue, so can wake up threads without
51     // taking a lock, and the common path through the scheduler is
52     // also lock-free.
53     StgTSO *run_queue_hd;
54     StgTSO *run_queue_tl;
55
56     // Tasks currently making safe foreign calls.  Doubly-linked.
57     // When returning, a task first acquires the Capability before
58     // removing itself from this list, so that the GC can find all
59     // the suspended TSOs easily.  Hence, when migrating a Task from
60     // the returning_tasks list, we must also migrate its entry from
61     // this list.
62     InCall *suspended_ccalls;
63
64     // One mutable list per generation, so we don't need to take any
65     // locks when updating an old-generation thunk.  This also lets us
66     // keep track of which closures this CPU has been mutating, so we
67     // can traverse them using the right thread during GC and avoid
68     // unnecessarily moving the data from one cache to another.
69     bdescr **mut_lists;
70     bdescr **saved_mut_lists; // tmp use during GC
71
72     // block for allocating pinned objects into
73     bdescr *pinned_object_block;
74
75     // Context switch flag. We used to have one global flag, now one 
76     // per capability. Locks required  : none (conflicts are harmless)
77     int context_switch;
78
79 #if defined(THREADED_RTS)
80     // Worker Tasks waiting in the wings.  Singly-linked.
81     Task *spare_workers;
82     nat n_spare_workers; // count of above
83
84     // This lock protects running_task, returning_tasks_{hd,tl}, wakeup_queue.
85     Mutex lock;
86
87     // Tasks waiting to return from a foreign call, or waiting to make
88     // a new call-in using this Capability (NULL if empty).
89     // NB. this field needs to be modified by tasks other than the
90     // running_task, so it requires cap->lock to modify.  A task can
91     // check whether it is NULL without taking the lock, however.
92     Task *returning_tasks_hd; // Singly-linked, with head/tail
93     Task *returning_tasks_tl;
94
95     // Messages, or END_TSO_QUEUE.
96     Message *inbox;
97
98     SparkPool *sparks;
99
100     // Stats on spark creation/conversion
101     nat sparks_created;
102     nat sparks_dud;
103     nat sparks_converted;
104     nat sparks_pruned;
105 #endif
106
107     // Per-capability STM-related data
108     StgTVarWatchQueue *free_tvar_watch_queues;
109     StgInvariantCheckQueue *free_invariant_check_queues;
110     StgTRecChunk *free_trec_chunks;
111     StgTRecHeader *free_trec_headers;
112     nat transaction_tokens;
113 } // typedef Capability is defined in RtsAPI.h
114   // Capabilities are stored in an array, so make sure that adjacent
115   // Capabilities don't share any cache-lines:
116 #ifndef mingw32_HOST_OS
117   ATTRIBUTE_ALIGNED(64)
118 #endif
119   ;
120
121
122 #if defined(THREADED_RTS)
123 #define ASSERT_TASK_ID(task) ASSERT(task->id == osThreadId())
124 #else
125 #define ASSERT_TASK_ID(task) /*empty*/
126 #endif
127
128 // These properties should be true when a Task is holding a Capability
129 #define ASSERT_FULL_CAPABILITY_INVARIANTS(cap,task)                     \
130   ASSERT(cap->running_task != NULL && cap->running_task == task);       \
131   ASSERT(task->cap == cap);                                             \
132   ASSERT_PARTIAL_CAPABILITY_INVARIANTS(cap,task)
133
134 // Sometimes a Task holds a Capability, but the Task is not associated
135 // with that Capability (ie. task->cap != cap).  This happens when
136 // (a) a Task holds multiple Capabilities, and (b) when the current
137 // Task is bound, its thread has just blocked, and it may have been
138 // moved to another Capability.
139 #define ASSERT_PARTIAL_CAPABILITY_INVARIANTS(cap,task)  \
140   ASSERT(cap->run_queue_hd == END_TSO_QUEUE ?           \
141             cap->run_queue_tl == END_TSO_QUEUE : 1);    \
142   ASSERT(myTask() == task);                             \
143   ASSERT_TASK_ID(task);
144
145 // Converts a *StgRegTable into a *Capability.
146 //
147 INLINE_HEADER Capability *
148 regTableToCapability (StgRegTable *reg)
149 {
150     return (Capability *)((void *)((unsigned char*)reg - STG_FIELD_OFFSET(Capability,r)));
151 }
152
153 // Initialise the available capabilities.
154 //
155 void initCapabilities (void);
156
157 // Release a capability.  This is called by a Task that is exiting
158 // Haskell to make a foreign call, or in various other cases when we
159 // want to relinquish a Capability that we currently hold.
160 //
161 // ASSUMES: cap->running_task is the current Task.
162 //
163 #if defined(THREADED_RTS)
164 void releaseCapability           (Capability* cap);
165 void releaseAndWakeupCapability  (Capability* cap);
166 void releaseCapability_ (Capability* cap, rtsBool always_wakeup); 
167 // assumes cap->lock is held
168 #else
169 // releaseCapability() is empty in non-threaded RTS
170 INLINE_HEADER void releaseCapability  (Capability* cap STG_UNUSED) {};
171 INLINE_HEADER void releaseAndWakeupCapability  (Capability* cap STG_UNUSED) {};
172 INLINE_HEADER void releaseCapability_ (Capability* cap STG_UNUSED, 
173                                        rtsBool always_wakeup STG_UNUSED) {};
174 #endif
175
176 // declared in includes/rts/Threads.h:
177 // extern Capability MainCapability; 
178
179 // declared in includes/rts/Threads.h:
180 // extern nat n_capabilities;
181
182 // Array of all the capabilities
183 //
184 extern Capability *capabilities;
185
186 // The Capability that was last free.  Used as a good guess for where
187 // to assign new threads.
188 //
189 extern Capability *last_free_capability;
190
191 // GC indicator, in scope for the scheduler
192 #define PENDING_GC_SEQ 1
193 #define PENDING_GC_PAR 2
194 extern volatile StgWord waiting_for_gc;
195
196 // Acquires a capability at a return point.  If *cap is non-NULL, then
197 // this is taken as a preference for the Capability we wish to
198 // acquire.
199 //
200 // OS threads waiting in this function get priority over those waiting
201 // in waitForCapability().
202 //
203 // On return, *cap is non-NULL, and points to the Capability acquired.
204 //
205 void waitForReturnCapability (Capability **cap/*in/out*/, Task *task);
206
207 EXTERN_INLINE void recordMutableCap (StgClosure *p, Capability *cap, nat gen);
208
209 EXTERN_INLINE void recordClosureMutated (Capability *cap, StgClosure *p);
210
211 #if defined(THREADED_RTS)
212
213 // Gives up the current capability IFF there is a higher-priority
214 // thread waiting for it.  This happens in one of two ways:
215 //
216 //   (a) we are passing the capability to another OS thread, so
217 //       that it can run a bound Haskell thread, or
218 //
219 //   (b) there is an OS thread waiting to return from a foreign call
220 //
221 // On return: *pCap is NULL if the capability was released.  The
222 // current task should then re-acquire it using waitForCapability().
223 //
224 void yieldCapability (Capability** pCap, Task *task);
225
226 // Acquires a capability for doing some work.
227 //
228 // On return: pCap points to the capability.
229 //
230 void waitForCapability (Task *task, Mutex *mutex, Capability **pCap);
231
232 // Wakes up a worker thread on just one Capability, used when we
233 // need to service some global event.
234 //
235 void prodOneCapability (void);
236 void prodCapability (Capability *cap, Task *task);
237
238 // Similar to prodOneCapability(), but prods all of them.
239 //
240 void prodAllCapabilities (void);
241
242 // Waits for a capability to drain of runnable threads and workers,
243 // and then acquires it.  Used at shutdown time.
244 //
245 void shutdownCapability (Capability *cap, Task *task, rtsBool wait_foreign);
246
247 // Attempt to gain control of a Capability if it is free.
248 //
249 rtsBool tryGrabCapability (Capability *cap, Task *task);
250
251 // Try to find a spark to run
252 //
253 StgClosure *findSpark (Capability *cap);
254
255 // True if any capabilities have sparks
256 //
257 rtsBool anySparks (void);
258
259 INLINE_HEADER rtsBool emptySparkPoolCap (Capability *cap);
260 INLINE_HEADER nat     sparkPoolSizeCap  (Capability *cap);
261 INLINE_HEADER void    discardSparksCap  (Capability *cap);
262
263 #else // !THREADED_RTS
264
265 // Grab a capability.  (Only in the non-threaded RTS; in the threaded
266 // RTS one of the waitFor*Capability() functions must be used).
267 //
268 extern void grabCapability (Capability **pCap);
269
270 #endif /* !THREADED_RTS */
271
272 // cause all capabilities to context switch as soon as possible.
273 void setContextSwitches(void);
274 INLINE_HEADER void contextSwitchCapability(Capability *cap);
275
276 // Free all capabilities
277 void freeCapabilities (void);
278
279 // For the GC:
280 void markSomeCapabilities (evac_fn evac, void *user, nat i0, nat delta, 
281                            rtsBool no_mark_sparks);
282 void markCapabilities (evac_fn evac, void *user);
283 void traverseSparkQueues (evac_fn evac, void *user);
284
285 /* -----------------------------------------------------------------------------
286    Messages
287    -------------------------------------------------------------------------- */
288
289 #ifdef THREADED_RTS
290
291 INLINE_HEADER rtsBool emptyInbox(Capability *cap);;
292
293 #endif // THREADED_RTS
294
295 /* -----------------------------------------------------------------------------
296  * INLINE functions... private below here
297  * -------------------------------------------------------------------------- */
298
299 EXTERN_INLINE void
300 recordMutableCap (StgClosure *p, Capability *cap, nat gen)
301 {
302     bdescr *bd;
303
304     // We must own this Capability in order to modify its mutable list.
305     //    ASSERT(cap->running_task == myTask());
306     // NO: assertion is violated by performPendingThrowTos()
307     bd = cap->mut_lists[gen];
308     if (bd->free >= bd->start + BLOCK_SIZE_W) {
309         bdescr *new_bd;
310         new_bd = allocBlock_lock();
311         new_bd->link = bd;
312         bd = new_bd;
313         cap->mut_lists[gen] = bd;
314     }
315     *bd->free++ = (StgWord)p;
316 }
317
318 EXTERN_INLINE void
319 recordClosureMutated (Capability *cap, StgClosure *p)
320 {
321     bdescr *bd;
322     bd = Bdescr((StgPtr)p);
323     if (bd->gen_no != 0) recordMutableCap(p,cap,bd->gen_no);
324 }
325
326
327 #if defined(THREADED_RTS)
328 INLINE_HEADER rtsBool
329 emptySparkPoolCap (Capability *cap) 
330 { return looksEmpty(cap->sparks); }
331
332 INLINE_HEADER nat
333 sparkPoolSizeCap (Capability *cap) 
334 { return sparkPoolSize(cap->sparks); }
335
336 INLINE_HEADER void
337 discardSparksCap (Capability *cap) 
338 { return discardSparks(cap->sparks); }
339 #endif
340
341 INLINE_HEADER void
342 contextSwitchCapability (Capability *cap)
343 {
344     // setting HpLim to NULL ensures that the next heap check will
345     // fail, and the thread will return to the scheduler.
346     cap->r.rHpLim = NULL;
347     // But just in case it didn't work (the target thread might be
348     // modifying HpLim at the same time), we set the end-of-block
349     // context-switch flag too:
350     cap->context_switch = 1;
351 }
352
353 #ifdef THREADED_RTS
354
355 INLINE_HEADER rtsBool emptyInbox(Capability *cap)
356 {
357     return (cap->inbox == (Message*)END_TSO_QUEUE);
358 }
359
360 #endif
361
362 #include "EndPrivate.h"
363
364 #endif /* CAPABILITY_H */