Use message-passing to implement throwTo in the RTS
[ghc-hetmet.git] / rts / Capability.h
1 /* ---------------------------------------------------------------------------
2  *
3  * (c) The GHC Team, 2001-2006
4  *
5  * Capabilities
6  *
7  * A Capability holds all the state an OS thread/task needs to run
8  * Haskell code: its STG registers, a pointer to its TSO, a nursery
9  * etc. During STG execution, a pointer to the Capabilitity is kept in
10  * a register (BaseReg).
11  *
12  * Only in a THREADED_RTS build will there be multiple capabilities,
13  * in the non-threaded RTS there is one global capability, called
14  * MainCapability.
15  *
16  * --------------------------------------------------------------------------*/
17
18 #ifndef CAPABILITY_H
19 #define CAPABILITY_H
20
21 #include "sm/GC.h" // for evac_fn
22 #include "Task.h"
23 #include "Sparks.h"
24
25 BEGIN_RTS_PRIVATE
26
27 struct Capability_ {
28     // State required by the STG virtual machine when running Haskell
29     // code.  During STG execution, the BaseReg register always points
30     // to the StgRegTable of the current Capability (&cap->r).
31     StgFunTable f;
32     StgRegTable r;
33
34     nat no;  // capability number.
35
36     // The Task currently holding this Capability.  This task has
37     // exclusive access to the contents of this Capability (apart from
38     // returning_tasks_hd/returning_tasks_tl).
39     // Locks required: cap->lock.
40     Task *running_task;
41
42     // true if this Capability is running Haskell code, used for
43     // catching unsafe call-ins.
44     rtsBool in_haskell;
45
46     // The run queue.  The Task owning this Capability has exclusive
47     // access to its run queue, so can wake up threads without
48     // taking a lock, and the common path through the scheduler is
49     // also lock-free.
50     StgTSO *run_queue_hd;
51     StgTSO *run_queue_tl;
52
53     // Tasks currently making safe foreign calls.  Doubly-linked.
54     // When returning, a task first acquires the Capability before
55     // removing itself from this list, so that the GC can find all
56     // the suspended TSOs easily.  Hence, when migrating a Task from
57     // the returning_tasks list, we must also migrate its entry from
58     // this list.
59     InCall *suspended_ccalls;
60
61     // One mutable list per generation, so we don't need to take any
62     // locks when updating an old-generation thunk.  This also lets us
63     // keep track of which closures this CPU has been mutating, so we
64     // can traverse them using the right thread during GC and avoid
65     // unnecessarily moving the data from one cache to another.
66     bdescr **mut_lists;
67     bdescr **saved_mut_lists; // tmp use during GC
68
69     // block for allocating pinned objects into
70     bdescr *pinned_object_block;
71
72     // Context switch flag. We used to have one global flag, now one 
73     // per capability. Locks required  : none (conflicts are harmless)
74     int context_switch;
75
76 #if defined(THREADED_RTS)
77     // Worker Tasks waiting in the wings.  Singly-linked.
78     Task *spare_workers;
79
80     // This lock protects running_task, returning_tasks_{hd,tl}, wakeup_queue.
81     Mutex lock;
82
83     // Tasks waiting to return from a foreign call, or waiting to make
84     // a new call-in using this Capability (NULL if empty).
85     // NB. this field needs to be modified by tasks other than the
86     // running_task, so it requires cap->lock to modify.  A task can
87     // check whether it is NULL without taking the lock, however.
88     Task *returning_tasks_hd; // Singly-linked, with head/tail
89     Task *returning_tasks_tl;
90
91     // Messages, or END_TSO_QUEUE.
92     Message *inbox;
93
94     SparkPool *sparks;
95
96     // Stats on spark creation/conversion
97     nat sparks_created;
98     nat sparks_converted;
99     nat sparks_pruned;
100 #endif
101
102     // Per-capability STM-related data
103     StgTVarWatchQueue *free_tvar_watch_queues;
104     StgInvariantCheckQueue *free_invariant_check_queues;
105     StgTRecChunk *free_trec_chunks;
106     StgTRecHeader *free_trec_headers;
107     nat transaction_tokens;
108 } // typedef Capability is defined in RtsAPI.h
109   // Capabilities are stored in an array, so make sure that adjacent
110   // Capabilities don't share any cache-lines:
111 #ifndef mingw32_HOST_OS
112   ATTRIBUTE_ALIGNED(64)
113 #endif
114   ;
115
116
117 #if defined(THREADED_RTS)
118 #define ASSERT_TASK_ID(task) ASSERT(task->id == osThreadId())
119 #else
120 #define ASSERT_TASK_ID(task) /*empty*/
121 #endif
122
123 // These properties should be true when a Task is holding a Capability
124 #define ASSERT_FULL_CAPABILITY_INVARIANTS(cap,task)                     \
125   ASSERT(cap->running_task != NULL && cap->running_task == task);       \
126   ASSERT(task->cap == cap);                                             \
127   ASSERT_PARTIAL_CAPABILITY_INVARIANTS(cap,task)
128
129 // Sometimes a Task holds a Capability, but the Task is not associated
130 // with that Capability (ie. task->cap != cap).  This happens when
131 // (a) a Task holds multiple Capabilities, and (b) when the current
132 // Task is bound, its thread has just blocked, and it may have been
133 // moved to another Capability.
134 #define ASSERT_PARTIAL_CAPABILITY_INVARIANTS(cap,task)  \
135   ASSERT(cap->run_queue_hd == END_TSO_QUEUE ?           \
136             cap->run_queue_tl == END_TSO_QUEUE : 1);    \
137   ASSERT(myTask() == task);                             \
138   ASSERT_TASK_ID(task);
139
140 // Converts a *StgRegTable into a *Capability.
141 //
142 INLINE_HEADER Capability *
143 regTableToCapability (StgRegTable *reg)
144 {
145     return (Capability *)((void *)((unsigned char*)reg - STG_FIELD_OFFSET(Capability,r)));
146 }
147
148 // Initialise the available capabilities.
149 //
150 void initCapabilities (void);
151
152 // Release a capability.  This is called by a Task that is exiting
153 // Haskell to make a foreign call, or in various other cases when we
154 // want to relinquish a Capability that we currently hold.
155 //
156 // ASSUMES: cap->running_task is the current Task.
157 //
158 #if defined(THREADED_RTS)
159 void releaseCapability           (Capability* cap);
160 void releaseAndWakeupCapability  (Capability* cap);
161 void releaseCapability_ (Capability* cap, rtsBool always_wakeup); 
162 // assumes cap->lock is held
163 #else
164 // releaseCapability() is empty in non-threaded RTS
165 INLINE_HEADER void releaseCapability  (Capability* cap STG_UNUSED) {};
166 INLINE_HEADER void releaseAndWakeupCapability  (Capability* cap STG_UNUSED) {};
167 INLINE_HEADER void releaseCapability_ (Capability* cap STG_UNUSED, 
168                                        rtsBool always_wakeup STG_UNUSED) {};
169 #endif
170
171 // declared in includes/rts/Threads.h:
172 // extern Capability MainCapability; 
173
174 // declared in includes/rts/Threads.h:
175 // extern nat n_capabilities;
176
177 // Array of all the capabilities
178 //
179 extern Capability *capabilities;
180
181 // The Capability that was last free.  Used as a good guess for where
182 // to assign new threads.
183 //
184 extern Capability *last_free_capability;
185
186 // GC indicator, in scope for the scheduler
187 #define PENDING_GC_SEQ 1
188 #define PENDING_GC_PAR 2
189 extern volatile StgWord waiting_for_gc;
190
191 // Acquires a capability at a return point.  If *cap is non-NULL, then
192 // this is taken as a preference for the Capability we wish to
193 // acquire.
194 //
195 // OS threads waiting in this function get priority over those waiting
196 // in waitForCapability().
197 //
198 // On return, *cap is non-NULL, and points to the Capability acquired.
199 //
200 void waitForReturnCapability (Capability **cap/*in/out*/, Task *task);
201
202 INLINE_HEADER void recordMutableCap (StgClosure *p, Capability *cap, nat gen);
203
204 #if defined(THREADED_RTS)
205
206 // Gives up the current capability IFF there is a higher-priority
207 // thread waiting for it.  This happens in one of two ways:
208 //
209 //   (a) we are passing the capability to another OS thread, so
210 //       that it can run a bound Haskell thread, or
211 //
212 //   (b) there is an OS thread waiting to return from a foreign call
213 //
214 // On return: *pCap is NULL if the capability was released.  The
215 // current task should then re-acquire it using waitForCapability().
216 //
217 void yieldCapability (Capability** pCap, Task *task);
218
219 // Acquires a capability for doing some work.
220 //
221 // On return: pCap points to the capability.
222 //
223 void waitForCapability (Task *task, Mutex *mutex, Capability **pCap);
224
225 // Wakes up a thread on a Capability (probably a different Capability
226 // from the one held by the current Task).
227 //
228 void wakeupThreadOnCapability (Capability *my_cap, Capability *other_cap,
229                                StgTSO *tso);
230
231 // Wakes up a worker thread on just one Capability, used when we
232 // need to service some global event.
233 //
234 void prodOneCapability (void);
235 void prodCapability (Capability *cap, Task *task);
236
237 // Similar to prodOneCapability(), but prods all of them.
238 //
239 void prodAllCapabilities (void);
240
241 // Waits for a capability to drain of runnable threads and workers,
242 // and then acquires it.  Used at shutdown time.
243 //
244 void shutdownCapability (Capability *cap, Task *task, rtsBool wait_foreign);
245
246 // Attempt to gain control of a Capability if it is free.
247 //
248 rtsBool tryGrabCapability (Capability *cap, Task *task);
249
250 // Try to find a spark to run
251 //
252 StgClosure *findSpark (Capability *cap);
253
254 // True if any capabilities have sparks
255 //
256 rtsBool anySparks (void);
257
258 INLINE_HEADER rtsBool emptySparkPoolCap (Capability *cap);
259 INLINE_HEADER nat     sparkPoolSizeCap  (Capability *cap);
260 INLINE_HEADER void    discardSparksCap  (Capability *cap);
261
262 #else // !THREADED_RTS
263
264 // Grab a capability.  (Only in the non-threaded RTS; in the threaded
265 // RTS one of the waitFor*Capability() functions must be used).
266 //
267 extern void grabCapability (Capability **pCap);
268
269 #endif /* !THREADED_RTS */
270
271 // cause all capabilities to context switch as soon as possible.
272 void setContextSwitches(void);
273 INLINE_HEADER void contextSwitchCapability(Capability *cap);
274
275 // Free all capabilities
276 void freeCapabilities (void);
277
278 // For the GC:
279 void markSomeCapabilities (evac_fn evac, void *user, nat i0, nat delta, 
280                            rtsBool prune_sparks);
281 void markCapabilities (evac_fn evac, void *user);
282 void traverseSparkQueues (evac_fn evac, void *user);
283
284 /* -----------------------------------------------------------------------------
285    Messages
286    -------------------------------------------------------------------------- */
287
288 #ifdef THREADED_RTS
289
290 INLINE_HEADER rtsBool emptyInbox(Capability *cap);;
291
292 void sendMessage (Capability *cap, Message *msg);
293
294 #endif // THREADED_RTS
295
296 /* -----------------------------------------------------------------------------
297  * INLINE functions... private below here
298  * -------------------------------------------------------------------------- */
299
300 INLINE_HEADER void
301 recordMutableCap (StgClosure *p, Capability *cap, nat gen)
302 {
303     bdescr *bd;
304
305     // We must own this Capability in order to modify its mutable list.
306     //    ASSERT(cap->running_task == myTask());
307     // NO: assertion is violated by performPendingThrowTos()
308     bd = cap->mut_lists[gen];
309     if (bd->free >= bd->start + BLOCK_SIZE_W) {
310         bdescr *new_bd;
311         new_bd = allocBlock_lock();
312         new_bd->link = bd;
313         bd = new_bd;
314         cap->mut_lists[gen] = bd;
315     }
316     *bd->free++ = (StgWord)p;
317 }
318
319 #if defined(THREADED_RTS)
320 INLINE_HEADER rtsBool
321 emptySparkPoolCap (Capability *cap) 
322 { return looksEmpty(cap->sparks); }
323
324 INLINE_HEADER nat
325 sparkPoolSizeCap (Capability *cap) 
326 { return sparkPoolSize(cap->sparks); }
327
328 INLINE_HEADER void
329 discardSparksCap (Capability *cap) 
330 { return discardSparks(cap->sparks); }
331 #endif
332
333 INLINE_HEADER void
334 contextSwitchCapability (Capability *cap)
335 {
336     // setting HpLim to NULL ensures that the next heap check will
337     // fail, and the thread will return to the scheduler.
338     cap->r.rHpLim = NULL;
339     // But just in case it didn't work (the target thread might be
340     // modifying HpLim at the same time), we set the end-of-block
341     // context-switch flag too:
342     cap->context_switch = 1;
343 }
344
345 #ifdef THREADED_RTS
346
347 INLINE_HEADER rtsBool emptyInbox(Capability *cap)
348 {
349     return (cap->inbox == (Message*)END_TSO_QUEUE);
350 }
351
352 #endif
353
354 END_RTS_PRIVATE
355
356 #endif /* CAPABILITY_H */