8924a62dac5197994b40c8228d5381e040bc1ab5
[ghc-hetmet.git] / ghc / rts / Schedule.h
1 /* -----------------------------------------------------------------------------
2  *
3  * (c) The GHC Team 1998-1999
4  *
5  * Prototypes for functions in Schedule.c 
6  * (RTS internal scheduler interface)
7  *
8  * -------------------------------------------------------------------------*/
9
10 #ifndef __SCHEDULE_H__
11 #define __SCHEDULE_H__
12 #include "OSThreads.h"
13
14 /* initScheduler(), exitScheduler(), startTasks()
15  * 
16  * Called from STG :  no
17  * Locks assumed   :  none
18  */
19 extern void initScheduler  ( void );
20 extern void exitScheduler  ( void );
21
22 /* awakenBlockedQueue()
23  *
24  * Takes a pointer to the beginning of a blocked TSO queue, and
25  * wakes up the entire queue.
26  *
27  * Called from STG :  yes
28  * Locks assumed   :  none
29  */
30 #if defined(GRAN)
31 void awakenBlockedQueue(StgBlockingQueueElement *q, StgClosure *node);
32 #elif defined(PAR)
33 void awakenBlockedQueue(StgBlockingQueueElement *q, StgClosure *node);
34 #else
35 void awakenBlockedQueue (StgTSO *tso);
36 void awakenBlockedQueueNoLock (StgTSO *tso);
37 #endif
38
39 /* unblockOne()
40  *
41  * Takes a pointer to the beginning of a blocked TSO queue, and
42  * removes the first thread, placing it on the runnable queue.
43  *
44  * Called from STG : yes
45  * Locks assumed   : none
46  */
47 #if defined(GRAN) || defined(PAR)
48 StgBlockingQueueElement *unblockOne(StgBlockingQueueElement *bqe, StgClosure *node);
49 #else
50 StgTSO *unblockOne(StgTSO *tso);
51 #endif
52
53 /* raiseAsync()
54  *
55  * Raises an exception asynchronously in the specified thread.
56  *
57  * Called from STG :  yes
58  * Locks assumed   :  none
59  */
60 void raiseAsync(StgTSO *tso, StgClosure *exception);
61 void raiseAsyncWithLock(StgTSO *tso, StgClosure *exception);
62
63 /* raiseExceptionHelper */
64 StgWord raiseExceptionHelper (StgTSO *tso, StgClosure *exception);
65
66 /* awaitEvent(rtsBool wait)
67  *
68  * Checks for blocked threads that need to be woken.
69  *
70  * Called from STG :  NO
71  * Locks assumed   :  sched_mutex
72  */
73 void awaitEvent(rtsBool wait);  /* In Select.c */
74
75 /* wakeUpSleepingThreads(nat ticks)
76  *
77  * Wakes up any sleeping threads whose timers have expired.
78  *
79  * Called from STG :  NO
80  * Locks assumed   :  sched_mutex
81  */
82 rtsBool wakeUpSleepingThreads(nat);  /* In Select.c */
83
84 /* wakeBlockedWorkerThread()
85  *
86  * If a worker thread is currently blocked in awaitEvent(), interrupt it.
87  *
88  * Called from STG :  NO
89  * Locks assumed   :  sched_mutex
90  */
91 void wakeBlockedWorkerThread(void); /* In Select.c */
92
93 /* resetWorkerWakeupPipeAfterFork()
94  *
95  * Notify Select.c that a fork() has occured
96  *
97  * Called from STG :  NO
98  * Locks assumed   :  don't care, but must be called right after fork()
99  */
100 void resetWorkerWakeupPipeAfterFork(void); /* In Select.c */
101
102 /* GetRoots(evac_fn f)
103  *
104  * Call f() for each root known to the scheduler.
105  *
106  * Called from STG :  NO
107  * Locks assumed   :  ????
108  */
109 void GetRoots(evac_fn);
110
111 // ToDo: check whether all fcts below are used in the SMP version, too
112 #if defined(GRAN)
113 void    awaken_blocked_queue(StgBlockingQueueElement *q, StgClosure *node);
114 void    unlink_from_bq(StgTSO* tso, StgClosure* node);
115 void    initThread(StgTSO *tso, nat stack_size, StgInt pri);
116 #elif defined(PAR)
117 nat     run_queue_len(void);
118 void    awaken_blocked_queue(StgBlockingQueueElement *q, StgClosure *node);
119 void    initThread(StgTSO *tso, nat stack_size);
120 #else
121 char   *info_type(StgClosure *closure);    // dummy
122 char   *info_type_by_ip(StgInfoTable *ip); // dummy
123 void    awaken_blocked_queue(StgTSO *q);
124 void    initThread(StgTSO *tso, nat stack_size);
125 #endif
126
127 /* Context switch flag.
128  * Locks required  : sched_mutex
129  */
130 extern nat RTS_VAR(context_switch);
131 extern rtsBool RTS_VAR(interrupted);
132
133 /* In Select.c */
134 extern nat RTS_VAR(timestamp);
135
136 /* Thread queues.
137  * Locks required  : sched_mutex
138  *
139  * In GranSim we have one run/blocked_queue per PE.
140  */
141 #if defined(GRAN)
142 // run_queue_hds defined in GranSim.h
143 #else
144 extern  StgTSO *RTS_VAR(run_queue_hd), *RTS_VAR(run_queue_tl);
145 extern  StgTSO *RTS_VAR(blocked_queue_hd), *RTS_VAR(blocked_queue_tl);
146 extern  StgTSO *RTS_VAR(sleeping_queue);
147 #endif
148 /* Linked list of all threads. */
149 extern  StgTSO *RTS_VAR(all_threads);
150
151 #if defined(RTS_SUPPORTS_THREADS)
152 /* Schedule.c has detailed info on what these do */
153 extern Mutex       RTS_VAR(sched_mutex);
154 extern Condition   RTS_VAR(returning_worker_cond);
155 extern nat         RTS_VAR(rts_n_waiting_workers);
156 extern nat         RTS_VAR(rts_n_waiting_tasks);
157 #endif
158
159 StgBool rtsSupportsBoundThreads(void);
160 StgBool isThreadBound(StgTSO *tso);
161
162 extern SchedulerStatus rts_mainLazyIO(HaskellObj p, /*out*/HaskellObj *ret);
163
164
165 /* Called by shutdown_handler(). */
166 void interruptStgRts ( void );
167
168 void raiseAsync(StgTSO *tso, StgClosure *exception);
169 nat  run_queue_len(void);
170
171 void resurrectThreads( StgTSO * );
172
173 /* Main threads:
174  *
175  * These are the threads which clients have requested that we run.  
176  *
177  * In a 'threaded' build, each of these corresponds to one bound thread.
178  * The pointer to the StgMainThread is passed as a parameter to schedule;
179  * this invocation of schedule will always pass this main thread's
180  * bound_thread_cond to waitForkWorkCapability; OS-thread-switching
181  * takes place using passCapability.
182  *
183  * In non-threaded builds, clients are strictly nested: the first client calls
184  * into the RTS, which might call out again to C with a _ccall_GC, and
185  * eventually re-enter the RTS.
186  *
187  * This is non-abstract at the moment because the garbage collector
188  * treats pointers to TSOs from the main thread list as "weak" - these
189  * pointers won't prevent a thread from receiving a BlockedOnDeadMVar
190  * exception.
191  *
192  * Main threads information is kept in a linked list:
193  */
194 typedef struct StgMainThread_ {
195   StgTSO *         tso;
196   SchedulerStatus  stat;
197   StgClosure **    ret;
198 #if defined(RTS_SUPPORTS_THREADS)
199 #if defined(THREADED_RTS)
200   Condition        bound_thread_cond;
201 #else
202   Condition        wakeup;
203 #endif
204 #endif
205   struct StgMainThread_ *prev;
206   struct StgMainThread_ *link;
207 } StgMainThread;
208
209 /* Main thread queue.
210  * Locks required: sched_mutex.
211  */
212 extern StgMainThread *main_threads;
213
214 void printAllThreads(void);
215 #ifdef COMPILING_SCHEDULER
216 static void printThreadBlockage(StgTSO *tso);
217 static void printThreadStatus(StgTSO *tso);
218 #endif
219 /* debugging only 
220  */
221 #ifdef DEBUG
222 void print_bq (StgClosure *node);
223 #endif
224 #if defined(PAR)
225 void print_bqe (StgBlockingQueueElement *bqe);
226 #endif
227
228 void labelThread(StgPtr tso, char *label);
229
230 /* -----------------------------------------------------------------------------
231  * Some convenient macros...
232  */
233
234 /* END_TSO_QUEUE and friends now defined in includes/StgMiscClosures.h */
235
236 /* Add a thread to the end of the run queue.
237  * NOTE: tso->link should be END_TSO_QUEUE before calling this macro.
238  */
239 #define APPEND_TO_RUN_QUEUE(tso)                \
240     ASSERT(tso->link == END_TSO_QUEUE);         \
241     if (run_queue_hd == END_TSO_QUEUE) {        \
242       run_queue_hd = tso;                       \
243     } else {                                    \
244       run_queue_tl->link = tso;                 \
245     }                                           \
246     run_queue_tl = tso;
247
248 /* Push a thread on the beginning of the run queue.  Used for
249  * newly awakened threads, so they get run as soon as possible.
250  */
251 #define PUSH_ON_RUN_QUEUE(tso)                  \
252     tso->link = run_queue_hd;                   \
253       run_queue_hd = tso;                       \
254     if (run_queue_tl == END_TSO_QUEUE) {        \
255       run_queue_tl = tso;                       \
256     }
257
258 /* Pop the first thread off the runnable queue.
259  */
260 #define POP_RUN_QUEUE(pt)                       \
261   do { StgTSO *__tmp_t = run_queue_hd;          \
262     if (__tmp_t != END_TSO_QUEUE) {             \
263       run_queue_hd = __tmp_t->link;             \
264       __tmp_t->link = END_TSO_QUEUE;            \
265       if (run_queue_hd == END_TSO_QUEUE) {      \
266         run_queue_tl = END_TSO_QUEUE;           \
267       }                                         \
268     }                                           \
269     pt = __tmp_t;                               \
270   } while(0)
271
272 /* Add a thread to the end of the blocked queue.
273  */
274 #define APPEND_TO_BLOCKED_QUEUE(tso)            \
275     ASSERT(tso->link == END_TSO_QUEUE);         \
276     if (blocked_queue_hd == END_TSO_QUEUE) {    \
277       blocked_queue_hd = tso;                   \
278     } else {                                    \
279       blocked_queue_tl->link = tso;             \
280     }                                           \
281     blocked_queue_tl = tso;
282
283 /* Signal that a runnable thread has become available, in
284  * case there are any waiting tasks to execute it.
285  */
286 #if defined(RTS_SUPPORTS_THREADS)
287 #define THREAD_RUNNABLE()                       \
288   wakeBlockedWorkerThread();                    \
289   context_switch = 1;
290 #else
291 #define THREAD_RUNNABLE()  /* nothing */
292 #endif
293
294 /* Check whether various thread queues are empty
295  */
296 #define EMPTY_QUEUE(q)         (q == END_TSO_QUEUE)
297
298 #define EMPTY_RUN_QUEUE()      (EMPTY_QUEUE(run_queue_hd))
299 #define EMPTY_BLOCKED_QUEUE()  (EMPTY_QUEUE(blocked_queue_hd))
300 #define EMPTY_SLEEPING_QUEUE() (EMPTY_QUEUE(sleeping_queue))
301
302 #define EMPTY_THREAD_QUEUES()  (EMPTY_RUN_QUEUE() && \
303                                 EMPTY_BLOCKED_QUEUE() && \
304                                 EMPTY_SLEEPING_QUEUE())
305
306 #if defined(RTS_SUPPORTS_THREADS)
307 /* If no task is waiting for a capability,
308  * and if there is work to be done
309  * or if we need to wait for IO or delay requests,
310  * spawn a new worker thread.
311  */
312 void
313 startSchedulerTaskIfNecessary(void);
314 #endif
315
316 #ifdef DEBUG
317 extern void sched_belch(char *s, ...)
318    GNU_ATTRIBUTE(format (printf, 1, 2));
319 #endif
320
321 #endif /* __SCHEDULE_H__ */