Add fast event logging
[ghc-hetmet.git] / rts / Schedule.h
1 /* -----------------------------------------------------------------------------
2  *
3  * (c) The GHC Team 1998-2005
4  *
5  * Prototypes for functions in Schedule.c 
6  * (RTS internal scheduler interface)
7  *
8  * -------------------------------------------------------------------------*/
9
10 #ifndef SCHEDULE_H
11 #define SCHEDULE_H
12
13 #include "OSThreads.h"
14 #include "Capability.h"
15 #include "EventLog.h"
16
17 /* initScheduler(), exitScheduler()
18  * Called from STG :  no
19  * Locks assumed   :  none
20  */
21 void initScheduler (void);
22 void exitScheduler (rtsBool wait_foreign);
23 void freeScheduler (void);
24
25 // Place a new thread on the run queue of the current Capability
26 void scheduleThread (Capability *cap, StgTSO *tso);
27
28 // Place a new thread on the run queue of a specified Capability
29 // (cap is the currently owned Capability, cpu is the number of
30 // the desired Capability).
31 void scheduleThreadOn(Capability *cap, StgWord cpu, StgTSO *tso);
32
33 /* awakenBlockedQueue()
34  *
35  * Takes a pointer to the beginning of a blocked TSO queue, and
36  * wakes up the entire queue.
37  * Called from STG :  yes
38  * Locks assumed   :  none
39  */
40 #if defined(GRAN)
41 void awakenBlockedQueue(StgBlockingQueueElement *q, StgClosure *node);
42 #elif defined(PAR)
43 void awakenBlockedQueue(StgBlockingQueueElement *q, StgClosure *node);
44 #else
45 void awakenBlockedQueue (Capability *cap, StgTSO *tso);
46 #endif
47
48 /* wakeUpRts()
49  * 
50  * Causes an OS thread to wake up and run the scheduler, if necessary.
51  */
52 void wakeUpRts(void);
53
54 /* unblockOne()
55  *
56  * Put the specified thread on the run queue of the given Capability.
57  * Called from STG :  yes
58  * Locks assumed   :  we own the Capability.
59  */
60 StgTSO * unblockOne (Capability *cap, StgTSO *tso);
61
62 /* raiseExceptionHelper */
63 StgWord raiseExceptionHelper (StgRegTable *reg, StgTSO *tso, StgClosure *exception);
64
65 /* findRetryFrameHelper */
66 StgWord findRetryFrameHelper (StgTSO *tso);
67
68 /* workerStart()
69  * 
70  * Entry point for a new worker task.
71  * Called from STG :  NO
72  * Locks assumed   :  none
73  */
74 #if defined(THREADED_RTS)
75 void OSThreadProcAttr workerStart(Task *task);
76 #endif
77
78 #if defined(GRAN)
79 void    awaken_blocked_queue(StgBlockingQueueElement *q, StgClosure *node);
80 void    unlink_from_bq(StgTSO* tso, StgClosure* node);
81 void    initThread(StgTSO *tso, nat stack_size, StgInt pri);
82 #elif defined(PAR)
83 nat     run_queue_len(void);
84 void    awaken_blocked_queue(StgBlockingQueueElement *q, StgClosure *node);
85 void    initThread(StgTSO *tso, nat stack_size);
86 #else
87 char   *info_type(StgClosure *closure);    // dummy
88 char   *info_type_by_ip(StgInfoTable *ip); // dummy
89 void    awaken_blocked_queue(StgTSO *q);
90 void    initThread(StgTSO *tso, nat stack_size);
91 #endif
92
93 /* The state of the scheduler.  This is used to control the sequence
94  * of events during shutdown, and when the runtime is interrupted
95  * using ^C.
96  */
97 #define SCHED_RUNNING       0  /* running as normal */
98 #define SCHED_INTERRUPTING  1  /* ^C detected, before threads are deleted */
99 #define SCHED_SHUTTING_DOWN 2  /* final shutdown */
100
101 extern volatile StgWord RTS_VAR(sched_state);
102
103 /* 
104  * flag that tracks whether we have done any execution in this time slice.
105  */
106 #define ACTIVITY_YES      0 /* there has been activity in the current slice */
107 #define ACTIVITY_MAYBE_NO 1 /* no activity in the current slice */
108 #define ACTIVITY_INACTIVE 2 /* a complete slice has passed with no activity */
109 #define ACTIVITY_DONE_GC  3 /* like 2, but we've done a GC too */
110
111 /* Recent activity flag.
112  * Locks required  : Transition from MAYBE_NO to INACTIVE
113  * happens in the timer signal, so it is atomic.  Trnasition from
114  * INACTIVE to DONE_GC happens under sched_mutex.  No lock required
115  * to set it to ACTIVITY_YES.
116  */
117 extern volatile StgWord recent_activity;
118
119 /* Thread queues.
120  * Locks required  : sched_mutex
121  *
122  * In GranSim we have one run/blocked_queue per PE.
123  */
124 #if defined(GRAN)
125 // run_queue_hds defined in GranSim.h
126 #else
127 extern  StgTSO *RTS_VAR(blackhole_queue);
128 #if !defined(THREADED_RTS)
129 extern  StgTSO *RTS_VAR(blocked_queue_hd), *RTS_VAR(blocked_queue_tl);
130 extern  StgTSO *RTS_VAR(sleeping_queue);
131 #endif
132 #endif
133
134 /* Set to rtsTrue if there are threads on the blackhole_queue, and
135  * it is possible that one or more of them may be available to run.
136  * This flag is set to rtsFalse after we've checked the queue, and
137  * set to rtsTrue just before we run some Haskell code.  It is used
138  * to decide whether we should yield the Capability or not.
139  * Locks required  : none (see scheduleCheckBlackHoles()).
140  */
141 extern rtsBool blackholes_need_checking;
142
143 extern rtsBool heap_overflow;
144
145 #if defined(THREADED_RTS)
146 extern Mutex RTS_VAR(sched_mutex);
147 #endif
148
149 SchedulerStatus rts_mainLazyIO(HaskellObj p, /*out*/HaskellObj *ret);
150
151 /* Called by shutdown_handler(). */
152 void interruptStgRts (void);
153
154 nat  run_queue_len (void);
155
156 void resurrectThreads (StgTSO *);
157 void performPendingThrowTos (StgTSO *);
158
159 void printAllThreads(void);
160
161 /* debugging only 
162  */
163 #ifdef DEBUG
164 void print_bq (StgClosure *node);
165 #endif
166 #if defined(PAR)
167 void print_bqe (StgBlockingQueueElement *bqe);
168 #endif
169
170 /* -----------------------------------------------------------------------------
171  * Some convenient macros/inline functions...
172  */
173
174 #if !IN_STG_CODE
175
176 /* END_TSO_QUEUE and friends now defined in includes/StgMiscClosures.h */
177
178 /* Add a thread to the end of the run queue.
179  * NOTE: tso->link should be END_TSO_QUEUE before calling this macro.
180  * ASSUMES: cap->running_task is the current task.
181  */
182 INLINE_HEADER void
183 appendToRunQueue (Capability *cap, StgTSO *tso)
184 {
185     ASSERT(tso->_link == END_TSO_QUEUE);
186     if (cap->run_queue_hd == END_TSO_QUEUE) {
187         cap->run_queue_hd = tso;
188     } else {
189         setTSOLink(cap, cap->run_queue_tl, tso);
190     }
191     cap->run_queue_tl = tso;
192     postEvent (cap, EVENT_THREAD_RUNNABLE, tso->id, 0);
193 }
194
195 /* Push a thread on the beginning of the run queue.
196  * ASSUMES: cap->running_task is the current task.
197  */
198 INLINE_HEADER void
199 pushOnRunQueue (Capability *cap, StgTSO *tso)
200 {
201     setTSOLink(cap, tso, cap->run_queue_hd);
202     cap->run_queue_hd = tso;
203     if (cap->run_queue_tl == END_TSO_QUEUE) {
204         cap->run_queue_tl = tso;
205     }
206 }
207
208 /* Pop the first thread off the runnable queue.
209  */
210 INLINE_HEADER StgTSO *
211 popRunQueue (Capability *cap)
212
213     StgTSO *t = cap->run_queue_hd;
214     ASSERT(t != END_TSO_QUEUE);
215     cap->run_queue_hd = t->_link;
216     t->_link = END_TSO_QUEUE; // no write barrier req'd
217     if (cap->run_queue_hd == END_TSO_QUEUE) {
218         cap->run_queue_tl = END_TSO_QUEUE;
219     }
220     return t;
221 }
222
223 /* Add a thread to the end of the blocked queue.
224  */
225 #if !defined(THREADED_RTS)
226 INLINE_HEADER void
227 appendToBlockedQueue(StgTSO *tso)
228 {
229     ASSERT(tso->_link == END_TSO_QUEUE);
230     if (blocked_queue_hd == END_TSO_QUEUE) {
231         blocked_queue_hd = tso;
232     } else {
233         setTSOLink(&MainCapability, blocked_queue_tl, tso);
234     }
235     blocked_queue_tl = tso;
236 }
237 #endif
238
239 #if defined(THREADED_RTS)
240 // Assumes: my_cap is owned by the current Task.  We hold
241 // other_cap->lock, but we do not necessarily own other_cap; another
242 // Task may be running on it.
243 INLINE_HEADER void
244 appendToWakeupQueue (Capability *my_cap, Capability *other_cap, StgTSO *tso)
245 {
246     ASSERT(tso->_link == END_TSO_QUEUE);
247     if (other_cap->wakeup_queue_hd == END_TSO_QUEUE) {
248         other_cap->wakeup_queue_hd = tso;
249     } else {
250         // my_cap is passed to setTSOLink() because it may need to
251         // write to the mutable list.
252         setTSOLink(my_cap, other_cap->wakeup_queue_tl, tso);
253     }
254     other_cap->wakeup_queue_tl = tso;
255 }
256 #endif
257
258 /* Check whether various thread queues are empty
259  */
260 INLINE_HEADER rtsBool
261 emptyQueue (StgTSO *q)
262 {
263     return (q == END_TSO_QUEUE);
264 }
265
266 INLINE_HEADER rtsBool
267 emptyRunQueue(Capability *cap)
268 {
269     return emptyQueue(cap->run_queue_hd);
270 }
271
272 #if defined(THREADED_RTS)
273 INLINE_HEADER rtsBool
274 emptyWakeupQueue(Capability *cap)
275 {
276     return emptyQueue(cap->wakeup_queue_hd);
277 }
278 #endif
279
280 #if !defined(THREADED_RTS)
281 #define EMPTY_BLOCKED_QUEUE()  (emptyQueue(blocked_queue_hd))
282 #define EMPTY_SLEEPING_QUEUE() (emptyQueue(sleeping_queue))
283 #endif
284
285 INLINE_HEADER rtsBool
286 emptyThreadQueues(Capability *cap)
287 {
288     return emptyRunQueue(cap)
289 #if !defined(THREADED_RTS)
290         && EMPTY_BLOCKED_QUEUE() && EMPTY_SLEEPING_QUEUE()
291 #endif
292     ;
293 }
294
295 #endif /* !IN_STG_CODE */
296
297 #endif /* SCHEDULE_H */
298