af322d804f3b146ae6f5959abbe8c0922059cb21
[ghc-hetmet.git] / rts / Schedule.h
1 /* -----------------------------------------------------------------------------
2  *
3  * (c) The GHC Team 1998-2005
4  *
5  * Prototypes for functions in Schedule.c 
6  * (RTS internal scheduler interface)
7  *
8  * -------------------------------------------------------------------------*/
9
10 #ifndef SCHEDULE_H
11 #define SCHEDULE_H
12
13 #include "rts/OSThreads.h"
14 #include "Capability.h"
15 #include "Trace.h"
16
17 BEGIN_RTS_PRIVATE
18
19 /* initScheduler(), exitScheduler()
20  * Called from STG :  no
21  * Locks assumed   :  none
22  */
23 void initScheduler (void);
24 void exitScheduler (rtsBool wait_foreign);
25 void freeScheduler (void);
26
27 // Place a new thread on the run queue of the current Capability
28 void scheduleThread (Capability *cap, StgTSO *tso);
29
30 // Place a new thread on the run queue of a specified Capability
31 // (cap is the currently owned Capability, cpu is the number of
32 // the desired Capability).
33 void scheduleThreadOn(Capability *cap, StgWord cpu, StgTSO *tso);
34
35 /* wakeUpRts()
36  * 
37  * Causes an OS thread to wake up and run the scheduler, if necessary.
38  */
39 #if defined(THREADED_RTS)
40 void wakeUpRts(void);
41 #endif
42
43 /* raiseExceptionHelper */
44 StgWord raiseExceptionHelper (StgRegTable *reg, StgTSO *tso, StgClosure *exception);
45
46 /* findRetryFrameHelper */
47 StgWord findRetryFrameHelper (StgTSO *tso);
48
49 /* Entry point for a new worker */
50 void scheduleWorker (Capability *cap, Task *task);
51
52 /* The state of the scheduler.  This is used to control the sequence
53  * of events during shutdown, and when the runtime is interrupted
54  * using ^C.
55  */
56 #define SCHED_RUNNING       0  /* running as normal */
57 #define SCHED_INTERRUPTING  1  /* ^C detected, before threads are deleted */
58 #define SCHED_SHUTTING_DOWN 2  /* final shutdown */
59
60 extern volatile StgWord sched_state;
61
62 /* 
63  * flag that tracks whether we have done any execution in this time slice.
64  */
65 #define ACTIVITY_YES      0 /* there has been activity in the current slice */
66 #define ACTIVITY_MAYBE_NO 1 /* no activity in the current slice */
67 #define ACTIVITY_INACTIVE 2 /* a complete slice has passed with no activity */
68 #define ACTIVITY_DONE_GC  3 /* like 2, but we've done a GC too */
69
70 /* Recent activity flag.
71  * Locks required  : Transition from MAYBE_NO to INACTIVE
72  * happens in the timer signal, so it is atomic.  Trnasition from
73  * INACTIVE to DONE_GC happens under sched_mutex.  No lock required
74  * to set it to ACTIVITY_YES.
75  */
76 extern volatile StgWord recent_activity;
77
78 /* Thread queues.
79  * Locks required  : sched_mutex
80  *
81  * In GranSim we have one run/blocked_queue per PE.
82  */
83 extern  StgTSO *blackhole_queue;
84 #if !defined(THREADED_RTS)
85 extern  StgTSO *blocked_queue_hd, *blocked_queue_tl;
86 extern  StgTSO *sleeping_queue;
87 #endif
88
89 /* Set to rtsTrue if there are threads on the blackhole_queue, and
90  * it is possible that one or more of them may be available to run.
91  * This flag is set to rtsFalse after we've checked the queue, and
92  * set to rtsTrue just before we run some Haskell code.  It is used
93  * to decide whether we should yield the Capability or not.
94  * Locks required  : none (see scheduleCheckBlackHoles()).
95  */
96 extern rtsBool blackholes_need_checking;
97
98 extern rtsBool heap_overflow;
99
100 #if defined(THREADED_RTS)
101 extern Mutex sched_mutex;
102 #endif
103
104 /* Called by shutdown_handler(). */
105 void interruptStgRts (void);
106
107 void resurrectThreads (StgTSO *);
108 void performPendingThrowTos (StgTSO *);
109
110 /* -----------------------------------------------------------------------------
111  * Some convenient macros/inline functions...
112  */
113
114 #if !IN_STG_CODE
115
116 /* END_TSO_QUEUE and friends now defined in includes/StgMiscClosures.h */
117
118 /* Add a thread to the end of the run queue.
119  * NOTE: tso->link should be END_TSO_QUEUE before calling this macro.
120  * ASSUMES: cap->running_task is the current task.
121  */
122 EXTERN_INLINE void
123 appendToRunQueue (Capability *cap, StgTSO *tso);
124
125 EXTERN_INLINE void
126 appendToRunQueue (Capability *cap, StgTSO *tso)
127 {
128     ASSERT(tso->_link == END_TSO_QUEUE);
129     if (cap->run_queue_hd == END_TSO_QUEUE) {
130         cap->run_queue_hd = tso;
131     } else {
132         setTSOLink(cap, cap->run_queue_tl, tso);
133     }
134     cap->run_queue_tl = tso;
135     traceEventThreadRunnable (cap, tso);
136 }
137
138 /* Push a thread on the beginning of the run queue.
139  * ASSUMES: cap->running_task is the current task.
140  */
141 INLINE_HEADER void
142 pushOnRunQueue (Capability *cap, StgTSO *tso)
143 {
144     setTSOLink(cap, tso, cap->run_queue_hd);
145     cap->run_queue_hd = tso;
146     if (cap->run_queue_tl == END_TSO_QUEUE) {
147         cap->run_queue_tl = tso;
148     }
149 }
150
151 /* Pop the first thread off the runnable queue.
152  */
153 INLINE_HEADER StgTSO *
154 popRunQueue (Capability *cap)
155
156     StgTSO *t = cap->run_queue_hd;
157     ASSERT(t != END_TSO_QUEUE);
158     cap->run_queue_hd = t->_link;
159     t->_link = END_TSO_QUEUE; // no write barrier req'd
160     if (cap->run_queue_hd == END_TSO_QUEUE) {
161         cap->run_queue_tl = END_TSO_QUEUE;
162     }
163     return t;
164 }
165
166 /* Add a thread to the end of the blocked queue.
167  */
168 #if !defined(THREADED_RTS)
169 INLINE_HEADER void
170 appendToBlockedQueue(StgTSO *tso)
171 {
172     ASSERT(tso->_link == END_TSO_QUEUE);
173     if (blocked_queue_hd == END_TSO_QUEUE) {
174         blocked_queue_hd = tso;
175     } else {
176         setTSOLink(&MainCapability, blocked_queue_tl, tso);
177     }
178     blocked_queue_tl = tso;
179 }
180 #endif
181
182 #if defined(THREADED_RTS)
183 // Assumes: my_cap is owned by the current Task.  We hold
184 // other_cap->lock, but we do not necessarily own other_cap; another
185 // Task may be running on it.
186 INLINE_HEADER void
187 appendToWakeupQueue (Capability *my_cap, Capability *other_cap, StgTSO *tso)
188 {
189     ASSERT(tso->_link == END_TSO_QUEUE);
190     if (other_cap->wakeup_queue_hd == END_TSO_QUEUE) {
191         other_cap->wakeup_queue_hd = tso;
192     } else {
193         // my_cap is passed to setTSOLink() because it may need to
194         // write to the mutable list.
195         setTSOLink(my_cap, other_cap->wakeup_queue_tl, tso);
196     }
197     other_cap->wakeup_queue_tl = tso;
198 }
199 #endif
200
201 /* Check whether various thread queues are empty
202  */
203 INLINE_HEADER rtsBool
204 emptyQueue (StgTSO *q)
205 {
206     return (q == END_TSO_QUEUE);
207 }
208
209 INLINE_HEADER rtsBool
210 emptyRunQueue(Capability *cap)
211 {
212     return emptyQueue(cap->run_queue_hd);
213 }
214
215 #if defined(THREADED_RTS)
216 INLINE_HEADER rtsBool
217 emptyWakeupQueue(Capability *cap)
218 {
219     return emptyQueue(cap->wakeup_queue_hd);
220 }
221 #endif
222
223 #if !defined(THREADED_RTS)
224 #define EMPTY_BLOCKED_QUEUE()  (emptyQueue(blocked_queue_hd))
225 #define EMPTY_SLEEPING_QUEUE() (emptyQueue(sleeping_queue))
226 #endif
227
228 INLINE_HEADER rtsBool
229 emptyThreadQueues(Capability *cap)
230 {
231     return emptyRunQueue(cap)
232 #if !defined(THREADED_RTS)
233         && EMPTY_BLOCKED_QUEUE() && EMPTY_SLEEPING_QUEUE()
234 #endif
235     ;
236 }
237
238 #endif /* !IN_STG_CODE */
239
240 END_RTS_PRIVATE
241
242 #endif /* SCHEDULE_H */
243