[project @ 2003-08-01 15:38:41 by panne]
[ghc-hetmet.git] / ghc / includes / StgMacros.h
1 /* -----------------------------------------------------------------------------
2  * $Id: StgMacros.h,v 1.55 2003/07/31 10:07:02 simonmar Exp $
3  *
4  * (c) The GHC Team, 1998-1999
5  *
6  * Macros used for writing STG-ish C code.
7  *
8  * ---------------------------------------------------------------------------*/
9
10 #ifndef STGMACROS_H
11 #define STGMACROS_H
12
13 /* -----------------------------------------------------------------------------
14   The following macros create function headers.
15
16   Each basic block is represented by a C function with no arguments.
17   We therefore always begin with either
18
19   extern F_ f(void)
20
21   or
22   
23   static F_ f(void)
24
25   The macros can be used either to define the function itself, or to provide
26   prototypes (by following with a ';').
27
28   Note: the various I*_ shorthands in the second block below are used to
29   declare forward references to local symbols. These shorthands *have* to
30   use the 'extern' type specifier and not 'static'. The reason for this is
31   that 'static' declares a reference as being a static/local variable,
32   and *not* as a forward reference to a static variable.
33
34   This might seem obvious, but it had me stumped as to why my info tables
35   were suddenly all filled with 0s.
36
37     -- sof 1/99 
38
39   --------------------------------------------------------------------------- */
40
41 #define STGFUN(f)       StgFunPtr f(void)
42 #define EXTFUN(f)       extern StgFunPtr f(void)
43 #define EXTFUN_RTS(f)   extern DLL_IMPORT_RTS StgFunPtr f(void)
44 #define FN_(f)          F_ f(void)
45 #define IF_(f)          static F_ f(void)
46 #define EF_(f)          extern F_ f(void)
47 #define EDF_(f)         extern DLLIMPORT F_ f(void)
48
49 #define EXTINFO_RTS     extern DLL_IMPORT_RTS const StgInfoTable
50 #define ETI_RTS         extern DLL_IMPORT_RTS const StgThunkInfoTable
51
52 // Info tables as generated by the compiler are simply arrays of words.
53 typedef StgWord StgWordArray[];
54
55 #define ED_             extern
56 #define EDD_            extern DLLIMPORT
57 #define ED_RO_          extern const
58 #define ID_             static
59 #define ID_RO_          static const
60 #define EI_             extern StgWordArray
61 #define ERI_            extern const StgRetInfoTable
62 #define II_             static StgWordArray
63 #define IRI_            static const StgRetInfoTable
64 #define EC_             extern StgClosure
65 #define EDC_            extern DLLIMPORT StgClosure
66 #define IC_             static StgClosure
67 #define ECP_(x)         extern const StgClosure *(x)[]
68 #define EDCP_(x)        extern DLLIMPORT StgClosure *(x)[]
69 #define ICP_(x)         static const StgClosure *(x)[]
70
71 /* -----------------------------------------------------------------------------
72    Entering 
73
74    It isn't safe to "enter" every closure.  Functions in particular
75    have no entry code as such; their entry point contains the code to
76    apply the function.
77    -------------------------------------------------------------------------- */
78
79 #define ENTER()                                 \
80  {                                              \
81  again:                                         \
82   switch (get_itbl(R1.cl)->type) {              \
83   case IND:                                     \
84   case IND_OLDGEN:                              \
85   case IND_PERM:                                \
86   case IND_OLDGEN_PERM:                         \
87   case IND_STATIC:                              \
88       R1.cl = ((StgInd *)R1.cl)->indirectee;    \
89       goto again;                               \
90   case BCO:                                     \
91   case FUN:                                     \
92   case FUN_1_0:                                 \
93   case FUN_0_1:                                 \
94   case FUN_2_0:                                 \
95   case FUN_1_1:                                 \
96   case FUN_0_2:                                 \
97   case FUN_STATIC:                              \
98   case PAP:                                     \
99       JMP_(ENTRY_CODE(Sp[0]));                  \
100   default:                                      \
101       JMP_(GET_ENTRY(R1.cl));                   \
102   }                                             \
103  }
104
105 /* -----------------------------------------------------------------------------
106    Heap/Stack Checks.
107
108    When failing a check, we save a return address on the stack and
109    jump to a pre-compiled code fragment that saves the live registers
110    and returns to the scheduler.
111
112    The return address in most cases will be the beginning of the basic
113    block in which the check resides, since we need to perform the check
114    again on re-entry because someone else might have stolen the resource
115    in the meantime.
116    ------------------------------------------------------------------------- */
117
118 #define STK_CHK_FUN(headroom,assts)             \
119         if (Sp - headroom < SpLim) {            \
120             assts                               \
121             JMP_(stg_gc_fun);                   \
122         }
123
124 #define HP_CHK_FUN(headroom,assts)                                      \
125         DO_GRAN_ALLOCATE(headroom)                                      \
126         if ((Hp += headroom) > HpLim) {                                 \
127             HpAlloc = (headroom);                                       \
128             assts                                                       \
129             JMP_(stg_gc_fun);                                           \
130         }
131
132 // When doing both a heap and a stack check, don't move the heap
133 // pointer unless the stack check succeeds.  Otherwise we might end up
134 // with slop at the end of the current block, which can confuse the
135 // LDV profiler.
136 #define HP_STK_CHK_FUN(stk_headroom,hp_headroom,assts)                  \
137         DO_GRAN_ALLOCATE(hp_headroom)                                   \
138         if (Sp - stk_headroom < SpLim || (Hp += hp_headroom) > HpLim) { \
139             HpAlloc = (hp_headroom);                                    \
140             assts                                                       \
141             JMP_(stg_gc_fun);                                           \
142         }
143
144 /* -----------------------------------------------------------------------------
145    A Heap Check in a case alternative are much simpler: everything is
146    on the stack and covered by a liveness mask already, and there is
147    even a return address with an SRT info table there as well.  
148
149    Just push R1 and return to the scheduler saying 'EnterGHC'
150
151    {STK,HP,HP_STK}_CHK_NP are the various checking macros for
152    bog-standard case alternatives, thunks, and non-top-level
153    functions.  In all these cases, node points to a closure that we
154    can just enter to restart the heap check (the NP stands for 'node points').
155
156    In the NP case GranSim absolutely has to check whether the current node 
157    resides on the current processor. Otherwise a FETCH event has to be
158    scheduled. All that is done in GranSimFetch. -- HWL
159
160    HpLim points to the LAST WORD of valid allocation space.
161    -------------------------------------------------------------------------- */
162
163 #define STK_CHK_NP(headroom,tag_assts)          \
164         if ((Sp - (headroom)) < SpLim) {        \
165             tag_assts                           \
166             JMP_(stg_gc_enter_1);               \
167         }
168
169 #define HP_CHK_NP(headroom,tag_assts)                                   \
170         DO_GRAN_ALLOCATE(headroom)                                      \
171         if ((Hp += (headroom)) > HpLim) {                               \
172             HpAlloc = (headroom);                                       \
173             tag_assts                                                   \
174             JMP_(stg_gc_enter_1);                                       \
175         }                                                       
176
177 // See comment on HP_STK_CHK_FUN above.
178 #define HP_STK_CHK_NP(stk_headroom, hp_headroom, tag_assts) \
179         DO_GRAN_ALLOCATE(hp_headroom)                              \
180         if ((Sp - (stk_headroom)) < SpLim || (Hp += (hp_headroom)) > HpLim) { \
181             HpAlloc = (hp_headroom);                            \
182             tag_assts                                           \
183             JMP_(stg_gc_enter_1);                               \
184         }                                                       
185
186
187 /* Heap checks for branches of a primitive case / unboxed tuple return */
188
189 #define GEN_HP_CHK_ALT(headroom,lbl,tag_assts)                  \
190         DO_GRAN_ALLOCATE(headroom)                              \
191         if ((Hp += (headroom)) > HpLim) {                       \
192             HpAlloc = (headroom);                               \
193             tag_assts                                           \
194             JMP_(lbl);                                          \
195         }                                                       
196
197 #define HP_CHK_NOREGS(headroom,tag_assts) \
198     GEN_HP_CHK_ALT(headroom,stg_gc_noregs,tag_assts);
199 #define HP_CHK_UNPT_R1(headroom,tag_assts)  \
200     GEN_HP_CHK_ALT(headroom,stg_gc_unpt_r1,tag_assts);
201 #define HP_CHK_UNBX_R1(headroom,tag_assts)  \
202     GEN_HP_CHK_ALT(headroom,stg_gc_unbx_r1,tag_assts);
203 #define HP_CHK_F1(headroom,tag_assts)       \
204     GEN_HP_CHK_ALT(headroom,stg_gc_f1,tag_assts);
205 #define HP_CHK_D1(headroom,tag_assts)       \
206     GEN_HP_CHK_ALT(headroom,stg_gc_d1,tag_assts);
207 #define HP_CHK_L1(headroom,tag_assts)       \
208     GEN_HP_CHK_ALT(headroom,stg_gc_l1,tag_assts);
209
210 /* -----------------------------------------------------------------------------
211    Generic Heap checks.
212
213    These are slow, but have the advantage of being usable in a variety
214    of situations.  
215
216    The one restriction is that any relevant SRTs must already be pointed
217    to from the stack.  The return address doesn't need to have an info
218    table attached: hence it can be any old code pointer.
219
220    The liveness mask is a logical 'XOR' of NO_PTRS and zero or more
221    Rn_PTR constants defined below.  All registers will be saved, but
222    the garbage collector needs to know which ones contain pointers.
223
224    Good places to use a generic heap check: 
225
226         - case alternatives (the return address with an SRT is already
227           on the stack).
228
229         - primitives (no SRT required).
230
231    The stack frame layout for a RET_DYN is like this:
232
233           some pointers         |-- GET_PTRS(liveness) words
234           some nonpointers      |-- GET_NONPTRS(liveness) words
235                                
236           L1                    \
237           D1-2                  |-- RET_DYN_NONPTR_REGS_SIZE words
238           F1-4                  /
239                                
240           R1-8                  |-- RET_DYN_BITMAP_SIZE words
241                                
242           return address        \
243           liveness mask         |-- StgRetDyn structure
244           stg_gen_chk_info      /
245
246    we assume that the size of a double is always 2 pointers (wasting a
247    word when it is only one pointer, but avoiding lots of #ifdefs).
248
249    NOTE: if you change the layout of RET_DYN stack frames, then you
250    might also need to adjust the value of RESERVED_STACK_WORDS in
251    Constants.h.
252    -------------------------------------------------------------------------- */
253
254 // VERY MAGIC CONSTANTS! 
255 // must agree with code in HeapStackCheck.c, stg_gen_chk, and
256 // RESERVED_STACK_WORDS in Constants.h.
257 //
258 #define RET_DYN_BITMAP_SIZE 8
259 #define RET_DYN_NONPTR_REGS_SIZE 10
260 #define ALL_NON_PTRS 0xff
261
262 // Sanity check that RESERVED_STACK_WORDS is reasonable.  We can't
263 // just derive RESERVED_STACK_WORDS because it's used in Haskell code
264 // too.
265 #if RESERVED_STACK_WORDS != (3 + RET_DYN_BITMAP_SIZE + RET_DYN_NONPTR_REGS_SIZE)
266 #error RESERVED_STACK_WORDS may be wrong!
267 #endif
268
269 #define LIVENESS_MASK(ptr_regs)  (ALL_NON_PTRS ^ (ptr_regs))
270
271 // We can have up to 255 pointers and 255 nonpointers in the stack
272 // frame.
273 #define N_NONPTRS(n)  ((n)<<16)
274 #define N_PTRS(n)     ((n)<<24)
275
276 #define GET_NONPTRS(l) ((l)>>16 & 0xff)
277 #define GET_PTRS(l)    ((l)>>24 & 0xff)
278 #define GET_LIVENESS(l) ((l) & 0xffff)
279
280 #define NO_PTRS   0
281 #define R1_PTR    1<<0
282 #define R2_PTR    1<<1
283 #define R3_PTR    1<<2
284 #define R4_PTR    1<<3
285 #define R5_PTR    1<<4
286 #define R6_PTR    1<<5
287 #define R7_PTR    1<<6
288 #define R8_PTR    1<<7
289
290 #define HP_CHK_UNBX_TUPLE(headroom,liveness,code)       \
291    if ((Hp += (headroom)) > HpLim ) {                   \
292         HpAlloc = (headroom);                           \
293         code                                            \
294         R9.w = (W_)LIVENESS_MASK(liveness);             \
295         JMP_(stg_gc_ut);                                \
296     }                                                       
297
298 #define HP_CHK_GEN(headroom,liveness,reentry)                   \
299    if ((Hp += (headroom)) > HpLim ) {                           \
300         HpAlloc = (headroom);                                   \
301         R9.w = (W_)LIVENESS_MASK(liveness);                     \
302         R10.w = (W_)reentry;                                    \
303         JMP_(stg_gc_gen);                                       \
304     }                                                       
305
306 #define HP_CHK_GEN_TICKY(headroom,liveness,reentry)     \
307    HP_CHK_GEN(headroom,liveness,reentry);               \
308    TICK_ALLOC_HEAP_NOCTR(headroom)
309
310 #define STK_CHK_GEN(headroom,liveness,reentry)  \
311    if ((Sp - (headroom)) < SpLim) {                             \
312         R9.w = (W_)LIVENESS_MASK(liveness);                     \
313         R10.w = (W_)reentry;                                    \
314         JMP_(stg_gc_gen);                                       \
315    }
316
317 #define MAYBE_GC(liveness,reentry)              \
318    if (doYouWantToGC()) {                       \
319         R9.w = (W_)LIVENESS_MASK(liveness);     \
320         R10.w = (W_)reentry;                    \
321         JMP_(stg_gc_gen_hp);                    \
322    }
323
324 /* -----------------------------------------------------------------------------
325    Voluntary Yields/Blocks
326
327    We only have a generic version of this at the moment - if it turns
328    out to be slowing us down we can make specialised ones.
329    -------------------------------------------------------------------------- */
330
331 EXTFUN_RTS(stg_gen_yield);
332 EXTFUN_RTS(stg_gen_block);
333
334 #define YIELD(liveness,reentry)                 \
335   {                                             \
336    R9.w  = (W_)LIVENESS_MASK(liveness);         \
337    R10.w = (W_)reentry;                         \
338    JMP_(stg_gen_yield);                         \
339   }
340
341 #define BLOCK(liveness,reentry)                 \
342   {                                             \
343    R9.w  = (W_)LIVENESS_MASK(liveness);         \
344    R10.w = (W_)reentry;                         \
345    JMP_(stg_gen_block);                         \
346   }
347
348 #define BLOCK_NP(ptrs)                          \
349   {                                             \
350     EXTFUN_RTS(stg_block_##ptrs);                       \
351     JMP_(stg_block_##ptrs);                     \
352   }
353
354 #if defined(PAR)
355 /*
356   Similar to BLOCK_NP but separates the saving of the thread state from the
357   actual jump via an StgReturn
358 */
359
360 #define SAVE_THREAD_STATE(ptrs)                  \
361   ASSERT(ptrs==1);                               \
362   Sp -= 1;                                       \
363   Sp[0] = R1.w;                                  \
364   SaveThreadState();                             
365
366 #define THREAD_RETURN(ptrs)                      \
367   ASSERT(ptrs==1);                               \
368   CurrentTSO->what_next = ThreadEnterGHC;        \
369   R1.i = ThreadBlocked;                          \
370   JMP_(StgReturn);                               
371 #endif
372
373 /* -----------------------------------------------------------------------------
374    CCall_GC needs to push a dummy stack frame containing the contents
375    of volatile registers and variables.  
376
377    We use a RET_DYN frame the same as for a dynamic heap check.
378    ------------------------------------------------------------------------- */
379
380 /* -----------------------------------------------------------------------------
381    Vectored Returns
382
383    RETVEC(p,t) where 'p' is a pointer to the info table for a
384    vectored return address, returns the address of the return code for
385    tag 't'.
386
387    Return vectors are placed in *reverse order* immediately before the info
388    table for the return address.  Hence the formula for computing the
389    actual return address is (addr - sizeof(RetInfoTable) - tag - 1).
390    The extra subtraction of one word is because tags start at zero.
391    -------------------------------------------------------------------------- */
392
393 #ifdef TABLES_NEXT_TO_CODE
394 #define RET_VEC(p,t) (*((P_)(p) - sizeofW(StgRetInfoTable) - t - 1))
395 #else
396 #define RET_VEC(p,t) (((StgRetInfoTable *)p)->vector[t])
397 #endif
398
399 /* -----------------------------------------------------------------------------
400    Misc
401    -------------------------------------------------------------------------- */
402
403
404 /* set the tag register (if we have one) */
405 #define SET_TAG(t)  /* nothing */
406
407 #ifdef EAGER_BLACKHOLING
408 #  ifdef SMP
409 #    define UPD_BH_UPDATABLE(info)                              \
410         TICK_UPD_BH_UPDATABLE();                                \
411         {                                                       \
412           bdescr *bd = Bdescr(R1.p);                            \
413           if (bd->u.back != (bdescr *)BaseReg) {                \
414              if (bd->gen_no >= 1 || bd->step->no >= 1) {        \
415                  LOCK_THUNK(info);                              \
416              } else {                                           \
417                  EXTFUN_RTS(stg_gc_enter_1_hponly);             \
418                  JMP_(stg_gc_enter_1_hponly);                   \
419              }                                                  \
420           }                                                     \
421         }                                                       \
422         SET_INFO(R1.cl,&stg_BLACKHOLE_info)
423 #    define UPD_BH_SINGLE_ENTRY(info)                           \
424         TICK_UPD_BH_SINGLE_ENTRY();                             \
425         {                                                       \
426           bdescr *bd = Bdescr(R1.p);                            \
427           if (bd->u.back != (bdescr *)BaseReg) {                \
428              if (bd->gen_no >= 1 || bd->step->no >= 1) {        \
429                  LOCK_THUNK(info);                              \
430              } else {                                           \
431                  EXTFUN_RTS(stg_gc_enter_1_hponly);             \
432                  JMP_(stg_gc_enter_1_hponly);                   \
433              }                                                  \
434           }                                                     \
435         }                                                       \
436         SET_INFO(R1.cl,&stg_BLACKHOLE_info)
437 #  else
438 #   ifndef PROFILING
439 #    define UPD_BH_UPDATABLE(info)              \
440         TICK_UPD_BH_UPDATABLE();                \
441         SET_INFO(R1.cl,&stg_BLACKHOLE_info)
442 #    define UPD_BH_SINGLE_ENTRY(info)           \
443         TICK_UPD_BH_SINGLE_ENTRY();             \
444         SET_INFO(R1.cl,&stg_SE_BLACKHOLE_info)
445 #   else
446 // An object is replaced by a blackhole, so we fill the slop with zeros.
447 // 
448 // This looks like it can't work - we're overwriting the contents of
449 // the THUNK with slop!  Perhaps this never worked??? --SDM
450 //
451 // Todo: maybe use SET_HDR() and remove LDV_recordCreate()?
452 // 
453 #    define UPD_BH_UPDATABLE(info)              \
454         TICK_UPD_BH_UPDATABLE();                \
455         LDV_recordDead_FILL_SLOP_DYNAMIC(R1.cl);               \
456         SET_INFO(R1.cl,&stg_BLACKHOLE_info);    \
457         LDV_recordCreate(R1.cl)
458 #    define UPD_BH_SINGLE_ENTRY(info)           \
459         TICK_UPD_BH_SINGLE_ENTRY();             \
460         LDV_recordDead_FILL_SLOP_DYNAMIC(R1.cl);               \
461         SET_INFO(R1.cl,&stg_SE_BLACKHOLE_info)  \
462         LDV_recordCreate(R1.cl)
463 #   endif /* PROFILING */
464 #  endif
465 #else /* !EAGER_BLACKHOLING */
466 #  define UPD_BH_UPDATABLE(thunk)    /* nothing */
467 #  define UPD_BH_SINGLE_ENTRY(thunk) /* nothing */
468 #endif /* EAGER_BLACKHOLING */
469
470 /* -----------------------------------------------------------------------------
471    Moving Floats and Doubles
472
473    ASSIGN_FLT is for assigning a float to memory (usually the
474               stack/heap).  The memory address is guaranteed to be
475               StgWord aligned (currently == sizeof(void *)).
476
477    PK_FLT     is for pulling a float out of memory.  The memory is
478               guaranteed to be StgWord aligned.
479    -------------------------------------------------------------------------- */
480
481 static inline void        ASSIGN_FLT (W_ [], StgFloat);
482 static inline StgFloat    PK_FLT     (W_ []);
483
484 #if ALIGNMENT_FLOAT <= ALIGNMENT_LONG
485
486 static inline void     ASSIGN_FLT(W_ p_dest[], StgFloat src) { *(StgFloat *)p_dest = src; }
487 static inline StgFloat PK_FLT    (W_ p_src[])                { return *(StgFloat *)p_src; }
488
489 #else  /* ALIGNMENT_FLOAT > ALIGNMENT_UNSIGNED_INT */
490
491 static inline void ASSIGN_FLT(W_ p_dest[], StgFloat src)
492 {
493     float_thing y;
494     y.f = src;
495     *p_dest = y.fu;
496 }
497
498 static inline StgFloat PK_FLT(W_ p_src[])
499 {
500     float_thing y;
501     y.fu = *p_src;
502     return(y.f);
503 }
504
505 #endif /* ALIGNMENT_FLOAT > ALIGNMENT_LONG */
506
507 #if ALIGNMENT_DOUBLE <= ALIGNMENT_LONG
508
509 static inline void        ASSIGN_DBL (W_ [], StgDouble);
510 static inline StgDouble   PK_DBL     (W_ []);
511
512 static inline void      ASSIGN_DBL(W_ p_dest[], StgDouble src) { *(StgDouble *)p_dest = src; }
513 static inline StgDouble PK_DBL    (W_ p_src[])                 { return *(StgDouble *)p_src; }
514
515 #else   /* ALIGNMENT_DOUBLE > ALIGNMENT_LONG */
516
517 /* Sparc uses two floating point registers to hold a double.  We can
518  * write ASSIGN_DBL and PK_DBL by directly accessing the registers
519  * independently - unfortunately this code isn't writable in C, we
520  * have to use inline assembler.
521  */
522 #if sparc_TARGET_ARCH
523
524 #define ASSIGN_DBL(dst0,src) \
525     { StgPtr dst = (StgPtr)(dst0); \
526       __asm__("st %2,%0\n\tst %R2,%1" : "=m" (((P_)(dst))[0]), \
527         "=m" (((P_)(dst))[1]) : "f" (src)); \
528     }
529
530 #define PK_DBL(src0) \
531     ( { StgPtr src = (StgPtr)(src0); \
532         register double d; \
533       __asm__("ld %1,%0\n\tld %2,%R0" : "=f" (d) : \
534         "m" (((P_)(src))[0]), "m" (((P_)(src))[1])); d; \
535     } )
536
537 #else /* ! sparc_TARGET_ARCH */
538
539 static inline void        ASSIGN_DBL (W_ [], StgDouble);
540 static inline StgDouble   PK_DBL     (W_ []);
541
542 typedef struct
543   { StgWord dhi;
544     StgWord dlo;
545   } unpacked_double;
546
547 typedef union
548   { StgDouble d;
549     unpacked_double du;
550   } double_thing;
551
552 static inline void ASSIGN_DBL(W_ p_dest[], StgDouble src)
553 {
554     double_thing y;
555     y.d = src;
556     p_dest[0] = y.du.dhi;
557     p_dest[1] = y.du.dlo;
558 }
559
560 /* GCC also works with this version, but it generates
561    the same code as the previous one, and is not ANSI
562
563 #define ASSIGN_DBL( p_dest, src ) \
564         *p_dest = ((double_thing) src).du.dhi; \
565         *(p_dest+1) = ((double_thing) src).du.dlo \
566 */
567
568 static inline StgDouble PK_DBL(W_ p_src[])
569 {
570     double_thing y;
571     y.du.dhi = p_src[0];
572     y.du.dlo = p_src[1];
573     return(y.d);
574 }
575
576 #endif /* ! sparc_TARGET_ARCH */
577
578 #endif /* ALIGNMENT_DOUBLE > ALIGNMENT_UNSIGNED_INT */
579
580 #ifdef SUPPORT_LONG_LONGS
581
582 typedef struct
583   { StgWord dhi;
584     StgWord dlo;
585   } unpacked_double_word;
586
587 typedef union
588   { StgInt64 i;
589     unpacked_double_word iu;
590   } int64_thing;
591
592 typedef union
593   { StgWord64 w;
594     unpacked_double_word wu;
595   } word64_thing;
596
597 static inline void ASSIGN_Word64(W_ p_dest[], StgWord64 src)
598 {
599     word64_thing y;
600     y.w = src;
601     p_dest[0] = y.wu.dhi;
602     p_dest[1] = y.wu.dlo;
603 }
604
605 static inline StgWord64 PK_Word64(W_ p_src[])
606 {
607     word64_thing y;
608     y.wu.dhi = p_src[0];
609     y.wu.dlo = p_src[1];
610     return(y.w);
611 }
612
613 static inline void ASSIGN_Int64(W_ p_dest[], StgInt64 src)
614 {
615     int64_thing y;
616     y.i = src;
617     p_dest[0] = y.iu.dhi;
618     p_dest[1] = y.iu.dlo;
619 }
620
621 static inline StgInt64 PK_Int64(W_ p_src[])
622 {
623     int64_thing y;
624     y.iu.dhi = p_src[0];
625     y.iu.dlo = p_src[1];
626     return(y.i);
627 }
628
629 #elif SIZEOF_VOID_P == 8
630
631 static inline void ASSIGN_Word64(W_ p_dest[], StgWord64 src)
632 {
633         p_dest[0] = src;
634 }
635
636 static inline StgWord64 PK_Word64(W_ p_src[])
637 {
638     return p_src[0];
639 }
640
641 static inline void ASSIGN_Int64(W_ p_dest[], StgInt64 src)
642 {
643     p_dest[0] = src;
644 }
645
646 static inline StgInt64 PK_Int64(W_ p_src[])
647 {
648     return p_src[0];
649 }
650
651 #endif
652
653 /* -----------------------------------------------------------------------------
654    Catch frames
655    -------------------------------------------------------------------------- */
656
657 extern DLL_IMPORT_RTS const StgPolyInfoTable stg_catch_frame_info;
658
659 /* -----------------------------------------------------------------------------
660    Split markers
661    -------------------------------------------------------------------------- */
662
663 #if defined(USE_SPLIT_MARKERS)
664 #if defined(LEADING_UNDERSCORE)
665 #define __STG_SPLIT_MARKER __asm__("\n___stg_split_marker:");
666 #else
667 #define __STG_SPLIT_MARKER __asm__("\n__stg_split_marker:");
668 #endif
669 #else
670 #define __STG_SPLIT_MARKER /* nothing */
671 #endif
672
673 /* -----------------------------------------------------------------------------
674    Closure and Info Macros with casting.
675
676    We don't want to mess around with casts in the generated C code, so
677    we use this casting versions of the closure macro.
678
679    This version of SET_HDR also includes CCS_ALLOC for profiling - the
680    reason we don't use two separate macros is that the cost centre
681    field is sometimes a non-simple expression and we want to share its
682    value between SET_HDR and CCS_ALLOC.
683    -------------------------------------------------------------------------- */
684
685 #define SET_HDR_(c,info,ccs,size)                               \
686   {                                                             \
687       CostCentreStack *tmp = (ccs);                             \
688       SET_HDR((StgClosure *)(c),(StgInfoTable *)(info),tmp);    \
689       CCS_ALLOC(tmp,size);                                      \
690   }
691
692 /* -----------------------------------------------------------------------------
693    Saving context for exit from the STG world, and loading up context
694    on entry to STG code.
695
696    We save all the STG registers (that is, the ones that are mapped to
697    machine registers) in their places in the TSO.  
698
699    The stack registers go into the current stack object, and the
700    current nursery is updated from the heap pointer.
701
702    These functions assume that BaseReg is loaded appropriately (if
703    we have one).
704    -------------------------------------------------------------------------- */
705
706 #if IN_STG_CODE
707
708 static __inline__ void
709 SaveThreadState(void)
710 {
711   StgTSO *tso;
712
713   /* Don't need to save REG_Base, it won't have changed. */
714
715   tso = CurrentTSO;
716   tso->sp       = Sp;
717   CloseNursery(Hp);
718
719 #ifdef REG_CurrentTSO
720   SAVE_CurrentTSO = tso;
721 #endif
722 #ifdef REG_CurrentNursery
723   SAVE_CurrentNursery = CurrentNursery;
724 #endif
725 #if defined(PROFILING)
726   CurrentTSO->prof.CCCS = CCCS;
727 #endif
728 }
729
730 static __inline__ void 
731 LoadThreadState (void)
732 {
733   StgTSO *tso;
734
735 #ifdef REG_CurrentTSO
736   CurrentTSO = SAVE_CurrentTSO;
737 #endif
738
739   tso = CurrentTSO;
740   Sp    = tso->sp;
741   SpLim = (P_)&(tso->stack) + RESERVED_STACK_WORDS;
742   OpenNursery(Hp,HpLim);
743
744 #ifdef REG_CurrentNursery
745   CurrentNursery = SAVE_CurrentNursery;
746 #endif
747 # if defined(PROFILING)
748   CCCS = CurrentTSO->prof.CCCS;
749 # endif
750 }
751
752 #endif
753
754 /* -----------------------------------------------------------------------------
755    Module initialisation
756
757    The module initialisation code looks like this, roughly:
758
759         FN(__stginit_Foo) {
760           JMP_(__stginit_Foo_1_p)
761         }
762
763         FN(__stginit_Foo_1_p) {
764         ...
765         }
766
767    We have one version of the init code with a module version and the
768    'way' attached to it.  The version number helps to catch cases
769    where modules are not compiled in dependency order before being
770    linked: if a module has been compiled since any modules which depend on
771    it, then the latter modules will refer to a different version in their
772    init blocks and a link error will ensue.
773
774    The 'way' suffix helps to catch cases where modules compiled in different
775    ways are linked together (eg. profiled and non-profiled).
776
777    We provide a plain, unadorned, version of the module init code
778    which just jumps to the version with the label and way attached.  The
779    reason for this is that when using foreign exports, the caller of
780    startupHaskell() must supply the name of the init function for the "top"
781    module in the program, and we don't want to require that this name
782    has the version and way info appended to it.
783    -------------------------------------------------------------------------- */
784
785 #define PUSH_INIT_STACK(reg_function)           \
786         *(Sp++) = (W_)reg_function
787
788 #define POP_INIT_STACK()                        \
789         *(--Sp)
790
791 #define MOD_INIT_WRAPPER(label,real_init)       \
792
793
794 #define START_MOD_INIT(plain_lbl, real_lbl)     \
795         static int _module_registered = 0;      \
796         EF_(real_lbl);                          \
797         FN_(plain_lbl) {                        \
798             FB_                                 \
799             JMP_(real_lbl);                     \
800             FE_                                 \
801         }                                       \
802         FN_(real_lbl) {                 \
803             FB_;                                \
804             if (! _module_registered) {         \
805                 _module_registered = 1;         \
806                 { 
807             /* extern decls go here, followed by init code */
808
809 #define REGISTER_FOREIGN_EXPORT(reg_fe_binder)  \
810         STGCALL1(getStablePtr,reg_fe_binder)
811         
812 #define REGISTER_IMPORT(reg_mod_name)           \
813         PUSH_INIT_STACK(reg_mod_name)
814
815 #define END_MOD_INIT()                          \
816         }};                                     \
817         JMP_(POP_INIT_STACK());                 \
818         FE_ }
819
820 /* -----------------------------------------------------------------------------
821    Support for _ccall_GC_ and _casm_GC.
822    -------------------------------------------------------------------------- */
823
824 /* 
825  * Suspending/resuming threads for doing external C-calls (_ccall_GC).
826  * These functions are defined in rts/Schedule.c.
827  */
828 StgInt        suspendThread ( StgRegTable *, rtsBool);
829 StgRegTable * resumeThread  ( StgInt, rtsBool );
830
831 #define SUSPEND_THREAD(token,threaded)          \
832    SaveThreadState();                           \
833    token = suspendThread(BaseReg,threaded);
834
835 #ifdef SMP
836 #define RESUME_THREAD(token,threaded)           \
837     BaseReg = resumeThread(token,threaded);     \
838     LoadThreadState();
839 #else
840 #define RESUME_THREAD(token,threaded)           \
841    (void)resumeThread(token,threaded);          \
842    LoadThreadState();
843 #endif
844
845 #endif /* STGMACROS_H */
846