3b3c403eaa611c2415842b8dfad674c14d5132bf
[ghc-hetmet.git] / ghc / compiler / codeGen / CgHeapery.lhs
1 %
2 % (c) The GRASP/AQUA Project, Glasgow University, 1992-1998
3 %
4 % $Id: CgHeapery.lhs,v 1.32 2002/08/29 15:44:13 simonmar Exp $
5 %
6 \section[CgHeapery]{Heap management functions}
7
8 \begin{code}
9 module CgHeapery (
10         fastEntryChecks, altHeapCheck, thunkChecks,
11         allocDynClosure, inPlaceAllocDynClosure
12
13         -- new functions, basically inserting macro calls into Code -- HWL
14         ,fetchAndReschedule, yield
15     ) where
16
17 #include "HsVersions.h"
18
19 import AbsCSyn
20 import CLabel
21 import CgMonad
22
23 import CgStackery       ( getFinalStackHW, mkTaggedStkAmodes, mkTagAssts )
24 import AbsCUtils        ( mkAbstractCs, getAmodeRep )
25 import CgUsages         ( getVirtAndRealHp, getRealSp, setVirtHp, setRealHp,
26                           initHeapUsage
27                         )
28 import ClosureInfo      ( closureSize, closureGoodStuffSize,
29                           slopSize, allocProfilingMsg, ClosureInfo
30                         )
31 import PrimRep          ( PrimRep(..), isFollowableRep )
32 import Unique           ( Unique )
33 import CmdLineOpts      ( opt_GranMacros )
34 import Outputable
35
36 #ifdef DEBUG
37 import PprAbsC          ( pprMagicId ) -- tmp
38 #endif
39
40 import GLAEXTS
41 \end{code}
42
43 %************************************************************************
44 %*                                                                      *
45 \subsection[CgHeapery-heap-overflow]{Heap overflow checking}
46 %*                                                                      *
47 %************************************************************************
48
49 The new code  for heapChecks. For GrAnSim the code for doing a heap check
50 and doing a context switch has been separated. Especially, the HEAP_CHK
51 macro only performs a heap check. THREAD_CONTEXT_SWITCH should be used for
52 doing a context switch. GRAN_FETCH_AND_RESCHEDULE must be put at the
53 beginning of every slow entry code in order to simulate the fetching of
54 closures. If fetching is necessary (i.e. current closure is not local) then
55 an automatic context switch is done.
56
57 -----------------------------------------------------------------------------
58 A heap/stack check at a fast entry point.
59
60 \begin{code}
61
62 fastEntryChecks
63         :: [MagicId]                    -- Live registers
64         -> [(VirtualSpOffset,Int)]      -- stack slots to tag
65         -> CLabel                       -- return point
66         -> Bool                         -- node points to closure
67         -> Code
68         -> Code
69
70 fastEntryChecks regs tags ret node_points code
71   =  mkTagAssts tags                             `thenFC` \tag_assts ->
72      getFinalStackHW                             (\ spHw -> 
73      getRealSp                                   `thenFC` \ sp ->
74      let stk_words = spHw - sp in
75      initHeapUsage                               (\ hHw  ->
76
77      getTickyCtrLabel `thenFC` \ ticky_ctr ->
78
79      ( if all_pointers then -- heap checks are quite easy
80           -- HWL: gran-yield immediately before heap check proper
81           --(if node `elem` regs
82           --   then yield regs True
83           --   else absC AbsCNop ) `thenC`
84           absC (checking_code stk_words hHw tag_assts 
85                         free_reg (length regs) ticky_ctr)
86
87        else -- they are complicated
88
89           -- save all registers on the stack and adjust the stack pointer.
90           -- ToDo: find the initial all-pointer segment and don't save them.
91
92           mkTaggedStkAmodes sp addrmode_regs 
93                   `thenFC` \(new_sp, stk_assts, more_tag_assts) ->
94
95           -- only let the extra stack assignments affect the stack
96           -- high water mark if we were doing a stack check anyway;
97           -- otherwise we end up generating unnecessary stack checks.
98           -- Careful about knot-tying loops!
99           let real_stk_words =  if new_sp - sp > stk_words && stk_words /= 0
100                                         then new_sp - sp
101                                         else stk_words
102           in
103
104           let adjust_sp = CAssign (CReg Sp) (CAddr (spRel sp new_sp)) in
105
106           absC (checking_code real_stk_words hHw 
107                     (mkAbstractCs [tag_assts, stk_assts, more_tag_assts,
108                                    adjust_sp])
109                     (CReg node) 0 ticky_ctr)
110
111       ) `thenC`
112
113       setRealHp hHw `thenC`
114       code))
115
116   where
117         
118     checking_code stk hp assts ret regs ctr
119         = mkAbstractCs 
120           [ real_check,
121             if hp == 0 then AbsCNop 
122             else profCtrAbsC FSLIT("TICK_ALLOC_HEAP") 
123                   [ mkIntCLit hp, CLbl ctr DataPtrRep ]
124           ]
125
126         where real_check
127                   | node_points = do_checks_np stk hp assts (regs+1)
128                   | otherwise   = do_checks    stk hp assts ret regs
129
130     -- When node points to the closure for the function:
131
132     do_checks_np
133         :: Int                          -- stack headroom
134         -> Int                          -- heap  headroom
135         -> AbstractC                    -- assignments to perform on failure
136         -> Int                          -- number of pointer registers live
137         -> AbstractC
138     do_checks_np 0 0 _ _ = AbsCNop
139     do_checks_np 0 hp_words tag_assts ptrs =
140             CCheck HP_CHK_NP [
141                   mkIntCLit hp_words,
142                   mkIntCLit ptrs
143                  ]
144                  tag_assts
145     do_checks_np stk_words 0 tag_assts ptrs =
146             CCheck STK_CHK_NP [
147                   mkIntCLit stk_words,
148                   mkIntCLit ptrs
149                  ]
150                  tag_assts
151     do_checks_np stk_words hp_words tag_assts ptrs =
152             CCheck HP_STK_CHK_NP [
153                   mkIntCLit stk_words,
154                   mkIntCLit hp_words,
155                   mkIntCLit ptrs
156                  ]
157                  tag_assts
158
159     -- When node doesn't point to the closure (we need an explicit retn addr)
160
161     do_checks 
162         :: Int                          -- stack headroom
163         -> Int                          -- heap  headroom
164         -> AbstractC                    -- assignments to perform on failure
165         -> CAddrMode                    -- a register to hold the retn addr.
166         -> Int                          -- number of pointer registers live
167         -> AbstractC
168
169     do_checks 0 0 _ _ _ = AbsCNop
170     do_checks 0 hp_words tag_assts ret_reg ptrs =
171             CCheck HP_CHK [
172                   mkIntCLit hp_words,
173                   CLbl ret CodePtrRep,
174                   ret_reg,
175                   mkIntCLit ptrs
176                  ]
177                  tag_assts
178     do_checks stk_words 0 tag_assts ret_reg ptrs =
179             CCheck STK_CHK [
180                   mkIntCLit stk_words,
181                   CLbl ret CodePtrRep,
182                   ret_reg,
183                   mkIntCLit ptrs
184                  ]
185                  tag_assts
186     do_checks stk_words hp_words tag_assts ret_reg ptrs =
187             CCheck HP_STK_CHK [
188                   mkIntCLit stk_words,
189                   mkIntCLit hp_words,
190                   CLbl ret CodePtrRep,
191                   ret_reg,
192                   mkIntCLit ptrs
193                  ]
194                  tag_assts
195
196     free_reg  = case length regs + 1 of 
197                        I# x -> CReg (VanillaReg PtrRep x)
198
199     all_pointers = all pointer regs
200     pointer (VanillaReg rep _) = isFollowableRep rep
201     pointer _ = False
202
203     addrmode_regs = map CReg regs
204
205 -- Checking code for thunks is just a special case of fast entry points:
206
207 thunkChecks :: CLabel -> Bool -> Code -> Code
208 thunkChecks ret node_points code = fastEntryChecks [] [] ret node_points code
209 \end{code}
210
211 Heap checks in a case alternative are nice and easy, provided this is
212 a bog-standard algebraic case.  We have in our hand:
213
214        * one return address, on the stack,
215        * one return value, in Node.
216
217 the canned code for this heap check failure just pushes Node on the
218 stack, saying 'EnterGHC' to return.  The scheduler will return by
219 entering the top value on the stack, which in turn will return through
220 the return address, getting us back to where we were.  This is
221 therefore only valid if the return value is *lifted* (just being
222 boxed isn't good enough).  Only a PtrRep will do.
223
224 For primitive returns, we have an unlifted value in some register
225 (either R1 or FloatReg1 or DblReg1).  This means using specialised
226 heap-check code for these cases.
227
228 For unboxed tuple returns, there are an arbitrary number of possibly
229 unboxed return values, some of which will be in registers, and the
230 others will be on the stack, with gaps left for tagging the unboxed
231 objects.  If a heap check is required, we need to fill in these tags.
232
233 The code below will cover all cases for the x86 architecture (where R1
234 is the only VanillaReg ever used).  For other architectures, we'll
235 have to do something about saving and restoring the other registers.
236
237 \begin{code}
238 altHeapCheck 
239         :: Bool                         -- is an algebraic alternative
240         -> [MagicId]                    -- live registers
241         -> [(VirtualSpOffset,Int)]      -- stack slots to tag
242         -> AbstractC
243         -> Maybe Unique                 -- uniq of ret address (possibly)
244         -> Code
245         -> Code
246
247 -- unboxed tuple alternatives and let-no-escapes (the two most annoying
248 -- constructs to generate code for!):
249
250 altHeapCheck is_fun regs tags fail_code (Just ret_addr) code
251   = mkTagAssts tags `thenFC` \tag_assts1 ->
252     let tag_assts = mkAbstractCs [fail_code, tag_assts1]
253     in
254     initHeapUsage (\ hHw -> do_heap_chk hHw tag_assts `thenC` code)
255   where
256     do_heap_chk words_required tag_assts
257       = getTickyCtrLabel `thenFC` \ ctr ->
258         absC ( if words_required == 0
259                   then  AbsCNop
260                   else  mkAbstractCs 
261                         [ checking_code tag_assts,
262                           profCtrAbsC FSLIT("TICK_ALLOC_HEAP") 
263                             [ mkIntCLit words_required, CLbl ctr DataPtrRep ]
264                         ]
265         )  `thenC`
266         setRealHp words_required
267
268       where
269         non_void_regs = filter (/= VoidReg) regs
270
271         checking_code tag_assts = 
272           case non_void_regs of
273
274 {- no: there might be stuff on top of the retn. addr. on the stack.
275             [{-no regs-}] ->
276                 CCheck HP_CHK_NOREGS
277                     [mkIntCLit words_required]
278                     tag_assts
279 -}
280             -- this will cover all cases for x86
281             [VanillaReg rep 1#] 
282
283                | isFollowableRep rep ->
284                   CCheck HP_CHK_UT_ALT
285                       [mkIntCLit words_required, mkIntCLit 1, mkIntCLit 0,
286                         CReg (VanillaReg RetRep 2#),
287                         CLbl (mkReturnInfoLabel ret_addr) RetRep]
288                       tag_assts
289
290                | otherwise ->
291                   CCheck HP_CHK_UT_ALT
292                       [mkIntCLit words_required, mkIntCLit 0, mkIntCLit 1,
293                         CReg (VanillaReg RetRep 2#),
294                         CLbl (mkReturnInfoLabel ret_addr) RetRep]
295                       tag_assts
296
297             several_regs ->
298                 let liveness = mkRegLiveness several_regs
299                 in
300                 CCheck HP_CHK_GEN
301                      [mkIntCLit words_required, 
302                       mkIntCLit (I# (word2Int# liveness)),
303                         -- HP_CHK_GEN needs a direct return address,
304                         -- not an info table (might be different if
305                         -- we're not assembly-mangling/tail-jumping etc.)
306                       CLbl (mkReturnPtLabel ret_addr) RetRep] 
307                      tag_assts
308
309 -- normal algebraic and primitive case alternatives:
310
311 altHeapCheck is_fun regs [] AbsCNop Nothing code
312   = initHeapUsage (\ hHw -> do_heap_chk hHw `thenC` code)
313   where
314     do_heap_chk :: HeapOffset -> Code
315     do_heap_chk words_required
316       = getTickyCtrLabel `thenFC` \ ctr ->
317         absC ( if words_required == 0
318                  then  AbsCNop
319                  else  mkAbstractCs 
320                        [ checking_code,
321                          profCtrAbsC FSLIT("TICK_ALLOC_HEAP") 
322                             [ mkIntCLit words_required, CLbl ctr DataPtrRep ]
323                        ]
324         )  `thenC`
325         setRealHp words_required
326
327       where
328         non_void_regs = filter (/= VoidReg) regs
329
330         checking_code = 
331           case non_void_regs of
332
333             -- No regs live: probably a Void return
334             [] ->
335                CCheck HP_CHK_NOREGS [mkIntCLit words_required] AbsCNop
336
337             -- The SEQ case (polymophic/function typed case branch)
338             -- We need this case because the closure in Node won't return
339             -- directly when we enter it (it could be a function), so the
340             -- heap check code needs to push a seq frame on top of the stack.
341             [VanillaReg rep 1#]
342                 |  rep == PtrRep
343                 && is_fun ->
344                   CCheck HP_CHK_SEQ_NP
345                         [mkIntCLit words_required, mkIntCLit 1{-regs live-}]
346                         AbsCNop
347
348             -- R1 is lifted (the common case)
349             [VanillaReg rep 1#]
350                 | rep == PtrRep ->
351                   CCheck HP_CHK_NP
352                         [mkIntCLit words_required, mkIntCLit 1{-regs live-}]
353                         AbsCNop
354
355             -- R1 is boxed, but unlifted
356                 | isFollowableRep rep ->
357                   CCheck HP_CHK_UNPT_R1 [mkIntCLit words_required] AbsCNop
358
359             -- R1 is unboxed
360                 | otherwise ->
361                   CCheck HP_CHK_UNBX_R1 [mkIntCLit words_required] AbsCNop
362
363             -- FloatReg1
364             [FloatReg 1#] ->
365                   CCheck HP_CHK_F1 [mkIntCLit words_required] AbsCNop
366
367             -- DblReg1
368             [DoubleReg 1#] ->
369                   CCheck HP_CHK_D1 [mkIntCLit words_required] AbsCNop
370
371             -- LngReg1
372             [LongReg _ 1#] ->
373                   CCheck HP_CHK_L1 [mkIntCLit words_required] AbsCNop
374
375 #ifdef DEBUG
376             _ -> panic ("CgHeapery.altHeapCheck: unimplemented heap-check, live regs = " ++ showSDoc (sep (map pprMagicId non_void_regs)))
377 #endif
378
379 -- build up a bitmap of the live pointer registers
380
381 #if __GLASGOW_HASKELL__ >= 503
382 shiftL = uncheckedShiftL#
383 #else
384 shiftL = shiftL#
385 #endif
386
387 mkRegLiveness :: [MagicId] -> Word#
388 mkRegLiveness []  =  int2Word# 0#
389 mkRegLiveness (VanillaReg rep i : regs) | isFollowableRep rep 
390   =  ((int2Word# 1#) `shiftL` (i -# 1#)) `or#` mkRegLiveness regs
391 mkRegLiveness (_ : regs)  =  mkRegLiveness regs
392
393 -- The two functions below are only used in a GranSim setup
394 -- Emit macro for simulating a fetch and then reschedule
395
396 fetchAndReschedule ::   [MagicId]               -- Live registers
397                         -> Bool                 -- Node reqd?
398                         -> Code
399
400 fetchAndReschedule regs node_reqd  = 
401       if (node `elem` regs || node_reqd)
402         then fetch_code `thenC` reschedule_code
403         else absC AbsCNop
404       where
405         liveness_mask = mkRegLiveness regs
406         reschedule_code = absC  (CMacroStmt GRAN_RESCHEDULE [
407                                  mkIntCLit (I# (word2Int# liveness_mask)), 
408                                  mkIntCLit (if node_reqd then 1 else 0)])
409
410          --HWL: generate GRAN_FETCH macro for GrAnSim
411          --     currently GRAN_FETCH and GRAN_FETCH_AND_RESCHEDULE are miai
412         fetch_code = absC (CMacroStmt GRAN_FETCH [])
413 \end{code}
414
415 The @GRAN_YIELD@ macro is taken from JSM's  code for Concurrent Haskell. It
416 allows to context-switch at  places where @node@ is  not alive (it uses the
417 @Continue@ rather  than the @EnterNodeCode@  function in the  RTS). We emit
418 this kind of macro at the beginning of the following kinds of basic bocks:
419 \begin{itemize}
420  \item Slow entry code where node is not alive (see @CgClosure.lhs@). Normally 
421        we use @fetchAndReschedule@ at a slow entry code.
422  \item Fast entry code (see @CgClosure.lhs@).
423  \item Alternatives in case expressions (@CLabelledCode@ structures), provided
424        that they are not inlined (see @CgCases.lhs@). These alternatives will 
425        be turned into separate functions.
426 \end{itemize}
427
428 \begin{code}
429 yield ::   [MagicId]               -- Live registers
430              -> Bool                 -- Node reqd?
431              -> Code 
432
433 yield regs node_reqd = 
434    if opt_GranMacros && node_reqd
435      then yield_code
436      else absC AbsCNop
437    where
438      liveness_mask = mkRegLiveness regs
439      yield_code = 
440        absC (CMacroStmt GRAN_YIELD 
441                           [mkIntCLit (I# (word2Int# liveness_mask))])
442 \end{code}
443
444 %************************************************************************
445 %*                                                                      *
446 \subsection[initClosure]{Initialise a dynamic closure}
447 %*                                                                      *
448 %************************************************************************
449
450 @allocDynClosure@ puts the thing in the heap, and modifies the virtual Hp
451 to account for this.
452
453 \begin{code}
454 allocDynClosure
455         :: ClosureInfo
456         -> CAddrMode            -- Cost Centre to stick in the object
457         -> CAddrMode            -- Cost Centre to blame for this alloc
458                                 -- (usually the same; sometimes "OVERHEAD")
459
460         -> [(CAddrMode, VirtualHeapOffset)]     -- Offsets from start of the object
461                                                 -- ie Info ptr has offset zero.
462         -> FCode VirtualHeapOffset              -- Returns virt offset of object
463
464 allocDynClosure closure_info use_cc blame_cc amodes_with_offsets
465   = getVirtAndRealHp                            `thenFC` \ (virtHp, realHp) ->
466
467         -- FIND THE OFFSET OF THE INFO-PTR WORD
468         -- virtHp points to last allocated word, ie 1 *before* the
469         -- info-ptr word of new object.
470     let  info_offset = virtHp + 1
471
472         -- do_move IS THE ASSIGNMENT FUNCTION
473          do_move (amode, offset_from_start)
474            = CAssign (CVal (hpRel realHp
475                                   (info_offset + offset_from_start))
476                            (getAmodeRep amode))
477                      amode
478     in
479         -- SAY WHAT WE ARE ABOUT TO DO
480     profCtrC (allocProfilingMsg closure_info)
481                            [mkIntCLit (closureGoodStuffSize closure_info),
482                             mkIntCLit slop_size]        `thenC`
483
484         -- GENERATE THE CODE
485     absC ( mkAbstractCs (
486            [ CInitHdr closure_info 
487                 (CAddr (hpRel realHp info_offset)) 
488                 use_cc closure_size ]
489            ++ (map do_move amodes_with_offsets)))       `thenC`
490
491         -- BUMP THE VIRTUAL HEAP POINTER
492     setVirtHp (virtHp + closure_size)                   `thenC`
493
494         -- RETURN PTR TO START OF OBJECT
495     returnFC info_offset
496   where
497     closure_size = closureSize closure_info
498     slop_size    = slopSize closure_info
499 \end{code}
500
501 Occasionally we can update a closure in place instead of allocating
502 new space for it.  This is the function that does the business, assuming:
503
504         - node points to the closure to be overwritten
505
506         - the new closure doesn't contain any pointers if we're
507           using a generational collector.
508
509 \begin{code}
510 inPlaceAllocDynClosure
511         :: ClosureInfo
512         -> CAddrMode            -- Pointer to beginning of closure
513         -> CAddrMode            -- Cost Centre to stick in the object
514
515         -> [(CAddrMode, VirtualHeapOffset)]     -- Offsets from start of the object
516                                                 -- ie Info ptr has offset zero.
517         -> Code
518
519 inPlaceAllocDynClosure closure_info head use_cc amodes_with_offsets
520   = let -- do_move IS THE ASSIGNMENT FUNCTION
521          do_move (amode, offset_from_start)
522            = CAssign (CVal (CIndex head (mkIntCLit offset_from_start) WordRep)
523                         (getAmodeRep amode))
524                      amode
525     in
526         -- GENERATE THE CODE
527     absC ( mkAbstractCs (
528            [ CInitHdr closure_info head use_cc 0{-no alloc-} ]
529            ++ (map do_move amodes_with_offsets)))
530 \end{code}