[project @ 2001-11-08 12:50:07 by simonmar]
[ghc-hetmet.git] / ghc / compiler / codeGen / CgHeapery.lhs
1 %
2 % (c) The GRASP/AQUA Project, Glasgow University, 1992-1998
3 %
4 % $Id: CgHeapery.lhs,v 1.26 2001/11/08 12:50:07 simonmar Exp $
5 %
6 \section[CgHeapery]{Heap management functions}
7
8 \begin{code}
9 module CgHeapery (
10         fastEntryChecks, altHeapCheck, thunkChecks,
11         allocDynClosure, inPlaceAllocDynClosure
12
13         -- new functions, basically inserting macro calls into Code -- HWL
14         ,fetchAndReschedule, yield
15     ) where
16
17 #include "HsVersions.h"
18
19 import AbsCSyn
20 import CLabel
21 import CgMonad
22
23 import CgStackery       ( getFinalStackHW, mkTaggedStkAmodes, mkTagAssts )
24 import AbsCUtils        ( mkAbstractCs, getAmodeRep )
25 import CgUsages         ( getVirtAndRealHp, getRealSp, setVirtHp, setRealHp,
26                           initHeapUsage
27                         )
28 import ClosureInfo      ( closureSize, closureGoodStuffSize,
29                           slopSize, allocProfilingMsg, ClosureInfo
30                         )
31 import PrimRep          ( PrimRep(..), isFollowableRep )
32 import Unique           ( Unique )
33 import CmdLineOpts      ( opt_SccProfilingOn, opt_GranMacros )
34 import Constants        ( bLOCK_SIZE_W )
35 import GlaExts
36 import Outputable
37
38 #ifdef DEBUG
39 import PprAbsC          ( pprMagicId ) -- tmp
40 #endif
41 \end{code}
42
43 %************************************************************************
44 %*                                                                      *
45 \subsection[CgHeapery-heap-overflow]{Heap overflow checking}
46 %*                                                                      *
47 %************************************************************************
48
49 The new code  for heapChecks. For GrAnSim the code for doing a heap check
50 and doing a context switch has been separated. Especially, the HEAP_CHK
51 macro only performs a heap check. THREAD_CONTEXT_SWITCH should be used for
52 doing a context switch. GRAN_FETCH_AND_RESCHEDULE must be put at the
53 beginning of every slow entry code in order to simulate the fetching of
54 closures. If fetching is necessary (i.e. current closure is not local) then
55 an automatic context switch is done.
56
57 -----------------------------------------------------------------------------
58 A heap/stack check at a fast entry point.
59
60 \begin{code}
61
62 fastEntryChecks
63         :: [MagicId]                    -- Live registers
64         -> [(VirtualSpOffset,Int)]      -- stack slots to tag
65         -> CLabel                       -- return point
66         -> Bool                         -- node points to closure
67         -> Code
68         -> Code
69
70 fastEntryChecks regs tags ret node_points code
71   =  mkTagAssts tags                             `thenFC` \tag_assts ->
72      getFinalStackHW                             (\ spHw -> 
73      getRealSp                                   `thenFC` \ sp ->
74      let stk_words = spHw - sp in
75      initHeapUsage                               (\ hHw  ->
76
77      getTickyCtrLabel `thenFC` \ ticky_ctr ->
78
79      ( if all_pointers then -- heap checks are quite easy
80           -- HWL: gran-yield immediately before heap check proper
81           --(if node `elem` regs
82           --   then yield regs True
83           --   else absC AbsCNop ) `thenC`
84           absC (checking_code stk_words hHw tag_assts 
85                         free_reg (length regs) ticky_ctr)
86
87        else -- they are complicated
88
89           -- save all registers on the stack and adjust the stack pointer.
90           -- ToDo: find the initial all-pointer segment and don't save them.
91
92           mkTaggedStkAmodes sp addrmode_regs 
93                   `thenFC` \(new_sp, stk_assts, more_tag_assts) ->
94
95           -- only let the extra stack assignments affect the stack
96           -- high water mark if we were doing a stack check anyway;
97           -- otherwise we end up generating unnecessary stack checks.
98           -- Careful about knot-tying loops!
99           let real_stk_words =  if new_sp - sp > stk_words && stk_words /= 0
100                                         then new_sp - sp
101                                         else stk_words
102           in
103
104           let adjust_sp = CAssign (CReg Sp) (CAddr (spRel sp new_sp)) in
105
106           absC (checking_code real_stk_words hHw 
107                     (mkAbstractCs [tag_assts, stk_assts, more_tag_assts,
108                                    adjust_sp])
109                     (CReg node) 0 ticky_ctr)
110
111       ) `thenC`
112
113       setRealHp hHw `thenC`
114       code))
115
116   where
117         
118     checking_code stk hp assts ret regs ctr
119         = mkAbstractCs 
120           [ real_check,
121             if hp == 0 then AbsCNop 
122             else profCtrAbsC SLIT("TICK_ALLOC_HEAP") 
123                   [ mkIntCLit hp, CLbl ctr DataPtrRep ]
124           ]
125
126         where real_check
127                   | node_points = do_checks_np stk hp assts (regs+1)
128                   | otherwise   = do_checks    stk hp assts ret regs
129
130     -- When node points to the closure for the function:
131
132     do_checks_np
133         :: Int                          -- stack headroom
134         -> Int                          -- heap  headroom
135         -> AbstractC                    -- assignments to perform on failure
136         -> Int                          -- number of pointer registers live
137         -> AbstractC
138     do_checks_np 0 0 _ _ = AbsCNop
139     do_checks_np 0 hp_words tag_assts ptrs =
140             CCheck HP_CHK_NP [
141                   mkIntCLit hp_words,
142                   mkIntCLit ptrs
143                  ]
144                  tag_assts
145     do_checks_np stk_words 0 tag_assts ptrs =
146             CCheck STK_CHK_NP [
147                   mkIntCLit stk_words,
148                   mkIntCLit ptrs
149                  ]
150                  tag_assts
151     do_checks_np stk_words hp_words tag_assts ptrs =
152             CCheck HP_STK_CHK_NP [
153                   mkIntCLit stk_words,
154                   mkIntCLit hp_words,
155                   mkIntCLit ptrs
156                  ]
157                  tag_assts
158
159     -- When node doesn't point to the closure (we need an explicit retn addr)
160
161     do_checks 
162         :: Int                          -- stack headroom
163         -> Int                          -- heap  headroom
164         -> AbstractC                    -- assignments to perform on failure
165         -> CAddrMode                    -- a register to hold the retn addr.
166         -> Int                          -- number of pointer registers live
167         -> AbstractC
168
169     do_checks 0 0 _ _ _ = AbsCNop
170     do_checks 0 hp_words tag_assts ret_reg ptrs =
171             CCheck HP_CHK [
172                   mkIntCLit hp_words,
173                   CLbl ret CodePtrRep,
174                   ret_reg,
175                   mkIntCLit ptrs
176                  ]
177                  tag_assts
178     do_checks stk_words 0 tag_assts ret_reg ptrs =
179             CCheck STK_CHK [
180                   mkIntCLit stk_words,
181                   CLbl ret CodePtrRep,
182                   ret_reg,
183                   mkIntCLit ptrs
184                  ]
185                  tag_assts
186     do_checks stk_words hp_words tag_assts ret_reg ptrs =
187             CCheck HP_STK_CHK [
188                   mkIntCLit stk_words,
189                   mkIntCLit hp_words,
190                   CLbl ret CodePtrRep,
191                   ret_reg,
192                   mkIntCLit ptrs
193                  ]
194                  tag_assts
195
196     free_reg  = case length regs + 1 of 
197                        I# x -> CReg (VanillaReg PtrRep x)
198
199     all_pointers = all pointer regs
200     pointer (VanillaReg rep _) = isFollowableRep rep
201     pointer _ = False
202
203     addrmode_regs = map CReg regs
204
205 -- Checking code for thunks is just a special case of fast entry points:
206
207 thunkChecks :: CLabel -> Bool -> Code -> Code
208 thunkChecks ret node_points code = fastEntryChecks [] [] ret node_points code
209 \end{code}
210
211 Heap checks in a case alternative are nice and easy, provided this is
212 a bog-standard algebraic case.  We have in our hand:
213
214        * one return address, on the stack,
215        * one return value, in Node.
216
217 the canned code for this heap check failure just pushes Node on the
218 stack, saying 'EnterGHC' to return.  The scheduler will return by
219 entering the top value on the stack, which in turn will return through
220 the return address, getting us back to where we were.  This is
221 therefore only valid if the return value is *lifted* (just being
222 boxed isn't good enough).  Only a PtrRep will do.
223
224 For primitive returns, we have an unlifted value in some register
225 (either R1 or FloatReg1 or DblReg1).  This means using specialised
226 heap-check code for these cases.
227
228 For unboxed tuple returns, there are an arbitrary number of possibly
229 unboxed return values, some of which will be in registers, and the
230 others will be on the stack, with gaps left for tagging the unboxed
231 objects.  If a heap check is required, we need to fill in these tags.
232
233 The code below will cover all cases for the x86 architecture (where R1
234 is the only VanillaReg ever used).  For other architectures, we'll
235 have to do something about saving and restoring the other registers.
236
237 \begin{code}
238 altHeapCheck 
239         :: Bool                         -- is an algebraic alternative
240         -> [MagicId]                    -- live registers
241         -> [(VirtualSpOffset,Int)]      -- stack slots to tag
242         -> AbstractC
243         -> Maybe Unique                 -- uniq of ret address (possibly)
244         -> Code
245         -> Code
246
247 -- unboxed tuple alternatives and let-no-escapes (the two most annoying
248 -- constructs to generate code for!):
249
250 altHeapCheck is_fun regs tags fail_code (Just ret_addr) code
251   = mkTagAssts tags `thenFC` \tag_assts1 ->
252     let tag_assts = mkAbstractCs [fail_code, tag_assts1]
253     in
254     initHeapUsage (\ hHw -> do_heap_chk hHw tag_assts `thenC` code)
255   where
256     do_heap_chk words_required tag_assts
257       = getTickyCtrLabel `thenFC` \ ctr ->
258         absC ( if words_required == 0
259                   then  AbsCNop
260                   else  mkAbstractCs 
261                         [ checking_code tag_assts,
262                           profCtrAbsC SLIT("TICK_ALLOC_HEAP") 
263                             [ mkIntCLit words_required, CLbl ctr DataPtrRep ]
264                         ]
265         )  `thenC`
266         setRealHp words_required
267
268       where
269         non_void_regs = filter (/= VoidReg) regs
270
271         checking_code tag_assts = 
272           case non_void_regs of
273
274 {- no: there might be stuff on top of the retn. addr. on the stack.
275             [{-no regs-}] ->
276                 CCheck HP_CHK_NOREGS
277                     [mkIntCLit words_required]
278                     tag_assts
279 -}
280             -- this will cover all cases for x86
281             [VanillaReg rep 1#] 
282
283                | isFollowableRep rep ->
284                   CCheck HP_CHK_UT_ALT
285                       [mkIntCLit words_required, mkIntCLit 1, mkIntCLit 0,
286                         CReg (VanillaReg RetRep 2#),
287                         CLbl (mkReturnInfoLabel ret_addr) RetRep]
288                       tag_assts
289
290                | otherwise ->
291                   CCheck HP_CHK_UT_ALT
292                       [mkIntCLit words_required, mkIntCLit 0, mkIntCLit 1,
293                         CReg (VanillaReg RetRep 2#),
294                         CLbl (mkReturnInfoLabel ret_addr) RetRep]
295                       tag_assts
296
297             several_regs ->
298                 let liveness = mkRegLiveness several_regs
299                 in
300                 CCheck HP_CHK_GEN
301                      [mkIntCLit words_required, 
302                       mkIntCLit (I# (word2Int# liveness)),
303                         -- HP_CHK_GEN needs a direct return address,
304                         -- not an info table (might be different if
305                         -- we're not assembly-mangling/tail-jumping etc.)
306                       CLbl (mkReturnPtLabel ret_addr) RetRep] 
307                      tag_assts
308
309 -- normal algebraic and primitive case alternatives:
310
311 altHeapCheck is_fun regs [] AbsCNop Nothing code
312   = initHeapUsage (\ hHw -> do_heap_chk hHw `thenC` code)
313   where
314     do_heap_chk :: HeapOffset -> Code
315     do_heap_chk words_required
316       = getTickyCtrLabel `thenFC` \ ctr ->
317         absC ( if words_required == 0
318                  then  AbsCNop
319                  else  mkAbstractCs 
320                        [ checking_code,
321                          profCtrAbsC SLIT("TICK_ALLOC_HEAP") 
322                             [ mkIntCLit words_required, CLbl ctr DataPtrRep ]
323                        ]
324         )  `thenC`
325         setRealHp words_required
326
327       where
328         non_void_regs = filter (/= VoidReg) regs
329
330         checking_code = 
331           case non_void_regs of
332
333             -- No regs live: probably a Void return
334             [] ->
335                CCheck HP_CHK_NOREGS [mkIntCLit words_required] AbsCNop
336
337             -- The SEQ case (polymophic/function typed case branch)
338             -- We need this case because the closure in Node won't return
339             -- directly when we enter it (it could be a function), so the
340             -- heap check code needs to push a seq frame on top of the stack.
341             [VanillaReg rep 1#]
342                 |  rep == PtrRep
343                 && is_fun ->
344                   CCheck HP_CHK_SEQ_NP
345                         [mkIntCLit words_required, mkIntCLit 1{-regs live-}]
346                         AbsCNop
347
348             -- R1 is lifted (the common case)
349             [VanillaReg rep 1#]
350                 | rep == PtrRep ->
351                   CCheck HP_CHK_NP
352                         [mkIntCLit words_required, mkIntCLit 1{-regs live-}]
353                         AbsCNop
354
355             -- R1 is boxed, but unlifted
356                 | isFollowableRep rep ->
357                   CCheck HP_CHK_UNPT_R1 [mkIntCLit words_required] AbsCNop
358
359             -- R1 is unboxed
360                 | otherwise ->
361                   CCheck HP_CHK_UNBX_R1 [mkIntCLit words_required] AbsCNop
362
363             -- FloatReg1
364             [FloatReg 1#] ->
365                   CCheck HP_CHK_F1 [mkIntCLit words_required] AbsCNop
366
367             -- DblReg1
368             [DoubleReg 1#] ->
369                   CCheck HP_CHK_D1 [mkIntCLit words_required] AbsCNop
370
371             -- LngReg1
372             [LongReg _ 1#] ->
373                   CCheck HP_CHK_L1 [mkIntCLit words_required] AbsCNop
374
375 #ifdef DEBUG
376             _ -> panic ("CgHeapery.altHeapCheck: unimplemented heap-check, live regs = " ++ showSDoc (sep (map pprMagicId non_void_regs)))
377 #endif
378
379 -- build up a bitmap of the live pointer registers
380
381 mkRegLiveness :: [MagicId] -> Word#
382 mkRegLiveness []  =  int2Word# 0#
383 mkRegLiveness (VanillaReg rep i : regs) | isFollowableRep rep 
384   =  ((int2Word# 1#) `shiftL#` (i -# 1#)) `or#` mkRegLiveness regs
385 mkRegLiveness (_ : regs)  =  mkRegLiveness regs
386
387 -- The two functions below are only used in a GranSim setup
388 -- Emit macro for simulating a fetch and then reschedule
389
390 fetchAndReschedule ::   [MagicId]               -- Live registers
391                         -> Bool                 -- Node reqd?
392                         -> Code
393
394 fetchAndReschedule regs node_reqd  = 
395       if (node `elem` regs || node_reqd)
396         then fetch_code `thenC` reschedule_code
397         else absC AbsCNop
398       where
399         liveness_mask = mkRegLiveness regs
400         reschedule_code = absC  (CMacroStmt GRAN_RESCHEDULE [
401                                  mkIntCLit (I# (word2Int# liveness_mask)), 
402                                  mkIntCLit (if node_reqd then 1 else 0)])
403
404          --HWL: generate GRAN_FETCH macro for GrAnSim
405          --     currently GRAN_FETCH and GRAN_FETCH_AND_RESCHEDULE are miai
406         fetch_code = absC (CMacroStmt GRAN_FETCH [])
407 \end{code}
408
409 The @GRAN_YIELD@ macro is taken from JSM's  code for Concurrent Haskell. It
410 allows to context-switch at  places where @node@ is  not alive (it uses the
411 @Continue@ rather  than the @EnterNodeCode@  function in the  RTS). We emit
412 this kind of macro at the beginning of the following kinds of basic bocks:
413 \begin{itemize}
414  \item Slow entry code where node is not alive (see @CgClosure.lhs@). Normally 
415        we use @fetchAndReschedule@ at a slow entry code.
416  \item Fast entry code (see @CgClosure.lhs@).
417  \item Alternatives in case expressions (@CLabelledCode@ structures), provided
418        that they are not inlined (see @CgCases.lhs@). These alternatives will 
419        be turned into separate functions.
420 \end{itemize}
421
422 \begin{code}
423 yield ::   [MagicId]               -- Live registers
424              -> Bool                 -- Node reqd?
425              -> Code 
426
427 yield regs node_reqd = 
428    if opt_GranMacros && node_reqd
429      then yield_code
430      else absC AbsCNop
431    where
432      liveness_mask = mkRegLiveness regs
433      yield_code = 
434        absC (CMacroStmt GRAN_YIELD 
435                           [mkIntCLit (I# (word2Int# liveness_mask))])
436 \end{code}
437
438 %************************************************************************
439 %*                                                                      *
440 \subsection[initClosure]{Initialise a dynamic closure}
441 %*                                                                      *
442 %************************************************************************
443
444 @allocDynClosure@ puts the thing in the heap, and modifies the virtual Hp
445 to account for this.
446
447 \begin{code}
448 allocDynClosure
449         :: ClosureInfo
450         -> CAddrMode            -- Cost Centre to stick in the object
451         -> CAddrMode            -- Cost Centre to blame for this alloc
452                                 -- (usually the same; sometimes "OVERHEAD")
453
454         -> [(CAddrMode, VirtualHeapOffset)]     -- Offsets from start of the object
455                                                 -- ie Info ptr has offset zero.
456         -> FCode VirtualHeapOffset              -- Returns virt offset of object
457
458 allocDynClosure closure_info use_cc blame_cc amodes_with_offsets
459   = getVirtAndRealHp                            `thenFC` \ (virtHp, realHp) ->
460
461         -- FIND THE OFFSET OF THE INFO-PTR WORD
462         -- virtHp points to last allocated word, ie 1 *before* the
463         -- info-ptr word of new object.
464     let  info_offset = virtHp + 1
465
466         -- do_move IS THE ASSIGNMENT FUNCTION
467          do_move (amode, offset_from_start)
468            = CAssign (CVal (hpRel realHp
469                                   (info_offset + offset_from_start))
470                            (getAmodeRep amode))
471                      amode
472     in
473         -- SAY WHAT WE ARE ABOUT TO DO
474     profCtrC (allocProfilingMsg closure_info)
475                            [mkIntCLit (closureGoodStuffSize closure_info),
476                             mkIntCLit slop_size]        `thenC`
477
478         -- GENERATE THE CODE
479     absC ( mkAbstractCs (
480            [ cInitHdr closure_info (hpRel realHp info_offset) use_cc ]
481            ++ (map do_move amodes_with_offsets)))       `thenC`
482
483         -- GENERATE CC PROFILING MESSAGES
484     costCentresC SLIT("CCS_ALLOC") [blame_cc, mkIntCLit closure_size]
485                                                         `thenC`
486
487         -- BUMP THE VIRTUAL HEAP POINTER
488     setVirtHp (virtHp + closure_size)                   `thenC`
489
490         -- RETURN PTR TO START OF OBJECT
491     returnFC info_offset
492   where
493     closure_size = closureSize closure_info
494     slop_size    = slopSize closure_info
495 \end{code}
496
497 Occasionally we can update a closure in place instead of allocating
498 new space for it.  This is the function that does the business, assuming:
499
500         - node points to the closure to be overwritten
501
502         - the new closure doesn't contain any pointers if we're
503           using a generational collector.
504
505 \begin{code}
506 inPlaceAllocDynClosure
507         :: ClosureInfo
508         -> CAddrMode            -- Pointer to beginning of closure
509         -> CAddrMode            -- Cost Centre to stick in the object
510
511         -> [(CAddrMode, VirtualHeapOffset)]     -- Offsets from start of the object
512                                                 -- ie Info ptr has offset zero.
513         -> Code
514
515 inPlaceAllocDynClosure closure_info head use_cc amodes_with_offsets
516   = let -- do_move IS THE ASSIGNMENT FUNCTION
517          do_move (amode, offset_from_start)
518            = CAssign (CVal (CIndex head (mkIntCLit offset_from_start) WordRep)
519                         (getAmodeRep amode))
520                      amode
521     in
522         -- GENERATE THE CODE
523     absC ( mkAbstractCs (
524            [ CInitHdr closure_info head use_cc ]
525            ++ (map do_move amodes_with_offsets)))
526
527 -- Avoid hanging on to anything in the CC field when we're not profiling.
528
529 cInitHdr closure_info amode cc 
530   | opt_SccProfilingOn = CInitHdr closure_info (CAddr amode) cc
531   | otherwise          = CInitHdr closure_info (CAddr amode) (panic "absent cc")
532         
533 \end{code}