Merge from Haddock: Modify lexing of /../
[ghc-hetmet.git] / compiler / parser / HaddockLex.x
1 --
2 -- Haddock - A Haskell Documentation Tool
3 --
4 -- (c) Simon Marlow 2002
5 --
6 -- This file was modified and integrated into GHC by David Waern 2006
7 --
8
9 {
10 {-# OPTIONS -w #-}
11 -- The above warning supression flag is a temporary kludge.
12 -- While working on this module you are encouraged to remove it and fix
13 -- any warnings in the module. See
14 --     http://hackage.haskell.org/trac/ghc/wiki/Commentary/CodingStyle#Warnings
15 -- for details
16
17 module HaddockLex (
18         Token(..),
19         tokenise
20  ) where
21
22 import Lexer hiding (Token)
23 import Parser ( parseIdentifier )
24 import StringBuffer
25 import RdrName
26 import SrcLoc
27 import DynFlags
28
29 import Char
30 import Numeric
31 import System.IO.Unsafe
32 }
33
34 $ws    = $white # \n
35 $digit = [0-9]
36 $hexdigit = [0-9a-fA-F]
37 $special =  [\"\@]
38 $alphanum = [A-Za-z0-9]
39 $ident    = [$alphanum \'\_\.\!\#\$\%\&\*\+\/\<\=\>\?\@\\\\\^\|\-\~]
40
41 :-
42
43 -- beginning of a paragraph
44 <0,para> {
45  $ws* \n                ;
46  $ws* \>                { begin birdtrack }
47  $ws* [\*\-]            { token TokBullet `andBegin` string }
48  $ws* \[                { token TokDefStart `andBegin` def }
49  $ws* \( $digit+ \)     { token TokNumber `andBegin` string }
50  $ws*                   { begin string }                
51 }
52
53 -- beginning of a line
54 <line> {
55   $ws* \>               { begin birdtrack }
56   $ws* \n               { token TokPara `andBegin` para }
57   -- Here, we really want to be able to say
58   -- $ws* (\n | <eof>)  { token TokPara `andBegin` para}
59   -- because otherwise a trailing line of whitespace will result in 
60   -- a spurious TokString at the end of a docstring.  We don't have <eof>,
61   -- though (NOW I realise what it was for :-).  To get around this, we always
62   -- append \n to the end of a docstring.
63   ()                    { begin string }
64 }
65
66 <birdtrack> .*  \n?     { strtoken TokBirdTrack `andBegin` line }
67
68 <string,def> {
69   $special                      { strtoken $ \s -> TokSpecial (head s) }
70   \<.*\>                        { strtoken $ \s -> TokURL (init (tail s)) }
71   \#.*\#                        { strtoken $ \s -> TokAName (init (tail s)) }
72   \/ [^\/]* \/                  { strtoken $ \s -> TokEmphasis (init (tail s)) }
73   [\'\`] $ident+ [\'\`]         { ident }
74   \\ .                          { strtoken (TokString . tail) }
75   "&#" $digit+ \;               { strtoken $ \s -> TokString [chr (read (init (drop 2 s)))] }
76   "&#" [xX] $hexdigit+ \;       { strtoken $ \s -> case readHex (init (drop 3 s)) of [(n,_)] -> TokString [chr n] }
77   -- allow special characters through if they don't fit one of the previous
78   -- patterns.
79   [\/\'\`\<\#\&\\]                      { strtoken TokString }
80   [^ $special \/ \< \# \n \'\` \& \\ \]]* \n { strtoken TokString `andBegin` line }
81   [^ $special \/ \< \# \n \'\` \& \\ \]]+    { strtoken TokString }
82 }
83
84 <def> {
85   \]                            { token TokDefEnd `andBegin` string }
86 }
87
88 -- ']' doesn't have any special meaning outside of the [...] at the beginning
89 -- of a definition paragraph.
90 <string> {
91   \]                            { strtoken TokString }
92 }
93
94 {
95 data Token
96   = TokPara
97   | TokNumber
98   | TokBullet
99   | TokDefStart
100   | TokDefEnd
101   | TokSpecial Char
102   | TokIdent [RdrName]
103   | TokString String
104   | TokURL String
105   | TokEmphasis String
106   | TokAName String
107   | TokBirdTrack String
108 --  deriving Show
109
110 -- -----------------------------------------------------------------------------
111 -- Alex support stuff
112
113 type StartCode = Int
114 type Action = String -> StartCode -> (StartCode -> [Token]) -> [Token]
115
116 type AlexInput = (Char,String)
117
118 alexGetChar (_, [])   = Nothing
119 alexGetChar (_, c:cs) = Just (c, (c,cs))
120
121 alexInputPrevChar (c,_) = c
122
123 tokenise :: String -> [Token]
124 tokenise str = let toks = go ('\n', eofHack str) para in {-trace (show toks)-} toks
125   where go inp@(_,str) sc =
126           case alexScan inp sc of
127                 AlexEOF -> []
128                 AlexError _ -> error "lexical error"
129                 AlexSkip  inp' len     -> go inp' sc
130                 AlexToken inp' len act -> act (take len str) sc (\sc -> go inp' sc)
131
132 -- NB. we add a final \n to the string, (see comment in the beginning of line
133 -- production above).
134 eofHack str = str++"\n"
135
136 andBegin  :: Action -> StartCode -> Action
137 andBegin act new_sc = \str sc cont -> act str new_sc cont
138
139 token :: Token -> Action
140 token t = \str sc cont -> t : cont sc
141
142 strtoken :: (String -> Token) -> Action
143 strtoken t = \str sc cont -> t str : cont sc
144
145 begin :: StartCode -> Action
146 begin sc = \str _ cont -> cont sc
147
148 -- -----------------------------------------------------------------------------
149 -- Lex a string as a Haskell identifier
150
151 ident :: Action
152 ident str sc cont = 
153   case strToHsQNames id of
154         Just names -> TokIdent names : cont sc
155         Nothing -> TokString str : cont sc
156  where id = init (tail str)
157
158 strToHsQNames :: String -> Maybe [RdrName]
159 strToHsQNames str0 = 
160   let buffer = unsafePerformIO (stringToStringBuffer str0)
161       pstate = mkPState buffer noSrcLoc defaultDynFlags
162       lex = lexer (\t -> return t)
163       result = unP parseIdentifier pstate 
164   in case result of 
165        POk _ name -> Just [unLoc name] 
166        _ -> Nothing
167 }