Ejemplo n.º 1
0
def process(content: str, e: Evaluator, duration: int):
    try:
        t = Tokenizer(content)
        t.tokenize()
        p = Parser(t).parseProgram()
        return e.evaluate(p, duration=duration)
    except (TokenizationError, ParseError) as e:
        print("\nERROR: %s\n" % str(e))
        return 2, e
Ejemplo n.º 2
0
 def test(self):
     content = "NOT A REAL PROGRAM"
     try:
         t = Tokenizer(content)
         t.tokenize()
         program: ast.Program = Parser(t).parseProgram()
         result: int = Evaluator(graphics=False).evaluate(program,
                                                          duration=5000)
         self.fail()
     except TokenizationError:
         pass
Ejemplo n.º 3
0
 def run_compile(content: str) -> str:
     token_obj = Tokenizer(content)
     return token_obj.check_next()
Ejemplo n.º 4
0
 def run_compile(content: str) -> List[str]:
     return Tokenizer(content).tokenize()
Ejemplo n.º 5
0
 def run_compile3(content: str) -> str:
     token_obj = Tokenizer(content)
     token_obj.get_next()
     token_obj.get_next()
     return token_obj.get_next()
Ejemplo n.º 6
0
 def run_compile(content: str) -> str:
     return Tokenizer(content).get_next()
Ejemplo n.º 7
0
 def run_compile(content: str) -> bool:
     return Tokenizer(content).more_tokens()
Ejemplo n.º 8
0
 def run_compile(content: str):
     try:
         Tokenizer(content).get_and_check_next('source')
         self.fail()
     except TokenizationError:
         pass
Ejemplo n.º 9
0
 def run_compile(content: str) -> str:
     return Tokenizer(content).get_and_check_next('program:')
Ejemplo n.º 10
0
 def run_compile2(content: str) -> bool:
     token_obj = Tokenizer(content)
     token_obj.get_next()
     token_obj.get_next()
     return token_obj.check_token('program:')
Ejemplo n.º 11
0
 def run_compile(content: str) -> bool:
     token_obj = Tokenizer(content)
     return token_obj.check_token('program:')
Ejemplo n.º 12
0
 def parse(content) -> ast.Program:
     t = Tokenizer(content)
     t.tokenize()
     return Parser(t).parseProgram()
Ejemplo n.º 13
0
 def run_compile(content: str) -> Program:
     t = Tokenizer(content)
     t.tokenize()
     return Parser(t).parseProgram()