Ejemplo n.º 1
0
def test_invalid_syntax_tokenization():
    token = tokenizer.tokenize("@")

    assert isinstance(token, tokens.InvalidSyntaxToken)
Ejemplo n.º 2
0
def test_minus_tokenization():
    token = tokenizer.tokenize("-")

    assert isinstance(token, tokens.DecrementCellValueToken)
Ejemplo n.º 3
0
def test_open_square_bracket_tokenization():
    token = tokenizer.tokenize("[")

    assert isinstance(token, tokens.LoopStartToken)
Ejemplo n.º 4
0
def test_close_square_bracket_tokenization():
    token = tokenizer.tokenize("]")

    assert isinstance(token, tokens.LoopEndToken)
Ejemplo n.º 5
0
def test_less_sign_tokenization():
    token = tokenizer.tokenize("<")

    assert isinstance(token, tokens.PreviousCellToken)
Ejemplo n.º 6
0
def test_plus_tokenization():
    token = tokenizer.tokenize("+")

    assert isinstance(token, tokens.IncrementCellValueToken)
Ejemplo n.º 7
0
def test_more_sign_tokenization():
    token = tokenizer.tokenize(">")

    assert isinstance(token, tokens.NextCellToken)
Ejemplo n.º 8
0
def test_comma_tokenization():
    token = tokenizer.tokenize(",")

    assert isinstance(token, tokens.GetCellValueToken)
Ejemplo n.º 9
0
def test_dot_tokenization():
    token = tokenizer.tokenize(".")

    assert isinstance(token, tokens.PutCellValueToken)