def test_lexer(self): self.assertEqual(list(tokenize_property('P17')), [Token('PID', 'P17')]) self.assertEqual( list(tokenize_property('P17/P297')), [Token('PID', 'P17'), Token('SLASH', '/'), Token('PID', 'P297')]) self.assertEqual(list(tokenize_property('(P17/P297)')), [ Token('LBRA', '('), Token('PID', 'P17'), Token('SLASH', '/'), Token('PID', 'P297'), Token('RBRA', ')') ])
def test_lexer(): assert list(tokenize_property('P17')) == [Token('PID', 'P17')] assert list(tokenize_property('P17/P297')) == [ Token('PID', 'P17'), Token('SLASH', '/'), Token('PID', 'P297') ] assert list(tokenize_property('(P17/P297)')) == ([ Token('LBRA', '('), Token('PID', 'P17'), Token('SLASH', '/'), Token('PID', 'P297'), Token('RBRA', ')') ])