def test_lexer(self):
     self.assertEqual(list(tokenize_property('P17')), [Token('PID', 'P17')])
     self.assertEqual(
         list(tokenize_property('P17/P297')),
         [Token('PID', 'P17'),
          Token('SLASH', '/'),
          Token('PID', 'P297')])
     self.assertEqual(list(tokenize_property('(P17/P297)')), [
         Token('LBRA', '('),
         Token('PID', 'P17'),
         Token('SLASH', '/'),
         Token('PID', 'P297'),
         Token('RBRA', ')')
     ])
def test_lexer():
    assert list(tokenize_property('P17')) == [Token('PID', 'P17')]
    assert list(tokenize_property('P17/P297')) == [
        Token('PID', 'P17'),
        Token('SLASH', '/'),
        Token('PID', 'P297')
    ]
    assert list(tokenize_property('(P17/P297)')) == ([
        Token('LBRA', '('),
        Token('PID', 'P17'),
        Token('SLASH', '/'),
        Token('PID', 'P297'),
        Token('RBRA', ')')
    ])