示例#1
0
def test_get_lemmas_no_tagging(tokenization):
    tokenization.tokenTaggingList = filter(
        lambda ttl: ttl.taggingType != 'LEMMA',
        tokenization.tokenTaggingList
    )
    with raises(Exception):
        get_lemmas(tokenization)
示例#2
0
 def test_get_lemmas_non_unique_tagging(self):
     self.tokenization.tokenTaggingList.append(
         TokenTagging(
             taggingType='LEMMA',
             taggedTokenList=[
                 TaggedToken(tokenIndex=0, tag='mambo'),
                 TaggedToken(tokenIndex=1, tag='number'),
                 TaggedToken(tokenIndex=2, tag='four'),
             ],
         ), )
     with self.assertRaises(Exception):
         get_lemmas(self.tokenization)
示例#3
0
def test_get_lemmas_non_unique_tagging(tokenization):
    tokenization.tokenTaggingList.append(
        TokenTagging(
            taggingType='LEMMA',
            taggedTokenList=[
                TaggedToken(tokenIndex=0, tag='mambo'),
                TaggedToken(tokenIndex=1, tag='number'),
                TaggedToken(tokenIndex=2, tag='four'),
            ],
        ),
    )
    with raises(Exception):
        get_lemmas(tokenization)
示例#4
0
 def test_get_lemmas_no_tagging(self):
     self.tokenization.tokenTaggingList = filter(
         lambda ttl: ttl.taggingType != 'LEMMA',
         self.tokenization.tokenTaggingList)
     with self.assertRaises(Exception):
         get_lemmas(self.tokenization)
示例#5
0
 def test_get_lemmas(self):
     self.assertEqual(['mambo', 'number', '4'],
                      map(lambda t: t.tag, get_lemmas(self.tokenization)))
     self.assertEqual([0, 1, 2],
                      map(lambda t: t.tokenIndex,
                          get_lemmas(self.tokenization)))
示例#6
0
def test_get_lemmas(tokenization):
    assert ['mambo', 'number', '4'] == map(
        lambda t: t.tag,
        get_lemmas(tokenization))
    assert [0, 1, 2] == map(lambda t: t.tokenIndex, get_lemmas(tokenization))