コード例 #1
0
ファイル: filters.py プロジェクト: xbl3/flocker
 def __init__(self, tokenizer):
     Filter.__init__(self, tokenizer)
コード例 #2
0
 def get_tokenizer(tag=None, chunkers=None, filters=None):  # pylint: disable=unused-argument
     return Filter()
コード例 #3
0
 def __init__(self, tokenizer):
     Filter.__init__(self, tokenizer)
     self.found_modules = set()
     self.sought_modules = set()
コード例 #4
0
 def __init__(self, tokenizer, word_set):
     self.word_set = set(word_set)
     Filter.__init__(self, tokenizer)
コード例 #5
0
ファイル: spelling.py プロジェクト: slipguru/adenine
 def __init__(self, tokenizer):
     Filter.__init__(self, tokenizer)
     self.found_modules = set()
     self.sought_modules = set()
コード例 #6
0
ファイル: spelling.py プロジェクト: slipguru/adenine
 def __init__(self, tokenizer, word_set):
     self.word_set = set(word_set)
     Filter.__init__(self, tokenizer)