Esempio n. 1
0
 def __call__(self, text):
     return process_text(text, load_nlp_pipeline("jp"))
Esempio n. 2
0
 def __call__(self, text):
     return process_text(text,
                         load_nlp_pipeline("jp"),
                         filter_numbers=True,
                         filter_punctuation=True,
                         filter_short_tokens=True)
Esempio n. 3
0
 def __call__(self, text):
     return process_text(text, load_nlp_pipeline("pl"), return_lemma=True)
Esempio n. 4
0
 def __call__(self, text):
     return process_text(text,
                         load_nlp_pipeline("ro"),
                         return_lemma=True,
                         filter_stopwords=True)
Esempio n. 5
0
 def __call__(self, text):
     process_text(text, load_nlp_pipeline('en'), return_lemma=True)
Esempio n. 6
0
 def __call__(self, text):
     return process_text(text,
                         load_nlp_pipeline("pl"),
                         filter_stopwords=True)
Esempio n. 7
0
def english_lemmatize_remove_stopwords(text):
    return process_text(text,
                        load_nlp_pipeline(),
                        return_lemma=True,
                        filter_stopwords=True)
Esempio n. 8
0
def english_lemmatize(text):
    return process_text(text, load_nlp_pipeline(), return_lemma=True)
Esempio n. 9
0
def english_tokenize_remove_stopwords(text):
    return process_text(text, load_nlp_pipeline(), filter_stopwords=True)
Esempio n. 10
0
def english_tokenize_filter(text):
    return process_text(text,
                        load_nlp_pipeline(),
                        filter_numbers=True,
                        filter_punctuation=True,
                        filter_short_tokens=True)
Esempio n. 11
0
def english_tokenize(text):
    return process_text(text, load_nlp_pipeline())