def listsTest():
    from pytextutils.token_splitter import TokenSplitter
    text = '''
1. Введение
    Перечислим основные виды замены, характерные для повторных номинаций в новостных текстах:

(1) замена ИГ на ИГ, которой соответствует вышестоящий концепт:губернатор — глава, область — регион, дума — парламент;
(2) замена имени экземпляра (имени собственного или названиядескрипции) на ИГ, которой соответствует родительский концепт экземпляра: МЧС — министерство, Приморский край — край;
(3) замена ИГ с семантикой базового концепта на ИГ с семантикойаспекта: компания — ритейлер;
Наиболее распространены в
качестве номинаций лица функциональные имена (названия лиц
по должности, роду занятий, титулы, ранги, звания), реляционные
имена (например, термины родства) и актуальные имена (носители
ситуативного признака, например кандидат в ситуации выборов).
Перечислим основные виды замены, характерные для повторных номинаций в новостных текстах:

     Список литературы
[1] Кронгауз М. А. Семантика. М : РГГУ, 2001. –– 299 c. ↑1
[2] Giv`on T. Coherence in text, coherence in mind // Pragmatics and cognition,1993. Vol. 1(2) ↑1
[3] Валгина Н. С. Теория текста: Учебное пособие. М. : Логос, 2003. ↑1
[4] Фёдорова О. С. Текстовая анафора: сочетание статистического икогнитивного подходов (на материале цахурского языка) // ТрудыМеждународного семинара Диалог-2000 по компьютерной лингвистике и ееприложениям. –– Протвино, 2000. Т. 1 ↑1, 1.1
   '''

    ts = TokenSplitter()
    ts.split(text)
    tokens = ts.getTokenArray()

    print(len(tokens))

    lm = ListMatcher()
    lm.combineTokens(tokens)

    print(len(tokens))
Exemple #2
0
    def preProcess(self):
        # коннект к базе, параметры надо вынести в конфиг и получать через accessor
        self.dbConnection = pymysql.connect(host='localhost',
                                            port=3306,
                                            user='******',
                                            passwd='',
                                            charset='utf8',
                                            db='wikiparse')
        # курсор коннекта для запросов
        self.dbCursor = self.dbConnection.cursor()
        # класс для получения
        self.posTagger = POSTagger()
        # индекс редиректов
        self.redirects = self.accessor.getIndex(RedirectsIndex)
        # индекс текстов статей, очищенных от вики-разметки
        self.plainTextIndex = self.accessor.getIndex(WikiPlainTextIndex)
        self.clear()
        # список начальных форм глаголов
        self.stems = {}
        # разделялка на слова
        self.wordSplitter = TokenSplitter()
        # запросы
        self.addStemQuery = "INSERT INTO verbs(stem) VALUES (%s)"
        self.getStemIdQuery = "SELECT id FROM verbs WHERE stem LIKE %s"
        self.insertVerbToDocQuery = "INSERT INTO verb_to_doc(doc_id,verb_id,is_ambig,position,score) VALUES "
        self.queryElement = "(%s, %s, %s, %s, %s)"

        # выбираем те записи, которые уже есть
        self.dbCursor.execute("SELECT * FROM verbs ORDER BY id")
        for stem in self.dbCursor.fetchall():
            self.stems[stem[1]] = stem[0]
Exemple #3
0
 def mark(self,text):
     fragments = []
     ts = TokenSplitter()
     ts.split(text)
     tokens = ts.getTokenArray()
        
     ss = SentenceSplitter()
     ss.combineTokens(tokens)
     bestDistances = {}
     for sentence in tokens:
         hist = calcHist(sentence.internalTokens)
         for POS in hist 
Exemple #4
0
    def __init__(self, directory=None, file=None, text=None, clearWrap=True):
        if file:
            cleaner = TextCleaner(directory, clearWrap)
            self.directory = directory
            self.file = file
            with codecs.open(directory + self.file, 'r', "utf-8") as myfile:
                self.text = myfile.readlines()

            self.text = cleaner.clean(self.text)
        elif text:
            self.text = text
        else:
            print('There is no text or file to parse')
            self.text = ''
        self.tokenSplitter = TokenSplitter()
        self.posTagger = POSTagger()
Exemple #5
0
 def __init__(self, accessor, headerIndexPrefix):
     self.accessor = accessor
     self.headerIndex = HeadersFileIndex(accessor, headerIndexPrefix)
     self.prefix = headerIndexPrefix
     self.tokenSplitter = TokenSplitter()
     self.posTagger = POSTagger()
     FragmentConfig(accessor.directory)
Exemple #6
0
 def __init__(self, accessor, headerIndexPrefix=None, configuration=None):
     self.accessor = accessor
     self.headerIndex = HeadersFileIndex(accessor, '')
     self.prefix = headerIndexPrefix
     self.tokenSplitter = TokenSplitter()
     self.posTagger = POSTagger()
     if configuration:
         self.fragmentTypesToHeaders = configuration
     else:
         FragmentConfig(accessor.directory)
         self.fragmentTypesToHeaders = FragmentConfig.fragmentTypesToHeaders
    def __init__(self, accessor, prefix):
        #self.hists
        #self.tfidf
        #self.patterns

        self.tokenSplitter = TokenSplitter()
        self.posTagger = POSTagger()
        self.flSelector = FormalLanguagesMatcher()
        self.defisWordsBuilder = DefisWordsBuilder()
        self.initialsWordsBuilder = InitialsWordsBuilder()
        self.formalLanguagesMatcher = FormalLanguagesMatcher()
        self.headersMatcher = HeaderMatcher()
        self.sentenceSplitter = SentenceSplitter()

        self.posListIndex = POSListIndex(accessor, prefix)
        self.collocatonsGrammars = CollocationGrammars(accessor, prefix)
        self.fragmentTypes = self.collocatonsGrammars.getFunctionalTypes()
        self.verbs = self.posListIndex.getVerbsHistsForAllTypes()
        self.patternMatcher = PatternMatcher()

        self.sq = lambda x: x * x
        self.sums = {}
        for fType in self.verbs:
            self.sums[fType] = self.module(self.verbs[fType])
def headersTest():
    from pytextutils.token_splitter import TokenSplitter
    text = '''Введение
Одной из важнейших задач в сфере обработки естественного языка (Natural Language Processing, NLP) является извлечение фактографической информации (information extraction, event extraction), то есть извлечение структурированной информации о ситуации заданного типа из текстов на естественном языке (в первую очередь мы ориентируемся на тексты СМИ). Структура (фрейм) извлеченной информации зависит от поставленной задачи, но в самом типичном случае извлекается упоминание о событии и атрибуты события: где произошло событие, его участники и тому подобное (Подробнее об этом смотрите [1])
Для получения более полной картины необходимо также извлечь модальные и темпоральные характеристики события. Настоящая статья посвящена анализу модального аспекта.
В отличие от существующих подходов к этому вопросу, особое внимание уделяется тому, как следует анализировать события, находящиеся в сфере действия разнородных маркеров модальности.
Учитывается максимально широкий круг модальных модификаторов: не только модальные глаголы и вводные конструкции со значением достоверности (которые обычно в первую очередь рассматриваются всеми авторами в теме модальность), но и показатели цитирования, фактивные и импликативные глаголы и тому подобное
1. Основные понятия
Поскольку в терминологии по теме «модальность» существует множество разночтений, необходимо начать с определения основных терминов, которыми мы будем пользоваться.
1.1. Понятие пропозиции
Прежде, чем вплотную подойти к обсуждению модальности, нам необходимо упомянуть крайне важное для этой темы понятие пропозиции (в данном случае это лингвистический термин, не идентичный пропозиции в логике).

    '''

    ts = TokenSplitter()
    ts.split(text)
    tokens = ts.getTokenArray()

    print(len(tokens))

    hm = HeaderMatcher()
    hm.combineTokens(tokens)

    print(len(tokens))
Exemple #9
0
class TextStat:
    def __init__(self, directory=None, file=None, text=None, clearWrap=True):
        if file:
            cleaner = TextCleaner(directory, clearWrap)
            self.directory = directory
            self.file = file
            with codecs.open(directory + self.file, 'r', "utf-8") as myfile:
                self.text = myfile.readlines()

            self.text = cleaner.clean(self.text)
        elif text:
            self.text = text
        else:
            print('There is no text or file to parse')
            self.text = ''
        self.tokenSplitter = TokenSplitter()
        self.posTagger = POSTagger()

    def getStem(self, token):
        return token.POS[0]['normalForm'].replace('ё', 'е')

    def addToken(self, token):
        if token.tokenType == TYPE_SIGN:
            if token.token in ";,":
                self.sumCommas += 1
            if token.token in ".?!":
                self.sumDots += 1
        else:
            pos = token.getBestPOS()
            if pos in ['VERB', 'INFN', 'PRTF', 'PRTS', 'GRND']:
                self.sumVerb += 1
                self.setVerb[self.getStem(token)] += 1
            if pos in ['NOUN', 'NPRO']:
                self.sumNoun += 1
                self.setNoun[self.getStem(token)] += 1
            if pos in ['ADJF', 'ADJS', 'COMP', 'ADVB', 'PRED']:
                self.sumAdj += 1
                self.setAdj[self.getStem(token)] += 1
            if pos in ['PREP', 'CONJ', 'PRCL', 'INTJ']:
                self.sumFunc += 1
                self.setFunc[self.getStem(token)] += 1

    def removeToken(self, token):
        if token.tokenType == TYPE_SIGN:
            if token.token in ";,":
                self.sumCommas -= 1
            if token.token in ".?!":
                self.sumDots -= 1
        else:
            pos = token.getBestPOS()
            if pos in ['VERB', 'INFN', 'PRTF', 'PRTS', 'GRND']:
                self.sumVerb -= 1
                self.setVerb -= ({self.getStem(token): 1})
            if pos in ['NOUN', 'NPRO']:
                self.sumNoun -= 1
                self.setNoun -= ({self.getStem(token): 1})
            if pos in ['ADJF', 'ADJS', 'PRED', 'COMP', 'ADVB']:
                self.sumAdj -= 1
                self.setAdj -= ({self.getStem(token): 1})
            if pos in ['PREP', 'CONJ', 'PRCL', 'INTJ']:
                self.sumFunc -= 1
                self.setFunc -= ({self.getStem(token): 1})

    def prepareText(self, text):
        self.tokenSplitter.split(self.text)
        tokens = self.tokenSplitter.getTokenArray()
        self.posTagger.posTagging(tokens)
        parsedTokens = self.clearTokens(tokens)
        return parsedTokens

    def clearTokens(self, tokens):
        parsedTokens = []
        signs = ";,.!?"
        for token in tokens:
            if token.tokenType == TYPE_SIGN:
                if token.token in signs:
                    parsedTokens.append(token)

            if (token.tokenType in [TYPE_TOKEN, TYPE_WORD] and token.allCyr()
                    and token.getBestPOS()):
                parsedTokens.append(token)
        return parsedTokens

    def getSlice(self, parsedTokens, size):
        res = {}
        res["DOTS"] = []
        res["COMMAS"] = []
        res["NOUNS"] = []
        res["VERBS"] = []
        res["ADJS"] = []
        res["FUNC"] = []
        res["UNIQUE_NOUNS"] = []
        res["UNIQUE_VERBS"] = []
        res["UNIQUE_ADJS"] = []
        res["UNIQUE_FUNC"] = []
        self.setNoun = Counter()
        self.setAdj = Counter()
        self.setVerb = Counter()
        self.setFunc = Counter()
        self.sumNoun = 0
        self.sumVerb = 0
        self.sumAdj = 0
        self.sumFunc = 0
        self.sumDots = 0
        self.sumCommas = 0
        tokenAdded = False
        for tokenId in range(0, len(parsedTokens) - 1):
            token = parsedTokens[tokenId]
            self.addToken(token)
            tokenAdded = False
            if tokenId >= size:
                prevToken = parsedTokens[tokenId - size]
                self.removeToken(prevToken)
            if tokenId >= size - 1:
                res["DOTS"].append(self.sumDots)
                res["COMMAS"].append(self.sumCommas)
                res["NOUNS"].append(self.sumNoun)
                res["VERBS"].append(self.sumVerb)
                res["ADJS"].append(self.sumAdj)
                res["FUNC"].append(self.sumFunc)
                res["UNIQUE_NOUNS"].append(len(self.setNoun))
                res["UNIQUE_VERBS"].append(len(self.setVerb))
                res["UNIQUE_ADJS"].append(len(self.setAdj))
                res["UNIQUE_FUNC"].append(len(self.setFunc))
                tokenAdded = True
        if not tokenAdded:
            res["DOTS"].append(self.sumDots)
            res["COMMAS"].append(self.sumCommas)
            res["NOUNS"].append(self.sumNoun)
            res["VERBS"].append(self.sumVerb)
            res["ADJS"].append(self.sumAdj)
            res["FUNC"].append(self.sumFunc)
            res["UNIQUE_NOUNS"].append(len(self.setNoun))
            res["UNIQUE_VERBS"].append(len(self.setVerb))
            res["UNIQUE_ADJS"].append(len(self.setAdj))
            res["UNIQUE_FUNC"].append(len(self.setFunc))
        return res

    def buildPOSStat(self):
        parsedTokens = self.prepareText(self.text)
        surfaceSlice = self.getSlice(parsedTokens, len(parsedTokens))
        return surfaceSlice

    def buildPOSSurface(self,
                        minWindowSize=10,
                        maxWindowSize=1000,
                        step=5,
                        saveToFile=True):
        parsedTokens = self.prepareText(self.text)

        self.data = {
            "DOTS": {},
            "COMMAS": {},
            "NOUNS": {},
            "VERBS": {},
            "ADJS": {},
            "FUNC": {},
            "UNIQUE_NOUNS": {},
            "UNIQUE_VERBS": {},
            "UNIQUE_ADJS": {},
            "UNIQUE_FUNC": {},
        }

        for windowSize in range(minWindowSize, maxWindowSize, step):
            surfaceSlice = self.getSlice(parsedTokens, windowSize)
            for key in surfaceSlice:
                self.data[key][windowSize] = surfaceSlice[key]
        if saveToFile:
            with open(self.directory + self.file + '-surface.pcl', 'wb') as f:
                pickle.dump(self.data, f, pickle.HIGHEST_PROTOCOL)
        else:
            return pickle.dumps(self.data, pickle.HIGHEST_PROTOCOL)
Exemple #10
0

directory = "C:\\[Study]\\Diploma\\wiki_indexes\\"
tc = TextCleaner(directory)
tc1 = TextCleaner(directory)
print(tc1)
text = '''
рис.1 и т.д.
и пр.
'''
tc = TextCleaner(directory)
print(tc.clean(text))
file = "sule1.txt"
textStat = TextStat(directory + file)
print(textStat.text)
from pytextutils.grammar_formal import HeaderMatcher

ts = TokenSplitter()
ts.split(textStat.text)
tokens = ts.getTokenArray()
hm = HeaderMatcher()
hm.combineTokens(tokens)

for token in tokens:
    if token.tokenType == 4:  # complex token
        print(token.token)

# for file in ["texts/ladno.txt","texts/sule1.txt","texts/sule2.txt","texts/sule3.txt"]:
#    textStat = TextStat(directory,file=file)
#    textStat.buildPOSSurface()
                }, {
                    'POS': 'ADJS'
                }, {
                    'POS': 'PRED'
                }]
            }
        }])

    def processToken(self, token):
        token.setFlag("name_group")


text = '''
 После обучения перцептрон готов работать в режиме распознавания [ 10 ] или обобщения [ 11 ] . В этом режиме перцептрону предъявляются ранее неизвестные ему объекты , и перцептрон должен установить , к какому классу они принадлежат .
    '''
ts = TokenSplitter()
tokens = ts.split(text)
fs = FormalLanguagesMatcher()
fs.combineTokens(tokens)
ss = SentenceSplitter()
ss.combineTokens(tokens)
print(len(tokens))

#text = 'Иногда (а точнее, довольно часто) возникают ситуации, когда нужно сделать строку, подставив в неё некоторые данные, полученные в процессе выполнения программы (пользовательский ввод, данные из файлов и так далее). Подстановку данных можно сделать с помощью форматирования строк. Форматирование можно сделать с помощью оператора %, либо с помощью метода format.'
#text = 'Иногда (а точнее, довольно часто) tokens = ts.getTokenArray() возникают ситуации, когда нужно сделать строку, подставив в неё некоторые данные, полученные в процессе выполнения программы (пользовательский ввод, данные из файлов и так далее). Подстановку данных можно сделать с помощью ts.split(text) форматирования строк. '
#ts = TokenSplitter()
#ts.split(text)
#tokens = ts.getTokenArray()
#POSTagger().posTagging(tokens)

#ns = NameGroupsSelector()
Exemple #12
0
class VerbListBuilder(WikiIterator):
    # Порог точности определения части речи
    __TRESHOLD = 0.0005

    # Инициализация. Параметры:
    # accessor - класс, который содержит конфигурацию для доступа к индексам дампа Википедии (см. модуль wiki_accessor)
    # docIds = None - список обрабатываемых документов, если надо обработать не все
    # prefix='' - префикс файлов индекса (или таблиц индекса)
    def __init__(self, accessor, docIds=None, prefix=''):
        super(VerbListBuilder, self).__init__(accessor, 1000, docIds, prefix)

    # Функция сохранения данных, вызывается каждые N записей
    def processSave(self, articlesCount):
        pass

    # Функция подготовки к построению индекса
    def preProcess(self):
        # коннект к базе, параметры надо вынести в конфиг и получать через accessor
        self.dbConnection = pymysql.connect(host='localhost',
                                            port=3306,
                                            user='******',
                                            passwd='',
                                            charset='utf8',
                                            db='wikiparse')
        # курсор коннекта для запросов
        self.dbCursor = self.dbConnection.cursor()
        # класс для получения
        self.posTagger = POSTagger()
        # индекс редиректов
        self.redirects = self.accessor.getIndex(RedirectsIndex)
        # индекс текстов статей, очищенных от вики-разметки
        self.plainTextIndex = self.accessor.getIndex(WikiPlainTextIndex)
        self.clear()
        # список начальных форм глаголов
        self.stems = {}
        # разделялка на слова
        self.wordSplitter = TokenSplitter()
        # запросы
        self.addStemQuery = "INSERT INTO verbs(stem) VALUES (%s)"
        self.getStemIdQuery = "SELECT id FROM verbs WHERE stem LIKE %s"
        self.insertVerbToDocQuery = "INSERT INTO verb_to_doc(doc_id,verb_id,is_ambig,position,score) VALUES "
        self.queryElement = "(%s, %s, %s, %s, %s)"

        # выбираем те записи, которые уже есть
        self.dbCursor.execute("SELECT * FROM verbs ORDER BY id")
        for stem in self.dbCursor.fetchall():
            self.stems[stem[1]] = stem[0]

    # выполняется после завершения построения
    def postProcess(self):
        pass

    # очистка индекса
    def clear(self):
        pass

    # определяет или генерирует идентификатор словарной формы глагола
    def getStemId(self, stem):
        stem = stem.replace("ё", "е")
        stem_id = self.stems.get(stem, None)
        if not stem_id:
            self.dbCursor.execute(self.addStemQuery, (stem))
            self.dbConnection.commit()
            self.dbCursor.execute(self.getStemIdQuery, (stem))
            stem_id = self.dbCursor.fetchone()
            if not stem_id:
                print(stem)
            self.stems[stem] = stem_id[0]
        return stem_id

    # обработка документа
    def processDocument(self, docId):
        # если редирект, то пропускаем
        if self.redirects.isRedirect(docId):
            return
        # берем очищенный текст
        cleanText = self.plainTextIndex.getTextById(docId)
        if cleanText == None:
            return
        verbs = []
        # делим текст на токены
        self.wordSplitter.split(cleanText)
        tokens = self.wordSplitter.getTokenArray()
        # помечаем токены частями речи
        self.posTagger.posTagging(tokens)
        # выбираем те токены, которые представляют глаголы
        for token in tokens:
            if (token.tokenType == TYPE_TOKEN and not token.hasDigits()):
                #if (not token.allCyr()) or token.token.lower() in self.notAVerbs:
                #    break;
                #parse_result = self.pos.parse(token.token)
                #if(parse_result == None):
                #    continue
                isVerb = False
                isOnlyVerb = True
                normalForm = None
                verbScore = 0
                for res in token.POS:
                    if (res['POS'] == 'VERB'):
                        isVerb = True
                        normalForm = res['normalForm']
                        verbScore = res['score']
                    else:
                        isOnlyVerb = False
                if (isVerb):
                    verb = {
                        "stem": self.getStemId(normalForm),
                        "is_ambig": isOnlyVerb,
                        "pos": token.tokenNum,
                        "score": verbScore
                    }
                    verbs.append(verb)
        # составляем запрос, который добавит все наши глаголы в базу
        query = []
        params = []
        for verb in verbs:
            query.append(self.queryElement)
            params.append(docId)
            params.append(verb["stem"])
            params.append(verb["is_ambig"])
            params.append(verb["pos"])
            params.append(verb["score"])

        # выполняем запрос
        if len(query) > 0:
            self.dbCursor.execute(self.insertVerbToDocQuery + ",".join(query),
                                  params)
            self.dbConnection.commit()
class TextFragmentator:
    def __init__(self, accessor, prefix):
        #self.hists
        #self.tfidf
        #self.patterns

        self.tokenSplitter = TokenSplitter()
        self.posTagger = POSTagger()
        self.flSelector = FormalLanguagesMatcher()
        self.defisWordsBuilder = DefisWordsBuilder()
        self.initialsWordsBuilder = InitialsWordsBuilder()
        self.formalLanguagesMatcher = FormalLanguagesMatcher()
        self.headersMatcher = HeaderMatcher()
        self.sentenceSplitter = SentenceSplitter()

        self.posListIndex = POSListIndex(accessor, prefix)
        self.collocatonsGrammars = CollocationGrammars(accessor, prefix)
        self.fragmentTypes = self.collocatonsGrammars.getFunctionalTypes()
        self.verbs = self.posListIndex.getVerbsHistsForAllTypes()
        self.patternMatcher = PatternMatcher()

        self.sq = lambda x: x * x
        self.sums = {}
        for fType in self.verbs:
            self.sums[fType] = self.module(self.verbs[fType])

    def module(self, data):
        return sqrt(sum(map(self.sq, data.values())))

    def findPatterns(self, fType, sentence):
        patternsWeight = 0
        if not sentence.internalTokens:
            return patternsWeight
        patterns = self.collocatonsGrammars.getGrammars(fType, border=0.00005)
        for pattern in patterns:
            if (pattern['freq'] / pattern['total_freq'] <= 1):
                continue
            self.patternMatcher.setParameters(pattern['grammar'], fType)
            self.patternMatcher.combineTokens(sentence.internalTokens, False)
            if len(self.patternMatcher.newTokens) > 0:
                sentence.setFlag(fType, True)
                patternsWeight += pattern['freq'] / pattern['total_freq']
        return patternsWeight

    def estimateLexicalSimilarity(self, fType, hists):
        typeVerbs = self.verbs[fType]
        est = 0
        for v in hists:
            est += hists[v] * typeVerbs[v]
        module = self.module(hists)
        if module == 0:
            return 0
        est /= self.sums[fType] * module
        return est

    def estimate(self, fType, sentence, hists):
        patternsCount = self.findPatterns(fType, sentence)
        lexicalSimilarity = self.estimateLexicalSimilarity(fType, hists)
        #print (fType+": "+str(patternsCount))
        return {
            'pattern': patternsCount,
            'lexical': lexicalSimilarity,
        }

    def genFragments(self, text, border=0.1):
        tokens = self.tokenSplitter.split(text)
        self.newTokens = []
        self.posTagger.posTagging(tokens)
        self.defisWordsBuilder.combineTokens(tokens)
        self.initialsWordsBuilder.combineTokens(tokens)
        self.headersMatcher.combineTokens(tokens)
        self.formalLanguagesMatcher.combineTokens(tokens)
        self.sentenceSplitter.combineTokens(tokens)

        lexicalEstimations = np.zeros((len(tokens), len(self.fragmentTypes)),
                                      dtype=np.float)
        patternEstimations = np.zeros((len(tokens), len(self.fragmentTypes)),
                                      dtype=np.float)
        totalEstimations = np.zeros((len(tokens), len(self.fragmentTypes)),
                                    dtype=np.float)

        for ind in range(len(tokens)):
            #print(tokens[ind].token)
            if not tokens[ind].internalTokens:
                hists = calcHist([tokens[ind]])['VERB']
            else:
                hists = calcHist(tokens[ind].internalTokens)['VERB']
            for fTypeInd in range(len(self.fragmentTypes)):
                fType = self.fragmentTypes[fTypeInd]
                oneEstimation = self.estimate(fType, tokens[ind], hists)
                lexicalEstimations[ind][fTypeInd] = oneEstimation['lexical']
                patternEstimations[ind][fTypeInd] = oneEstimation['pattern']
        lexicalEstimations = lexicalEstimations / np.amax(lexicalEstimations)
        patternEstimations = patternEstimations / np.amax(patternEstimations)
        totalEstimations = patternEstimations + 0.5 * lexicalEstimations
        #for ind in range(len(tokens)):
        #    for fTypeInd in range(len(self.fragmentTypes)):
        #        totalEstimations[ind][fTypeInd] = patternEstimations[ind][fTypeInd] + 0.5 * patternEstimations[ind][fTypeInd]

        totalEstimations = totalEstimations / np.amax(totalEstimations)
        orderedLexicalTypes = np.argsort(lexicalEstimations, axis=1)
        orderedPatternTypes = np.argsort(patternEstimations, axis=1)
        orderedTotalTypes = np.argsort(totalEstimations, axis=1)

        self.combineTokens(
            tokens, {
                'lexical': {
                    'values': lexicalEstimations,
                    "order": orderedLexicalTypes
                },
                'pattern': {
                    'values': patternEstimations,
                    "order": orderedPatternTypes
                },
                'total': {
                    'values': totalEstimations,
                    "order": orderedTotalTypes
                }
            }, border)
        return tokens

    def calcType(self, border, estC, estL=None, estR=None):
        votes = Counter()
        weight = Counter()
        #neibVotes = Counter()

        for parameter in range(len(estC)):
            estCBest = estC[parameter]['order'][-1]
            estC2Best = estC[parameter]['order'][-2]
            if estC[parameter]['value'][estCBest] > border:
                votes[self.fragmentTypes[estCBest]] += 6
                weight[self.fragmentTypes[estCBest]] += estC[parameter][
                    'value'][estCBest]
                if estC[parameter]['value'][
                        estC2Best] > 0.7 * estC[parameter]['value'][estCBest]:
                    votes[self.fragmentTypes[estC2Best]] += 4
                else:
                    votes[self.fragmentTypes[estC2Best]] += 2
                weight[self.fragmentTypes[estC2Best]] += estC[parameter][
                    'value'][estC2Best]
            if estL:
                estLBest = estL[parameter]['order'][-1]
                if estL[parameter]['value'][estLBest] > border:
                    votes[self.fragmentTypes[estLBest]] += 2
                    #neibVotes[self.fragmentTypes[estLBest]] += 1
            if estR:
                estRBest = estR[parameter]['order'][-1]
                if estR[parameter]['value'][estRBest] > border:
                    votes[self.fragmentTypes[estRBest]] += 2
                    #neibVotes[self.fragmentTypes[estRBest]] += 1
        #print (votes.most_common(4))
        #print (weight.most_common(4))
        commons = votes.most_common(2)
        commonWeights = weight.most_common(2)
        if len(commonWeights) == 0:
            return None
        if len(commons) == 0 or commons[0][1] == 0:
            return None
        if (len(commons) == 1
                or (len(commonWeights) > 1
                    and commonWeights[1][1] < 0.9 * commonWeights[0][1])
                or commons[1][1] != commons[0][1]):
            return commons[0][0]
        #neibCommons = votes.most_common(2)
        #if neibCommons[0][1] == 0:
        #    return None
        #if len(neibCommons) > 1 and neibCommons[0][1] != neibCommons[1][1]:
        #    return neibCommons[0][0]
        return None
        '''
        for parameter in estC:
            if estC[parameter]['fType']:
                votes[estC[parameter]['fType']] += 4
                if estC[parameter]['all'][1][1] > 0.7 * estC[parameter]['estimation']:
                    votes[estC[parameter]['all'][1][0]] += 3
                else:
                    votes[estC[parameter]['all'][1][0]] += 1
            if estL and estL[parameter]['fType']:
                votes[estL[parameter]['fType']] += 2
                neibVotes[estL[parameter]['fType']] += 1
            if estR and estR[parameter]['fType']:
                votes[estR[parameter]['fType']] += 2
                neibVotes[estR[parameter]['fType']] += 1
        print (votes.most_common(4))
        commons = votes.most_common(2)       
        if commons[0][1] != commons[1][1]:
            return commons[0][0]
        neibCommons = votes.most_common(2)  
        if neibCommons[0][1] != neibCommons[1][1]:
            return neibCommons[0][0]
        return None
        '''

    def __getOneEstimation(self, estimations, indToken):
        return [
            {
                'order': estimations['lexical']['order'][indToken],
                'value': estimations['lexical']['values'][indToken]
            },
            {
                'order': estimations['pattern']['order'][indToken],
                'value': estimations['pattern']['values'][indToken]
            },
            {
                'order': estimations['total']['order'][indToken],
                'value': estimations['total']['values'][indToken]
            },
        ]

    def __convertEstimationToNativeFormat(self, estimation):
        res = [['lexical', []], ['pattern', []], ['total', []]]
        for criteria in range(len(res)):
            for fTypeInd in estimation[criteria]['order']:
                res[criteria][1].append(
                    (self.fragmentTypes[fTypeInd],
                     estimation[criteria]['value'][fTypeInd]))
        return res

    def combineTokens(self, tokens, estimations, border):
        tokenTypes = []
        for indToken in range(len(tokens)):
            estC = self.__getOneEstimation(estimations, indToken)

            estL = None
            estR = None
            if indToken > 0:
                estL = self.__getOneEstimation(estimations, indToken - 1)
            if indToken < len(tokens) - 1:
                estR = self.__getOneEstimation(estimations, indToken - 1)
            tokenTypes.append(self.calcType(border, estC, estL, estR))
            #print (tokenTypes[indToken])
            tokens[indToken].setAdditionalInfo('functionalType',
                                               tokenTypes[indToken])
            if tokenTypes[indToken]:
                self.newTokens.append(tokens[indToken])
                tokens[indToken].setAdditionalInfo(
                    'ft_estimations',
                    self.__convertEstimationToNativeFormat(estC))
            #print (tokens[indToken].token)
        '''