Ejemplo n.º 1
0
def inference(model, dataset_test, batch_size=32) -> pd.DataFrame:
    """
    функция, которая делает предикты на новых данных, возвращает pd.DataFrame из двух колонок:
    (app_id, score)
    :param model: tf.keras.Model
    :param dataset_test: путь до директории с последовательностями
    :param batch_size: размер батча
    :return: pd.DataFrame из двух колонок: (app_id, score)
    """
    app_ids = []
    test_generator = batches_generator(dataset_test, batch_size=batch_size, shuffle=False,
                                       is_train=False, output_format='tf')

    preds = model.predict(test_generator).flatten()
    
    app_ids = []
    test_generator = batches_generator(dataset_test, batch_size=batch_size, shuffle=False, 
                                       is_train=False, output_format='tf')
    for _, y in test_generator:
        app_ids.extend(y)
        
    return pd.DataFrame({
        'app_id': app_ids,
        'score': preds
    })
Ejemplo n.º 2
0
def inference(model, dataset_test, batch_size=32, device=None) -> pd.DataFrame:
    """
    функция, которая делает предикты на новых данных, возвращает pd.DataFrame из двух колонок:
    (app_id, score)
    :param model: nn.Module модель
    :param dataset_test: путь до директории с последовательностями
    :param batch_size: размер батча
    :param device: device, на который будут положены данные внутри батча
    :return: pd.DataFrame из двух колонок: (app_id, score)
    """
    model.eval()
    preds = []
    app_ids = []
    test_generator = batches_generator(dataset_test,
                                       batch_size=batch_size,
                                       shuffle=False,
                                       verbose=False,
                                       device=device,
                                       is_train=False,
                                       output_format='torch')

    for batch in tqdm(test_generator, desc='Test time predictions'):
        app_ids.extend(batch['app_id'])
        output = model(batch['transactions_features'], batch['product'])
        preds.extend(output.detach().cpu().numpy().flatten())

    return pd.DataFrame({'app_id': app_ids, 'score': preds})
Ejemplo n.º 3
0
def eval_model(model, dataset_val, batch_size=32, device=None) -> float:
    """
    функция для оценки качества модели на отложенной выборке, возвращает roc-auc на валидационной
    выборке
    :param model: nn.Module модель
    :param dataset_val: путь до директории с последовательностями
    :param batch_size: размер батча
    :param device: device, на который будут положены данные внутри батча
    :return: val roc-auc score
    """
    preds = []
    targets = []
    val_generator = batches_generator(dataset_val,
                                      batch_size=batch_size,
                                      shuffle=False,
                                      device=device,
                                      is_train=True,
                                      output_format='torch')
    model.eval()

    for batch in tqdm(val_generator, desc='Evaluating model'):
        targets.extend(batch['label'].detach().cpu().numpy().flatten())
        output = model(batch['transactions_features'], batch['product'])
        preds.extend(output.detach().cpu().numpy().flatten())

    return roc_auc_score(targets, preds)
Ejemplo n.º 4
0
def eval_model(model, dataset_val, batch_size=32) -> float:
    """
    функция для оценки качества модели на отложенной выборке, возвращает roc-auc на валидационной
    выборке
    :param model: tf.keras.Model
    :param dataset_val: путь до директории с последовательностями
    :param batch_size: размер батча
    :return: val roc-auc score
    """
    val_generator = batches_generator(dataset_val, batch_size=batch_size, shuffle=False,
                                      output_format='tf', is_train=True)
    preds = model.predict(val_generator).flatten()
    val_generator = batches_generator(dataset_val, batch_size=batch_size, shuffle=False,
                                      output_format='tf', is_train=True)
    targets = []
    for _, y in val_generator:
        targets.extend(y)

    return roc_auc_score(targets, preds)
Ejemplo n.º 5
0
def train_epoch(model,
                optimizer,
                dataset_train,
                batch_size=64,
                shuffle=True,
                print_loss_every_n_batches=500,
                device=None):
    """
    делает одну эпоху обучения модели, логирует
    :param model: nn.Module модель
    :param optimizer: nn.optim оптимизатор
    :param dataset_train: путь до директории с последовательностями
    :param batch_size: размерм батча
    :param shuffle: флаг, если True, то перемешивает данные
    :param print_loss_every_n_batches: число батчей после которых логируется лосс на этих батчах
    :param device: device, на который будут положены данные внутри батча
    :return: None
    """
    train_generator = batches_generator(dataset_train,
                                        batch_size=batch_size,
                                        shuffle=shuffle,
                                        device=device,
                                        is_train=True,
                                        output_format='torch')
    loss_function = nn.BCEWithLogitsLoss()

    num_batches = 1
    running_loss = 0.0

    model.train()

    for batch in tqdm(train_generator, desc='Training'):

        output = torch.flatten(
            model(batch['transactions_features'], batch['product']))

        batch_loss = loss_function(output, batch['label'].float())

        batch_loss.backward()
        optimizer.step()
        optimizer.zero_grad()

        running_loss += batch_loss

        if num_batches % print_loss_every_n_batches == 0:
            print(
                f'Training loss after {num_batches} batches: {running_loss / num_batches}',
                end='\r')

        num_batches += 1

    print(f'Training loss after epoch: {running_loss / num_batches}', end='\r')
Ejemplo n.º 6
0
def train_epoch(model, dataset_train, batch_size=64, shuffle=True, cur_epoch=0,
                steps_per_epoch=5000, callbacks=None):
    """
    функция обучения модели одну эпоху
    :param model: tf.keras.Model
    :param dataset_train: путь до директории с последовательностями
    :param batch_size: размер батча
    :param shuffle: флаг, если True, то перемешивает данные
    :param cur_epoch:
    :param steps_per_epoch:
    :param callbacks: cписок из tf.keras.callbacks или None
    :return: None
    """
    train_generator = batches_generator(dataset_train, batch_size=batch_size, shuffle=shuffle,
                                        output_format='tf', is_train=True)
    model.fit(train_generator, steps_per_epoch=steps_per_epoch, epochs=cur_epoch + 1,
              initial_epoch=cur_epoch, callbacks=callbacks)