Example #1
0
def main():
    parser = argparse.ArgumentParser()
    parser.add_argument("--working-directory",
                        "-cwd",
                        type=str,
                        default="out",
                        help="ワーキングディレクトリ")
    args = parser.parse_args()

    model = npylm.model(os.path.join(args.working_directory, "npylm.model"))
    lambda_list = model.get_lambda()
    word_types = [
        "アルファベット", "数字", "記号", "ひらがな", "カタカナ", "漢字", "漢字+ひらがな", "漢字+カタカナ",
        "その他"
    ]
    for wtype, lam in zip(word_types, lambda_list):
        print(wtype, lam)
Example #2
0
def main():
    parser = argparse.ArgumentParser()
    # 以下のどちらかを必ず指定
    parser.add_argument("--input-filename",
                        "-file",
                        type=str,
                        default=None,
                        help="訓練用のテキストファイルのパス")
    parser.add_argument("--input-directory",
                        "-dir",
                        type=str,
                        default=None,
                        help="訓練用のテキストファイルが入っているディレクトリ")

    parser.add_argument("--working-directory",
                        "-cwd",
                        type=str,
                        default="out",
                        help="ワーキングディレクトリ")
    parser.add_argument("--output-directory",
                        "-out",
                        type=str,
                        default="out",
                        help="分割結果の出力先")
    args = parser.parse_args()

    try:
        os.mkdir(args.output_dir)
    except:
        pass

    model = npylm.model(os.path.join(args.working_directory, "npylm.model"))

    if args.input_filename is not None:
        segmentation_list = []
        with codecs.open(args.input_filename, "r", "utf-8") as f:
            for sentence_str in f:
                sentence_str = sentence_str.strip()
                segmentation = model.parse(sentence_str)
                if len(segmentation) > 0:
                    segmentation_list.append(segmentation)

        filename = args.input_filename.split("/")[-1]
        with codecs.open(os.path.join(args.output_directory, filename), "w",
                         "utf-8") as f:
            for segmentation in segmentation_list:
                f.write(" ".join(segmentation))
                f.write("\n")

    if args.input_directory is not None:
        for filename in os.listdir(args.input_directory):
            print("processing {} ...".format(filename))
            segmentation_list = []
            with codecs.open(os.path.join(args.input_directory, filename), "r",
                             "utf-8") as f:
                for sentence_str in f:
                    sentence_str = sentence_str.strip()
                    segmentation = model.parse(sentence_str)
                    if len(segmentation) > 0:
                        segmentation_list.append(segmentation)

            with codecs.open(os.path.join(args.output_directory, filename),
                             "w", "utf-8") as f:
                for segmentation in segmentation_list:
                    f.write(" ".join(segmentation))
                    f.write("\n")
Example #3
0
def main():
    parser = argparse.ArgumentParser()
    # 以下のどちらかを必ず指定
    parser.add_argument("--train-filename",
                        "-file",
                        type=str,
                        default=None,
                        help="訓練用のテキストファイルのパス")
    parser.add_argument("--train-directory",
                        "-dir",
                        type=str,
                        default=None,
                        help="訓練用のテキストファイルが入っているディレクトリ")

    parser.add_argument("--seed", type=int, default=1)
    parser.add_argument("--epochs",
                        "-e",
                        type=int,
                        default=100000,
                        help="総epoch")
    parser.add_argument("--working-directory",
                        "-cwd",
                        type=str,
                        default="out",
                        help="ワーキングディレクトリ")
    parser.add_argument("--train-split",
                        "-split",
                        type=float,
                        default=0.9,
                        help="テキストデータの何割を訓練データにするか")

    parser.add_argument("--lambda-a", "-lam-a", type=float, default=4)
    parser.add_argument("--lambda-b", "-lam-b", type=float, default=1)
    parser.add_argument("--vpylm-beta-stop",
                        "-beta-stop",
                        type=float,
                        default=4)
    parser.add_argument("--vpylm-beta-pass",
                        "-beta-pass",
                        type=float,
                        default=1)
    parser.add_argument("--max-word-length",
                        "-l",
                        type=int,
                        default=16,
                        help="可能な単語の最大長.")
    args = parser.parse_args()

    assert args.working_directory is not None
    try:
        os.mkdir(args.working_directory)
    except:
        pass

    # 訓練データを追加
    corpus = build_corpus(args.train_filename, args.train_directory)
    dataset = npylm.dataset(corpus, args.train_split, args.seed)

    print("#train", dataset.get_num_sentences_train())
    print("#dev", dataset.get_num_sentences_dev())

    # 単語辞書を保存
    dictionary = dataset.get_dict()
    dictionary.save(os.path.join(args.working_directory, "npylm.dict"))

    # モデル
    model = npylm.model(dataset, args.max_word_length)  # 可能な単語の最大長を指定

    # ハイパーパラメータの設定
    model.set_initial_lambda_a(args.lambda_a)
    model.set_initial_lambda_b(args.lambda_b)
    model.set_vpylm_beta_stop(args.vpylm_beta_stop)
    model.set_vpylm_beta_pass(args.vpylm_beta_pass)

    # 学習の準備
    trainer = npylm.trainer(dataset, model)

    # 文字列の単語IDが衝突しているかどうかをチェック
    # 時間の無駄なので一度したらしなくてよい
    # メモリを大量に消費します
    if True:
        print("ハッシュの衝突を確認中 ...")
        num_checked_words = dataset.detect_hash_collision(args.max_word_length)
        print("衝突はありません (総単語数 {})".format(num_checked_words))

    # 学習ループ
    for epoch in range(1, args.epochs + 1):
        start = time.time()
        trainer.gibbs()  # ギブスサンプリング
        trainer.sample_hpylm_vpylm_hyperparameters(
        )  # HPYLMとVPYLMのハイパーパラメータの更新
        trainer.sample_lambda()  # λの更新

        # p(k|VPYLM)の推定は数イテレーション後にやるほうが精度が良い
        if epoch > 3:
            trainer.update_p_k_given_vpylm()

        model.save(os.path.join(args.working_directory, "npylm.model"))

        # ログ
        elapsed_time = time.time() - start
        printr("Iteration {} / {} - {:.3f} sec".format(epoch, args.epochs,
                                                       elapsed_time))
        if epoch % 10 == 0:
            printr("")
            trainer.print_segmentation_train(10)
            print("ppl_dev: {}".format(trainer.compute_perplexity_dev()))