Esempio n. 1
0
def get_args():
    argparser = get_argparser()

    add_all_defaults(argparser)
    args = parse_args(argparser)
    args.wait_iterations = args.wait_epochs * args.eval_batches
    return args
def get_args():
    argparser = get_argparser()
    # Models
    argparser.add_argument('--eval-path', type=str, required=True)
    # Save
    argparser.add_argument('--results-file', type=str, required=True)
    add_data_args(argparser)
    return parse_args(argparser)
def get_args():
    argparser = get_argparser()
    # adaptor
    argparser.add_argument('--two-stage-state-folder', type=str, required=True)
    argparser.add_argument('--results-file', type=str, required=True)
    add_data_args(argparser)
    add_generator_args(argparser)
    args = parse_args(argparser)
    return args
def get_args():
    argparser = get_argparser()
    argparser.add_argument('--max-train-tokens', type=int, required=True)
    argparser.add_argument('--data-language-dir', type=str, required=True)
    argparser.add_argument('--checkpoint-language-dir',
                           type=str,
                           required=True)
    argparser.add_argument('--alpha', type=str, required=True)
    argparser.add_argument('--beta', type=str, required=True)
    argparser.add_argument('--results-folder', type=str, required=True)
    args = parse_args(argparser)
    return args
Esempio n. 5
0
def get_args():
    argparser = get_argparser()
    # Save
    argparser.add_argument('--results-file', type=str, required=True)
    # adaptor
    argparser.add_argument('--no-iterations', type=int, default=10)
    argparser.add_argument('--beta-limit', type=int)
    argparser.add_argument('--adaptor-iterations', type=int, default=6)
    argparser.add_argument('--two-stage-state-folder', type=str, required=True)
    add_all_defaults(argparser)
    args = parse_args(argparser)
    args.wait_iterations = args.wait_epochs * args.eval_batches
    return args
Esempio n. 6
0
def get_args():
    argparser = get_argparser()
    # Save
    argparser.add_argument('--adaptor-results-file', type=str, required=True)
    # adaptor
    argparser.add_argument('--alpha', type=float, required=True)
    argparser.add_argument('--beta', type=float, required=True)
    argparser.add_argument('--adaptor-iterations', type=int, default=6)
    argparser.add_argument('--two-stage-state-folder', type=str, required=True)
    argparser.add_argument('--load-adaptor-init-state',
                           default=False,
                           action='store_true')

    add_all_defaults(argparser)
    args = parse_args(argparser)
    args.wait_iterations = args.wait_epochs * args.eval_batches
    return args
def get_args():
    argparser = get_argparser()
    argparser.add_argument(
        "--wikipedia-tokenized-file",
        type=str,
        help="The file in which wikipedia tokenized results should be")
    argparser.add_argument("--language",
                           type=str,
                           help="The language the data is in")
    argparser.add_argument("--n-folds",
                           type=int,
                           default=10,
                           help="Number of folds to split data")
    argparser.add_argument("--max-sentences",
                           type=int,
                           default=1000000,
                           help="Maximum number of sentences used")
    add_data_args(argparser)
    return parse_args(argparser)
def get_args():
    argparser = get_argparser()
    argparser.add_argument('--data-file', type=str, required=True)
    args = parse_args(argparser)
    return args