def add_args_to_parser(self, parser: argparse.ArgumentParser, default_values: Dict[str, Any] = {}) -> None: super().add_args_to_parser(parser, default_values) add_nn_args(parser, default_values) add_tokenizer_args(parser, default_values) parser.add_argument("--max-length", dest="max_length", type=int, default=default_values.get("max-length", 100)) parser.add_argument("--num-encoder-layers", dest="num_encoder_layers", type=int, default=default_values.get("num-encoder-layers", 3)) # parser.add_argument("--num-decoder-layers", dest="num_decoder_layers", type=int, # default=default_values.get("num-decoder-layers", 2)) parser.add_argument("--num-head-keywords", dest="num_head_keywords", type=int, default=default_values.get("num-head-keywords", 100)) parser.add_argument("--num-tactic-keywords", dest="num_tactic_keywords", type=int, default=default_values.get("num-tactic-keywords", 50)) parser.add_argument("--word-embedding-size", dest="word_embedding_size", type=int, default=default_values.get("word_embedding_size", 10))
def add_args_to_parser(self, parser: argparse.ArgumentParser, default_values: Dict[str, Any] = {}) -> None: super().add_args_to_parser(parser, default_values) add_nn_args(parser, dict([('num-epochs', 50)] + list(default_values.items()))) parser.add_argument("--print-keywords", dest="print_keywords", default=False, action='store_const', const=True) parser.add_argument("--num-head-keywords", dest="num_head_keywords", type=int, default=default_values.get("num-head-keywords", 100)) parser.add_argument("--num-tactic-keywords", dest="num_tactic_keywords", type=int, default=default_values.get("num-tactic-keywords", 50)) parser.add_argument("--word-embedding-size", dest="word_embedding_size", type=int, default=default_values.get("word_embedding_size", 10))
def add_args_to_parser(self, parser : argparse.ArgumentParser, default_values : Dict[str, Any] = {}) -> None: new_defaults = {"batch-size":128, "learning-rate":0.4, "epoch-step":3, **default_values} super().add_args_to_parser(parser, new_defaults) add_nn_args(parser, new_defaults) add_tokenizer_args(parser, new_defaults) feature_set : Set[str] = set() all_constructors : List[Type[Feature]] = vec_feature_constructors + word_feature_constructors # type: ignore for feature_constructor in all_constructors: new_args = feature_constructor\ .add_feature_arguments(parser, feature_set, default_values) feature_set = feature_set.union(new_args) parser.add_argument("--max-length", dest="max_length", type=int, default=default_values.get("max-length", 30)) parser.add_argument("--max-string-distance", type=int, default=default_values.get("max-string-distance", 50)) parser.add_argument("--max-beam-width", dest="max_beam_width", type=int, default=default_values.get("max-beam-width", 10)) parser.add_argument("--no-lemma-args", dest="lemma_args", action='store_false') parser.add_argument("--no-hyp-features", dest="hyp_features", action="store_false") parser.add_argument("--no-features", dest="features", action="store_false") parser.add_argument("--no-hyp-rnn", dest="hyp_rnn", action="store_false") parser.add_argument("--no-goal-rnn", dest="goal_rnn", action="store_false") parser.add_argument("--replace-rnns-with-dnns", action="store_true") parser.add_argument("--print-tensors", action="store_true") parser.add_argument("--load-text-tokens", default=None) parser.add_argument("--load-features", default=None) parser.add_argument("--load-tensors", default=None) parser.add_argument("--save-embedding", type=str, default=None) parser.add_argument("--save-features-state", type=str, default=None) parser.add_argument("--load-embedding", type=str, default=None) parser.add_argument("--load-features-state", type=str, default=None)
def _add_args_to_parser(self, parser : argparse.ArgumentParser, default_values : Dict[str, Any] = {}) -> None: super()._add_args_to_parser(parser, default_values) add_nn_args(parser, default_values) add_tokenizer_args(parser, default_values) parser.add_argument("--max-distance", type=int, default=default_values.get("max_distance", 10))
def add_args_to_parser(self, parser : argparse.ArgumentParser, default_values : Dict[str, Any] = {}) -> None: super().add_args_to_parser(parser, {"learning-rate": 0.4, **default_values}) add_nn_args(parser, default_values) add_tokenizer_args(parser, default_values) parser.add_argument("--max-length", dest="max_length", type=int, default=default_values.get("max-length", 10)) parser.add_argument("--num-head-keywords", dest="num_head_keywords", type=int, default=default_values.get("num-head-keywords", 100)) parser.add_argument("--num-tactic-keywords", dest="num_tactic_keywords", type=int, default=default_values.get("num-tactic-keywords", 50))
def add_args_to_parser(self, parser: argparse.ArgumentParser, default_values: Dict[str, Any] = {}) -> None: super().add_args_to_parser(parser) add_tokenizer_args(parser) add_nn_args( parser, dict([('num-epochs', 50), ('hidden-size', 256), ('batch-size', 64)] + list(default_values.items()))) parser.add_argument("--num-grams", dest="num_grams", default=1, type=int) parser.add_argument("--hidden-size", dest="hidden_size", type=int, default=default_values.get("hidden-size", 128)) parser.add_argument("--num-layers", dest="num_layers", type=int, default=default_values.get("num-layers", 3))
def _add_args_to_parser(self, parser: argparse.ArgumentParser, default_values: Dict[str, Any] = {}) -> None: new_defaults = {"max-length": 100, **default_values} super()._add_args_to_parser(parser, new_defaults) add_nn_args(parser, default_values) parser.add_argument("--max-distance", default=default_values.get("max-distance", 10), type=int) parser.add_argument("--num-keywords", default=default_values.get("num-keywords", 100), type=int) parser.add_argument("--max-string-distance", default=default_values.get("max-string-distance", 50), type=int) parser.add_argument("--print-keywords", dest="print_keywords", default=False, action='store_const', const=True)