def add_arguments(argp, test=False): # base parameters bool_argument(argp, 'packed', False) bool_argument(argp, 'test', test) # pre-processing parameters argp.add_argument('--processes', type=int, default=4) argp.add_argument('--threads', type=int, default=1) argp.add_argument('--prefetch', type=int, default=64) argp.add_argument('--buffer-size', type=int, default=256) bool_argument(argp, 'shuffle', True) bool_argument(argp, 'mixup', False)
def main(argv=None): # arguments parsing import argparse argp = argparse.ArgumentParser(argv[0]) # training parameters argp.add_argument('dataset') argp.add_argument('--val-dir') # only for packed dataset bool_argument(argp, 'debug', False) argp.add_argument('--num-epochs', type=int, default=24) argp.add_argument('--max-steps', type=int) argp.add_argument('--random-seed', type=int) argp.add_argument('--device', default='/gpu:0') argp.add_argument('--postfix', default='') argp.add_argument('--pretrain-dir', default='') argp.add_argument('--train-dir', default='./train{postfix}.tmp') argp.add_argument('--restore', action='store_true') argp.add_argument('--save-steps', type=int, default=5000) argp.add_argument('--ckpt-period', type=int, default=1200) argp.add_argument('--log-frequency', type=int, default=100) argp.add_argument('--log-file', default='train.log') argp.add_argument('--batch-size', type=int) # should be explicitly set for packed data argp.add_argument('--val-size', type=int, default=256) # data parameters argp.add_argument('--dtype', type=int, default=2) argp.add_argument('--in-channels', type=int, default=3) argp.add_argument('--out-channels', type=int, default=3) # pre-processing parameters Data.add_arguments(argp, False) # model parameters Model.add_arguments(argp) argp.add_argument('--scaling', type=int, default=1) # parse args = argp.parse_args(argv[1:]) Data.parse_arguments(args) args.train_dir = args.train_dir.format(postfix=args.postfix) args.dtype = [tf.int8, tf.float16, tf.float32, tf.float64][args.dtype] # run training train = Train(args) train()
def main(argv=None): # arguments parsing import argparse argp = argparse.ArgumentParser() # training parameters argp.add_argument('dataset') argp.add_argument('--discriminator-model') bool_argument(argp, 'debug', False) argp.add_argument('--num-epochs', type=int, default=24) argp.add_argument('--max-steps', type=int) argp.add_argument('--random-seed', type=int) argp.add_argument('--device', default='/gpu:0') argp.add_argument('--postfix', default='') argp.add_argument('--pretrain-dir', default='') argp.add_argument('--train-dir', default='./train{postfix}.tmp') argp.add_argument('--restore', action='store_true') argp.add_argument('--save-steps', type=int, default=5000) argp.add_argument('--ckpt-period', type=int, default=3600) argp.add_argument('--log-frequency', type=int, default=100) argp.add_argument('--log-file', default='train.log') argp.add_argument('--batch-size', type=int) argp.add_argument('--val-size', type=int, default=72) argp.add_argument('--gan-type', default='wgan') # data parameters argp.add_argument('--dtype', type=int, default=2) argp.add_argument('--data-format', default='NCHW') argp.add_argument('--in-channels', type=int, default=3) argp.add_argument('--num-domains', type=int) # pre-processing parameters Data.add_arguments(argp, False) # parse args = argp.parse_args(argv) Data.parse_arguments(args) args.train_dir = args.train_dir.format(postfix=args.postfix) args.dtype = [tf.int8, tf.float16, tf.float32, tf.float64][args.dtype] # run training train = Train(args) train()
def main(argv): import argparse argp = argparse.ArgumentParser(argv[0]) argp.add_argument('input_dir') argp.add_argument('save_dir') argp.add_argument('--params', required=True) argp.add_argument('--random-seed', type=int) argp.add_argument('--batch-size', type=int, default=1) argp.add_argument('--epochs', type=int, default=1) argp.add_argument( '--shuffle', type=int, default=2) # 0: no shuffle, 1: shuffle once, 2: shuffle every epoch argp.add_argument('--log-freq', type=int, default=1000) argp.add_argument('--processes', type=int, default=8) argp.add_argument('--dtype', default='float16') bool_argument(argp, 'test', False) bool_argument(argp, 'augment', True) bool_argument(argp, 'pre-down', False) bool_argument(argp, 'linear', False) bool_argument(argp, 'mixup', False) argp.add_argument('--scale', type=int, default=1) argp.add_argument('--patch-width', type=int, default=256) argp.add_argument('--patch-height', type=int, default=256) argp.add_argument('--transfer', default='IEC_61966_2_1') # parse args = argp.parse_args(argv[1:]) # force argument if args.test: args.augment = False args.linear = False args.mixup = False # load json import json with open(args.params) as fp: args.params = json.load(fp) # run data writer writer = DataWriter(args) writer()
def add_arguments(argp, test=False): # base parameters bool_argument(argp, 'packed', False) bool_argument(argp, 'test', test) # pre-processing parameters argp.add_argument('--processes', type=int, default=2) argp.add_argument('--threads', type=int, default=1) argp.add_argument('--prefetch', type=int, default=64) argp.add_argument('--buffer-size', type=int, default=256) bool_argument(argp, 'shuffle', True) argp.add_argument('--group-size', type=int, default=4) # sample parameters argp.add_argument('--pp-rate', type=int, default=16000) argp.add_argument('--pp-duration', type=float, help='0: no slicing, -: fixed slicing, +: random slicing') argp.add_argument('--pp-smooth', type=float) argp.add_argument('--pp-noise', type=float) argp.add_argument('--pp-amplitude', type=int)