def main(): # SD_Scratch settings parser = argparse.ArgumentParser() parser.add_argument('--Superclasses', required=True, nargs='+', type=str) parser.add_argument('--model_epochs', type=int, default=200, metavar='N', required=False) parser.add_argument('--model_pretrained', default=False, required=False) parser.add_argument('--model_step_size', type=int, default=80, metavar='S') parser.add_argument('--device', type=str, default='cpu', required=False) parser.add_argument('--batch_size', type=int, default=256, metavar='N') parser.add_argument('--data_root', type=str, default='data') parser.add_argument('--lr', type=float, default=0.1, metavar='LR') parser.add_argument('--weight_decay', type=float, default=5e-4) parser.add_argument('--momentum', type=float, default=0.9, metavar='M', help='SGD momentum (default: 0.9)') parser.add_argument('--seed', type=int, default=1, metavar='S', help='random seed (default: 1)') parser.add_argument('--log_interval', type=int, default=10, metavar='N', required=False, help='how many batches to wait before logging training status') parser.add_argument('--verbose', default=True, required=False) parser.add_argument('--scheduler', default=True, required=False) args = parser.parse_args() use_cuda = torch.cuda.is_available() set_seed(args) torch.backends.cudnn.deterministic = True torch.backends.cudnn.benchmark = False args.device = torch.device("cuda" if use_cuda else "cpu") print(args) get_model(args)
def main(): # Preprocessing settings parser = argparse.ArgumentParser() parser.add_argument('--Experts_epochs', type=int, default=20, metavar='N', required=False) parser.add_argument('--Experts_pretrained', default=True, required=False) parser.add_argument('--device', type=str, default='cpu', required=False) parser.add_argument('--batch_size', type=int, default=128, metavar='N') parser.add_argument('--alpha', type=int, default=0.3) parser.add_argument('--lr', type=float, default=0.01, metavar='LR') parser.add_argument('--weight_decay', type=float, default=5e-4) parser.add_argument('--momentum', type=float, default=0.9, metavar='M', help='SGD momentum (default: 0.9)') parser.add_argument('--seed', type=int, default=1, metavar='S', help='random seed (default: 1)') parser.add_argument('--log_interval', type=int, default=10, metavar='N', required=False, help='how many batches to wait before logging training status') parser.add_argument('--verbose', default=True, required=False) parser.add_argument('--scheduler', default=True, required=False) args = parser.parse_args() use_cuda = torch.cuda.is_available() set_seed(args) torch.backends.cudnn.deterministic = True torch.backends.cudnn.benchmark = False args.device = torch.device("cuda" if use_cuda else "cpu") print(args) # get Oracle model Oracle = get_Oracle(args, False) # Construct PoE library = get_library(args) get_experts(args, Oracle, library)
def main(): # Service settings parser = argparse.ArgumentParser() parser.add_argument('--device', type=str, default='cpu', required=False) parser.add_argument('--batch_size', type=int, default=128, metavar='N') parser.add_argument('--data_root', type=str, default='data') parser.add_argument('--momentum', type=float, default=0.9, metavar='M', help='SGD momentum (default: 0.9)') parser.add_argument('--seed', type=int, default=1, metavar='S', help='random seed (default: 1)') parser.add_argument('--queriedTask', required=True, nargs='+', type=str) args = parser.parse_args() use_cuda = torch.cuda.is_available() set_seed(args) torch.backends.cudnn.deterministic = True torch.backends.cudnn.benchmark = False args.device = torch.device("cuda" if use_cuda else "cpu") print(args) # get specialised Model print('\nQueried Task:', args.queriedTask) test_MQ(args)