# 몇 epoch 학습할 것인지 training_epoch = train_util.training_epoch # 배치 사이즈 조절 batch_size = train_util.batch_size # 데이터 경로 지정부분 datadir, traindir, validdir, testdir, image_transforms, data, dataloaders = train_util.init_dataset( ) cat_df, image_df = train_util.category_dataframe(traindir, validdir, testdir) # 학습된 데이터 저장시 이름을 정하는 부분 save_file_name = './ModelSave/' + model_choice + '-transfer.pt' checkpoint_path = './ModelSave/' + model_choice + '-transfer_bts' + str( batch_size) + "_ep" + str( training_epoch) + "_" + train_util.get_date() + '.pth' # 이미지 갯수 분포 그래프 이미지로 저장 # train_util.save_distribution_of_images(cat_df, model_choice) # Whether to train on a gpu train_on_gpu = cuda.is_available() # GPU를 사용할 수 있는지 없는지 판단한다. if train_on_gpu: print('학습 모드 : GPU\n') else: print('학습 모드 : CPU\n') cat_df.sort_values('n_train', ascending=False, inplace=True) # print(f'{cat_df.head()}\n') # print(f'{cat_df.tail()}\n')
# 배치 사이즈 조절 batch_size = train_util.batch_size iterate_train = 1 for x in range(iterate_train): print('=============================================================================================================') print(f'학습을 {iterate_train}번 반복합니다. {x+1}번째') # 데이터 경로 지정부분 datadir, traindir, validdir, testdir, image_transforms, data, dataloaders = train_util.init_dataset() cat_df , image_df = train_util.category_dataframe(traindir, validdir, testdir) # 학습된 데이터 저장시 이름을 정하는 부분 save_file_name = './ModelSave/' + model_choice + '-transfer.pt' checkpoint_path = './ModelSave/' + model_choice + '-transfer_bts' +str(batch_size) + "_ep" + str(training_epoch) + "_" +train_util.get_date()+'.pth' # 이미지 갯수 분포 그래프 이미지로 저장 # train_util.save_distribution_of_images(cat_df, model_choice) # Whether to train on a gpu train_on_gpu = cuda.is_available() # GPU를 사용할 수 있는지 없는지 판단한다. if train_on_gpu: print('학습 모드 : GPU\n') else: print('학습 모드 : CPU\n') cat_df.sort_values('n_train', ascending=False, inplace=True)