# ====================-======= # # tf 데이터셋 만들기 BATCH_SIZE = 512 dataset = create.create_tf_data(tokenizer, img_name_train, cap_train, BATCH_SIZE) print() # 환경 변수 embedding_dim = 256 units = 512 vocab_size = my_token.top_k + 1 # CNN : relu모델 사용 # RNN : GRU 모델 사용 encoder = CNN.CNN_Encoder(embedding_dim) decoder = RNN.RNN_Decoder(embedding_dim, units, vocab_size) print("인코딩, 디코딩") # encoder, decoder에 가중치 갱신해주는 optimizer # optimizer에서 learning rate를 변경 가능 optimizer = tf.keras.optimizers.Adam(learning_rate=1e-5) ############################################# # 체크포인트 # 체크 포인트 저장 checkpoint_path = "./checkpoints/train" ckpt = tf.train.Checkpoint(encoder=encoder, decoder=decoder, optimizer=optimizer) ckpt_manager = tf.train.CheckpointManager(ckpt, checkpoint_path, max_to_keep=5)