Esempio n. 1
0
# ====================-=======

# # tf 데이터셋 만들기
BATCH_SIZE = 512
dataset = create.create_tf_data(tokenizer, img_name_train, cap_train,
                                BATCH_SIZE)
print()

# 환경 변수
embedding_dim = 256
units = 512
vocab_size = my_token.top_k + 1

# CNN : relu모델 사용
# RNN : GRU 모델 사용
encoder = CNN.CNN_Encoder(embedding_dim)
decoder = RNN.RNN_Decoder(embedding_dim, units, vocab_size)
print("인코딩, 디코딩")

# encoder, decoder에 가중치 갱신해주는 optimizer
# optimizer에서 learning rate를 변경 가능
optimizer = tf.keras.optimizers.Adam(learning_rate=1e-5)

#############################################
# 체크포인트
# 체크 포인트 저장
checkpoint_path = "./checkpoints/train"
ckpt = tf.train.Checkpoint(encoder=encoder,
                           decoder=decoder,
                           optimizer=optimizer)
ckpt_manager = tf.train.CheckpointManager(ckpt, checkpoint_path, max_to_keep=5)