def load_encoder(encoder_file: str): encoder = DatasetEncoder.load_encoder(encoder_file) encoder = DatasetEncoder.load_attribute(encoder, encoder_file, "model_path") return encoder
def export_encoder(path: str, encoder) -> str: encoder_file = DatasetEncoder.store_encoder(encoder, path + "encoder.pickle") return encoder_file
def load_encoder(encoder_file: str): encoder = DatasetEncoder.load_encoder(encoder_file) for attribute in ["scaler_path", "vectorizer_path"]: encoder = DatasetEncoder.load_attribute(encoder, encoder_file, attribute) return encoder
def load_encoder(encoder_file: str): encoder = DatasetEncoder.load_encoder(encoder_file) encoder.relevant_indices_path = DatasetEncoder.load_attribute(encoder, encoder_file, "relevant_indices_path") encoder.comparison_data = UtilIO.import_comparison_data(os.path.dirname(encoder_file) + '/') return encoder
def export_encoder(path: str, encoder) -> str: encoder_file = DatasetEncoder.store_encoder(encoder, path + "encoder.pickle") UtilIO.export_comparison_data(encoder.comparison_data, path) return encoder_file
def load_encoder(encoder_file: str): encoder = DatasetEncoder.load_encoder(encoder_file) encoder.comparison = UtilIO.import_comparison_data( f"{os.path.dirname(encoder_file)}/") return encoder