def __init__(self, params, list_layers=None, dropout=None): self.params = params self.num_layers = len(params.units_layers) if dropout is None: dropout = [0.0] * self.num_layers self.dropout = dropout NeuralNetwork.__init__(self, params, list_layers=None) self._init_autoencoders() # Creo autoencoders que se guardan en list_layers
def __init__(self, params, list_layers=None, dropout=None): self.params = params self.num_layers = len(params.units_layers) if dropout is None: dropout = [0.0] * self.num_layers self.dropout = dropout NeuralNetwork.__init__(self, params, list_layers=None) self._init_autoencoders( ) # Creo autoencoders que se guardan en list_layers
def __init__(self, params=None, list_layers=None, dropout_in=0.0): # Aseguro algunos parametros params.classification = False n_in = params.units_layers[0] params.layer_distributed.append(False) # Ya que se agrega una dimension, se debe reflejar aqui tmb (False por ahora) params.units_layers.append(n_in) # Unidades en la salida en igual cantidad que la entrada params.dropout_ratios = [dropout_in, 0.0] # Dropout en encoder, pero nulo en decoder self.num_layers = 2 NeuralNetwork.__init__(self, params, list_layers)
def __init__(self, params=None, list_layers=None, dropout_in=0.0): # Aseguro algunos parametros params.classification = False n_in = params.units_layers[0] params.layer_distributed.append( False ) # Ya que se agrega una dimension, se debe reflejar aqui tmb (False por ahora) params.units_layers.append( n_in) # Unidades en la salida en igual cantidad que la entrada params.dropout_ratios = [dropout_in, 0.0 ] # Dropout en encoder, pero nulo en decoder self.num_layers = 2 NeuralNetwork.__init__(self, params, list_layers)