def test_activation(self): logger.info("Testeando la integración de funciones de activación...") activation = 'Tanh' fun = fun_activation[activation] res = self.matrix_neurons.activation(fun) fun_d = fun_activation_d[activation] res_d = self.matrix_neurons.activation(fun_d) assert np.array_equiv(res.matrix, fun(np.ones(self.matrix_neurons.shape))) assert np.array_equiv(res_d.matrix, fun_d(np.ones(self.matrix_neurons.shape))) # Test de softmax como funcion de activacion N = self.matrix_neurons.rows shape = (N,) x = LocalNeurons(sc.parallelize(range(N)), shape) # Aprovecho para testear con RDD res = x.softmax() res = map(lambda e: e[0], res.matrix) exp_x = np.exp(range(N)) y = exp_x / float(sum(exp_x)) assert np.allclose(res, y) logger.info("OK")
def test_activation(self): logger.info("Testeando la integración de funciones de activación...") activation = 'Tanh' fun = fun_activation[activation] res = self.matrix_neurons.activation(fun) fun_d = fun_activation_d[activation] res_d = self.matrix_neurons.activation(fun_d) assert np.array_equiv(res.matrix, fun(np.ones(self.matrix_neurons.shape))) assert np.array_equiv(res_d.matrix, fun_d(np.ones(self.matrix_neurons.shape))) # Test de softmax como funcion de activacion N = self.matrix_neurons.rows shape = (N, ) x = LocalNeurons(sc.parallelize(range(N)), shape) # Aprovecho para testear con RDD res = x.softmax() res = map(lambda e: e[0], res.matrix) exp_x = np.exp(range(N)) y = exp_x / float(sum(exp_x)) assert np.allclose(res, y) logger.info("OK")