Exemple #1
0
 def test_activation(self):
     logger.info("Testeando la integración de funciones de activación...")
     activation = 'Tanh'
     fun = fun_activation[activation]
     res = self.matrix_neurons.activation(fun)
     fun_d = fun_activation_d[activation]
     res_d = self.matrix_neurons.activation(fun_d)
     assert np.array_equiv(res.matrix, fun(np.ones(self.matrix_neurons.shape)))
     assert np.array_equiv(res_d.matrix, fun_d(np.ones(self.matrix_neurons.shape)))
     # Test de softmax como funcion de activacion
     N = self.matrix_neurons.rows
     shape = (N,)
     x = LocalNeurons(sc.parallelize(range(N)), shape)  # Aprovecho para testear con RDD
     res = x.softmax()
     res = map(lambda e: e[0], res.matrix)
     exp_x = np.exp(range(N))
     y = exp_x / float(sum(exp_x))
     assert np.allclose(res, y)
     logger.info("OK")
Exemple #2
0
 def test_activation(self):
     logger.info("Testeando la integración de funciones de activación...")
     activation = 'Tanh'
     fun = fun_activation[activation]
     res = self.matrix_neurons.activation(fun)
     fun_d = fun_activation_d[activation]
     res_d = self.matrix_neurons.activation(fun_d)
     assert np.array_equiv(res.matrix,
                           fun(np.ones(self.matrix_neurons.shape)))
     assert np.array_equiv(res_d.matrix,
                           fun_d(np.ones(self.matrix_neurons.shape)))
     # Test de softmax como funcion de activacion
     N = self.matrix_neurons.rows
     shape = (N, )
     x = LocalNeurons(sc.parallelize(range(N)),
                      shape)  # Aprovecho para testear con RDD
     res = x.softmax()
     res = map(lambda e: e[0], res.matrix)
     exp_x = np.exp(range(N))
     y = exp_x / float(sum(exp_x))
     assert np.allclose(res, y)
     logger.info("OK")