コード例 #1
0
ファイル: cnn_reg.py プロジェクト: schevalier/minpy
 def loss(self, predict, y):
     # Add L2 regularization for all the weights.
     reg_loss = 0.0
     for name, weight in self.params.items():
         reg_loss += np.sum(weight**2) * 0.5
     return layers.softmax_cross_entropy(predict,
                                         y) + weight_decay * reg_loss
コード例 #2
0
ファイル: cnn_sym.py プロジェクト: zhxxhit/minpy
 def loss(self, predict, y):
     return layers.softmax_cross_entropy(predict, y)
コード例 #3
0
 def loss(self, predict, y):
     # Compute softmax loss between the output and the label.
     return layers.softmax_cross_entropy(predict, y)
コード例 #4
0
ファイル: cnn_sym.py プロジェクト: HrWangChengdu/minpy
 def loss(self, predict, y):
     return layers.softmax_cross_entropy(predict, y)
コード例 #5
0
ファイル: test_layers.py プロジェクト: lryta/minpy
 def check_fn(weights):
     return layers.softmax_cross_entropy(
             f(x=x, softmax_label=fake_y, fc_weight=weights),
             fake_y)
コード例 #6
0
ファイル: cnn_reg.py プロジェクト: HrWangChengdu/minpy
 def loss(self, predict, y):
     # Add L2 regularization for all the weights.
     reg_loss = 0.0
     for name, weight in self.params.items():
         reg_loss += np.sum(weight ** 2)
     return layers.softmax_cross_entropy(predict, y) + 0.5 * weight_decay * reg_loss
コード例 #7
0
 def check_fn(weights):
     return layers.softmax_cross_entropy(
         f(x=x, softmax_label=fake_y, fc_weight=weights), fake_y)
コード例 #8
0
ファイル: mlp_minpy_gpu_sym.py プロジェクト: mufeili/minpy
 def loss(self, predict, y):
     # Compute softmax loss between the output and the label.
     return layers.softmax_cross_entropy(predict, y)