Calcule le coût d'entropie croisée softmax et les gradients à rétropropager.
Contrairement à `SoftmaxCrossEntropyWithLogits`, cette opération n'accepte pas une matrice de probabilités d'étiquettes, mais plutôt une seule étiquette par ligne de fonctionnalités. Cette étiquette est considérée comme ayant une probabilité de 1,0 pour la ligne donnée.
Les entrées sont les logits, pas les probabilités.
Constantes
Chaîne | OP_NAME | Le nom de cette opération, tel que connu par le moteur principal TensorFlow |
Méthodes publiques
Sortie <T> | arrière-plan () dégradés rétropropagés (matrice batch_size x num_classes). |
statique <T étend TNumber > SparseSoftmaxCrossEntropyWithLogits <T> | créer (portée de portée , fonctionnalités de l'opérande <T>, opérande <? étend les étiquettes TNumber >) Méthode d'usine pour créer une classe encapsulant une nouvelle opération SparseSoftmaxCrossEntropyWithLogits. |
Sortie <T> | perte () Par exemple, perte (vecteur batch_size). |
Méthodes héritées
Constantes
chaîne finale statique publique OP_NAME
Le nom de cette opération, tel que connu par le moteur principal TensorFlow
Méthodes publiques
public static SparseSoftmaxCrossEntropyWithLogits <T> créer (portée de portée , fonctionnalités Operand <T>, Operand <? extends TNumber > étiquettes)
Méthode d'usine pour créer une classe encapsulant une nouvelle opération SparseSoftmaxCrossEntropyWithLogits.
Paramètres
portée | portée actuelle |
---|---|
caractéristiques | matrice batch_size x num_classes |
Étiquettes | vecteur batch_size avec des valeurs dans [0, num_classes). Il s'agit de l'étiquette de l'entrée de mini-lot donnée. |
Retour
- une nouvelle instance de SparseSoftmaxCrossEntropyWithLogits