Constructeurs Publics
Méthodes publiques
statique <T étend TNumber , U étend TNumber > Opérande | sparseSoftmaxCrossEntropyWithLogits (portée de portée , étiquettes d'opérande <T>, logits d'opérande <U>) Calcule l'entropie croisée softmax clairsemée entre logits et labels . |
Méthodes héritées
Constructeurs Publics
public SparseSoftmaxCrossEntropyWithLogits ()
Méthodes publiques
Opérande statique public sparseSoftmaxCrossEntropyWithLogits ( portée de portée , étiquettes d'opérande <T>, logits d'opérande <U>)
Calcule l'entropie croisée softmax clairsemée entre logits
et labels
.
Mesure l'erreur de probabilité dans les tâches de classification discrètes dans lesquelles les classes s'excluent mutuellement (chaque entrée appartient exactement à une classe). Par exemple, chaque image CIFAR-10 est étiquetée avec une et une seule étiquette : une image peut être un chien ou un camion, mais pas les deux.
NOTE:
Pour cette opération, la probabilité d’une étiquette donnée est considérée comme exclusive. Autrement dit, les classes logicielles ne sont pas autorisées et le vecteur labels
doit fournir un seul index spécifique pour la vraie classe pour chaque ligne de logits
(chaque entrée de mini-lot). Pour la classification softmax avec une distribution de probabilité pour chaque entrée, ERROR(/org.tensorflow.op.NnOps#softmaxCrossEntropyWithLogits)
.
AVERTISSEMENT:
Cette opération attend des logits non mis à l'échelle, car elle effectue un softmax
sur logits
en interne pour plus d'efficacité. N'appelez pas cette opération avec la sortie de softmax
, car cela produirait des résultats incorrects.
Un cas d'utilisation courant consiste à avoir des logits de forme [batchSize, numClasses]
et des étiquettes de forme [batchSize]
, mais les dimensions plus élevées sont prises en charge, auquel cas la dim
-ème dimension est supposée être de taille numClasses
. logits
doivent avoir leTFloat16
, TFloat32
ou TFloat64
, et labels
doivent avoir le type TInt32
ou TInt64
.
Paramètres
portée | portée actuelle |
---|---|
Étiquettes | Tensor de forme [d_0, d_1, ..., d_{r-1}] (où r est le rang des labels et le résultat) et le dataType est TInt32 ou TInt64 . Chaque entrée dans labels doit être un index dans [0, numClasses) . D'autres valeurs déclencheront une exception lorsque cette opération est exécutée sur le processeur et renverront NaN pour les lignes de perte et de gradient correspondantes sur le GPU. |
logites | Activations par étiquette (généralement une sortie linéaire) de forme [d_0, d_1, ..., d_{r-1}, numClasses] et dataType de TFloat16 , TFloat32 ou TFloat64 . Ces énergies d'activation sont interprétées comme des probabilités logarithmiques non normalisées. |
Retour
- Un
Tensor
de la même forme quelabels
et du même type quelogits
avec la perte d'entropie croisée softmax.
Jetés
Exception d'argument illégal | Si les logits sont scalaires (il faut avoir un rang >= 1) ou si le rang des étiquettes n'est pas égal au rang des logits moins un. |
---|