Losses

Pertes de classe publique

Fonctions de perte intégrées.

Constantes

int CANAUX_FIRST
int CANAUX_LAST
flotter Épisilon Facteur Fuzz par défaut.

Constructeurs Publics

Pertes ()

Méthodes publiques

statique <T étend TNumber > Opérande <T>
binaireCrossentropy (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions, boolean fromLogits, float labelSmoothing)
Calcule la perte d'entropie croisée binaire entre les étiquettes et les prédictions.
statique <T étend TNumber > Opérande <T>
categoricalCrossentropy (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions, boolean fromLogits, float labelSmoothing, int axis)
Calcule la perte d'entropie croisée catégorielle entre les étiquettes et les prédictions.
statique <T étend TNumber > Opérande <T>
categoricalHinge (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions)
Calcule la perte de charnière catégorielle entre les étiquettes et les prédictions.
statique <T étend TNumber > Opérande <T>
cosineSimilarity (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions, int[] axis)
Calcule la perte de similarité cosinus entre les étiquettes et les prédictions.
statique <T étend TNumber > Opérande <T>
charnière (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions)
Calcule la perte de charnière entre les étiquettes et les prédictions

loss = reduceMean(maximum(1 - labels * predictions, 0))

statique <T étend TNumber > Opérande <T>
huber (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions, float delta)
Calcule la perte de Huber entre les étiquettes et les prédictions.
statique <T étend TNumber > Opérande <T>
kullbackLeiblerDivergence (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions)
Calcule la perte de divergence Kullback-Leibler entre les étiquettes et les prédictions.
statique <T étend TNumber > Opérande <T>
l2Normalize (Ops tf, Opérande <T> x, axe int[])
Normalise le long de l'axe des dimensions à l'aide d'une norme L2.
statique <T étend TNumber > Opérande <T>
logCosh (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions)
Calcule la perte de cosinus hyperbolique entre les étiquettes et les prédictions.
statique <T étend TNumber > Opérande <T>
MeanAbsoluteError (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions)
Calcule l'erreur absolue moyenne entre les étiquettes et les prédictions.
statique <T étend TNumber > Opérande <T>
MeanAbsolutePercentageError (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions)
Calcule le pourcentage d’erreur absolu moyen entre les étiquettes et les prédictions.
statique <T étend TNumber > Opérande <T>
MeanSquaredError (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions)
Calcule l'erreur quadratique moyenne entre les étiquettes et les prédictions.
statique <T étend TNumber > Opérande <T>
MeanSquaredLogarithmicError (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions)
Calcule l’erreur logarithmique quadratique moyenne entre les étiquettes et les prédictions.
statique <T étend TNumber > Opérande <T>
poisson (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions)
Calcule la perte de Poisson entre les étiquettes et les prédictions.
statique <T étend TNumber > Opérande <T>
sparseCategoricalCrossentropy (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions, boolean fromLogits, int axis)
Calcule la perte d'entropie croisée catégorielle clairsemée entre les étiquettes et les prédictions.
statique <T étend TNumber > Opérande <T>
squaredHinge (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions)
Calcule la perte de charnière carrée entre les étiquettes et les prédictions.

Méthodes héritées

Constantes

public statique final int CHANNELS_FIRST

Valeur constante : 1

public statique final int CHANNELS_LAST

Valeur constante : -1

flotteur final statique public EPSILON

Facteur Fuzz par défaut.

Valeur constante : 1,0E-7

Constructeurs Publics

Pertes publiques ()

Méthodes publiques

public static Operand <T> binaireCrossentropy (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions, boolean fromLogits, float labelSmoothing)

Calcule la perte d'entropie croisée binaire entre les étiquettes et les prédictions.

Paramètres
tf les opérations TensorFlow
étiquettes véritables cibles
prédictions les prédictions
deLogits S'il faut interpréter les prédictions comme un tenseur de valeurs logit
labelLissage Un nombre compris entre [0, 1]. Lorsque 0, aucun lissage ne se produit. Lorsque > 0, calculez la perte entre les étiquettes prédites et une version lissée des véritables étiquettes, où le lissage réduit les étiquettes vers 0,5. Des valeurs plus élevées de labelSmoothing correspondent à un lissage plus important.
Retours
  • la perte d'entropie croisée binaire.

public static Operand <T> categoricalCrossentropy (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions, boolean fromLogits, float labelSmoothing, int axis)

Calcule la perte d'entropie croisée catégorielle entre les étiquettes et les prédictions.

Paramètres
tf les opérations TensorFlow
étiquettes véritables cibles
prédictions les prédictions
deLogits S'il faut interpréter les prédictions comme un tenseur de valeurs logit
labelLissage Flottez dans [0, 1] . Lorsque > 0 , les valeurs des étiquettes sont lissées, ce qui signifie que la confiance dans les valeurs des étiquettes est assouplie. par exemple labelSmoothing=0.2 signifie que nous utiliserons une valeur de 0.1 pour l'étiquette 0 et 0.9 pour l'étiquette 1
axe le
Retours
  • la perte catégorique de crossentropie.

public static Operand <T> categoricalHinge (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions)

Calcule la perte de charnière catégorielle entre les étiquettes et les prédictions.

Paramètres
tf les opérations TensorFlow
étiquettes véritables cibles, les valeurs devraient être 0 ou 1.
prédictions les prédictions
Retours
  • la perte catégorique de la charnière

public static Operand <T> cosineSimilarity (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions, int[] axis)

Calcule la perte de similarité cosinus entre les étiquettes et les prédictions.

Notez qu'il s'agit d'un nombre compris entre -1 et 1 , ce qui est différent de la définition mathématique de la similarité cosinus où 1 représente des vecteurs similaires et 0 représente des vecteurs différents. Dans cette fonction, les nombres sont inversés dans une plage de -1 à 1 . Lorsqu'il s'agit d'un nombre négatif compris entre -1 et 0 , 0 indique une orthogonalité et des valeurs plus proches de -1 indiquent une plus grande similarité. Les valeurs plus proches de 1 indiquent une plus grande dissemblance. Cela le rend utilisable comme fonction de perte dans un contexte où vous essayez de maximiser la proximité entre les prédictions et les cibles. Si les étiquettes ou les prédictions sont un vecteur nul, la similarité cosinus sera de 0 quelle que soit la proximité entre les prédictions et les cibles.

loss = -sum(l2Norm(labels) * l2Norm(predictions))

Paramètres
tf les opérations TensorFlow
étiquettes véritables cibles
prédictions les prédictions
axe Axe le long duquel déterminer la similarité.
Retours
  • la perte de similarité cosinus

Charnière d'opérande statique publique <T> (Ops tf, opérande <? étend les étiquettes TNumber >, prédictions d'opérande <T>)

Calcule la perte de charnière entre les étiquettes et les prédictions

loss = reduceMean(maximum(1 - labels * predictions, 0))

Paramètres
tf les opérations TensorFlow
étiquettes vraies cibles, les valeurs devraient être -1 ou 1. Si des étiquettes binaires (0 ou 1) sont fournies, elles seront converties en -1 ou 1.
prédictions les prédictions
Retours
  • la perte de charnière

public static Operand <T> huber (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions, float delta)

Calcule la perte de Huber entre les étiquettes et les prédictions.

Pour chaque valeur x en erreur = étiquettes - prédictions :

     loss = 0.5 * x^2                  if |x| <= d
     loss = 0.5 * d^2 + d * (|x| - d)  if |x| > d
 

où d est delta.

Paramètres
tf les opérations TensorFlow
étiquettes véritables cibles
prédictions les prédictions
delta le point où la fonction de perte de Huber passe de quadratique à linéaire.
Retours
  • la perte de Huber

public static Operand <T> kullbackLeiblerDivergence (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions)

Calcule la perte de divergence Kullback-Leibler entre les étiquettes et les prédictions.

Paramètres
tf les opérations TensorFlow
étiquettes véritables cibles
prédictions les prédictions
Retours
  • la perte de divergence Kullback-Leibler

Opérande statique public <T> l2Normalize (Ops tf, Opérande <T> x, axe int[])

Normalise le long de l'axe des dimensions à l'aide d'une norme L2.

Paramètres
tf Les opérations TensorFlow
x l'entrée
axe Dimension le long de laquelle normaliser.
Retours
  • les valeurs normalisées basées sur la norme L2

public static Operand <T> logCosh (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions)

Calcule la perte de cosinus hyperbolique entre les étiquettes et les prédictions.

log(cosh(x)) est approximativement égal à (x ** 2) / 2 pour le petit x et à abs(x) - log(2) pour le grand x . Cela signifie que « logCosh » fonctionne principalement comme l'erreur quadratique moyenne, mais ne sera pas aussi fortement affecté par les prédictions occasionnelles extrêmement incorrectes.

Paramètres
tf les opérations TensorFlow
étiquettes véritables cibles
prédictions les prédictions
Retours
  • la perte de divergence hyperbolique en cosinus

Opérande statique public <T> MeanAbsoluteError (Ops tf, Opérande <? étend les étiquettes TNumber >, Prédictions de l'Opérande <T>)

Calcule l'erreur absolue moyenne entre les étiquettes et les prédictions.

loss = reduceMean(abs(labels - predictions))

Paramètres
tf Les opérations TensorFlow
étiquettes les étiquettes
prédictions les prédictions
Retours
  • l'erreur absolue moyenne

public static Operand <T> MeanAbsolutePercentageError (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions)

Calcule le pourcentage d’erreur absolu moyen entre les étiquettes et les prédictions.

loss = 100 * reduceMean(abs((labels - predictions) / labels))

Paramètres
tf Les opérations TensorFlow
étiquettes les étiquettes
prédictions les prédictions
Retours
  • l'erreur absolue moyenne en pourcentage

Opérande statique public <T> MeanSquaredError (Ops tf, Opérande <? étend les étiquettes TNumber >, Prédictions de l'Opérande <T>)

Calcule l'erreur quadratique moyenne entre les étiquettes et les prédictions.

loss = reduceMean(square(labels - predictions))

Paramètres
tf Les opérations TensorFlow
étiquettes les étiquettes
prédictions les prédictions
Retours
  • l'erreur quadratique moyenne

Opérande statique public <T> MeanSquaredLogarithmicError (Ops tf, Opérande <? étend les étiquettes TNumber >, Prédictions de l'Opérande <T>)

Calcule l’erreur logarithmique quadratique moyenne entre les étiquettes et les prédictions.

loss = reduceMean(square(log(labels + 1) - log(predictions + 1)))

Paramètres
tf Les opérations TensorFlow
étiquettes les étiquettes
prédictions les prédictions
Retours
  • l'erreur logarithmique quadratique moyenne en pourcentage

public static Operand <T> poisson (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions)

Calcule la perte de Poisson entre les étiquettes et les prédictions.

La perte de Poisson est la moyenne des éléments des predictions - labels * log(predictions) .

Paramètres
tf les opérations TensorFlow
étiquettes véritables cibles
prédictions les prédictions
Retours
  • la perte de Poisson

public static Operand <T> sparseCategoricalCrossentropy (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions, boolean fromLogits, int axis)

Calcule la perte d'entropie croisée catégorielle clairsemée entre les étiquettes et les prédictions.

Paramètres
tf les opérations TensorFlow
étiquettes véritables cibles
prédictions les prédictions
deLogits Indique si les prédictions doivent être des logits. Par défaut, on suppose que les prédictions codent une distribution de probabilité.
axe Dimension selon laquelle l'entropie est calculée.
Retours
  • la faible perte de crossentropie catégorique

public static Operand <T> squaredHinge (Ops tf, Operand <? extends TNumber > labels, Operand <T> prédictions)

Calcule la perte de charnière carrée entre les étiquettes et les prédictions.

loss = reduceMean(square(maximum(1 - labels * predictions, 0)))

Paramètres
tf les opérations TensorFlow
étiquettes vraies cibles, les valeurs devraient être -1 ou 1. Si des étiquettes binaires (0 ou 1) sont * fournies, elles seront converties en -1 ou 1.
prédictions les prédictions
Retours
  • la perte de charnière carrée