Losses

Perdite della classe pubblica

Funzioni di perdita integrate.

Costanti

int CANALI_PRIMO
int CANALI_ULTIMO
galleggiante EPSILON Fattore Fuzz predefinito.

Costruttori pubblici

Perdite ()

Metodi pubblici

statico <T estende TNumero > Operando <T>
BinaryCrossentropy (Ops tf, Operando <? estende TNumber > etichette, previsioni Operando <T>, booleano fromLogits, float labelSmoothing)
Calcola la perdita di crossentropia binaria tra etichette e previsioni.
statico <T estende TNumero > Operando <T>
categoricalCrossentropy (Ops tf, Operando <? estende TNumber > etichette, previsioni Operando <T>, booleano fromLogits, float labelSmoothing, asse int)
Calcola la perdita di crossentropia categorica tra etichette e previsioni.
statico <T estende TNumero > Operando <T>
categoricalHinge (Ops tf, Operando <? estende TNumber > etichette, Operando <T> previsioni)
Calcola la perdita di cerniera categoriale tra etichette e previsioni.
statico <T estende TNumero > Operando <T>
cosenoSimilarità (Ops tf, Operando <? estende TNumber > etichette, previsioni Operando <T>, asse int[])
Calcola la perdita di similarità del coseno tra etichette e previsioni.
statico <T estende TNumero > Operando <T>
cerniera (Ops tf, Operando <? estende TNumber > etichette, Operando <T> previsioni)
Calcola la perdita di cerniera tra etichette e previsioni

loss = reduceMean(maximum(1 - labels * predictions, 0))

statico <T estende TNumero > Operando <T>
huber (Ops tf, Operando <? estende TNumber > etichette, previsioni Operando <T>, delta float)
Calcola la perdita di Huber tra etichette e previsioni.
statico <T estende TNumero > Operando <T>
kullbackLeiblerDivergence (Ops tf, Operando <? estende TNumber > etichette, Operando <T> previsioni)
Calcola la perdita di divergenza Kullback-Leibler tra etichette e previsioni.
statico <T estende TNumero > Operando <T>
l2Normalize (Ops tf, operando <T> x, asse int[])
Normalizza lungo l'asse dimensionale utilizzando una norma L2.
statico <T estende TNumero > Operando <T>
logCosh (Ops tf, Operando <? estende TNumber > etichette, Operando <T> previsioni)
Calcola la perdita del coseno iperbolico tra etichette e previsioni.
statico <T estende TNumero > Operando <T>
meanAbsoluteError (Ops tf, Operando <? estende TNumber > etichette, Operando <T> previsioni)
Calcola l'errore medio assoluto tra etichette e previsioni.
statico <T estende TNumero > Operando <T>
meanAbsolutePercentageError (Ops tf, Operando <? estende TNumber > etichette, Operando <T> previsioni)
Calcola l'errore percentuale medio assoluto tra etichette e previsioni.
statico <T estende TNumero > Operando <T>
meanSquaredError (Ops tf, Operando <? estende TNumber > etichette, Operando <T> previsioni)
Calcola l'errore quadratico medio tra etichette e previsioni.
statico <T estende TNumero > Operando <T>
meanSquaredLogarithmicError (Ops tf, Operando <? estende TNumber > etichette, Operando <T> previsioni)
Calcola l'errore logaritmico quadratico medio tra etichette e previsioni.
statico <T estende TNumero > Operando <T>
poisson (Ops tf, Operando <? estende TNumber > etichette, Operando <T> previsioni)
Calcola la perdita di Poisson tra etichette e previsioni.
statico <T estende TNumero > Operando <T>
sparseCategoricalCrossentropy (Ops tf, Operando <? estende TNumber > etichette, previsioni Operando <T>, booleano fromLogits, asse int)
Calcola la perdita di crossentropia categorica sparsa tra etichette e previsioni.
statico <T estende TNumero > Operando <T>
squaredHinge (Ops tf, Operando <? estende TNumber > etichette, Operando <T> previsioni)
Calcola la perdita di cerniera al quadrato tra etichette e previsioni.

Metodi ereditati

Costanti

public static final int CHANNELS_FIRST

Valore costante: 1

public static final int CHANNELS_LAST

Valore costante: -1

galleggiante finale statico pubblico EPSILON

Fattore Fuzz predefinito.

Valore costante: 1.0E-7

Costruttori pubblici

Perdite pubbliche ()

Metodi pubblici

operando statico pubblico <T> binarioCrossentropy (Ops tf, operando <? estende TNumber > etichette, previsioni operando <T>, booleano fromLogits, etichetta floatSmoothing)

Calcola la perdita di crossentropia binaria tra etichette e previsioni.

Parametri
tf le operazioni TensorFlow
etichette veri obiettivi
previsioni le previsioni
daLogits Se interpretare le previsioni come un tensore di valori logit
etichettaLevigante Un numero nell'intervallo [0, 1]. Quando 0, non si verifica alcun livellamento. Quando > 0, calcolare la perdita tra le etichette previste e una versione livellata delle etichette reali, dove il livellamento comprime le etichette verso 0,5. Valori più grandi di labelSmoothing corrispondono a uno smoothing più intenso.
Ritorni
  • la perdita di crossentropia binaria.

operando statico pubblico <T> categoricalCrossentropy (Ops tf, operando <? estende TNumber > etichette, previsioni operando <T>, booleano fromLogits, float labelSmoothing, asse int)

Calcola la perdita di crossentropia categorica tra etichette e previsioni.

Parametri
tf le operazioni TensorFlow
etichette veri obiettivi
previsioni le previsioni
da Logits Se interpretare le previsioni come un tensore di valori logit
etichettaLevigante Galleggia in [0, 1] . Quando > 0 , i valori delle etichette vengono livellati, il che significa che la fiducia sui valori delle etichette viene attenuata. ad esempio labelSmoothing=0.2 significa che utilizzeremo un valore di 0.1 per l'etichetta 0 e 0.9 per l'etichetta 1
asse IL
Ritorni
  • la perdita categorica di crossentropia.

public static Operand <T> categoricalHinge (Ops tf, Operand <? estende TNumber > etichette, Operand <T> previsioni)

Calcola la perdita di cerniera categoriale tra etichette e previsioni.

Parametri
tf le operazioni TensorFlow
etichette target reali, i valori dovrebbero essere 0 o 1.
previsioni le previsioni
Ritorni
  • la perdita categorica della cerniera

operando statico pubblico <T> cosenoSimilarità (Ops tf, operando <? estende TNumber > etichette, previsioni operando <T>, asse int[])

Calcola la perdita di similarità del coseno tra etichette e previsioni.

Nota che è un numero compreso tra -1 e 1 , che è diverso dalla definizione matematica di somiglianza del coseno in cui 1 rappresenta vettori simili e 0 rappresenta vettori dissimili. In questa funzione, i numeri vengono invertiti nell'intervallo da -1 a 1 . Quando è un numero negativo compreso tra -1 e 0 , 0 indica ortogonalità e valori più vicini a -1 indicano una maggiore somiglianza. I valori più vicini a 1 indicano una maggiore dissomiglianza. Ciò lo rende utilizzabile come funzione di perdita in un contesto in cui si tenta di massimizzare la vicinanza tra previsioni e obiettivi. Se le etichette o le previsioni sono un vettore zero, la somiglianza del coseno sarà 0 indipendentemente dalla vicinanza tra previsioni e obiettivi.

loss = -sum(l2Norm(labels) * l2Norm(predictions))

Parametri
tf le operazioni TensorFlow
etichette veri obiettivi
previsioni le previsioni
asse Asse lungo il quale determinare la somiglianza.
Ritorni
  • la perdita di similarità del coseno

cerniera pubblica statica dell'operando <T> (Ops tf, operando <? estende TNumber > etichette, previsioni dell'operando <T>)

Calcola la perdita di cerniera tra etichette e previsioni

loss = reduceMean(maximum(1 - labels * predictions, 0))

Parametri
tf le operazioni TensorFlow
etichette target reali, i valori dovrebbero essere -1 o 1. Se vengono fornite etichette binarie (0 o 1), verranno convertite in -1 o 1.
previsioni le previsioni
Ritorni
  • la perdita della cerniera

huber operando <T> statico pubblico (Ops tf, Operando <? estende TNumber > etichette, previsioni Operando <T>, delta float)

Calcola la perdita di Huber tra etichette e previsioni.

Per ogni valore x in errore = etichette - previsioni:

     loss = 0.5 * x^2                  if |x| <= d
     loss = 0.5 * d^2 + d * (|x| - d)  if |x| > d
 

dove d è delta.

Parametri
tf le operazioni TensorFlow
etichette veri obiettivi
previsioni le previsioni
delta il punto in cui la funzione di perdita di Huber cambia da quadratica a lineare.
Ritorni
  • la perdita di Huber

operando statico pubblico <T> kullbackLeiblerDivergence (Ops tf, operando <? estende TNumber > etichette, previsioni operando <T>)

Calcola la perdita di divergenza Kullback-Leibler tra etichette e previsioni.

Parametri
tf le operazioni TensorFlow
etichette veri obiettivi
previsioni le previsioni
Ritorni
  • la perdita di divergenza Kullback-Leibler

operando statico pubblico <T> l2Normalize (Ops tf, operando <T> x, int[] asse)

Normalizza lungo l'asse dimensionale utilizzando una norma L2.

Parametri
tf Le operazioni TensorFlow
X l'ingresso
asse Dimensione lungo la quale normalizzare.
Ritorni
  • i valori normalizzati in base alla norma L2

operando statico pubblico <T> logCosh (Ops tf, operando <? estende TNumber > etichette, previsioni operando <T>)

Calcola la perdita del coseno iperbolico tra etichette e previsioni.

log(cosh(x)) è approssimativamente uguale a (x ** 2) / 2 per x piccolo e ad abs(x) - log(2) per x grande. Ciò significa che "logCosh" funziona per lo più come l'errore quadratico medio, ma non sarà così fortemente influenzato da previsioni occasionali estremamente errate.

Parametri
tf le operazioni TensorFlow
etichette veri obiettivi
previsioni le previsioni
Ritorni
  • la perdita di divergenza del coseno iperbolico

operando statico pubblico <T> meanAbsoluteError (Ops tf, operando <? estende TNumber > etichette, previsioni operando <T>)

Calcola l'errore medio assoluto tra etichette e previsioni.

loss = reduceMean(abs(labels - predictions))

Parametri
tf Le operazioni TensorFlow
etichette le etichette
previsioni le previsioni
Ritorni
  • l'errore medio assoluto

Operando statico pubblico <T> meanAbsolutePercentageError (Ops tf, Operando <? estende TNumber > etichette, Operando <T> previsioni)

Calcola l'errore percentuale medio assoluto tra etichette e previsioni.

loss = 100 * reduceMean(abs((labels - predictions) / labels))

Parametri
tf Le operazioni TensorFlow
etichette le etichette
previsioni le previsioni
Ritorni
  • l’errore percentuale medio assoluto

operando statico pubblico <T> meanSquaredError (Ops tf, operando <? estende TNumber > etichette, previsioni operando <T>)

Calcola l'errore quadratico medio tra etichette e previsioni.

loss = reduceMean(square(labels - predictions))

Parametri
tf Le operazioni TensorFlow
etichette le etichette
previsioni le previsioni
Ritorni
  • l'errore quadratico medio

Operando statico pubblico <T> meanSquaredLogarithmicError (Ops tf, Operando <? estende TNumber > etichette, Operando <T> previsioni)

Calcola l'errore logaritmico quadratico medio tra etichette e previsioni.

loss = reduceMean(square(log(labels + 1) - log(predictions + 1)))

Parametri
tf Le operazioni TensorFlow
etichette le etichette
previsioni le previsioni
Ritorni
  • l’errore percentuale logaritmico quadrato medio

operando statico pubblico <T> poisson (Ops tf, Operando <? estende TNumber > etichette, previsioni Operando <T>)

Calcola la perdita di Poisson tra etichette e previsioni.

La perdita di Poisson è la media degli elementi delle predictions - labels * log(predictions) .

Parametri
tf le operazioni TensorFlow
etichette veri obiettivi
previsioni le previsioni
Ritorni
  • la perdita di Poisson

operando statico pubblico <T> sparseCategoricalCrossentropy (Ops tf, operando <? estende TNumber > etichette, previsioni operando <T>, booleano fromLogits, asse int)

Calcola la perdita di crossentropia categorica sparsa tra etichette e previsioni.

Parametri
tf le operazioni TensorFlow
etichette veri obiettivi
previsioni le previsioni
daLogits Se è previsto che le previsioni siano logit. Per impostazione predefinita, si presuppone che le previsioni codifichino una distribuzione di probabilità.
asse La dimensione lungo la quale viene calcolata l'entropia.
Ritorni
  • la scarsa perdita di crossentropia categorica

operando statico pubblico <T> squaredHinge (Ops tf, operando <? estende TNumber > etichette, previsioni operando <T>)

Calcola la perdita di cerniera al quadrato tra etichette e previsioni.

loss = reduceMean(square(maximum(1 - labels * predictions, 0)))

Parametri
tf le operazioni TensorFlow
etichette target reali, i valori dovrebbero essere -1 o 1. Se vengono * fornite etichette binarie (0 o 1), verranno convertite in -1 o 1.
previsioni le previsioni
Ritorni
  • la perdita quadrata della cerniera