Funzioni di perdita integrate.
Costanti
int | CANALI_PRIMO | |
int | CANALI_ULTIMO | |
galleggiante | EPSILON | Fattore Fuzz predefinito. |
Costruttori pubblici
Perdite () |
Metodi pubblici
statico <T estende TNumero > Operando <T> | BinaryCrossentropy (Ops tf, Operando <? estende TNumber > etichette, previsioni Operando <T>, booleano fromLogits, float labelSmoothing) Calcola la perdita di crossentropia binaria tra etichette e previsioni. |
statico <T estende TNumero > Operando <T> | categoricalCrossentropy (Ops tf, Operando <? estende TNumber > etichette, previsioni Operando <T>, booleano fromLogits, float labelSmoothing, asse int) Calcola la perdita di crossentropia categorica tra etichette e previsioni. |
statico <T estende TNumero > Operando <T> | categoricalHinge (Ops tf, Operando <? estende TNumber > etichette, Operando <T> previsioni) Calcola la perdita di cerniera categoriale tra etichette e previsioni. |
statico <T estende TNumero > Operando <T> | cosenoSimilarità (Ops tf, Operando <? estende TNumber > etichette, previsioni Operando <T>, asse int[]) Calcola la perdita di similarità del coseno tra etichette e previsioni. |
statico <T estende TNumero > Operando <T> | |
statico <T estende TNumero > Operando <T> | |
statico <T estende TNumero > Operando <T> | kullbackLeiblerDivergence (Ops tf, Operando <? estende TNumber > etichette, Operando <T> previsioni) Calcola la perdita di divergenza Kullback-Leibler tra etichette e previsioni. |
statico <T estende TNumero > Operando <T> | l2Normalize (Ops tf, operando <T> x, asse int[]) Normalizza lungo l'asse dimensionale utilizzando una norma L2. |
statico <T estende TNumero > Operando <T> | |
statico <T estende TNumero > Operando <T> | meanAbsoluteError (Ops tf, Operando <? estende TNumber > etichette, Operando <T> previsioni) Calcola l'errore medio assoluto tra etichette e previsioni. |
statico <T estende TNumero > Operando <T> | meanAbsolutePercentageError (Ops tf, Operando <? estende TNumber > etichette, Operando <T> previsioni) Calcola l'errore percentuale medio assoluto tra etichette e previsioni. |
statico <T estende TNumero > Operando <T> | meanSquaredError (Ops tf, Operando <? estende TNumber > etichette, Operando <T> previsioni) Calcola l'errore quadratico medio tra etichette e previsioni. |
statico <T estende TNumero > Operando <T> | meanSquaredLogarithmicError (Ops tf, Operando <? estende TNumber > etichette, Operando <T> previsioni) Calcola l'errore logaritmico quadratico medio tra etichette e previsioni. |
statico <T estende TNumero > Operando <T> | |
statico <T estende TNumero > Operando <T> | sparseCategoricalCrossentropy (Ops tf, Operando <? estende TNumber > etichette, previsioni Operando <T>, booleano fromLogits, asse int) Calcola la perdita di crossentropia categorica sparsa tra etichette e previsioni. |
statico <T estende TNumero > Operando <T> | squaredHinge (Ops tf, Operando <? estende TNumber > etichette, Operando <T> previsioni) Calcola la perdita di cerniera al quadrato tra etichette e previsioni. |
Metodi ereditati
Costanti
public static final int CHANNELS_FIRST
public static final int CHANNELS_LAST
galleggiante finale statico pubblico EPSILON
Fattore Fuzz predefinito.
Costruttori pubblici
Perdite pubbliche ()
Metodi pubblici
operando statico pubblico <T> binarioCrossentropy (Ops tf, operando <? estende TNumber > etichette, previsioni operando <T>, booleano fromLogits, etichetta floatSmoothing)
Calcola la perdita di crossentropia binaria tra etichette e previsioni.
Parametri
tf | le operazioni TensorFlow |
---|---|
etichette | veri obiettivi |
previsioni | le previsioni |
daLogits | Se interpretare le previsioni come un tensore di valori logit |
etichettaLevigante | Un numero nell'intervallo [0, 1]. Quando 0, non si verifica alcun livellamento. Quando > 0, calcolare la perdita tra le etichette previste e una versione livellata delle etichette reali, dove il livellamento comprime le etichette verso 0,5. Valori più grandi di labelSmoothing corrispondono a uno smoothing più intenso. |
Ritorni
- la perdita di crossentropia binaria.
operando statico pubblico <T> categoricalCrossentropy (Ops tf, operando <? estende TNumber > etichette, previsioni operando <T>, booleano fromLogits, float labelSmoothing, asse int)
Calcola la perdita di crossentropia categorica tra etichette e previsioni.
Parametri
tf | le operazioni TensorFlow |
---|---|
etichette | veri obiettivi |
previsioni | le previsioni |
da Logits | Se interpretare le previsioni come un tensore di valori logit |
etichettaLevigante | Galleggia in [0, 1] . Quando > 0 , i valori delle etichette vengono livellati, il che significa che la fiducia sui valori delle etichette viene attenuata. ad esempio labelSmoothing=0.2 significa che utilizzeremo un valore di 0.1 per l'etichetta 0 e 0.9 per l'etichetta 1 |
asse | IL |
Ritorni
- la perdita categorica di crossentropia.
public static Operand <T> categoricalHinge (Ops tf, Operand <? estende TNumber > etichette, Operand <T> previsioni)
Calcola la perdita di cerniera categoriale tra etichette e previsioni.
Parametri
tf | le operazioni TensorFlow |
---|---|
etichette | target reali, i valori dovrebbero essere 0 o 1. |
previsioni | le previsioni |
Ritorni
- la perdita categorica della cerniera
operando statico pubblico <T> cosenoSimilarità (Ops tf, operando <? estende TNumber > etichette, previsioni operando <T>, asse int[])
Calcola la perdita di similarità del coseno tra etichette e previsioni.
Nota che è un numero compreso tra -1
e 1
, che è diverso dalla definizione matematica di somiglianza del coseno in cui 1
rappresenta vettori simili e 0
rappresenta vettori dissimili. In questa funzione, i numeri vengono invertiti nell'intervallo da -1
a 1
. Quando è un numero negativo compreso tra -1
e 0
, 0
indica ortogonalità e valori più vicini a -1
indicano una maggiore somiglianza. I valori più vicini a 1
indicano una maggiore dissomiglianza. Ciò lo rende utilizzabile come funzione di perdita in un contesto in cui si tenta di massimizzare la vicinanza tra previsioni e obiettivi. Se le etichette o le previsioni sono un vettore zero, la somiglianza del coseno sarà 0
indipendentemente dalla vicinanza tra previsioni e obiettivi.
loss = -sum(l2Norm(labels) * l2Norm(predictions))
Parametri
tf | le operazioni TensorFlow |
---|---|
etichette | veri obiettivi |
previsioni | le previsioni |
asse | Asse lungo il quale determinare la somiglianza. |
Ritorni
- la perdita di similarità del coseno
cerniera pubblica statica dell'operando <T> (Ops tf, operando <? estende TNumber > etichette, previsioni dell'operando <T>)
Calcola la perdita di cerniera tra etichette e previsioni
loss = reduceMean(maximum(1 - labels * predictions, 0))
Parametri
tf | le operazioni TensorFlow |
---|---|
etichette | target reali, i valori dovrebbero essere -1 o 1. Se vengono fornite etichette binarie (0 o 1), verranno convertite in -1 o 1. |
previsioni | le previsioni |
Ritorni
- la perdita della cerniera
huber operando <T> statico pubblico (Ops tf, Operando <? estende TNumber > etichette, previsioni Operando <T>, delta float)
Calcola la perdita di Huber tra etichette e previsioni.
Per ogni valore x in errore = etichette - previsioni:
loss = 0.5 * x^2 if |x| <= d loss = 0.5 * d^2 + d * (|x| - d) if |x| > d
dove d è delta.
Parametri
tf | le operazioni TensorFlow |
---|---|
etichette | veri obiettivi |
previsioni | le previsioni |
delta | il punto in cui la funzione di perdita di Huber cambia da quadratica a lineare. |
Ritorni
- la perdita di Huber
operando statico pubblico <T> kullbackLeiblerDivergence (Ops tf, operando <? estende TNumber > etichette, previsioni operando <T>)
Calcola la perdita di divergenza Kullback-Leibler tra etichette e previsioni.
Parametri
tf | le operazioni TensorFlow |
---|---|
etichette | veri obiettivi |
previsioni | le previsioni |
Ritorni
- la perdita di divergenza Kullback-Leibler
Vedi anche
operando statico pubblico <T> l2Normalize (Ops tf, operando <T> x, int[] asse)
Normalizza lungo l'asse dimensionale utilizzando una norma L2.
Parametri
tf | Le operazioni TensorFlow |
---|---|
X | l'ingresso |
asse | Dimensione lungo la quale normalizzare. |
Ritorni
- i valori normalizzati in base alla norma L2
operando statico pubblico <T> logCosh (Ops tf, operando <? estende TNumber > etichette, previsioni operando <T>)
Calcola la perdita del coseno iperbolico tra etichette e previsioni.
log(cosh(x))
è approssimativamente uguale a (x ** 2) / 2
per x
piccolo e ad abs(x) - log(2)
per x
grande. Ciò significa che "logCosh" funziona per lo più come l'errore quadratico medio, ma non sarà così fortemente influenzato da previsioni occasionali estremamente errate.
Parametri
tf | le operazioni TensorFlow |
---|---|
etichette | veri obiettivi |
previsioni | le previsioni |
Ritorni
- la perdita di divergenza del coseno iperbolico
operando statico pubblico <T> meanAbsoluteError (Ops tf, operando <? estende TNumber > etichette, previsioni operando <T>)
Calcola l'errore medio assoluto tra etichette e previsioni.
loss = reduceMean(abs(labels - predictions))
Parametri
tf | Le operazioni TensorFlow |
---|---|
etichette | le etichette |
previsioni | le previsioni |
Ritorni
- l'errore medio assoluto
Operando statico pubblico <T> meanAbsolutePercentageError (Ops tf, Operando <? estende TNumber > etichette, Operando <T> previsioni)
Calcola l'errore percentuale medio assoluto tra etichette e previsioni.
loss = 100 * reduceMean(abs((labels - predictions) / labels))
Parametri
tf | Le operazioni TensorFlow |
---|---|
etichette | le etichette |
previsioni | le previsioni |
Ritorni
- l’errore percentuale medio assoluto
operando statico pubblico <T> meanSquaredError (Ops tf, operando <? estende TNumber > etichette, previsioni operando <T>)
Calcola l'errore quadratico medio tra etichette e previsioni.
loss = reduceMean(square(labels - predictions))
Parametri
tf | Le operazioni TensorFlow |
---|---|
etichette | le etichette |
previsioni | le previsioni |
Ritorni
- l'errore quadratico medio
Operando statico pubblico <T> meanSquaredLogarithmicError (Ops tf, Operando <? estende TNumber > etichette, Operando <T> previsioni)
Calcola l'errore logaritmico quadratico medio tra etichette e previsioni.
loss = reduceMean(square(log(labels + 1) - log(predictions + 1)))
Parametri
tf | Le operazioni TensorFlow |
---|---|
etichette | le etichette |
previsioni | le previsioni |
Ritorni
- l’errore percentuale logaritmico quadrato medio
operando statico pubblico <T> poisson (Ops tf, Operando <? estende TNumber > etichette, previsioni Operando <T>)
Calcola la perdita di Poisson tra etichette e previsioni.
La perdita di Poisson è la media degli elementi delle predictions - labels * log(predictions)
.
Parametri
tf | le operazioni TensorFlow |
---|---|
etichette | veri obiettivi |
previsioni | le previsioni |
Ritorni
- la perdita di Poisson
operando statico pubblico <T> sparseCategoricalCrossentropy (Ops tf, operando <? estende TNumber > etichette, previsioni operando <T>, booleano fromLogits, asse int)
Calcola la perdita di crossentropia categorica sparsa tra etichette e previsioni.
Parametri
tf | le operazioni TensorFlow |
---|---|
etichette | veri obiettivi |
previsioni | le previsioni |
daLogits | Se è previsto che le previsioni siano logit. Per impostazione predefinita, si presuppone che le previsioni codifichino una distribuzione di probabilità. |
asse | La dimensione lungo la quale viene calcolata l'entropia. |
Ritorni
- la scarsa perdita di crossentropia categorica
operando statico pubblico <T> squaredHinge (Ops tf, operando <? estende TNumber > etichette, previsioni operando <T>)
Calcola la perdita di cerniera al quadrato tra etichette e previsioni.
loss = reduceMean(square(maximum(1 - labels * predictions, 0)))
Parametri
tf | le operazioni TensorFlow |
---|---|
etichette | target reali, i valori dovrebbero essere -1 o 1. Se vengono * fornite etichette binarie (0 o 1), verranno convertite in -1 o 1. |
previsioni | le previsioni |
Ritorni
- la perdita quadrata della cerniera