Wbudowane funkcje utraty.
Stałe
wew | KANAŁY_FIRST | |
wew | KANAŁY_OSTATNIE | |
platforma | EPSILON | Domyślny współczynnik rozmycia. |
Konstruktorzy publiczni
Straty () |
Metody publiczne
statyczny <T rozszerza numer T > Operand <T> | binaryCrossentropy (Ops tf, Operand <? Extends TNumber > etykiety, przewidywania argumentu <T>, wartość logiczna zLogits, float labelSmoothing) Oblicza binarną stratę entropii krzyżowej między etykietami i przewidywaniami. |
statyczny <T rozszerza numer T > Operand <T> | categoricalCrossentropy (Ops tf, Operand <? Extends TNumber > etykiety, przewidywania argumentu <T>, wartość logiczna fromLogits, float labelSmoothing, oś int) Oblicza kategoryczną utratę entropii krzyżowej między etykietami i prognozami. |
statyczny <T rozszerza numer T > Operand <T> | categoricalHinge (Ops tf, Argument <? rozszerza TNumber > etykiety, przewidywania Argumentu <T>) Oblicza kategoryczną utratę zawiasów między etykietami i przewidywaniami. |
statyczny <T rozszerza numer T > Operand <T> | cosinusSimilarity (Ops tf, Operand <? rozszerza TNumber > etykiety, przewidywania argumentu <T>, oś int[]) Oblicza utratę podobieństwa cosinus między etykietami i przewidywaniami. |
statyczny <T rozszerza numer T > Operand <T> | |
statyczny <T rozszerza numer T > Operand <T> | |
statyczny <T rozszerza numer T > Operand <T> | kullbackLeiblerDivergence (Ops tf, Argument <? rozszerza TNumber > etykiety, przewidywania Argumentu <T>) Oblicza utratę dywergencji Kullbacka-Leiblera między etykietami i prognozami. |
statyczny <T rozszerza numer T > Operand <T> | |
statyczny <T rozszerza numer T > Operand <T> | |
statyczny <T rozszerza numer T > Operand <T> | meanAbsoluteError (Ops tf, Argument <? rozszerza TNumber > etykiety, przewidywania Argumentu <T>) Oblicza średni błąd bezwzględny między etykietami i przewidywaniami. |
statyczny <T rozszerza numer T > Operand <T> | meanAbsolutePercentageError (Ops tf, Argument <? rozszerza TNumber > etykiety, przewidywania Argumentu <T>) Oblicza średni bezwzględny błąd procentowy między etykietami i przewidywaniami. |
statyczny <T rozszerza numer T > Operand <T> | meanSquaredError (Ops tf, Argument <? rozszerza TNumber > etykiety, przewidywania Argumentu <T>) Oblicza średni błąd kwadratowy między etykietami i przewidywaniami. |
statyczny <T rozszerza numer T > Operand <T> | meanSquaredLogarithmicError (Ops tf, Argument <? rozszerza TNumber > etykiety, przewidywania Argumentu <T>) Oblicza średni kwadrat błędu logarytmicznego między etykietami i przewidywaniami. |
statyczny <T rozszerza numer T > Operand <T> | |
statyczny <T rozszerza numer T > Operand <T> | sparseCategoricalCrossentropy (Ops tf, Operand <? Extends TNumber > etykiety, przewidywania argumentu <T>, wartość logiczna fromLogits, oś int) Oblicza rzadką kategoryczną utratę entropii krzyżowej między etykietami i prognozami. |
statyczny <T rozszerza numer T > Operand <T> | SquaredHinge (Ops tf, Argument <? rozszerza TNumber > etykiety, przewidywania Argumentu <T>) Oblicza kwadratową utratę zawiasów między etykietami i przewidywaniami. |
Metody dziedziczone
Stałe
publiczny statyczny końcowy int CHANNELS_FIRST
publiczny statyczny końcowy int CHANNELS_LAST
publiczny statyczny końcowy float EPSILON
Domyślny współczynnik rozmycia.
Konstruktorzy publiczni
Straty publiczne ()
Metody publiczne
public static Operand <T> binaryCrossentropy (Ops tf, Operand <? Extends TNumber > etykiety, przewidywania argumentu <T>, wartość logiczna fromLogits, float labelSmoothing)
Oblicza binarną stratę entropii krzyżowej między etykietami i przewidywaniami.
Parametry
tf | operacji TensorFlow |
---|---|
etykiety | prawdziwe cele |
przewidywania | przewidywania |
zLogits | Czy interpretować przewidywania jako tensor wartości logitowych |
etykietaWygładzanie | Liczba z zakresu [0, 1]. Gdy 0, wygładzanie nie występuje. Gdy > 0, oblicz stratę między przewidywanymi etykietami a wygładzoną wersją prawdziwych etykiet, gdzie wygładzanie ściska etykiety w kierunku 0,5. Większe wartości labelSmoothing odpowiadają intensywniejszemu wygładzaniu. |
Powroty
- binarna utrata crossentropii.
publiczny argument statyczny <T> categoricalCrossentropy (Ops tf, Operand <? Extends TNumber > etykiety, przewidywania argumentu <T>, wartość logiczna fromLogits, float labelSmoothing, oś int)
Oblicza kategoryczną utratę entropii krzyżowej między etykietami i prognozami.
Parametry
tf | operacji TensorFlow |
---|---|
etykiety | prawdziwe cele |
przewidywania | przewidywania |
zLogits | Czy interpretować przewidywania jako tensor wartości logitowych |
etykietaWygładzanie | Pływak w [0, 1] . Gdy > 0 , wartości etykiet są wygładzane, co oznacza, że zaufanie do wartości etykiet jest zmniejszone. np. labelSmoothing=0.2 oznacza, że użyjemy wartości 0.1 dla etykiety 0 i 0.9 dla etykiety 1 |
oś | the |
Powroty
- kategoryczna utrata crossentropii.
public static Operand <T> categoricalHinge (Ops tf, Operand <? Extends TNumber > etykiety, przewidywania argumentu <T>)
Oblicza kategoryczną utratę zawiasów między etykietami i przewidywaniami.
Parametry
tf | operacji TensorFlow |
---|---|
etykiety | prawdziwe cele, oczekuje się, że wartości będą wynosić 0 lub 1. |
przewidywania | przewidywania |
Powroty
- kategoryczna utrata zawiasów
public static Operand <T> cosinusSimilarity (Ops tf, Operand <? Extends TNumber > etykiety, przewidywania argumentu <T>, oś int[])
Oblicza utratę podobieństwa cosinus między etykietami i przewidywaniami.
Należy zauważyć, że jest to liczba z zakresu od -1
do 1
, co różni się od matematycznej definicji podobieństwa cosinus, gdzie 1
oznacza podobne wektory, a 0
oznacza różne wektory. W tej funkcji liczby są odwracane w zakresie od -1
do 1
. Gdy jest to liczba ujemna z zakresu od -1
do 0
, 0
oznacza ortogonalność, a wartości bliższe -1
oznaczają większe podobieństwo. Wartości bliższe 1
wskazują na większą odmienność. Dzięki temu można jej używać jako funkcji straty w otoczeniu, w którym próbuje się zmaksymalizować bliskość między prognozami a celami. Jeśli etykieta lub przewidywanie jest wektorem zerowym, podobieństwo cosinus będzie wynosić 0
niezależnie od bliskości przewidywań i celów.
loss = -sum(l2Norm(labels) * l2Norm(predictions))
Parametry
tf | operacji TensorFlow |
---|---|
etykiety | prawdziwe cele |
przewidywania | przewidywania |
oś | Oś, wzdłuż której należy określić podobieństwo. |
Powroty
- utrata podobieństwa cosinusa
publiczny statyczny zawias argumentu <T> (Ops tf, argument <? rozszerza TNumber > etykiety, przewidywania argumentu <T>)
Oblicza utratę zawiasów między etykietami i przewidywaniami
loss = reduceMean(maximum(1 - labels * predictions, 0))
Parametry
tf | operacji TensorFlow |
---|---|
etykiety | prawdziwe cele, oczekuje się, że wartości będą wynosić -1 lub 1. Jeśli podano etykiety binarne (0 lub 1), zostaną one przekonwertowane na -1 lub 1. |
przewidywania | przewidywania |
Powroty
- utrata zawiasów
publiczny statyczny operand <T> huber (Ops tf, Operand <? Extends TNumber > etykiety, przewidywania argumentu <T>, float delta)
Oblicza stratę Hubera między etykietami i prognozami.
Dla każdej wartości x w błędzie = etykiety - przewidywania:
loss = 0.5 * x^2 if |x| <= d loss = 0.5 * d^2 + d * (|x| - d) if |x| > d
gdzie d jest deltą.
Parametry
tf | operacji TensorFlow |
---|---|
etykiety | prawdziwe cele |
przewidywania | przewidywania |
delta | punkt, w którym funkcja straty Hubera zmienia się z kwadratowej na liniową. |
Powroty
- strata Hubera
public static Operand <T> kullbackLeiblerDivergence (Ops tf, Argument <? Extends TNumber > etykiety, przewidywania Argumentu <T>)
Oblicza utratę dywergencji Kullbacka-Leiblera między etykietami i prognozami.
Parametry
tf | operacji TensorFlow |
---|---|
etykiety | prawdziwe cele |
przewidywania | przewidywania |
Powroty
- strata wynikająca z dywergencji Kullbacka-Leiblera
Zobacz także
publiczny argument statyczny <T> l2Normalize (Ops tf, argument <T> x, oś int[])
Normalizuje wzdłuż osi wymiaru przy użyciu normy L2.
Parametry
tf | Operacje TensorFlow |
---|---|
X | wejście |
oś | Wymiar, wzdłuż którego należy dokonać normalizacji. |
Powroty
- znormalizowane wartości w oparciu o normę L2
publiczny static Operand <T> logCosh (Ops tf, Argument <? rozszerza TNumber > etykiety, przewidywania Argumentu <T>)
Oblicza stratę cosinusa hiperbolicznego między etykietami i przewidywaniami.
log(cosh(x))
jest w przybliżeniu równe (x ** 2) / 2
dla małego x
i abs(x) - log(2)
dla dużego x
. Oznacza to, że „logCosh” działa głównie jak błąd średniokwadratowy, ale sporadyczne bardzo nieprawidłowe przewidywania nie mają na niego tak dużego wpływu.
Parametry
tf | operacji TensorFlow |
---|---|
etykiety | prawdziwe cele |
przewidywania | przewidywania |
Powroty
- utrata dywergencji hiperbolicznego cosinusa
publiczny operand statyczny <T> meanAbsoluteError (Ops tf, Argument <? rozszerza TNumber > etykiety, przewidywania Argumentu <T>)
Oblicza średni błąd bezwzględny między etykietami i przewidywaniami.
loss = reduceMean(abs(labels - predictions))
Parametry
tf | Operacje TensorFlow |
---|---|
etykiety | etykiety |
przewidywania | przewidywania |
Powroty
- średni błąd bezwzględny
publiczny operand statyczny <T> meanAbsolutePercentageError (Ops tf, Argument <? rozszerza TNumber > etykiety, przewidywania Argumentu <T>)
Oblicza średni bezwzględny błąd procentowy między etykietami i przewidywaniami.
loss = 100 * reduceMean(abs((labels - predictions) / labels))
Parametry
tf | Operacje TensorFlow |
---|---|
etykiety | etykiety |
przewidywania | przewidywania |
Powroty
- średni bezwzględny błąd procentowy
publiczny operand statyczny <T> meanSquaredError (Ops tf, Argument <? rozszerza TNumber > etykiety, przewidywania Argumentu <T>)
Oblicza średni błąd kwadratowy między etykietami i przewidywaniami.
loss = reduceMean(square(labels - predictions))
Parametry
tf | Operacje TensorFlow |
---|---|
etykiety | etykiety |
przewidywania | przewidywania |
Powroty
- błąd średniokwadratowy
publiczny operand statyczny <T> meanSquaredLogarithmicError (Ops tf, Argument <? rozszerza TNumber > etykiety, przewidywania Argumentu <T>)
Oblicza średni kwadrat błędu logarytmicznego między etykietami i przewidywaniami.
loss = reduceMean(square(log(labels + 1) - log(predictions + 1)))
Parametry
tf | Operacje TensorFlow |
---|---|
etykiety | etykiety |
przewidywania | przewidywania |
Powroty
- średni kwadratowy logarytmiczny błąd procentowy
publiczny statyczny operand <T> poisson (Ops tf, Argument <? rozszerza TNumber > etykiety, przewidywania Argumentu <T>)
Oblicza stratę Poissona między etykietami i prognozami.
Strata Poissona jest średnią elementów predictions - labels * log(predictions)
.
Parametry
tf | operacji TensorFlow |
---|---|
etykiety | prawdziwe cele |
przewidywania | przewidywania |
Powroty
- strata Poissona
publiczny argument statyczny <T> sparseCategoricalCrossentropy (Ops tf, Operand <? Extends TNumber > etykiety, przewidywania argumentu <T>, wartość logiczna zLogits, oś int)
Oblicza rzadką kategoryczną utratę entropii krzyżowej między etykietami i prognozami.
Parametry
tf | operacji TensorFlow |
---|---|
etykiety | prawdziwe cele |
przewidywania | przewidywania |
zLogits | Określa, czy oczekuje się, że prognozy będą logitami. Domyślnie zakłada się, że przewidywania kodują rozkład prawdopodobieństwa. |
oś | Wymiar, według którego obliczana jest entropia. |
Powroty
- rzadka kategoryczna utrata crossentropii
publiczny static Operand <T> SquaredHinge (Ops tf, Argument <? rozszerza TNumber > etykiety, przewidywania Argumentu <T>)
Oblicza kwadratową utratę zawiasów między etykietami i przewidywaniami.
loss = reduceMean(square(maximum(1 - labels * predictions, 0)))
Parametry
tf | operacji TensorFlow |
---|---|
etykiety | prawdziwe cele, oczekuje się, że wartości będą wynosić -1 lub 1. Jeśli podano * etykiety binarne (0 lub 1), zostaną one przekonwertowane na -1 lub 1. |
przewidywania | przewidywania |
Powroty
- kwadratowa strata zawiasu