Losses

Straty klasy publicznej

Wbudowane funkcje utraty.

Stałe

wew KANAŁY_FIRST
wew KANAŁY_OSTATNIE
platforma EPSILON Domyślny współczynnik rozmycia.

Konstruktorzy publiczni

Straty ()

Metody publiczne

statyczny <T rozszerza numer T > Operand <T>
binaryCrossentropy (Ops tf, Operand <? Extends TNumber > etykiety, przewidywania argumentu <T>, wartość logiczna zLogits, float labelSmoothing)
Oblicza binarną stratę entropii krzyżowej między etykietami i przewidywaniami.
statyczny <T rozszerza numer T > Operand <T>
categoricalCrossentropy (Ops tf, Operand <? Extends TNumber > etykiety, przewidywania argumentu <T>, wartość logiczna fromLogits, float labelSmoothing, oś int)
Oblicza kategoryczną utratę entropii krzyżowej między etykietami i prognozami.
statyczny <T rozszerza numer T > Operand <T>
categoricalHinge (Ops tf, Argument <? rozszerza TNumber > etykiety, przewidywania Argumentu <T>)
Oblicza kategoryczną utratę zawiasów między etykietami i przewidywaniami.
statyczny <T rozszerza numer T > Operand <T>
cosinusSimilarity (Ops tf, Operand <? rozszerza TNumber > etykiety, przewidywania argumentu <T>, oś int[])
Oblicza utratę podobieństwa cosinus między etykietami i przewidywaniami.
statyczny <T rozszerza numer T > Operand <T>
zawias (Ops tf, Argument <? rozszerza TNumber > etykiety, przewidywania Argumentu <T>)
Oblicza utratę zawiasów między etykietami i przewidywaniami

loss = reduceMean(maximum(1 - labels * predictions, 0))

statyczny <T rozszerza numer T > Operand <T>
huber (Ops tf, Operand <? rozszerza TNumber > etykiety, przewidywania Argumentu <T>, delta zmiennoprzecinkowa)
Oblicza stratę Hubera między etykietami i prognozami.
statyczny <T rozszerza numer T > Operand <T>
kullbackLeiblerDivergence (Ops tf, Argument <? rozszerza TNumber > etykiety, przewidywania Argumentu <T>)
Oblicza utratę dywergencji Kullbacka-Leiblera między etykietami i prognozami.
statyczny <T rozszerza numer T > Operand <T>
l2Normalizuj (Ops tf, Operand <T> x, int[] oś)
Normalizuje wzdłuż osi wymiaru przy użyciu normy L2.
statyczny <T rozszerza numer T > Operand <T>
logCosh (Ops tf, Argument <? rozszerza TNumber > etykiety, przewidywania Argumentu <T>)
Oblicza stratę cosinusa hiperbolicznego między etykietami i przewidywaniami.
statyczny <T rozszerza numer T > Operand <T>
meanAbsoluteError (Ops tf, Argument <? rozszerza TNumber > etykiety, przewidywania Argumentu <T>)
Oblicza średni błąd bezwzględny między etykietami i przewidywaniami.
statyczny <T rozszerza numer T > Operand <T>
meanAbsolutePercentageError (Ops tf, Argument <? rozszerza TNumber > etykiety, przewidywania Argumentu <T>)
Oblicza średni bezwzględny błąd procentowy między etykietami i przewidywaniami.
statyczny <T rozszerza numer T > Operand <T>
meanSquaredError (Ops tf, Argument <? rozszerza TNumber > etykiety, przewidywania Argumentu <T>)
Oblicza średni błąd kwadratowy między etykietami i przewidywaniami.
statyczny <T rozszerza numer T > Operand <T>
meanSquaredLogarithmicError (Ops tf, Argument <? rozszerza TNumber > etykiety, przewidywania Argumentu <T>)
Oblicza średni kwadrat błędu logarytmicznego między etykietami i przewidywaniami.
statyczny <T rozszerza numer T > Operand <T>
poisson (Ops tf, Argument <? rozszerza TNumber > etykiety, przewidywania Argumentu <T>)
Oblicza stratę Poissona między etykietami i prognozami.
statyczny <T rozszerza numer T > Operand <T>
sparseCategoricalCrossentropy (Ops tf, Operand <? Extends TNumber > etykiety, przewidywania argumentu <T>, wartość logiczna fromLogits, oś int)
Oblicza rzadką kategoryczną utratę entropii krzyżowej między etykietami i prognozami.
statyczny <T rozszerza numer T > Operand <T>
SquaredHinge (Ops tf, Argument <? rozszerza TNumber > etykiety, przewidywania Argumentu <T>)
Oblicza kwadratową utratę zawiasów między etykietami i przewidywaniami.

Metody dziedziczone

Stałe

publiczny statyczny końcowy int CHANNELS_FIRST

Wartość stała: 1

publiczny statyczny końcowy int CHANNELS_LAST

Wartość stała: -1

publiczny statyczny końcowy float EPSILON

Domyślny współczynnik rozmycia.

Wartość stała: 1,0E-7

Konstruktorzy publiczni

Straty publiczne ()

Metody publiczne

public static Operand <T> binaryCrossentropy (Ops tf, Operand <? Extends TNumber > etykiety, przewidywania argumentu <T>, wartość logiczna fromLogits, float labelSmoothing)

Oblicza binarną stratę entropii krzyżowej między etykietami i przewidywaniami.

Parametry
tf operacji TensorFlow
etykiety prawdziwe cele
przewidywania przewidywania
zLogits Czy interpretować przewidywania jako tensor wartości logitowych
etykietaWygładzanie Liczba z zakresu [0, 1]. Gdy 0, wygładzanie nie występuje. Gdy > 0, oblicz stratę między przewidywanymi etykietami a wygładzoną wersją prawdziwych etykiet, gdzie wygładzanie ściska etykiety w kierunku 0,5. Większe wartości labelSmoothing odpowiadają intensywniejszemu wygładzaniu.
Powroty
  • binarna utrata crossentropii.

publiczny argument statyczny <T> categoricalCrossentropy (Ops tf, Operand <? Extends TNumber > etykiety, przewidywania argumentu <T>, wartość logiczna fromLogits, float labelSmoothing, oś int)

Oblicza kategoryczną utratę entropii krzyżowej między etykietami i prognozami.

Parametry
tf operacji TensorFlow
etykiety prawdziwe cele
przewidywania przewidywania
zLogits Czy interpretować przewidywania jako tensor wartości logitowych
etykietaWygładzanie Pływak w [0, 1] . Gdy > 0 , wartości etykiet są wygładzane, co oznacza, że ​​zaufanie do wartości etykiet jest zmniejszone. np. labelSmoothing=0.2 oznacza, że ​​użyjemy wartości 0.1 dla etykiety 0 i 0.9 dla etykiety 1
the
Powroty
  • kategoryczna utrata crossentropii.

public static Operand <T> categoricalHinge (Ops tf, Operand <? Extends TNumber > etykiety, przewidywania argumentu <T>)

Oblicza kategoryczną utratę zawiasów między etykietami i przewidywaniami.

Parametry
tf operacji TensorFlow
etykiety prawdziwe cele, oczekuje się, że wartości będą wynosić 0 lub 1.
przewidywania przewidywania
Powroty
  • kategoryczna utrata zawiasów

public static Operand <T> cosinusSimilarity (Ops tf, Operand <? Extends TNumber > etykiety, przewidywania argumentu <T>, oś int[])

Oblicza utratę podobieństwa cosinus między etykietami i przewidywaniami.

Należy zauważyć, że jest to liczba z zakresu od -1 do 1 , co różni się od matematycznej definicji podobieństwa cosinus, gdzie 1 oznacza podobne wektory, a 0 oznacza różne wektory. W tej funkcji liczby są odwracane w zakresie od -1 do 1 . Gdy jest to liczba ujemna z zakresu od -1 do 0 , 0 oznacza ortogonalność, a wartości bliższe -1 oznaczają większe podobieństwo. Wartości bliższe 1 wskazują na większą odmienność. Dzięki temu można jej używać jako funkcji straty w otoczeniu, w którym próbuje się zmaksymalizować bliskość między prognozami a celami. Jeśli etykieta lub przewidywanie jest wektorem zerowym, podobieństwo cosinus będzie wynosić 0 niezależnie od bliskości przewidywań i celów.

loss = -sum(l2Norm(labels) * l2Norm(predictions))

Parametry
tf operacji TensorFlow
etykiety prawdziwe cele
przewidywania przewidywania
Oś, wzdłuż której należy określić podobieństwo.
Powroty
  • utrata podobieństwa cosinusa

publiczny statyczny zawias argumentu <T> (Ops tf, argument <? rozszerza TNumber > etykiety, przewidywania argumentu <T>)

Oblicza utratę zawiasów między etykietami i przewidywaniami

loss = reduceMean(maximum(1 - labels * predictions, 0))

Parametry
tf operacji TensorFlow
etykiety prawdziwe cele, oczekuje się, że wartości będą wynosić -1 lub 1. Jeśli podano etykiety binarne (0 lub 1), zostaną one przekonwertowane na -1 lub 1.
przewidywania przewidywania
Powroty
  • utrata zawiasów

publiczny statyczny operand <T> huber (Ops tf, Operand <? Extends TNumber > etykiety, przewidywania argumentu <T>, float delta)

Oblicza stratę Hubera między etykietami i prognozami.

Dla każdej wartości x w błędzie = etykiety - przewidywania:

     loss = 0.5 * x^2                  if |x| <= d
     loss = 0.5 * d^2 + d * (|x| - d)  if |x| > d
 

gdzie d jest deltą.

Parametry
tf operacji TensorFlow
etykiety prawdziwe cele
przewidywania przewidywania
delta punkt, w którym funkcja straty Hubera zmienia się z kwadratowej na liniową.
Powroty
  • strata Hubera

public static Operand <T> kullbackLeiblerDivergence (Ops tf, Argument <? Extends TNumber > etykiety, przewidywania Argumentu <T>)

Oblicza utratę dywergencji Kullbacka-Leiblera między etykietami i prognozami.

Parametry
tf operacji TensorFlow
etykiety prawdziwe cele
przewidywania przewidywania
Powroty
  • strata wynikająca z dywergencji Kullbacka-Leiblera

publiczny argument statyczny <T> l2Normalize (Ops tf, argument <T> x, oś int[])

Normalizuje wzdłuż osi wymiaru przy użyciu normy L2.

Parametry
tf Operacje TensorFlow
X wejście
Wymiar, wzdłuż którego należy dokonać normalizacji.
Powroty
  • znormalizowane wartości w oparciu o normę L2

publiczny static Operand <T> logCosh (Ops tf, Argument <? rozszerza TNumber > etykiety, przewidywania Argumentu <T>)

Oblicza stratę cosinusa hiperbolicznego między etykietami i przewidywaniami.

log(cosh(x)) jest w przybliżeniu równe (x ** 2) / 2 dla małego x i abs(x) - log(2) dla dużego x . Oznacza to, że „logCosh” działa głównie jak błąd średniokwadratowy, ale sporadyczne bardzo nieprawidłowe przewidywania nie mają na niego tak dużego wpływu.

Parametry
tf operacji TensorFlow
etykiety prawdziwe cele
przewidywania przewidywania
Powroty
  • utrata dywergencji hiperbolicznego cosinusa

publiczny operand statyczny <T> meanAbsoluteError (Ops tf, Argument <? rozszerza TNumber > etykiety, przewidywania Argumentu <T>)

Oblicza średni błąd bezwzględny między etykietami i przewidywaniami.

loss = reduceMean(abs(labels - predictions))

Parametry
tf Operacje TensorFlow
etykiety etykiety
przewidywania przewidywania
Powroty
  • średni błąd bezwzględny

publiczny operand statyczny <T> meanAbsolutePercentageError (Ops tf, Argument <? rozszerza TNumber > etykiety, przewidywania Argumentu <T>)

Oblicza średni bezwzględny błąd procentowy między etykietami i przewidywaniami.

loss = 100 * reduceMean(abs((labels - predictions) / labels))

Parametry
tf Operacje TensorFlow
etykiety etykiety
przewidywania przewidywania
Powroty
  • średni bezwzględny błąd procentowy

publiczny operand statyczny <T> meanSquaredError (Ops tf, Argument <? rozszerza TNumber > etykiety, przewidywania Argumentu <T>)

Oblicza średni błąd kwadratowy między etykietami i przewidywaniami.

loss = reduceMean(square(labels - predictions))

Parametry
tf Operacje TensorFlow
etykiety etykiety
przewidywania przewidywania
Powroty
  • błąd średniokwadratowy

publiczny operand statyczny <T> meanSquaredLogarithmicError (Ops tf, Argument <? rozszerza TNumber > etykiety, przewidywania Argumentu <T>)

Oblicza średni kwadrat błędu logarytmicznego między etykietami i przewidywaniami.

loss = reduceMean(square(log(labels + 1) - log(predictions + 1)))

Parametry
tf Operacje TensorFlow
etykiety etykiety
przewidywania przewidywania
Powroty
  • średni kwadratowy logarytmiczny błąd procentowy

publiczny statyczny operand <T> poisson (Ops tf, Argument <? rozszerza TNumber > etykiety, przewidywania Argumentu <T>)

Oblicza stratę Poissona między etykietami i prognozami.

Strata Poissona jest średnią elementów predictions - labels * log(predictions) .

Parametry
tf operacji TensorFlow
etykiety prawdziwe cele
przewidywania przewidywania
Powroty
  • strata Poissona

publiczny argument statyczny <T> sparseCategoricalCrossentropy (Ops tf, Operand <? Extends TNumber > etykiety, przewidywania argumentu <T>, wartość logiczna zLogits, oś int)

Oblicza rzadką kategoryczną utratę entropii krzyżowej między etykietami i prognozami.

Parametry
tf operacji TensorFlow
etykiety prawdziwe cele
przewidywania przewidywania
zLogits Określa, czy oczekuje się, że prognozy będą logitami. Domyślnie zakłada się, że przewidywania kodują rozkład prawdopodobieństwa.
Wymiar, według którego obliczana jest entropia.
Powroty
  • rzadka kategoryczna utrata crossentropii

publiczny static Operand <T> SquaredHinge (Ops tf, Argument <? rozszerza TNumber > etykiety, przewidywania Argumentu <T>)

Oblicza kwadratową utratę zawiasów między etykietami i przewidywaniami.

loss = reduceMean(square(maximum(1 - labels * predictions, 0)))

Parametry
tf operacji TensorFlow
etykiety prawdziwe cele, oczekuje się, że wartości będą wynosić -1 lub 1. Jeśli podano * etykiety binarne (0 lub 1), zostaną one przekonwertowane na -1 lub 1.
przewidywania przewidywania
Powroty
  • kwadratowa strata zawiasu