Losses

kamu sınıfı Kayıpları

Yerleşik kayıp fonksiyonları.

Sabitler

int CHANNELS_FIRST
int CHANNELS_LAST
batmadan yüzmek EPSİLON Varsayılan Fuzz faktörü.

Kamu İnşaatçıları

Genel Yöntemler

statik <T TNumber'ı genişletir > İşlenen <T>
BinaryCrossentropy (Ops tf, Operand <? extends TNumber > etiketleri, Operand <T> tahminleri, boolean fromLogits, float labelSmoothing)
Etiketler ve tahminler arasındaki ikili çapraz entropi kaybını hesaplar.
statik <T TNumber'ı genişletir > İşlenen <T>
kategorikÇapraztropi (Ops tf, Operand <? extends TNumber > etiketleri, Operand <T> tahminleri, boolean fromLogits, float labelSmoothing, int axis)
Etiketler ve tahminler arasındaki kategorik çapraz entropi kaybını hesaplar.
statik <T TNumber'ı genişletir > İşlenen <T>
categoricalHinge (Ops tf, İşlenen <? extends TNumber > etiketleri, İşlenen <T> tahminleri)
Etiketler ve tahminler arasındaki kategorik menteşe kaybını hesaplar.
statik <T TNumber'ı genişletir > İşlenen <T>
cosineSimilarity (Ops tf, İşlenen <? extends TNumber > etiketleri, İşlenen <T> tahminleri, int[] ekseni)
Etiketler ve tahminler arasındaki kosinüs benzerliği kaybını hesaplar.
statik <T TNumber'ı genişletir > İşlenen <T>
menteşe (Ops tf, İşlenen <? extends TNumber > etiketleri, İşlenen <T> tahminleri)
Etiketler ve tahminler arasındaki menteşe kaybını hesaplar

loss = reduceMean(maximum(1 - labels * predictions, 0))

statik <T TNumber'ı genişletir > İşlenen <T>
huber (Ops tf, İşlenen <? extends TNumber > etiketleri, İşlenen <T> tahminleri, kayan delta)
Etiketler ve tahminler arasındaki Huber kaybını hesaplar.
statik <T TNumber'ı genişletir > İşlenen <T>
kullbackLeiblerDivergence (Ops tf, İşlenen <? extends TNumber > etiketleri, İşlenen <T> tahminleri)
Etiketler ve tahminler arasındaki Kullback-Leibler sapma kaybını hesaplar.
statik <T TNumber'ı genişletir > İşlenen <T>
l2Normalleştir (Ops tf, İşlenen <T> x, int[] ekseni)
L2 normunu kullanarak boyut ekseni boyunca normalleştirir.
statik <T TNumber'ı genişletir > İşlenen <T>
logCosh (Ops tf, İşlenen <? extends TNumber > etiketleri, İşlenen <T> tahminleri)
Etiketler ve tahminler arasındaki hiperbolik kosinüs kaybını hesaplar.
statik <T TNumber'ı genişletir > İşlenen <T>
ortalamaAbsoluteError (Ops tf, İşlenen <? extends TNumber > etiketleri, İşlenen <T> tahminleri)
Etiketler ve tahminler arasındaki ortalama mutlak hatayı hesaplar.
statik <T TNumber'ı genişletir > İşlenen <T>
ortalamaAbsolutePercentageError (Ops tf, İşlenen <? extends TNumber > etiketleri, İşlenen <T> tahminleri)
Etiketler ve tahminler arasındaki ortalama mutlak yüzde hatasını hesaplar.
statik <T TNumber'ı genişletir > İşlenen <T>
ortalamaSquaredError (Ops tf, İşlenen <? extends TNumber > etiketleri, İşlenen <T> tahminleri)
Etiketler ve tahminler arasındaki ortalama kare hatasını hesaplar.
statik <T TNumber'ı genişletir > İşlenen <T>
ortalamaSquaredLogarithmicError (Ops tf, İşlenen <? extends TNumber > etiketleri, İşlenen <T> tahminleri)
Etiketler ve tahminler arasındaki ortalama kare logaritmik hatayı hesaplar.
statik <T TNumber'ı genişletir > İşlenen <T>
poisson (Ops tf, İşlenen <? extends TNumber > etiketleri, İşlenen <T> tahminleri)
Etiketler ve tahminler arasındaki Poisson kaybını hesaplar.
statik <T TNumber'ı genişletir > İşlenen <T>
sparseCategoricalCrossentropy (Ops tf, İşlenen <? extends TNumber > etiketleri, İşlenen <T> tahminleri, boolean fromLogits, int ekseni)
Etiketler ve tahminler arasındaki seyrek kategorik çapraz entropi kaybını hesaplar.
statik <T TNumber'ı genişletir > İşlenen <T>
squaredHinge (Ops tf, İşlenen <? extends TNumber > etiketleri, İşlenen <T> tahminleri)
Etiketler ve tahminler arasındaki kare menteşe kaybını hesaplar.

Kalıtsal Yöntemler

Sabitler

genel statik final int CHANNELS_FIRST

Sabit Değer: 1

genel statik final int CHANNELS_LAST

Sabit Değer: -1

genel statik son şamandıra EPSILON

Varsayılan Fuzz faktörü.

Sabit Değer: 1.0E-7

Kamu İnşaatçıları

Kamu Zararları ()

Genel Yöntemler

public static Operand <T> ikiliCrossentropy (Ops tf, Operand <? extends TNumber > etiketleri, Operand <T> tahminleri, boolean fromLogits, float labelSmoothing)

Etiketler ve tahminler arasındaki ikili çapraz entropi kaybını hesaplar.

Parametreler
TF TensorFlow Operasyonları
etiketler gerçek hedefler
tahminler tahminler
itibarenLogits Tahminlerin logit değerlerinin tensörü olarak yorumlanıp yorumlanmayacağı
etiketDüzleştirme [0, 1] aralığında bir sayı. 0 olduğunda yumuşatma gerçekleşmez. > 0 olduğunda, tahmin edilen etiketler ile gerçek etiketlerin yumuşatılmış versiyonu arasındaki kaybı hesaplayın; burada yumuşatma etiketleri 0,5'e doğru sıkıştırır. Daha büyük labelSmoothing değerleri daha ağır düzgünleştirmeye karşılık gelir.
İade
  • ikili çapraz entropi kaybı.

public static Operand <T> kategorikCrossentropy (Ops tf, Operand <? extends TNumber > etiketleri, Operand <T> tahminleri, boolean fromLogits, float labelSmoothing, int axis)

Etiketler ve tahminler arasındaki kategorik çapraz entropi kaybını hesaplar.

Parametreler
TF TensorFlow Operasyonları
etiketler gerçek hedefler
tahminler tahminler
itibarenLogits Tahminlerin logit değerlerinin tensörü olarak yorumlanıp yorumlanmayacağı
etiketDüzleştirme [0, 1] içinde kayan. > 0 olduğunda etiket değerleri yumuşatılır, bu da etiket değerlerine olan güvenin gevşediği anlamına gelir. örneğin labelSmoothing=0.2 etiket 0 için 0.1 ve etiket 1 için 0.9 değerini kullanacağımız anlamına gelir
eksen the
İade
  • kategorik çapraz entropi kaybı.

public static İşlenen <T> kategorikHinge (Ops tf, İşlenen <? extends TNumber > etiketleri, İşlenen <T> tahminleri)

Etiketler ve tahminler arasındaki kategorik menteşe kaybını hesaplar.

Parametreler
TF TensorFlow Operasyonları
etiketler gerçek hedeflerde değerlerin 0 veya 1 olması beklenir.
tahminler tahminler
İade
  • kategorik menteşe kaybı

public static Operand <T> cosineSimilarity (Ops tf, Operand <? extends TNumber > etiketleri, Operand <T> tahminleri, int[] ekseni)

Etiketler ve tahminler arasındaki kosinüs benzerlik kaybını hesaplar.

Bunun -1 ile 1 arasında bir sayı olduğunu ve bunun, 1 benzer vektörleri temsil ettiği ve 0 benzer olmayan vektörleri temsil ettiği kosinüs benzerliğinin matematiksel tanımından farklı olduğunu unutmayın. Bu fonksiyonda sayılar -1 ila 1 aralığında tersine çevrilir. -1 ile 0 arasında negatif bir sayı olduğunda, 0 ortogonalliği, -1 yakın değerler ise benzerliğin daha fazla olduğunu gösterir. 1 yakın değerler farklılığın daha fazla olduğunu gösterir. Bu, tahminler ve hedefler arasındaki yakınlığı en üst düzeye çıkarmaya çalıştığınız bir ortamda onu bir kayıp fonksiyonu olarak kullanılabilir hale getirir. Etiketler veya tahminlerden biri sıfır vektör ise kosinüs benzerliği, tahminler ve hedefler arasındaki yakınlığa bakılmaksızın 0 olacaktır.

loss = -sum(l2Norm(labels) * l2Norm(predictions))

Parametreler
TF TensorFlow Operasyonları
etiketler gerçek hedefler
tahminler tahminler
eksen Benzerliğin belirleneceği eksen.
İade
  • kosinüs benzerlik kaybı

public static Operand <T> menteşesi (Ops tf, Operand <? extends TNumber > etiketleri, Operand <T> tahminleri)

Etiketler ve tahminler arasındaki menteşe kaybını hesaplar

loss = reduceMean(maximum(1 - labels * predictions, 0))

Parametreler
TF TensorFlow Operasyonları
etiketler gerçek hedeflerde değerlerin -1 veya 1 olması beklenir. İkili (0 veya 1) etiketler sağlanırsa bunlar -1 veya 1'e dönüştürülür.
tahminler tahminler
İade
  • menteşe kaybı

public static Operand <T> huber (Ops tf, Operand <? extends TNumber > etiketleri, Operand <T> tahminleri, float delta)

Etiketler ve tahminler arasındaki Huber kaybını hesaplar.

Hatadaki her x değeri için = etiketler - tahminler:

     loss = 0.5 * x^2                  if |x| <= d
     loss = 0.5 * d^2 + d * (|x| - d)  if |x| > d
 

burada d deltadır.

Parametreler
TF TensorFlow Operasyonları
etiketler gerçek hedefler
tahminler tahminler
delta Huber kayıp fonksiyonunun ikinci dereceden doğrusala değiştiği nokta.
İade
  • Huber kaybı

public static İşlenen <T> kullbackLeiblerDivergence (Ops tf, İşlenen <? extends TNumber > etiketleri, İşlenen <T> tahminleri)

Etiketler ve tahminler arasındaki Kullback-Leibler sapma kaybını hesaplar.

Parametreler
TF TensorFlow Operasyonları
etiketler gerçek hedefler
tahminler tahminler
İade
  • Kullback-Leibler ıraksama kaybı

public static İşlenen <T> l2Normalize (Ops tf, İşlenen <T> x, int[] ekseni)

L2 normunu kullanarak boyut ekseni boyunca normalleştirir.

Parametreler
TF TensorFlow Operasyonları
X giriş
eksen Normalleştirmenin yapılacağı boyut.
İade
  • L2 normuna göre normalleştirilmiş değerler

public static Operand <T> logCosh (Ops tf, Operand <? extends TNumber > etiketleri, Operand <T> tahminleri)

Etiketler ve tahminler arasındaki hiperbolik kosinüs kaybını hesaplar.

log(cosh(x)) yaklaşık olarak küçük x için (x ** 2) / 2 ve büyük x için abs(x) - log(2) 'ye eşittir. Bu, 'logCosh'un çoğunlukla ortalama kare hatası gibi çalıştığı, ancak ara sıra yapılan son derece yanlış tahminlerden çok fazla etkilenmeyeceği anlamına gelir.

Parametreler
TF TensorFlow Operasyonları
etiketler gerçek hedefler
tahminler tahminler
İade
  • hiperbolik kosinüs sapma kaybı

public static İşlenen <T> anlamAbsoluteError (Ops tf, İşlenen <? extends TNumber > etiketleri, İşlenen <T> tahminleri)

Etiketler ve tahminler arasındaki ortalama mutlak hatayı hesaplar.

loss = reduceMean(abs(labels - predictions))

Parametreler
TF TensorFlow Operasyonları
etiketler etiketler
tahminler tahminler
İade
  • ortalama mutlak hata

public static İşlenen <T> ortalamaAbsolutePercentageError (Ops tf, İşlenen <? extends TNumber > etiketleri, İşlenen <T> tahminleri)

Etiketler ve tahminler arasındaki ortalama mutlak yüzde hatasını hesaplar.

loss = 100 * reduceMean(abs((labels - predictions) / labels))

Parametreler
TF TensorFlow Operasyonları
etiketler etiketler
tahminler tahminler
İade
  • ortalama mutlak yüzde hatası

public static İşlenen <T> ortalamaSquaredError (Ops tf, İşlenen <? extends TNumber > etiketleri, İşlenen <T> tahminleri)

Etiketler ve tahminler arasındaki ortalama kare hatasını hesaplar.

loss = reduceMean(square(labels - predictions))

Parametreler
TF TensorFlow Operasyonları
etiketler etiketler
tahminler tahminler
İade
  • ortalama kare hatası

public static İşlenen <T> ortalamaSquaredLogarithmicError (Ops tf, İşlenen <? extends TNumber > etiketleri, İşlenen <T> tahminleri)

Etiketler ve tahminler arasındaki ortalama kare logaritmik hatayı hesaplar.

loss = reduceMean(square(log(labels + 1) - log(predictions + 1)))

Parametreler
TF TensorFlow Operasyonları
etiketler etiketler
tahminler tahminler
İade
  • ortalama kare logaritmik yüzde hatası

public static Operand <T> poisson (Ops tf, Operand <? extends TNumber > etiketleri, Operand <T> tahminleri)

Etiketler ve tahminler arasındaki Poisson kaybını hesaplar.

Poisson kaybı, Tensör predictions - labels * log(predictions) .

Parametreler
TF TensorFlow Operasyonları
etiketler gerçek hedefler
tahminler tahminler
İade
  • Poisson kaybı

public static Operand <T> sparseCategoricalCrossentropy (Ops tf, Operand <? extends TNumber > etiketleri, Operand <T> tahminleri, boolean fromLogits, int ekseni)

Etiketler ve tahminler arasındaki seyrek kategorik çapraz entropi kaybını hesaplar.

Parametreler
TF TensorFlow Operasyonları
etiketler gerçek hedefler
tahminler tahminler
itibarenLogits Tahminlerin logit olmasının beklenip beklenmediği. Varsayılan olarak tahminlerin bir olasılık dağılımını kodladığı varsayılır.
eksen Entropinin hesaplandığı boyut.
İade
  • seyrek kategorik çapraz entropi kaybı

public static Operand <T> squaredHinge (Ops tf, Operand <? extends TNumber > etiketleri, Operand <T> tahminleri)

Etiketler ve tahminler arasındaki kare menteşe kaybını hesaplar.

loss = reduceMean(square(maximum(1 - labels * predictions, 0)))

Parametreler
TF TensorFlow Operasyonları
etiketler gerçek hedeflerde değerlerin -1 veya 1 olması beklenir. İkili (0 veya 1) etiketler * sağlanırsa -1 veya 1'e dönüştürülür.
tahminler tahminler
İade
  • kare menteşe kaybı