Yerleşik kayıp fonksiyonları.
Sabitler
int | CHANNELS_FIRST | |
int | CHANNELS_LAST | |
batmadan yüzmek | EPSİLON | Varsayılan Fuzz faktörü. |
Kamu İnşaatçıları
Kayıplar () |
Genel Yöntemler
statik <T TNumber'ı genişletir > İşlenen <T> | BinaryCrossentropy (Ops tf, Operand <? extends TNumber > etiketleri, Operand <T> tahminleri, boolean fromLogits, float labelSmoothing) Etiketler ve tahminler arasındaki ikili çapraz entropi kaybını hesaplar. |
statik <T TNumber'ı genişletir > İşlenen <T> | kategorikÇapraztropi (Ops tf, Operand <? extends TNumber > etiketleri, Operand <T> tahminleri, boolean fromLogits, float labelSmoothing, int axis) Etiketler ve tahminler arasındaki kategorik çapraz entropi kaybını hesaplar. |
statik <T TNumber'ı genişletir > İşlenen <T> | categoricalHinge (Ops tf, İşlenen <? extends TNumber > etiketleri, İşlenen <T> tahminleri) Etiketler ve tahminler arasındaki kategorik menteşe kaybını hesaplar. |
statik <T TNumber'ı genişletir > İşlenen <T> | cosineSimilarity (Ops tf, İşlenen <? extends TNumber > etiketleri, İşlenen <T> tahminleri, int[] ekseni) Etiketler ve tahminler arasındaki kosinüs benzerliği kaybını hesaplar. |
statik <T TNumber'ı genişletir > İşlenen <T> | |
statik <T TNumber'ı genişletir > İşlenen <T> | |
statik <T TNumber'ı genişletir > İşlenen <T> | kullbackLeiblerDivergence (Ops tf, İşlenen <? extends TNumber > etiketleri, İşlenen <T> tahminleri) Etiketler ve tahminler arasındaki Kullback-Leibler sapma kaybını hesaplar. |
statik <T TNumber'ı genişletir > İşlenen <T> | l2Normalleştir (Ops tf, İşlenen <T> x, int[] ekseni) L2 normunu kullanarak boyut ekseni boyunca normalleştirir. |
statik <T TNumber'ı genişletir > İşlenen <T> | |
statik <T TNumber'ı genişletir > İşlenen <T> | ortalamaAbsoluteError (Ops tf, İşlenen <? extends TNumber > etiketleri, İşlenen <T> tahminleri) Etiketler ve tahminler arasındaki ortalama mutlak hatayı hesaplar. |
statik <T TNumber'ı genişletir > İşlenen <T> | ortalamaAbsolutePercentageError (Ops tf, İşlenen <? extends TNumber > etiketleri, İşlenen <T> tahminleri) Etiketler ve tahminler arasındaki ortalama mutlak yüzde hatasını hesaplar. |
statik <T TNumber'ı genişletir > İşlenen <T> | ortalamaSquaredError (Ops tf, İşlenen <? extends TNumber > etiketleri, İşlenen <T> tahminleri) Etiketler ve tahminler arasındaki ortalama kare hatasını hesaplar. |
statik <T TNumber'ı genişletir > İşlenen <T> | ortalamaSquaredLogarithmicError (Ops tf, İşlenen <? extends TNumber > etiketleri, İşlenen <T> tahminleri) Etiketler ve tahminler arasındaki ortalama kare logaritmik hatayı hesaplar. |
statik <T TNumber'ı genişletir > İşlenen <T> | |
statik <T TNumber'ı genişletir > İşlenen <T> | sparseCategoricalCrossentropy (Ops tf, İşlenen <? extends TNumber > etiketleri, İşlenen <T> tahminleri, boolean fromLogits, int ekseni) Etiketler ve tahminler arasındaki seyrek kategorik çapraz entropi kaybını hesaplar. |
statik <T TNumber'ı genişletir > İşlenen <T> | squaredHinge (Ops tf, İşlenen <? extends TNumber > etiketleri, İşlenen <T> tahminleri) Etiketler ve tahminler arasındaki kare menteşe kaybını hesaplar. |
Kalıtsal Yöntemler
Sabitler
genel statik final int CHANNELS_FIRST
genel statik final int CHANNELS_LAST
genel statik son şamandıra EPSILON
Varsayılan Fuzz faktörü.
Kamu İnşaatçıları
Kamu Zararları ()
Genel Yöntemler
public static Operand <T> ikiliCrossentropy (Ops tf, Operand <? extends TNumber > etiketleri, Operand <T> tahminleri, boolean fromLogits, float labelSmoothing)
Etiketler ve tahminler arasındaki ikili çapraz entropi kaybını hesaplar.
Parametreler
TF | TensorFlow Operasyonları |
---|---|
etiketler | gerçek hedefler |
tahminler | tahminler |
itibarenLogits | Tahminlerin logit değerlerinin tensörü olarak yorumlanıp yorumlanmayacağı |
etiketDüzleştirme | [0, 1] aralığında bir sayı. 0 olduğunda yumuşatma gerçekleşmez. > 0 olduğunda, tahmin edilen etiketler ile gerçek etiketlerin yumuşatılmış versiyonu arasındaki kaybı hesaplayın; burada yumuşatma etiketleri 0,5'e doğru sıkıştırır. Daha büyük labelSmoothing değerleri daha ağır düzgünleştirmeye karşılık gelir. |
İade
- ikili çapraz entropi kaybı.
public static Operand <T> kategorikCrossentropy (Ops tf, Operand <? extends TNumber > etiketleri, Operand <T> tahminleri, boolean fromLogits, float labelSmoothing, int axis)
Etiketler ve tahminler arasındaki kategorik çapraz entropi kaybını hesaplar.
Parametreler
TF | TensorFlow Operasyonları |
---|---|
etiketler | gerçek hedefler |
tahminler | tahminler |
itibarenLogits | Tahminlerin logit değerlerinin tensörü olarak yorumlanıp yorumlanmayacağı |
etiketDüzleştirme | [0, 1] içinde kayan. > 0 olduğunda etiket değerleri yumuşatılır, bu da etiket değerlerine olan güvenin gevşediği anlamına gelir. örneğin labelSmoothing=0.2 etiket 0 için 0.1 ve etiket 1 için 0.9 değerini kullanacağımız anlamına gelir |
eksen | the |
İade
- kategorik çapraz entropi kaybı.
public static İşlenen <T> kategorikHinge (Ops tf, İşlenen <? extends TNumber > etiketleri, İşlenen <T> tahminleri)
Etiketler ve tahminler arasındaki kategorik menteşe kaybını hesaplar.
Parametreler
TF | TensorFlow Operasyonları |
---|---|
etiketler | gerçek hedeflerde değerlerin 0 veya 1 olması beklenir. |
tahminler | tahminler |
İade
- kategorik menteşe kaybı
public static Operand <T> cosineSimilarity (Ops tf, Operand <? extends TNumber > etiketleri, Operand <T> tahminleri, int[] ekseni)
Etiketler ve tahminler arasındaki kosinüs benzerlik kaybını hesaplar.
Bunun -1
ile 1
arasında bir sayı olduğunu ve bunun, 1
benzer vektörleri temsil ettiği ve 0
benzer olmayan vektörleri temsil ettiği kosinüs benzerliğinin matematiksel tanımından farklı olduğunu unutmayın. Bu fonksiyonda sayılar -1
ila 1
aralığında tersine çevrilir. -1
ile 0
arasında negatif bir sayı olduğunda, 0
ortogonalliği, -1
yakın değerler ise benzerliğin daha fazla olduğunu gösterir. 1
yakın değerler farklılığın daha fazla olduğunu gösterir. Bu, tahminler ve hedefler arasındaki yakınlığı en üst düzeye çıkarmaya çalıştığınız bir ortamda onu bir kayıp fonksiyonu olarak kullanılabilir hale getirir. Etiketler veya tahminlerden biri sıfır vektör ise kosinüs benzerliği, tahminler ve hedefler arasındaki yakınlığa bakılmaksızın 0
olacaktır.
loss = -sum(l2Norm(labels) * l2Norm(predictions))
Parametreler
TF | TensorFlow Operasyonları |
---|---|
etiketler | gerçek hedefler |
tahminler | tahminler |
eksen | Benzerliğin belirleneceği eksen. |
İade
- kosinüs benzerlik kaybı
public static Operand <T> menteşesi (Ops tf, Operand <? extends TNumber > etiketleri, Operand <T> tahminleri)
Etiketler ve tahminler arasındaki menteşe kaybını hesaplar
loss = reduceMean(maximum(1 - labels * predictions, 0))
Parametreler
TF | TensorFlow Operasyonları |
---|---|
etiketler | gerçek hedeflerde değerlerin -1 veya 1 olması beklenir. İkili (0 veya 1) etiketler sağlanırsa bunlar -1 veya 1'e dönüştürülür. |
tahminler | tahminler |
İade
- menteşe kaybı
public static Operand <T> huber (Ops tf, Operand <? extends TNumber > etiketleri, Operand <T> tahminleri, float delta)
Etiketler ve tahminler arasındaki Huber kaybını hesaplar.
Hatadaki her x değeri için = etiketler - tahminler:
loss = 0.5 * x^2 if |x| <= d loss = 0.5 * d^2 + d * (|x| - d) if |x| > d
burada d deltadır.
Parametreler
TF | TensorFlow Operasyonları |
---|---|
etiketler | gerçek hedefler |
tahminler | tahminler |
delta | Huber kayıp fonksiyonunun ikinci dereceden doğrusala değiştiği nokta. |
İade
- Huber kaybı
public static İşlenen <T> kullbackLeiblerDivergence (Ops tf, İşlenen <? extends TNumber > etiketleri, İşlenen <T> tahminleri)
Etiketler ve tahminler arasındaki Kullback-Leibler sapma kaybını hesaplar.
Parametreler
TF | TensorFlow Operasyonları |
---|---|
etiketler | gerçek hedefler |
tahminler | tahminler |
İade
- Kullback-Leibler ıraksama kaybı
Ayrıca Bakınız
public static İşlenen <T> l2Normalize (Ops tf, İşlenen <T> x, int[] ekseni)
L2 normunu kullanarak boyut ekseni boyunca normalleştirir.
Parametreler
TF | TensorFlow Operasyonları |
---|---|
X | giriş |
eksen | Normalleştirmenin yapılacağı boyut. |
İade
- L2 normuna göre normalleştirilmiş değerler
public static Operand <T> logCosh (Ops tf, Operand <? extends TNumber > etiketleri, Operand <T> tahminleri)
Etiketler ve tahminler arasındaki hiperbolik kosinüs kaybını hesaplar.
log(cosh(x))
yaklaşık olarak küçük x
için (x ** 2) / 2
ve büyük x
için abs(x) - log(2)
'ye eşittir. Bu, 'logCosh'un çoğunlukla ortalama kare hatası gibi çalıştığı, ancak ara sıra yapılan son derece yanlış tahminlerden çok fazla etkilenmeyeceği anlamına gelir.
Parametreler
TF | TensorFlow Operasyonları |
---|---|
etiketler | gerçek hedefler |
tahminler | tahminler |
İade
- hiperbolik kosinüs sapma kaybı
public static İşlenen <T> anlamAbsoluteError (Ops tf, İşlenen <? extends TNumber > etiketleri, İşlenen <T> tahminleri)
Etiketler ve tahminler arasındaki ortalama mutlak hatayı hesaplar.
loss = reduceMean(abs(labels - predictions))
Parametreler
TF | TensorFlow Operasyonları |
---|---|
etiketler | etiketler |
tahminler | tahminler |
İade
- ortalama mutlak hata
public static İşlenen <T> ortalamaAbsolutePercentageError (Ops tf, İşlenen <? extends TNumber > etiketleri, İşlenen <T> tahminleri)
Etiketler ve tahminler arasındaki ortalama mutlak yüzde hatasını hesaplar.
loss = 100 * reduceMean(abs((labels - predictions) / labels))
Parametreler
TF | TensorFlow Operasyonları |
---|---|
etiketler | etiketler |
tahminler | tahminler |
İade
- ortalama mutlak yüzde hatası
public static İşlenen <T> ortalamaSquaredError (Ops tf, İşlenen <? extends TNumber > etiketleri, İşlenen <T> tahminleri)
Etiketler ve tahminler arasındaki ortalama kare hatasını hesaplar.
loss = reduceMean(square(labels - predictions))
Parametreler
TF | TensorFlow Operasyonları |
---|---|
etiketler | etiketler |
tahminler | tahminler |
İade
- ortalama kare hatası
public static İşlenen <T> ortalamaSquaredLogarithmicError (Ops tf, İşlenen <? extends TNumber > etiketleri, İşlenen <T> tahminleri)
Etiketler ve tahminler arasındaki ortalama kare logaritmik hatayı hesaplar.
loss = reduceMean(square(log(labels + 1) - log(predictions + 1)))
Parametreler
TF | TensorFlow Operasyonları |
---|---|
etiketler | etiketler |
tahminler | tahminler |
İade
- ortalama kare logaritmik yüzde hatası
public static Operand <T> poisson (Ops tf, Operand <? extends TNumber > etiketleri, Operand <T> tahminleri)
Etiketler ve tahminler arasındaki Poisson kaybını hesaplar.
Poisson kaybı, Tensör predictions - labels * log(predictions)
.
Parametreler
TF | TensorFlow Operasyonları |
---|---|
etiketler | gerçek hedefler |
tahminler | tahminler |
İade
- Poisson kaybı
public static Operand <T> sparseCategoricalCrossentropy (Ops tf, Operand <? extends TNumber > etiketleri, Operand <T> tahminleri, boolean fromLogits, int ekseni)
Etiketler ve tahminler arasındaki seyrek kategorik çapraz entropi kaybını hesaplar.
Parametreler
TF | TensorFlow Operasyonları |
---|---|
etiketler | gerçek hedefler |
tahminler | tahminler |
itibarenLogits | Tahminlerin logit olmasının beklenip beklenmediği. Varsayılan olarak tahminlerin bir olasılık dağılımını kodladığı varsayılır. |
eksen | Entropinin hesaplandığı boyut. |
İade
- seyrek kategorik çapraz entropi kaybı
public static Operand <T> squaredHinge (Ops tf, Operand <? extends TNumber > etiketleri, Operand <T> tahminleri)
Etiketler ve tahminler arasındaki kare menteşe kaybını hesaplar.
loss = reduceMean(square(maximum(1 - labels * predictions, 0)))
Parametreler
TF | TensorFlow Operasyonları |
---|---|
etiketler | gerçek hedeflerde değerlerin -1 veya 1 olması beklenir. İkili (0 veya 1) etiketler * sağlanırsa -1 veya 1'e dönüştürülür. |
tahminler | tahminler |
İade
- kare menteşe kaybı