Kamu İnşaatçıları
Genel Yöntemler
static <T TNumber'ı genişletir, U TNumber'ı genişletir > İşlenen <T> | softmaxCrossEntropyWithLogits ( Kapsam kapsamı, İşlenen <U> etiketleri, İşlenen <T> logitleri, int ekseni) logits ve labels arasındaki softmax çapraz entropiyi hesaplar. |
Kalıtsal Yöntemler
Kamu İnşaatçıları
herkese açık SoftmaxCrossEntropyWithLogits ()
Genel Yöntemler
public static İşlenen <T> softmaxCrossEntropyWithLogits ( Kapsam kapsamı, İşlenen <U> etiketleri, İşlenen <T> logitleri, int ekseni)
logits
ve labels
arasındaki softmax çapraz entropiyi hesaplar.
Sınıfların birbirini dışladığı (her giriş tam olarak bir sınıftadır) ayrık sınıflandırma görevlerindeki olasılık hatasını ölçer. Örneğin, her CIFAR-10 görüntüsü tek ve tek bir etiketle etiketlenir: bir görüntü bir köpek veya bir kamyon olabilir, ancak her ikisi birden olamaz.
NOT:
Sınıflar birbirini dışlayan olsa da olasılıklarının öyle olması gerekmez. Gerekli olan tek şey, her labels
satırının geçerli bir olasılık dağılımı olmasıdır. Aksi takdirde eğimin hesaplanması yanlış olacaktır.
Özel labels
kullanıyorsanız (aynı anda yalnızca bir sınıfın doğru olduğu durumda), bkz. ERROR(/org.tensorflow.op.NnOps#sparseSoftmaxCrossEntropyWithLogits)
Kullanımı:
Operand<TFloat32> logits = tf.constant(new float[][] { {4.0F, 2.0F, 1.0F}, {0.0F, 5.0F, 1.0F} } ); Operand<TFloat32> labels = tf.constant(new float[][] { {1.0F, 0.0F, 0.0F}, {0.0F, 0.8F, 0.2F} } ); Operand<TFloat32> output = tf.nn.softmaxCrossEntropyWithLogits(labels, logits, -1); // output Shape = [2] // dataType = FLOAT (1) // values { 0.169846, 0.824745 }
Geri yayılım hem logits
hem de labels
gerçekleşecektir. labels
geri yayılmaya izin vermemek için, etiket tensörlerini bu işleve beslemeden önce tf.stopGradient
aracılığıyla geçirin.
Parametreler
kapsam | mevcut kapsam |
---|---|
etiketler | Sınıf boyutu boyunca her vektör geçerli bir olasılık dağılımına sahip olmalıdır; örneğin, etiketlerin [batch_size, num_classes] şeklinde olduğu durumda, her labels[i] geçerli bir olasılık dağılımı olmalıdır. |
logitler | Etiket başına etkinleştirmeler, genellikle doğrusal bir çıktı. Bu aktivasyon enerjileri normalleştirilmemiş log olasılıkları olarak yorumlanır. |
eksen | Sınıf boyutu. -1 son boyuttur. |
İade
- softmax çapraz entropi kaybı. Türü
logits
aynı olup, şeklilabels
aynıdır ancaklabels
son boyutuna sahip değildir.