Menghitung biaya entropi silang softmax dan gradien ke propagasi mundur.
Berbeda dengan `SoftmaxCrossEntropyWithLogits`, operasi ini tidak menerima matriks probabilitas label, melainkan satu label per baris fitur. Label ini dianggap memiliki probabilitas 1,0 untuk baris tertentu.
Inputnya adalah logit, bukan probabilitas.
Konstanta
Rangkaian | OP_NAME | Nama operasi ini dikenal dengan mesin inti TensorFlow |
Metode Publik
Keluaran <T> | penyangga punggung () gradien yang dipropagasi mundur (matriks batch_size x num_classes). |
statis <T meluas TNumber > SparseSoftmaxCrossEntropyWithLogits <T> | buat ( Lingkup cakupan , fitur Operan <T>, label Operan <? extends TNumber >) Metode pabrik untuk membuat kelas yang membungkus operasi SparseSoftmaxCrossEntropyWithLogits baru. |
Keluaran <T> | kehilangan () Per contoh kerugian (vektor batch_size). |
Metode Warisan
Konstanta
String akhir statis publik OP_NAME
Nama operasi ini dikenal dengan mesin inti TensorFlow
Metode Publik
public static SparseSoftmaxCrossEntropyWithLogits <T> buat ( Cakupan cakupan , fitur Operan <T>, label Operan <? extends TNumber >)
Metode pabrik untuk membuat kelas yang membungkus operasi SparseSoftmaxCrossEntropyWithLogits baru.
Parameter
cakupan | ruang lingkup saat ini |
---|---|
fitur | matriks ukuran_batch x jumlah_kelas |
label | vektor batch_size dengan nilai dalam [0, num_classes). Ini adalah label untuk entri minibatch yang diberikan. |
Kembali
- contoh baru dari SparseSoftmaxCrossEntropyWithLogits