Calcola il costo dell'entropia incrociata softmax e i gradienti per la propagazione all'indietro.
A differenza di "SoftmaxCrossEntropyWithLogits", questa operazione non accetta una matrice di probabilità di etichette, ma piuttosto una singola etichetta per riga di caratteristiche. Si ritiene che questa etichetta abbia probabilità 1,0 per la riga specificata.
Gli input sono i logit, non le probabilità.
Costanti
Corda | OP_NAME | Il nome di questa operazione, come noto al motore principale di TensorFlow |
Metodi pubblici
Uscita <T> | sostegno () gradienti retropropagati (matrice batch_size x num_classes). |
static <T estende TNumber > SparseSoftmaxCrossEntropyWithLogits <T> | create (ambito dell'ambito , funzionalità dell'operando <T>, operando <? estende TNumber > etichette) Metodo factory per creare una classe che racchiude una nuova operazione SparseSoftmaxCrossEntropyWithLogits. |
Uscita <T> | perdita () Perdita per esempio (vettore batch_size). |
Metodi ereditati
Costanti
Stringa finale statica pubblica OP_NAME
Il nome di questa operazione, come noto al motore principale di TensorFlow
Metodi pubblici
public static SparseSoftmaxCrossEntropyWithLogits <T> crea (ambito dell'ambito , funzionalità dell'operando <T>, operando <? estende TNumber > etichette)
Metodo factory per creare una classe che racchiude una nuova operazione SparseSoftmaxCrossEntropyWithLogits.
Parametri
scopo | ambito attuale |
---|---|
caratteristiche | matrice batch_size x num_classes |
etichette | vettore batch_size con valori in [0, num_classes). Questa è l'etichetta per la voce minibatch specificata. |
ritorna
- una nuova istanza di SparseSoftmaxCrossEntropyWithLogits