tensoreflusso:: ops:: SparseSoftmaxCrossEntropyWithLogits
#include <nn_ops.h>
Calcola il costo dell'entropia incrociata softmax e i gradienti per la propagazione all'indietro.
Riepilogo
A differenza di SoftmaxCrossEntropyWithLogits
, questa operazione non accetta una matrice di probabilità di etichette, ma piuttosto una singola etichetta per riga di caratteristiche. Si ritiene che questa etichetta abbia probabilità 1,0 per la riga specificata.
Gli input sono i logit, non le probabilità.
Argomenti:
- scope: un oggetto Scope
- caratteristiche: matrice batch_size x num_classes
- etichette: vettore batch_size con valori in [0, num_classes). Questa è l'etichetta per la voce minibatch specificata.
Resi:
- Perdita
Output
: perdita per esempio (vettore batch_size). - Backprop
Output
: gradienti propagati all'indietro (matrice batch_size x num_classes).
Costruttori e distruttori | |
---|---|
SparseSoftmaxCrossEntropyWithLogits (const :: tensorflow::Scope & scope, :: tensorflow::Input features, :: tensorflow::Input labels) |
Attributi pubblici | |
---|---|
backprop | |
loss | |
operation |
Attributi pubblici
backprop
::tensorflow::Output backprop
perdita
::tensorflow::Output loss
operazione
Operation operation
Funzioni pubbliche
SparseSoftmaxCrossEntropyWithLogits
SparseSoftmaxCrossEntropyWithLogits( const ::tensorflow::Scope & scope, ::tensorflow::Input features, ::tensorflow::Input labels )