Applica softmax a un ND "SparseTensor" in batch.
Gli input rappresentano un ND SparseTensor con forma logica `[..., B, C]` (dove `N >= 2`), e con indici ordinati nell'ordine lessicografico canonico.
Questa operazione equivale ad applicare la normale tf.nn.softmax()
a ciascuna sottomatrice logica più interna con forma `[B, C]`, ma con il problema che gli elementi implicitamente zero non partecipano . Nello specifico, l'algoritmo è equivalente al seguente:
(1) Applica tf.nn.softmax()
a una vista più densa di ciascuna sottomatrice più interna con forma `[B, C]`, lungo la dimensione size-C; (2) Maschera le posizioni originali implicitamente zero; (3) Rinormalizza gli elementi rimanenti.
Quindi, il risultato di `SparseTensor` ha esattamente gli stessi indici e la stessa forma diversi da zero.
Costanti
Corda | OP_NAME | Il nome di questa operazione, come noto al motore principale di TensorFlow |
Metodi pubblici
Uscita <T> | comeuscita () Restituisce l'handle simbolico del tensore. |
statico <T estende TNumber > SparseSoftmax <T> | |
Uscita <T> | produzione () 1-D. |
Metodi ereditati
Costanti
Stringa finale statica pubblica OP_NAME
Il nome di questa operazione, come noto al motore principale di TensorFlow
Metodi pubblici
Uscita pubblica <T> asOutput ()
Restituisce l'handle simbolico del tensore.
Gli input per le operazioni TensorFlow sono output di un'altra operazione TensorFlow. Questo metodo viene utilizzato per ottenere un handle simbolico che rappresenta il calcolo dell'input.
public static SparseSoftmax <T> create ( Scope scope, Operando < TInt64 > spIndices, Operando <T> spValues, Operando < TInt64 > spShape)
Metodo factory per creare una classe che racchiude una nuova operazione SparseSoftmax.
Parametri
scopo | ambito attuale |
---|---|
spIndici | 2-D. Matrice `NNZ x R` con gli indici dei valori non vuoti in uno SparseTensor, in ordinamento canonico. |
spValue | 1-D. "NNZ" valori non vuoti corrispondenti a "sp_indices". |
spShape | 1-D. Forma dello SparseTensor in ingresso. |
ritorna
- una nuova istanza di SparseSoftmax