Calcola i gradienti lineari rettificati per un'operazione Relu.
Costanti
Corda | OP_NAME | Il nome di questa operazione, come noto al motore principale di TensorFlow |
Metodi pubblici
Uscita <T> | comeuscita () Restituisce l'handle simbolico del tensore. |
Uscita <T> | backprops () "gradienti * (caratteristiche > 0)". |
statico <T estende TNumber > ReluGrad <T> | create (ambito di applicazione , gradienti di operando <T>, funzionalità di operando <T>) Metodo factory per creare una classe che racchiude una nuova operazione ReluGrad. |
Metodi ereditati
Costanti
Stringa finale statica pubblica OP_NAME
Il nome di questa operazione, come noto al motore principale di TensorFlow
Metodi pubblici
Uscita pubblica <T> asOutput ()
Restituisce l'handle simbolico del tensore.
Gli input per le operazioni TensorFlow sono output di un'altra operazione TensorFlow. Questo metodo viene utilizzato per ottenere un handle simbolico che rappresenta il calcolo dell'input.
creazione pubblica statica ReluGrad <T> (ambito dell'ambito , gradienti di operando <T>, funzionalità di operando <T>)
Metodo factory per creare una classe che racchiude una nuova operazione ReluGrad.
Parametri
scopo | ambito attuale |
---|---|
gradienti | I gradienti retropropagati all'operazione Relu corrispondente. |
caratteristiche | Le funzionalità passate come input alla corrispondente operazione Relu, OPPURE gli output di tale operazione (entrambi funzionano in modo equivalente). |
ritorna
- una nuova istanza di ReluGrad