classe finale publique BlockLSTMGrad
Calcule la propagation vers l'arrière de la cellule LSTM pour toute la séquence temporelle.
Cette implémentation doit être utilisée conjointement avec BlockLSTMV2.
Constantes
Chaîne | OP_NAME | Le nom de cette opération, tel que connu par le moteur principal TensorFlow |
Méthodes publiques
Sortie <T> | bGrad () Le gradient pour w à étayer en arrière. |
statique <T étend TNumber > BlockLSTMGrad <T> | créer ( Portée de portée , Opérande < TInt64 > seqLenMax, Opérande <T> x, Opérande <T> csPrev, Opérande <T> hPrev, Opérande <T> w, Opérande <T> wci, Opérande <T> wcf, Opérande <T > wco, Opérande <T> b, Opérande <T> i, Opérande <T> cs, Opérande <T> f, Opérande <T> o, Opérande <T> ci, Opérande <T> co, Opérande <T> h , Opérande <T> csGrad, Opérande <T> hGrad, Booléen usePeephole) Méthode d'usine pour créer une classe encapsulant une nouvelle opération BlockLSTMGrad. |
Sortie <T> | csPrevGrad () Le dégradé de cs_prev à rétro-étayer. |
Sortie <T> | hPrevGrad () Le dégradé de h_prev à rétro-étayer. |
Sortie <T> | wGrad () Le gradient pour w à étayer en arrière. |
Sortie <T> | wcfGrad () Le dégradé pour que WCF soit arrière-propagé. |
Sortie <T> | wciGrad () Le dégradé pour que wci soit soutenu en arrière. |
Sortie <T> | wcoGrad () Le gradient pour que WCO soit étayé en arrière. |
Sortie <T> | xGrad () Le dégradé de x à étayer en arrière. |
Méthodes héritées
Constantes
chaîne finale statique publique OP_NAME
Le nom de cette opération, tel que connu par le moteur principal TensorFlow
Valeur constante : "BlockLSTMGradV2"
Méthodes publiques
public static BlockLSTMGrad <T> créer ( Portée de portée , Opérande < TInt64 > seqLenMax, Opérande <T> x, Opérande <T> csPrev, Opérande <T> hPrev, Opérande <T> w, Opérande <T> wci, Opérande <T > wcf, Opérande <T> wco, Opérande <T> b, Opérande <T> i, Opérande <T> cs, Opérande <T> f, Opérande <T> o, Opérande <T> ci, Opérande <T> co , Opérande <T> h, Opérande <T> csGrad, Opérande <T> hGrad, Booléen usePeephole)
Méthode d'usine pour créer une classe encapsulant une nouvelle opération BlockLSTMGrad.
Paramètres
portée | portée actuelle |
---|---|
seqLenMax | Durée maximale réellement utilisée par cette entrée. Les sorties sont complétées par des zéros au-delà de cette longueur. |
X | La séquence entrée dans le LSTM, forme (timelen, batch_size, num_inputs). |
csPrév | Valeur de l'état initial de la cellule. |
hPréc | Sortie initiale de la cellule (à utiliser pour judas). |
w | La matrice de poids. |
wci | La matrice de poids pour la connexion des judas de la porte d’entrée. |
WCF | La matrice de poids pour la connexion des judas du portail oublié. |
wco | La matrice de poids pour la connexion des judas de la porte de sortie. |
b | Le vecteur de biais. |
je | La porte d'entrée sur toute la séquence temporelle. |
cs | L'état de la cellule avant le tanh sur toute la séquence temporelle. |
F | La porte oubliée sur toute la séquence temporelle. |
o | La porte de sortie sur toute la séquence temporelle. |
ci | La cellule est entrée sur toute la séquence temporelle. |
co | La cellule après le tanh sur toute la séquence temporelle. |
h | Le vecteur h de sortie sur toute la séquence temporelle. |
csGrad | Le gradient actuel de cs. |
diplômé | Le gradient du vecteur h. |
utiliserJudas | S'il faut utiliser des poids pour judas. |
Retour
- une nouvelle instance de BlockLSTMGrad