Carica i parametri di incorporamento SGD.
Un'operazione che carica i parametri di ottimizzazione in HBM per l'incorporamento. Deve essere preceduto da un'operazione ConfigureTPUEmbeddingHost che imposta la corretta configurazione della tabella di incorporamento. Ad esempio, questa operazione viene utilizzata per installare i parametri caricati da un checkpoint prima dell'esecuzione di un ciclo di training.
Classi nidificate
classe | LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options | Attributi facoltativi per LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug |
Costanti
Corda | OP_NAME | Il nome di questa operazione, come noto al motore principale di TensorFlow |
Metodi pubblici
carico staticoTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options | configurazione (configurazione stringa) |
carico staticoTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug | |
carico staticoTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options | tableId (Tabella lunga) |
carico staticoTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options | tableName (Stringa tableName) |
Metodi ereditati
Costanti
Stringa finale statica pubblica OP_NAME
Il nome di questa operazione, come noto al motore principale di TensorFlow
Metodi pubblici
configurazione pubblica statica LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options (configurazione stringa)
public static LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug create ( ambito ambito , parametri Operando < TFloat32 >, Operando < TFloat32 > gradientAccumulators, Long numShards, Long shardId, Opzioni... opzioni)
Metodo factory per creare una classe che racchiude una nuova operazione LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.
Parametri
scopo | ambito attuale |
---|---|
parametri | Valore dei parametri utilizzati nell'algoritmo di ottimizzazione della discesa del gradiente stocastico. |
gradientAccumulatori | Valore di gradient_accumulators utilizzato nell'algoritmo di ottimizzazione Adadelta. |
opzioni | trasporta valori di attributi opzionali |
ritorna
- una nuova istanza di LoadTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug