Pobierz parametry osadzania SGD z obsługą debugowania.
Operacja pobierająca parametry optymalizacyjne z osadzania w pamięci hosta. Musi być poprzedzony operacją ConfigureTPUEmbeddingHost, która konfiguruje poprawną konfigurację tabeli osadzania. Na przykład ta operacja służy do pobierania zaktualizowanych parametrów przed zapisaniem punktu kontrolnego.
Klasy zagnieżdżone
klasa | PobierzTPUEembeddingStochasticGradientDescentParametersGradAccumDebug.Options | Opcjonalne atrybuty dla RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug |
Stałe
Strunowy | OP_NAME | Nazwa tej operacji znana silnikowi rdzenia TensorFlow |
Metody publiczne
pobieranie statyczneTPUEembeddingStochasticGradientDescentParametersGradAccumDebug.Options | konfiguracja (konfiguracja ciągu) |
pobieranie statyczneTPUEOsadzanieStochastycznyGradientDescentParametryGradAccumDebug | |
Dane wyjściowe <TFloat32> | akumulatory gradientowe () Parametr gradient_accumulators zaktualizowany przez algorytm optymalizacji Adadelta. |
Dane wyjściowe <TFloat32> | parametry () Parametry parametrów aktualizowane przez algorytm optymalizacji stochastycznego gradientu opadania. |
pobieranie statyczneTPUEembeddingStochasticGradientDescentParametersGradAccumDebug.Options | tableId (długi identyfikator stołu) |
pobieranie statyczneTPUEembeddingStochasticGradientDescentParametersGradAccumDebug.Options | nazwa_tabeli (ciąg znaków nazwa_tabeli) |
Metody dziedziczone
Stałe
publiczny statyczny końcowy ciąg znaków OP_NAME
Nazwa tej operacji znana silnikowi rdzenia TensorFlow
Metody publiczne
public static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.Options config (konfiguracja ciągu)
public static RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug create ( zakres zakresu , Long numShards, Long shardId, Opcje... opcje)
Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug.
Parametry
zakres | aktualny zakres |
---|---|
opcje | przenosi opcjonalne wartości atrybutów |
Zwroty
- nowa instancja RetrieveTPUEmbeddingStochasticGradientDescentParametersGradAccumDebug
publiczne wyjście < TFloat32 > gradientAccumulators ()
Parametr gradient_accumulators zaktualizowany przez algorytm optymalizacji Adadelta.
publiczne wyjście < TFloat32 > parametry ()
Parametry parametrów aktualizowane przez algorytm optymalizacji stochastycznego gradientu opadania.