Pobierz parametry osadzania programu ADAM z obsługą debugowania.
Operacja pobierająca parametry optymalizacyjne z osadzania w pamięci hosta. Musi być poprzedzony operacją ConfigureTPUEmbeddingHost, która konfiguruje poprawną konfigurację tabeli osadzania. Na przykład ta operacja służy do pobierania zaktualizowanych parametrów przed zapisaniem punktu kontrolnego.
Klasy zagnieżdżone
klasa | PobierzTPUEmbeddingADAMParametersGradAccumDebug.Options | Opcjonalne atrybuty dla RetrieveTPUEmbeddingADAMParametersGradAccumDebug |
Stałe
Strunowy | OP_NAME | Nazwa tej operacji znana silnikowi rdzenia TensorFlow |
Metody publiczne
pobieranie statyczneTPUEmbeddingADAMParametersGradAccumDebug.Options | konfiguracja (konfiguracja ciągu) |
pobieranie statyczneTPUEembeddingADAMParametryGradAccumDebug | |
Dane wyjściowe <TFloat32> | akumulatory gradientowe () Parametr gradient_accumulators aktualizowany przez algorytm optymalizacji programu ADAM. |
Dane wyjściowe <TFloat32> | moment () Moment parametrów aktualizowany przez algorytm optymalizacji ADAM. |
Dane wyjściowe <TFloat32> | parametry () Parametry parametrów aktualizowane przez algorytm optymalizacji ADAM. |
pobieranie statyczneTPUEmbeddingADAMParametersGradAccumDebug.Options | tableId (długi identyfikator stołu) |
pobieranie statyczneTPUEmbeddingADAMParametersGradAccumDebug.Options | nazwa_tabeli (ciąg znaków nazwa_tabeli) |
Dane wyjściowe <TFloat32> | prędkości () Prędkości parametrów aktualizowane przez algorytm optymalizacji ADAM. |
Metody dziedziczone
Stałe
publiczny statyczny końcowy ciąg znaków OP_NAME
Nazwa tej operacji znana silnikowi rdzenia TensorFlow
Metody publiczne
public static RetrieveTPUEmbeddingADAMParametersGradAccumDebug create ( zakres zakresu , Long numShards, Long shardId, Opcje... opcje)
Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację RetrieveTPUEmbeddingADAMParametersGradAccumDebug.
Parametry
zakres | aktualny zakres |
---|---|
opcje | przenosi opcjonalne wartości atrybutów |
Zwroty
- nowa instancja RetrieveTPUEmbeddingADAMParametersGradAccumDebug
publiczne wyjście < TFloat32 > gradientAccumulators ()
Parametr gradient_accumulators aktualizowany przez algorytm optymalizacji programu ADAM.
publiczne wyjście < TFloat32 > moment ()
Moment parametrów aktualizowany przez algorytm optymalizacji ADAM.
publiczne wyjście < TFloat32 > parametry ()
Parametry parametrów aktualizowane przez algorytm optymalizacji ADAM.