Załaduj parametry osadzania programu ADAM z obsługą debugowania.
Operacja ładująca parametry optymalizacyjne do HBM w celu osadzenia. Musi być poprzedzony operacją ConfigureTPUEmbeddingHost, która konfiguruje poprawną konfigurację tabeli osadzania. Na przykład ta operacja służy do instalowania parametrów ładowanych z punktu kontrolnego przed wykonaniem pętli szkoleniowej.
Klasy zagnieżdżone
klasa | ZaładujTPUEmbeddingADAMParametersGradAccumDebug.Options | Opcjonalne atrybuty dla LoadTPUEmbeddingADAMParametersGradAccumDebug |
Stałe
Strunowy | OP_NAME | Nazwa tej operacji znana silnikowi rdzenia TensorFlow |
Metody publiczne
statyczne LoadTPUEmbeddingADAMParametersGradAccumDebug.Options | konfiguracja (konfiguracja ciągu) |
statyczne LoadTPUEmbeddingADAMParametersGradAccumDebug | utwórz ( Zakres zasięgu, Operand < TFloat32 > parametry, Operand < TFloat32 > momenta, Operand < TFloat32 > prędkości, Operand < TFloat32 > gradientAccumulators, Long numShards, Long shardId, Opcje... opcje) Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację LoadTPUEmbeddingADAMParametersGradAccumDebug. |
statyczne LoadTPUEmbeddingADAMParametersGradAccumDebug.Options | tableId (długi identyfikator stołu) |
statyczne LoadTPUEmbeddingADAMParametersGradAccumDebug.Options | nazwa_tabeli (ciąg znaków nazwa_tabeli) |
Metody dziedziczone
Stałe
publiczny statyczny końcowy ciąg znaków OP_NAME
Nazwa tej operacji znana silnikowi rdzenia TensorFlow
Metody publiczne
public static LoadTPUEmbeddingADAMParametersGradAccumDebug create ( Zakres zakresu, Operand < TFloat32 > parametry, Operand < TFloat32 > momenta, Operand < TFloat32 > prędkości, Operand < TFloat32 > gradientAccumulators, Long numShards, Long shardId, Opcje... opcje)
Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację LoadTPUEmbeddingADAMParametersGradAccumDebug.
Parametry
zakres | aktualny zakres |
---|---|
parametry | Wartość parametrów wykorzystywanych w algorytmie optymalizacyjnym programu ADAM. |
chwila | Wartość pędu wykorzystywana w algorytmie optymalizacji ADAM. |
prędkości | Wartość prędkości wykorzystywana w algorytmie optymalizacji ADAM. |
akumulatory gradientowe | Wartość gradient_akumulatorów wykorzystana w algorytmie optymalizacji programu ADAM. |
opcje | przenosi opcjonalne wartości atrybutów |
Zwroty
- nowa instancja LoadTPUEmbeddingADAMParametersGradAccumDebug