パブリック最終クラスLoadTPUEmbeddingFTRLParametersGradAccumDebug
デバッグサポートを使用して FTRL 埋め込みパラメータをロードします。
埋め込みのために最適化パラメーターを HBM にロードする操作。正しい埋め込みテーブル構成を設定する ConfigureTPUEmbeddingHost オペレーションを前に置く必要があります。たとえば、この操作は、トレーニング ループが実行される前にチェックポイントからロードされるパラメーターをインストールするために使用されます。
ネストされたクラス
クラス | LoadTPUEmbeddingFTRLParametersGradAccumDebug.Options | LoadTPUEmbeddingFTRLParametersGradAccumDebug のオプション属性 |
定数
弦 | OP_NAME | TensorFlow コア エンジンによって認識される、この演算の名前 |
パブリックメソッド
継承されたメソッド
定数
パブリック静的最終文字列OP_NAME
TensorFlow コア エンジンによって認識される、この演算の名前
定数値: "LoadTPUEmbeddingFTRLParametersGradAccumDebug"
パブリックメソッド
public static LoadTPUEmbeddingFTRLParametersGradAccumDebug create (スコープスコープ、オペランド<TFloat32>パラメータ、オペランド<TFloat32>アキュムレータ、オペランド<TFloat32>線形、オペランド<TFloat32> gradientAccumulators、Long numShards、Long shardId、 Options...オプション)
新しい LoadTPUEmbeddingFTRLParametersGradAccumDebug オペレーションをラップするクラスを作成するファクトリ メソッド。
パラメーター
範囲 | 現在のスコープ |
---|---|
パラメーター | FTRL 最適化アルゴリズムで使用されるパラメーターの値。 |
アキュムレータ | FTRL 最適化アルゴリズムで使用されるアキュムレータの値。 |
リニア | FTRL 最適化アルゴリズムで使用される線形の値。 |
勾配アキュムレータ | FTRL 最適化アルゴリズムで使用される gradient_accumulators の値。 |
オプション | オプションの属性値を持ちます |
戻り値
- LoadTPUEmbeddingFTRLParametersGradAccumDebug の新しいインスタンス