パブリック最終クラスQuantizedMatMulWithBiasAndReluAndRequantize
バイアス加算および relu を使用して、行列 'a' と行列 'b' の量子化行列乗算を実行し、融合を再量子化します。
入力は 2 次元行列と 1D バイアス ベクトルである必要があります。そして、`a` の内部次元 (`transpose_a` が非ゼロの場合は転置後) は、`b` の外部次元 (`transpose_b` が非ゼロの場合は転置後) と一致する必要があります。次に、行列乗算結果に対してバイアス値を使用してブロードキャスト加算演算を実行します。バイアスのサイズは「b」の内寸と一致する必要があります。次に、relu アクティベーションを実行して、非負の結果を取得します。次に、再量子化操作を実行して、最終的な uint8 結果を取得します。
ネストされたクラス
クラス | QuantizedMatMulWithBiasAndReluAndRequantize.Options | QuantizedMatMulWithBiasAndReluAndRequantize のオプションの属性 |
定数
弦 | OP_NAME | TensorFlow コア エンジンによって認識される、この演算の名前 |
パブリックメソッド
static <W extends TType > QuantizedMatMulWithBiasAndReluAndRequantize <W> | create ( Scopeスコープ、オペランド<? extends TType > a、オペランド<? extends TType > b、オペランド<? extends TType >bias、オペランド< TFloat32 > minA、オペランド< TFloat32 > maxA、オペランド< TFloat32 > minB、オペランド< TFloat32 > maxB、オペランド< TFloat32 > minFreezedOutput、オペランド< TFloat32 > maxFreezedOutput、Class<W> Toutput、オプション...オプション) 新しい QuantizedMatMulWithBiasAndReluAndRequantize 操作をラップするクラスを作成するファクトリ メソッド。 |
静的QuantizedMatMulWithBiasAndReluAndRequantize.Options | inputQuantMode (文字列 inputQuantMode) |
出力< TFloat32 > | 最大出力() 最大の量子化出力値が表す浮動小数点値。 |
出力< TFloat32 > | minOut () 最小の量子化出力値が表す浮動小数点値。 |
出力<W> | 外() |
静的QuantizedMatMulWithBiasAndReluAndRequantize.Options | transposeA (ブールtransposeA) |
静的QuantizedMatMulWithBiasAndReluAndRequantize.Options | transposeB (ブールtransposeB) |
継承されたメソッド
定数
パブリック静的最終文字列OP_NAME
TensorFlow コア エンジンによって認識される、この演算の名前
定数値: "QuantizedMatMulWithBiasAndReluAndRequantize"
パブリックメソッド
public static QuantizedMatMulWithBiasAndReluAndRequantize <W> create (スコープスコープ、オペランド<? extends TType > a、オペランド<? extends TType > b、オペランド<? extends TType >bia、オペランド< TFloat32 > minA、オペランド< TFloat32 > maxA、オペランド< TFloat32 > minB、オペランド< TFloat32 > maxB、オペランド< TFloat32 > minFreezedOutput、オペランド< TFloat32 > maxFreezedOutput、Class<W> Toutput、オプション...オプション)
新しい QuantizedMatMulWithBiasAndReluAndRequantize 操作をラップするクラスを作成するファクトリ メソッド。
パラメーター
範囲 | 現在のスコープ |
---|---|
ある | 乗算される行列。 `quint8` 型の 2 次元テンソルでなければなりません。 |
b | 乗算される行列。`qint8` 型の 2 次元テンソルでなければなりません。 |
バイアス | `b` の内部次元と一致するサイズを持つ 1D バイアス テンソル (`transused_b` がゼロ以外の場合は転置後)。 |
ミナ | 量子化された最小の「a」値が表す浮動小数点値。 |
マックスA | 最大の量子化された「a」値が表す浮動小数点値。 |
minB | 量子化された最小の「b」値が表す浮動小数点値。 |
マックスB | 最大の量子化された「b」値が表す浮動小数点値。 |
minFreezedOutput | 再量子化後の最大の量子化出力値である浮動小数点値。 |
オプション | オプションの属性値を持ちます |
戻り値
- QuantizedMatMulWithBiasAndReluAndRequantize の新しいインスタンス
public static QuantizedMatMulWithBiasAndReluAndRequantize.Options inputQuantMode (String inputQuantMode)
パラメーター
入力量モード | 入力データの量子化モード。 MIN_FIRST (デフォルト) または SCALED のいずれか。 |
---|
public static QuantizedMatMulWithBiasAndReluAndRequantize.Options transposeA (ブール transposeA)
パラメーター
トランスポーズA | true の場合、「a」は乗算の前に転置されます。 |
---|
public static QuantizedMatMulWithBiasAndReluAndRequantize.Options transposeB (ブール transposeB)
パラメーター
トランスポーズB | true の場合、「b」は乗算の前に転置されます。 |
---|