KLDivergence

パブリック クラスKLDiverence

ラベルと予測の間のカルバック・ライブラー発散損失を計算します。

loss = labels * log(labels / predictions)

スタンドアロンでの使用:

    Operand<TFloat32> labels =
        tf.constant(new float[][] { {0.f, 1.f}, {0.f, 0.f} });
    Operand<TFloat32> predictions =
        tf.constant(new float[][] { {0.6f, 0.4f}, {0.4f, 0.6f} });
    KLDivergence kld = new KLDivergence(tf);
    Operand<TFloat32> result = kld.call(labels, predictions);
    // produces 0.458
 

サンプル重量を使用して呼び出します:

    Operand<TFloat32> sampleWeight = tf.constant(new float[] {0.8f, 0.2f});
    Operand<TFloat32> result = kld.call(labels, predictions, sampleWeight);
    // produces 0.366f
 

SUMリダクション タイプを使用する場合:

    KLDivergence kld = new KLDivergence(tf, Reduction.SUM);
    Operand<TFloat32> result = kld.call(labels, predictions);
    // produces 0.916f
 

NONE削減タイプを使用する場合:

    KLDivergence kld = new KLDivergence(tf, Reduction.NONE);
    Operand<TFloat32> result = kld.call(labels, predictions);
    // produces [0.916f, -3.08e-06f]
 

継承されたフィールド

パブリックコンストラクター

KLD ダイバージェンス(運用 tf)
getSimpleName()を損失名として使用し、損失削減としてREDUCTION_DEFAULTを使用して、Kullback Leibler Divergence Loss を作成します。
KLDivergence (Ops tf、削減削減)
getSimpleName()を損失名として使用して、Kullback Leibler Divergence Loss Loss を作成します。
KLDiverence (Ops tf、文字列名、 Reduction削減)
カルバック・ライブラーの発散損失を発生させます

パブリックメソッド

<T extends TNumber >オペランド<T>
call (オペランド<? extends TNumber > ラベル、オペランド<T> 予測、オペランド<T> サンプルウェイト)
損失を計算するオペランドを生成します。

継承されたメソッド

パブリックコンストラクター

パブリックKLDiverence (Ops tf)

getSimpleName()を損失名として使用し、損失削減としてREDUCTION_DEFAULTを使用して Kullback Leibler Divergence Loss を作成します。

パラメータ
TF TensorFlow オペレーション

パブリックKLDiverence (Ops tf、 Reduction削減)

getSimpleName()を損失名として使用して、Kullback Leibler Divergence Loss Loss を作成します。

パラメータ
TF TensorFlow オペレーション
削減損失に適用する減額のタイプ。

public KLDiverence (Ops tf、文字列名、 Reduction削減)

カルバック・ライブラーの発散損失を発生させます

パラメータ
TF TensorFlow オペレーション
名前喪失の名前
削減損失に適用する減額のタイプ。

パブリックメソッド

publicオペランド<T>呼び出し(オペランド<? extends TNumber > ラベル、オペランド<T> 予測、オペランド<T> サンプルウェイト)

損失を計算するオペランドを生成します。

パラメータ
ラベル真理値またはラベル
予測予測
サンプルの重みオプションのsampleWeightsは、損失の係数として機能します。スカラーが指定されている場合、損失は指定された値によって単純にスケーリングされます。 SampleWeights がサイズ [batch_size] のテンソルの場合、バッチの各サンプルの合計損失は、SampleWeights ベクトルの対応する要素によって再スケーリングされます。 SampleWeights の形状が [batch_size, d0, .. dN-1] の場合 (またはこの形状にブロードキャストできる場合)、予測の各損失要素は、SampleWeights の対応する値によってスケーリングされます。 (dN-1 に関する注意: すべての損失関数は 1 次元ずつ減少します。通常は axis=-1 です。)
返品
  • 損失