KLDivergence

کلاس عمومی KLDvergence

افت واگرایی Kullback-Leibler را بین برچسب ها و پیش بینی ها محاسبه می کند.

loss = labels * log(labels / predictions)

استفاده مستقل:

    Operand<TFloat32> labels =
        tf.constant(new float[][] { {0.f, 1.f}, {0.f, 0.f} });
    Operand<TFloat32> predictions =
        tf.constant(new float[][] { {0.6f, 0.4f}, {0.4f, 0.6f} });
    KLDivergence kld = new KLDivergence(tf);
    Operand<TFloat32> result = kld.call(labels, predictions);
    // produces 0.458
 

تماس با وزن نمونه:

    Operand<TFloat32> sampleWeight = tf.constant(new float[] {0.8f, 0.2f});
    Operand<TFloat32> result = kld.call(labels, predictions, sampleWeight);
    // produces 0.366f
 

با استفاده از نوع کاهش SUM :

    KLDivergence kld = new KLDivergence(tf, Reduction.SUM);
    Operand<TFloat32> result = kld.call(labels, predictions);
    // produces 0.916f
 

استفاده از نوع کاهش NONE :

    KLDivergence kld = new KLDivergence(tf, Reduction.NONE);
    Operand<TFloat32> result = kld.call(labels, predictions);
    // produces [0.916f, -3.08e-06f]
 

همچنین ببینید

فیلدهای ارثی

سازندگان عمومی

KLDvergence (Ops tf)
با استفاده از getSimpleName() به عنوان نام ضرر و کاهش ضرر REDUCTION_DEFAULT ، یک ضرر واگرایی Kullback Leibler ایجاد می کند.
KLDvergence (Ops tf، کاهش کاهش)
با استفاده از getSimpleName() به عنوان نام ضرر یک Kullback Leibler Divergence Loss ایجاد می کند.
KLDvergence (Ops tf، نام رشته، کاهش کاهش)
یک ضرر واگرایی Kullback Leibler ایجاد می کند

روش های عمومی

<T TNumber > عملوند <T> را گسترش می دهد
فراخوانی ( عملوند <? TNumber > برچسب‌ها را گسترش می‌دهد، پیش‌بینی‌های عملوند <T>، نمونه وزن‌های عملوند <T>)
یک عملوند تولید می کند که ضرر را محاسبه می کند.

روش های ارثی

سازندگان عمومی

عمومی KLDvergence (Ops tf)

با استفاده از getSimpleName() به عنوان نام ضرر و کاهش ضرر REDUCTION_DEFAULT ، یک ضرر واگرایی Kullback Leibler ایجاد می کند.

پارامترها
tf TensorFlow Ops

همگرایی عمومی KLD (Ops tf، کاهش کاهش)

با استفاده از getSimpleName() به عنوان نام ضرر یک Kullback Leibler Divergence Loss ایجاد می کند.

پارامترها
tf TensorFlow Ops
کاهش نوع کاهش برای اعمال زیان.

عمومی KLDvergence (Ops tf، نام رشته، کاهش کاهش)

یک ضرر واگرایی Kullback Leibler ایجاد می کند

پارامترها
tf TensorFlow Ops
نام نام باخت
کاهش نوع کاهش برای اعمال زیان.

روش های عمومی

فراخوان عمومی Operand <T> ( Operand <? TNumber > برچسب ها را گسترش می دهد، پیش بینی های Operand <T>، Operand <T> sampleWeights)

یک عملوند تولید می کند که ضرر را محاسبه می کند.

پارامترها
برچسب ها ارزش ها یا برچسب های حقیقت
پیش بینی ها پیش بینی ها
وزن های نمونه نمونه اختیاری Weights به عنوان ضریب ضرر عمل می کند. اگر یک اسکالر ارائه شود، ضرر به سادگی با مقدار داده شده مقیاس می شود. اگر SampleWeights یک تانسور با اندازه [batch_size] باشد، آنگاه تلفات کل برای هر نمونه از دسته توسط عنصر مربوطه در بردار SampleWeights مجدداً مقیاس می‌شود. اگر شکل SampleWeights [batch_size, d0, .. dN-1] باشد (یا می تواند به این شکل پخش شود)، آنگاه هر عنصر از دست دادن پیش بینی با مقدار مربوط به SampleWeights مقیاس می شود. (توجه به dN-1: تمام توابع تلفات 1 بعد کاهش می یابد، معمولاً محور =-1.)
برمی گرداند
  • از دست دادن