ReLU

ReLU kelas publik

Aktivasi Rectified Linear Unit (ReLU).

Dengan nilai default, ini mengembalikan aktivasi ReLU standar: max(x, 0) , maksimum berdasarkan elemen 0 dan tensor input.

Memodifikasi parameter default memungkinkan Anda menggunakan ambang batas bukan nol, mengubah nilai maksimal aktivasi, dan menggunakan kelipatan masukan bukan nol untuk nilai di bawah ambang batas.

Misalnya:

     Operand<TFloat32> input = tf.constant(
              new float[] {-10f, -5f, 0.0f, 5f, 10f});

     // With default parameters
     ReLU<TFloat32> relu = new ReLU<>(tf);
     Operand<TFloat32> result = relu.call(input);
     // result is [0.f,  0.f,  0.f,  5.f, 10.f]

     // With alpha = 0.5
     relu = new ReLU<>(tf, 0.5f, ReLU.MAX_VALUE_DEFAULT, ReLU.THRESHOLD_DEFAULT);
     result = relu.call(input);
     // result is [-5.f , -2.5f,  0.f ,  5.f , 10.f]

     // With maxValue = 5
     relu = new ReLU<>(tf, ReLU.ALPHA_DEFAULT, 5f, ReLU.THRESHOLD_DEFAULT);
     result = relu.call(input);
     // result is [0.f, 0.f, 0.f, 5.f, 5.f]

     // With threshold = 5
     relu = new ReLU<>(tf, ReLU.ALPHA_DEFAULT, ReLU.MAX_VALUE_DEFAULT, 5f);
     result = relu.call(input);
     // result is [-0.f, -0.f,  0.f,  0.f, 10.f]
 

Konstanta

mengambang ALPHA_DEFAULT
mengambang MAX_VALUE_DEFAULT
mengambang THRESHOLD_DEFAULT

Konstruktor Publik

ULT (Ops tf)
Membuat ReLU baru dengan alpha= ALPHA_DEFAULT , maxValue= MAX_VALUE_DEFAULT , ambang batas= THRESHOLD_DEFAULT ,
ReLU (Ops tf, float alpha, float maxValue, ambang batas float)
Membuat ReLU baru

Metode Publik

Operan <T>
panggilan ( Operan <T> masukan)
Mendapatkan operasi perhitungan untuk aktivasi.

Metode Warisan

Konstanta

float akhir statis publik ALPHA_DEFAULT

Nilai Konstan: 0,0

float akhir statis publik MAX_VALUE_DEFAULT

Nilai Konstan: NaN

float akhir statis publik THRESHOLD_DEFAULT

Nilai Konstan: 0,0

Konstruktor Publik

ReLU publik (Ops tf)

Membuat ReLU baru dengan alpha= ALPHA_DEFAULT , maxValue= MAX_VALUE_DEFAULT , ambang batas= THRESHOLD_DEFAULT ,

Parameter
tf Operasi TensorFlow

ReLU publik (Ops tf, float alpha, float maxValue, ambang batas float)

Membuat ReLU baru

Parameter
tf Operasi TensorFlow
alfa mengatur kemiringan untuk nilai yang lebih rendah dari ambang batas.
nilai maksimal menetapkan ambang batas saturasi (nilai terbesar yang akan dikembalikan fungsi).
ambang nilai ambang batas fungsi aktivasi di bawah nilai mana yang akan dikurangi atau disetel ke nol.

Metode Publik

panggilan Operan <T> publik ( masukan Operan <T>)

Mendapatkan operasi perhitungan untuk aktivasi.

Parameter
masukan tensor masukan
Kembali
  • Operan untuk aktivasi