ELU

ELU kelas publik

Satuan linier eksponensial.

Satuan linier eksponensial (ELU) dengan alpha > 0 adalah:

x jika x > 0 dan alpha * (exp(x) - 1) jika x < 0 .

Hyperparameter alpha ELU mengontrol nilai jenuh ELU untuk input bersih negatif. ELU mengurangi efek gradien hilang.

ELU memiliki nilai negatif yang mendorong rata-rata aktivasi mendekati nol. Aktivasi rata-rata yang mendekati nol memungkinkan pembelajaran lebih cepat karena membawa gradien lebih dekat ke gradien alami. ELU jenuh ke nilai negatif ketika argumennya semakin kecil. Saturasi berarti turunan kecil yang mengurangi variasi dan informasi yang disebarkan ke lapisan berikutnya.

Contoh Penggunaan:

     Operand<TFloat32> input = ...;
     ELU<TFloat32> elu = new ELU<>(tf, 2.0f);
     Operand<TFloat32> result = elu.call(input);
 

Konstruktor Publik

ELU (Operasi tf)
Membuat ELU baru dengan alpha= ERROR(/#ALPHA_DEFAULT) .
ELU (Ops tf, alfa ganda)
Membuat ELU baru

Metode Publik

Operan <T>
panggilan ( Operan <T> masukan)
Mendapatkan operasi perhitungan untuk aktivasi.

Metode Warisan

Konstruktor Publik

ELU publik (Ops tf)

Membuat ELU baru dengan alpha= ERROR(/#ALPHA_DEFAULT) .

Parameter
tf Operasi TensorFlow

ELU publik (Ops tf, alfa ganda)

Membuat ELU baru

Parameter
tf Operasi TensorFlow
alfa Skalar, kemiringan bagian negatif. Ini mengontrol nilai jenuh ELU untuk input bersih negatif.

Metode Publik

panggilan Operan publik <T> ( masukan Operan <T>)

Mendapatkan operasi perhitungan untuk aktivasi.

Parameter
masukan tensor masukan
Kembali
  • Operan untuk aktivasi