ELU

کلاس عمومی ELU

واحد خطی نمایی

واحد خطی نمایی (ELU) با alpha > 0 برابر است با:

x اگر x > 0 و alpha * (exp(x) - 1) اگر x < 0 .

فراپارامتر alpha ELU مقداری را که یک ELU برای ورودی های خالص منفی اشباع می کند، کنترل می کند. ELU ها اثر گرادیان ناپدید شدن را کاهش می دهند.

ELU ها دارای مقادیر منفی هستند که میانگین فعال سازی ها را به صفر نزدیک می کند. فعال‌سازی‌های میانگین که نزدیک‌تر به صفر هستند، یادگیری سریع‌تری را امکان‌پذیر می‌کنند زیرا گرادیان را به گرادیان طبیعی نزدیک‌تر می‌کنند. وقتی آرگومان کوچکتر می شود، ELU ها به مقدار منفی اشباع می شوند. اشباع به معنای مشتق کوچکی است که تغییرات و اطلاعات منتشر شده به لایه بعدی را کاهش می دهد.

مثال استفاده:

     Operand<TFloat32> input = ...;
     ELU<TFloat32> elu = new ELU<>(tf, 2.0f);
     Operand<TFloat32> result = elu.call(input);
 

سازندگان عمومی

ELU (Ops tf)
یک ELU جدید با alpha= ERROR(/#ALPHA_DEFAULT) ایجاد می کند.
ELU (Ops tf، دو آلفا)
یک ELU جدید ایجاد می کند

روش های عمومی

عملوند <T>
تماس (ورودی عملوند <T>)
عملیات محاسبه برای فعال سازی را دریافت می کند.

روش های ارثی

سازندگان عمومی

ELU عمومی (Ops tf)

یک ELU جدید با alpha= ERROR(/#ALPHA_DEFAULT) ایجاد می کند.

پارامترها
tf TensorFlow Ops

ELU عمومی (Ops tf، دو آلفا)

یک ELU جدید ایجاد می کند

پارامترها
tf TensorFlow Ops
آلفا یک اسکالر، شیب بخش منفی. مقداری را که یک ELU برای ورودی های خالص منفی اشباع می کند، کنترل می کند.

روش های عمومی

فراخوان عمومی Operand <T> (ورودی Operand <T>)

عملیات محاسبه برای فعال سازی را دریافت می کند.

پارامترها
ورودی تانسور ورودی
برمی گرداند
  • عملوند برای فعال سازی