کلاس ها
فعالسازی <T تعداد TNumber را گسترش میدهد | کلاس پایه انتزاعی برای Activations توجه: ویژگی |
ELU <T TFloating > را گسترش می دهد | واحد خطی نمایی |
نمایی <T TFloating > را گسترش می دهد | تابع فعال سازی نمایی |
HardSigmoid <T TFloating > را گسترش می دهد | فعال سازی سخت سیگموئید |
خطی <U گسترش TNumber > | تابع فعال سازی خطی (عبور). |
ReLU <T TNumber > را گسترش می دهد | فعال سازی واحد خطی اصلاح شده (ReLU). |
SELU <T TFloating > را گسترش می دهد | واحد خطی نمایی مقیاس شده (SELU). |
Sigmoid <T TFloating > را گسترش می دهد | فعال سازی سیگموئید |
Softmax <T TFloating > را گسترش می دهد | سافت مکس یک بردار واقعی را به بردار احتمالات طبقه ای تبدیل می کند. |
Softplus <T TFloating > را گسترش می دهد | تابع فعال سازی Softplus، softplus(x) = log(exp(x) + 1) . |
Softsign <T TFloating را گسترش می دهد | تابع فعالسازی Softsign، softsign(x) = x / (abs(x) + 1) . |
Swish <T TFloating > را گسترش می دهد | عملکرد فعال سازی Swish. |
Tanh <T گسترش TFloating > | تابع فعال سازی مماس هایپربولیک. |