Các lớp học
Kích hoạt <T mở rộng TNumber > | Lớp cơ sở trừu tượng cho Kích hoạt Lưu ý: Thuộc tính |
ELU <T mở rộng TFloating > | Đơn vị tuyến tính hàm mũ. |
Hàm mũ <T mở rộng TFloating > | Hàm kích hoạt theo cấp số nhân. |
HardSigmoid <T mở rộng TFloating > | Kích hoạt sigmoid cứng. |
Tuyến tính <U mở rộng TNumber > | Hàm kích hoạt tuyến tính (truyền qua). |
ReLU <T mở rộng TNumber > | Kích hoạt Đơn vị Tuyến tính Chỉnh lưu (ReLU). |
SELU <T mở rộng TFloating > | Đơn vị tuyến tính hàm mũ theo tỷ lệ (SELU). |
Sigmoid <T mở rộng TFloating > | Kích hoạt sigmoid. |
Softmax <T mở rộng TFloating > | Softmax chuyển đổi một vectơ thực thành một vectơ có xác suất phân loại. |
Softplus <T mở rộng TFloating > | Hàm kích hoạt Softplus, softplus(x) = log(exp(x) + 1) . |
Softsign <T mở rộng TFloating > | Hàm kích hoạt softsign, softsign(x) = x / (abs(x) + 1) . |
Swish <T mở rộng TFloating > | Chức năng kích hoạt Swish. |
Tính <T kéo dài TFloating > | Hàm kích hoạt tiếp tuyến hyperbol. |