클래스
활성화 <T는 T번호를 확장합니다> | 활성화를 위한 추상 기본 클래스 참고: 호출 메소드를 호출하기 전에 |
ELU <T는 TFloating을 확장합니다.> | 지수 선형 단위. |
지수 <T는 TFloating을 확장합니다.> | 지수 활성화 함수. |
HardSigmoid <T는 TFloating을 확장합니다.> | 하드 시그모이드 활성화. |
선형 <U는 T번호를 확장합니다.> | 선형 활성화 기능(통과). |
ReLU <T는 Tnumber를 확장합니다. > | ReLU(Rectified Linear Unit) 활성화. |
SELU <T는 TFloating을 확장합니다.> | SELU(스케일 지수 선형 단위). |
시그모이드 <T는 TFloating을 확장합니다.> | 시그모이드 활성화. |
Softmax <T는 TFloating을 확장합니다.> | Softmax는 실수 벡터를 범주형 확률 벡터로 변환합니다. |
소프트플러스 <T는 TFloating을 확장합니다> | Softplus 활성화 함수, softplus(x) = log(exp(x) + 1) . |
Softsign <T는 TFloating을 확장합니다.> | Softsign 활성화 함수, softsign(x) = x / (abs(x) + 1) . |
Swish <T는 TFloating을 확장합니다.> | Swish 활성화 기능. |
Tanh <T는 TFloating을 확장합니다.> | 쌍곡선 탄젠트 활성화 함수. |