ELU

공개 클래스 ELU

지수 선형 단위.

alpha > 0 인 지수 선형 단위(ELU)는 다음과 같습니다.

x x > 0 이면 x이고, x < 0 이면 alpha * (exp(x) - 1) .

ELU 하이퍼파라미터 alpha ELU가 음수 순 입력에 대해 포화되는 값을 제어합니다. ELU는 Vanishing Gradient 효과를 감소시킵니다.

ELU는 활성화 평균을 0에 가깝게 만드는 음수 값을 갖습니다. 0에 가까운 평균 활성화는 기울기를 자연 기울기에 더 가깝게 가져오기 때문에 더 빠른 학습을 가능하게 합니다. 인수가 작아지면 ELU는 음수 값으로 포화됩니다. 포화는 다음 레이어로 전파되는 정보와 변화를 감소시키는 작은 파생물을 의미합니다.

사용 예:

     Operand<TFloat32> input = ...;
     ELU<TFloat32> elu = new ELU<>(tf, 2.0f);
     Operand<TFloat32> result = elu.call(input);
 

공공 생성자

ELU (운영 TF)
alpha= ERROR(/#ALPHA_DEFAULT) 사용하여 새 ELU를 생성합니다.
ELU (Ops tf, 이중 알파)
새로운 ELU를 생성합니다.

공개 방법

피연산자 <T>
호출 ( 피연산자 <T> 입력)
활성화를 위한 계산 작업을 가져옵니다.

상속된 메서드

공공 생성자

공개 ELU (Ops tf)

alpha= ERROR(/#ALPHA_DEFAULT) 사용하여 새 ELU를 생성합니다.

매개변수
tf TensorFlow 작업

공개 ELU (Ops tf, 이중 알파)

새로운 ELU를 생성합니다.

매개변수
tf TensorFlow 작업
알파 스칼라, 음수 단면의 기울기. ELU가 음수 순 입력에 대해 포화되는 값을 제어합니다.

공개 방법

공개 피연산자 <T> 호출 ( 피연산자 <T> 입력)

활성화를 위한 계산 작업을 가져옵니다.

매개변수
입력 입력 텐서
보고
  • 활성화를 위한 피연산자