공개 수업 나담
NAdam 알고리즘을 구현한 Nadam Optimizer입니다.
Adam이 본질적으로 추진력을 가진 RMSprop인 것처럼 Nadam은 Nesterov 추진력을 가진 Adam입니다.
또한보십시오
상수
뜨다 | BETA_ONE_DEFAULT | |
뜨다 | BETA_TWO_DEFAULT | |
뜨다 | EPSILON_DEFAULT | |
끈 | FIRST_MOMENT | |
뜨다 | LEARNING_RATE_DEFAULT | |
끈 | 기세 | |
끈 | SECOND_MOMENT |
상속된 상수
공공 생성자
공개 방법
끈 | getOptimizerName () 최적화 프로그램의 이름을 가져옵니다. |
상속된 메서드
상수
공개 정적 최종 부동 소수점 BETA_ONE_DEFAULT
상수값: 0.9
공개 정적 최종 부동 소수점 BETA_TWO_DEFAULT
상수값: 0.999
공개 정적 최종 부동 EPSILON_DEFAULT
상수값: 1.0E-8
공개 정적 최종 문자열 FIRST_MOMENT
상수값: "m"
공개 정적 최종 부동 소수점 LEARNING_RATE_DEFAULT
상수값: 0.001
공개 정적 최종 문자열 MOMENTUM
상수 값: "운동량"
공개 정적 최종 문자열 SECOND_MOMENT
상수 값: "v"
공공 생성자
공개 나담 ( 그래프 그래프 , float learningRate, float betaOne, float betaTwo, float epsilon)
나담 옵티마이저 생성
매개변수
그래프 | TensorFlow 그래프 |
---|---|
학습률 | 학습률, 기본값은 0.001 |
베타원 | 첫 번째 순간 추정치에 대한 지수적 감쇠율입니다. 기본값은 0.9입니다. |
베타2 | 지수 가중 무한대 노름에 대한 지수 감쇠율입니다. 기본값은 0.999입니다. |
엡실론 | 수치적 안정성을 위한 작은 상수입니다. 기본값은 1e-8입니다. |
public Nadam ( 그래프 그래프, 문자열 이름, float learningRate)
나담 옵티마이저 생성
매개변수
그래프 | TensorFlow 그래프 |
---|---|
이름 | 이 옵티마이저의 이름, 기본값은 "Nadam"입니다. |
학습률 | 학습률, 기본값은 0.001 |
공개 나담 ( 그래프 그래프, 문자열 이름, float learningRate, float betaOne, float betaTwo, float epsilon)
나담 옵티마이저 생성
매개변수
그래프 | TensorFlow 그래프 |
---|---|
이름 | 이 옵티마이저의 이름, 기본값은 "Nadam"입니다. |
학습률 | 학습률, 기본값은 0.001 |
베타원 | 첫 번째 순간 추정치에 대한 지수적 감쇠율입니다. 기본값은 0.9입니다. |
베타2 | 지수 가중 무한대 노름에 대한 지수 감쇠율입니다. 기본값은 0.999입니다. |
엡실론 | 수치적 안정성을 위한 작은 상수입니다. 기본값은 1e-8입니다. |
공개 방법
공개 문자열 getOptimizerName ()
최적화 프로그램의 이름을 가져옵니다.
보고
- 최적화 프로그램 이름입니다.