공개 수업 Adamax
Adamax 알고리즘을 구현하는 최적화 프로그램입니다.
이는 무한대 표준을 기반으로 한 아담의 변형입니다. 기본 매개변수는 문서에 제공된 매개변수를 따릅니다. Adamax는 때때로 adam보다 우수하며, 특히 임베딩이 있는 모델에서는 더욱 그렇습니다.
또한보십시오
상수
뜨다 | BETA_ONE_DEFAULT | |
뜨다 | BETA_TWO_DEFAULT | |
뜨다 | EPSILON_DEFAULT | |
끈 | FIRST_MOMENT | |
뜨다 | LEARNING_RATE_DEFAULT | |
끈 | SECOND_MOMENT |
상속된 상수
공공 생성자
공개 방법
끈 | getOptimizerName () 최적화 프로그램의 이름을 가져옵니다. |
상속된 메서드
상수
공개 정적 최종 부동 소수점 BETA_ONE_DEFAULT
상수값: 0.9
공개 정적 최종 부동 소수점 BETA_TWO_DEFAULT
상수값: 0.999
공개 정적 최종 부동 EPSILON_DEFAULT
상수값: 1.0E-7
공개 정적 최종 문자열 FIRST_MOMENT
상수값: "m"
공개 정적 최종 부동 소수점 LEARNING_RATE_DEFAULT
상수값: 0.001
공개 정적 최종 문자열 SECOND_MOMENT
상수 값: "v"
공공 생성자
public Adamax ( 그래프 그래프, 문자열 이름)
Adamax 알고리즘을 구현하는 Optimizer를 생성합니다.
매개변수
그래프 | TensorFlow 그래프 |
---|---|
이름 | 작업 이름 그라디언트를 적용할 때 생성됩니다. 기본값은 "Adamax"입니다. |
공개 Adamax ( 그래프 그래프, float learningRate)
Adamax 알고리즘을 구현하는 Optimizer를 생성합니다.
매개변수
그래프 | TensorFlow 그래프 |
---|---|
학습률 | 학습률입니다. |
public Adamax ( 그래프 그래프, 문자열 이름, float learningRate)
Adamax 알고리즘을 구현하는 Optimizer를 생성합니다.
매개변수
그래프 | TensorFlow 그래프 |
---|---|
이름 | 작업 이름 그라디언트를 적용할 때 생성됩니다. 기본값은 "Adamax"입니다. |
학습률 | 학습률입니다. |
공개 Adamax ( 그래프 그래프 , float learningRate, float betaOne, float betaTwo, float epsilon)
Adamax 알고리즘을 구현하는 Optimizer를 생성합니다.
매개변수
그래프 | TensorFlow 그래프 |
---|---|
학습률 | 학습률입니다. |
베타원 | 첫 번째 순간 추정치에 대한 지수적 감쇠율입니다. |
베타2 | 지수 가중 무한대 노름에 대한 지수 감쇠율입니다. |
엡실론 | 수치적 안정성을 위한 작은 상수입니다. |
공개 Adamax ( 그래프 그래프, 문자열 이름, float learningRate, float betaOne, float betaTwo, float epsilon)
Adamax 알고리즘을 구현하는 Optimizer를 생성합니다.
매개변수
그래프 | TensorFlow 그래프 |
---|---|
이름 | 작업 이름 그라디언트를 적용할 때 생성됩니다. 기본값은 "Adamax"입니다. |
학습률 | 학습률입니다. |
베타원 | 첫 번째 순간 추정치에 대한 지수적 감쇠율입니다. |
베타2 | 지수 가중 무한대 노름에 대한 지수 감쇠율입니다. |
엡실론 | 수치적 안정성을 위한 작은 상수입니다. |
공개 방법
공개 문자열 getOptimizerName ()
최적화 프로그램의 이름을 가져옵니다.
보고
- 최적화 프로그램 이름입니다.