공개 최종 클래스 ResourceApplyAdam
Adam 알고리즘에 따라 '*var'를 업데이트합니다.
$$\text{lr}_t := \mathrm{learning_rate} * \sqrt{1 - \beta_2^t} / (1 - \beta_1^t)$$$$m_t := \beta_1 * m_{t-1} + (1 - \beta_1) * g$$$$v_t := \beta_2 * v_{t-1} + (1 - \beta_2) * g * g$$$$\text{variable} := \text{variable} - \text{lr}_t * m_t / (\sqrt{v_t} + \epsilon)$$
중첩 클래스
수업 | ResourceApplyAdam.Options | ResourceApplyAdam 의 선택적 속성 |
상수
끈 | OP_NAME | TensorFlow 코어 엔진에서 알려진 이 작업의 이름 |
공개 방법
static <T는 TType을 확장합니다. > ResourceApplyAdam | |
정적 ResourceApplyAdam.Options | useLocking (부울 useLocking) |
정적 ResourceApplyAdam.Options | useNesterov (부울 useNesterov) |
상속된 메서드
상수
공개 정적 최종 문자열 OP_NAME
TensorFlow 코어 엔진에서 알려진 이 작업의 이름
상수 값: "ResourceApplyAdam"
공개 방법
public static ResourceApplyAdam create ( Scope 범위, Operand <?> var, Operand <?> m, Operand <?> v, Operand <T> beta1Power, Operand <T> beta2Power, Operand <T> lr, Operand <T> beta1, 피연산자 <T> beta2, 피연산자 <T> 엡실론, 피연산자 <T> grad, 옵션... 옵션)
새로운 ResourceApplyAdam 작업을 래핑하는 클래스를 생성하는 팩토리 메서드입니다.
매개변수
범위 | 현재 범위 |
---|---|
var | Variable()에서 가져와야 합니다. |
중 | Variable()에서 가져와야 합니다. |
다섯 | Variable()에서 가져와야 합니다. |
베타1힘 | 스칼라여야 합니다. |
베타2파워 | 스칼라여야 합니다. |
난 | 배율 인수. 스칼라여야 합니다. |
베타1 | 모멘텀 요인. 스칼라여야 합니다. |
베타2 | 모멘텀 요인. 스칼라여야 합니다. |
엡실론 | 능선 용어. 스칼라여야 합니다. |
졸업생 | 그라데이션입니다. |
옵션 | 선택적 속성 값을 전달합니다. |
보고
- ResourceApplyAdam의 새 인스턴스
공개 정적 ResourceApplyAdam.Options useLocking (부울 useLocking)
매개변수
사용잠금 | 'True'인 경우 var, m 및 v 텐서 업데이트는 잠금으로 보호됩니다. 그렇지 않으면 동작이 정의되지 않지만 경합이 덜 나타날 수 있습니다. |
---|
공개 정적 ResourceApplyAdam.Options useNesterov (부울 useNesterov)
매개변수
사용Nesterov | 'True'인 경우 네스테로프 업데이트를 사용합니다. |
---|