Zaktualizuj „*var” zgodnie z algorytmem Adama.
$$\text{lr}_t := \mathrm{learning_rate} * \sqrt{1 - \beta_2^t} / (1 - \beta_1^t)$$$$m_t := \beta_1 * m_{t-1} + (1 - \beta_1) * g$$$$v_t := \beta_2 * v_{t-1} + (1 - \beta_2) * g * g$$$$\hat{v}_t := max{\hat{v}_{t-1}, v_t}$$$$\text{variable} := \text{variable} - \text{lr}_t * m_t / (\sqrt{\hat{v}_t} + \epsilon)$$
Klasy zagnieżdżone
klasa | ResourceApplyAdamWithAmsgrad.Options | Opcjonalne atrybuty dla ResourceApplyAdamWithAmsgrad |
Stałe
Smyczkowy | OP_NAME | Nazwa tej operacji znana silnikowi rdzenia TensorFlow |
Metody publiczne
statyczny <T rozszerza TType > ResourceApplyAdamWithAmsgrad | utwórz ( Zakres zasięgu , Operand <?> var, Operand <?> m, Operand <?> v, Operand <?> vhat, Operand <T> beta1Power, Operand <T> beta2Power, Operand <T> lr, Argument <T > beta1, Argument <T> beta2, Argument <T> epsilon, Argument <T> grad, Opcje... opcje) Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację ResourceApplyAdamWithAmsgrad. |
statyczny ResourceApplyAdamWithAmsgrad.Options | useLocking (boolowski useLocking) |
Metody dziedziczone
Stałe
publiczny statyczny końcowy ciąg znaków OP_NAME
Nazwa tej operacji znana silnikowi rdzenia TensorFlow
Metody publiczne
public static ResourceApplyAdamWithAmsgrad create ( Zakres zakresu , Operand <?> var, Operand <?> m, Operand <?> v, Operand <?> vhat, Operand <T> beta1Power, Operand <T> beta2Power, Operand <T> lr, Argument <T> beta1, Argument <T> beta2, Argument <T> epsilon, Argument <T> grad, Opcje... opcje)
Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację ResourceApplyAdamWithAmsgrad.
Parametry
zakres | aktualny zakres |
---|---|
odm | Powinno pochodzić ze zmiennej (). |
M | Powinno pochodzić ze zmiennej (). |
w | Powinno pochodzić ze zmiennej (). |
co | Powinno pochodzić ze zmiennej (). |
beta1Moc | Musi być skalarem. |
beta2Moc | Musi być skalarem. |
lr | Współczynnik skalowania. Musi być skalarem. |
beta1 | Czynnik pędu. Musi być skalarem. |
beta2 | Czynnik pędu. Musi być skalarem. |
epsilon | Termin grzbietowy. Musi być skalarem. |
absolwent | Gradient. |
opcje | przenosi opcjonalne wartości atrybutów |
Powroty
- nowa instancja ResourceApplyAdamWithAmsgrad
public static ResourceApplyAdamWithAmsgrad.Options useLocking (Boolean useLocking)
Parametry
użyjBlokowanie | Jeśli `True`, aktualizacja tensorów var, m i v będzie chroniona blokadą; w przeciwnym razie zachowanie jest niezdefiniowane, ale może wykazywać mniejszą rywalizację. |
---|