ResourceApplyAdamWithAmsgrad

publiczna klasa końcowa ResourceApplyAdamWithAmsgrad

Zaktualizuj „*var” zgodnie z algorytmem Adama.

$$\text{lr}_t := \mathrm{learning_rate} * \sqrt{1 - \beta_2^t} / (1 - \beta_1^t)$$$$m_t := \beta_1 * m_{t-1} + (1 - \beta_1) * g$$$$v_t := \beta_2 * v_{t-1} + (1 - \beta_2) * g * g$$$$\hat{v}_t := max{\hat{v}_{t-1}, v_t}$$$$\text{variable} := \text{variable} - \text{lr}_t * m_t / (\sqrt{\hat{v}_t} + \epsilon)$$

Klasy zagnieżdżone

klasa ResourceApplyAdamWithAmsgrad.Options Opcjonalne atrybuty dla ResourceApplyAdamWithAmsgrad

Stałe

Smyczkowy OP_NAME Nazwa tej operacji znana silnikowi rdzenia TensorFlow

Metody publiczne

statyczny <T rozszerza TType > ResourceApplyAdamWithAmsgrad
utwórz ( Zakres zasięgu , Operand <?> var, Operand <?> m, Operand <?> v, Operand <?> vhat, Operand <T> beta1Power, Operand <T> beta2Power, Operand <T> lr, Argument <T > beta1, Argument <T> beta2, Argument <T> epsilon, Argument <T> grad, Opcje... opcje)
Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację ResourceApplyAdamWithAmsgrad.
statyczny ResourceApplyAdamWithAmsgrad.Options
useLocking (boolowski useLocking)

Metody dziedziczone

Stałe

publiczny statyczny końcowy ciąg znaków OP_NAME

Nazwa tej operacji znana silnikowi rdzenia TensorFlow

Wartość stała: „ResourceApplyAdamWithAmsgrad”

Metody publiczne

public static ResourceApplyAdamWithAmsgrad create ( Zakres zakresu , Operand <?> var, Operand <?> m, Operand <?> v, Operand <?> vhat, Operand <T> beta1Power, Operand <T> beta2Power, Operand <T> lr, Argument <T> beta1, Argument <T> beta2, Argument <T> epsilon, Argument <T> grad, Opcje... opcje)

Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację ResourceApplyAdamWithAmsgrad.

Parametry
zakres aktualny zakres
odm Powinno pochodzić ze zmiennej ().
M Powinno pochodzić ze zmiennej ().
w Powinno pochodzić ze zmiennej ().
co Powinno pochodzić ze zmiennej ().
beta1Moc Musi być skalarem.
beta2Moc Musi być skalarem.
lr Współczynnik skalowania. Musi być skalarem.
beta1 Czynnik pędu. Musi być skalarem.
beta2 Czynnik pędu. Musi być skalarem.
epsilon Termin grzbietowy. Musi być skalarem.
absolwent Gradient.
opcje przenosi opcjonalne wartości atrybutów
Powroty
  • nowa instancja ResourceApplyAdamWithAmsgrad

public static ResourceApplyAdamWithAmsgrad.Options useLocking (Boolean useLocking)

Parametry
użyjBlokowanie Jeśli `True`, aktualizacja tensorów var, m i v będzie chroniona blokadą; w przeciwnym razie zachowanie jest niezdefiniowane, ale może wykazywać mniejszą rywalizację.