Zaktualizuj „*var” zgodnie z algorytmem AdaMax.
m_t <- beta1 * m_{t-1} + (1 - beta1) * g v_t <- max(beta2 * v_{t-1}, abs(g)) zmienna <- zmienna - współczynnik_uczenia się / (1 - beta1^ t) * m_t / (v_t + epsilon)
Klasy zagnieżdżone
klasa | ZastosujAdaMax.Opcje | Opcjonalne atrybuty ApplyAdaMax |
Stałe
Strunowy | OP_NAME | Nazwa tej operacji znana silnikowi rdzenia TensorFlow |
Metody publiczne
Wyjście <T> | jako wyjście () Zwraca symboliczny uchwyt tensora. |
statyczny <T rozszerza TType > ApplyAdaMax <T> | |
Wyjście <T> | na zewnątrz () To samo co „var”. |
statyczne ApplyAdaMax.Options | useLocking (boolowski useLocking) |
Metody dziedziczone
Stałe
publiczny statyczny końcowy ciąg znaków OP_NAME
Nazwa tej operacji znana silnikowi rdzenia TensorFlow
Metody publiczne
publiczne wyjście <T> asOutput ()
Zwraca symboliczny uchwyt tensora.
Dane wejściowe operacji TensorFlow są wynikami innej operacji TensorFlow. Ta metoda służy do uzyskania symbolicznego uchwytu reprezentującego obliczenia danych wejściowych.
public static ApplyAdaMax <T> create ( Zakres zakresu, Operand <T> var, Operand <T> m, Operand <T> v, Operand <T> beta1Power, Operand <T> lr, Operand <T> beta1, Argument <T > beta2, Operand <T> epsilon, Operand <T> grad, Opcje... opcje)
Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację ApplyAdaMax.
Parametry
zakres | aktualny zakres |
---|---|
odm | Powinno pochodzić ze zmiennej (). |
M | Powinno pochodzić ze zmiennej (). |
w | Powinno pochodzić ze zmiennej (). |
beta1Moc | Musi być skalarem. |
lr | Współczynnik skalowania. Musi być skalarem. |
beta1 | Czynnik pędu. Musi być skalarem. |
beta2 | Czynnik pędu. Musi być skalarem. |
epsilon | Termin grzbietowy. Musi być skalarem. |
absolwent | Gradient. |
opcje | przenosi opcjonalne wartości atrybutów |
Zwroty
- nowa instancja ApplyAdaMax
public static ApplyAdaMax.Options useLocking (Boolean useLocking)
Parametry
użyjBlokowanie | Jeśli `True`, aktualizacja tensorów var, m i v będzie chroniona blokadą; w przeciwnym razie zachowanie jest niezdefiniowane, ale może wykazywać mniejszą rywalizację. |
---|