Zaktualizuj „*var” i „*accum” zgodnie z FOBOS z szybkością uczenia się Adagrad.
accum += grad grad prox_v = var - lr grad (1 / sqrt(accum)) var = znak(prox_v)/(1+lr l2) max{|prox_v|-lr l1,0}
Klasy zagnieżdżone
klasa | ZastosujProximalAdagrad.Options | Opcjonalne atrybuty ApplyProximalAdagrad |
Stałe
Strunowy | OP_NAME | Nazwa tej operacji znana silnikowi rdzenia TensorFlow |
Metody publiczne
Wyjście <T> | jako wyjście () Zwraca symboliczny uchwyt tensora. |
statyczny <T rozszerza TType > ApplyProximalAdagrad <T> | |
Wyjście <T> | na zewnątrz () To samo co „var”. |
statyczny ApplyProximalAdagrad.Options | useLocking (boolowski useLocking) |
Metody dziedziczone
Stałe
publiczny statyczny końcowy ciąg znaków OP_NAME
Nazwa tej operacji znana silnikowi rdzenia TensorFlow
Metody publiczne
publiczne wyjście <T> asOutput ()
Zwraca symboliczny uchwyt tensora.
Dane wejściowe operacji TensorFlow są wynikami innej operacji TensorFlow. Ta metoda służy do uzyskania symbolicznego uchwytu reprezentującego obliczenia danych wejściowych.
public static ApplyProximalAdagrad <T> utwórz ( Zakres zakresu, Operand <T> var, Operand <T> accum, Operand <T> lr, Operand <T> l1, Operand <T> l2, Operand <T> grad, Opcje.. .opcje )
Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację ApplyProximalAdagrad.
Parametry
zakres | aktualny zakres |
---|---|
odm | Powinno pochodzić ze zmiennej (). |
gromadzić | Powinno pochodzić ze zmiennej (). |
lr | Współczynnik skalowania. Musi być skalarem. |
l1 | Regularyzacja L1. Musi być skalarem. |
l2 | Regularyzacja L2. Musi być skalarem. |
absolwent | Gradient. |
opcje | przenosi opcjonalne wartości atrybutów |
Zwroty
- nową instancję ApplyProximalAdagrad
public static ApplyProximalAdagrad.Options useLocking (Boolean useLocking)
Parametry
użyjBlokowanie | Jeśli ma wartość True, aktualizacja tensorów var i accum będzie zabezpieczona blokadą; w przeciwnym razie zachowanie jest niezdefiniowane, ale może wykazywać mniejszą rywalizację. |
---|