publiczna klasa końcowa ResourceApplyAdagrad
Zaktualizuj „*var” zgodnie ze schematem adagrad.
accum += grad * grad var -= lr * grad * (1 / (sqrt(akum) + epsilon))
Klasy zagnieżdżone
klasa | ResourceApplyAdagrad.Options | Opcjonalne atrybuty dla ResourceApplyAdagrad |
Stałe
Strunowy | OP_NAME | Nazwa tej operacji znana silnikowi rdzenia TensorFlow |
Metody publiczne
statyczny <T rozszerza TType > ResourceApplyAdagrad | |
statyczne ResourceApplyAdagrad.Options | updateSlots (Boolean updateSlots) |
statyczne ResourceApplyAdagrad.Options | useLocking (boolowski useLocking) |
Metody dziedziczone
Stałe
publiczny statyczny końcowy ciąg znaków OP_NAME
Nazwa tej operacji znana silnikowi rdzenia TensorFlow
Wartość stała: „ResourceApplyAdagradV2”
Metody publiczne
public static ResourceApplyAdagrad create ( Zakres zasięgu , Operand <?> var, Operand <?> accum, Operand <T> lr, Operand <T> epsilon, Operand <T> grad, Opcje... opcje)
Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację ResourceApplyAdagrad.
Parametry
zakres | aktualny zakres |
---|---|
odm | Powinno pochodzić ze zmiennej (). |
gromadzić | Powinno pochodzić ze zmiennej (). |
lr | Współczynnik skalowania. Musi być skalarem. |
epsilon | Stały czynnik. Musi być skalarem. |
absolwent | Gradient. |
opcje | przenosi opcjonalne wartości atrybutów |
Zwroty
- nowa instancja ResourceApplyAdagrad
publiczny statyczny ResourceApplyAdagrad.Options useLocking (boolean useLocking)
Parametry
użyjBlokowanie | Jeśli `True`, aktualizacja tensorów var i accum będzie zabezpieczona blokadą; w przeciwnym razie zachowanie jest niezdefiniowane, ale może wykazywać mniejszą rywalizację. |
---|