Zaktualizuj „*var” zgodnie ze schematem adadelta.
accum = rho() * accum + (1 - rho()) * grad.square(); aktualizacja = (update_accum + epsilon).sqrt() * (accum + epsilon()).rsqrt() * grad; update_accum = rho() * update_accum + (1 - rho()) * update.square(); var –= aktualizacja;
Klasy zagnieżdżone
klasa | ZastosujAdadelta.Opcje | Opcjonalne atrybuty ApplyAdadelta |
Stałe
Strunowy | OP_NAME | Nazwa tej operacji znana silnikowi rdzenia TensorFlow |
Metody publiczne
Wyjście <T> | jako wyjście () Zwraca symboliczny uchwyt tensora. |
statyczny <T rozszerza TType > ApplyAdadelta <T> | utwórz ( Zakres zasięgu , Operand <T> var, Operand <T> accum, Operand <T> accumUpdate, Operand <T> lr, Operand <T> rho, Operand <T> epsilon, Operand <T> grad, Opcje.. .opcje ) Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację ApplyAdadelta. |
Wyjście <T> | na zewnątrz () To samo co „var”. |
statyczny ApplyAdadelta.Options | useLocking (boolowski useLocking) |
Metody dziedziczone
Stałe
publiczny statyczny końcowy ciąg znaków OP_NAME
Nazwa tej operacji znana silnikowi rdzenia TensorFlow
Metody publiczne
publiczne wyjście <T> asOutput ()
Zwraca symboliczny uchwyt tensora.
Dane wejściowe operacji TensorFlow są wynikami innej operacji TensorFlow. Ta metoda służy do uzyskania symbolicznego uchwytu reprezentującego obliczenia danych wejściowych.
public static ApplyAdadelta <T> create ( Zakres zasięgu , Operand <T> var, Operand <T> accum, Operand <T> accumUpdate, Operand <T> lr, Operand <T> rho, Operand <T> epsilon, Operand <T > grad, Opcje... opcje)
Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację ApplyAdadelta.
Parametry
zakres | aktualny zakres |
---|---|
odm | Powinno pochodzić ze zmiennej (). |
gromadzić | Powinno pochodzić ze zmiennej (). |
accumUpdate | Powinno pochodzić ze zmiennej (). |
lr | Współczynnik skalowania. Musi być skalarem. |
rho | Czynnik rozpadu. Musi być skalarem. |
epsilon | Stały czynnik. Musi być skalarem. |
absolwent | Gradient. |
opcje | przenosi opcjonalne wartości atrybutów |
Zwroty
- nowa instancja ApplyAdadelta
public static ApplyAdadelta.Options useLocking (Boolean useLocking)
Parametry
użyjBlokowanie | Jeśli True, aktualizacja tensorów var, accum i update_accum będzie chroniona blokadą; w przeciwnym razie zachowanie jest niezdefiniowane, ale może wykazywać mniejszą rywalizację. |
---|