Zaktualizuj „*var” zgodnie ze schematem adagrad.
accum += grad * grad var -= lr * grad * (1 / sqrt(accum))
Klasy zagnieżdżone
klasa | ZastosujAdagrad.Opcje | Opcjonalne atrybuty ApplyAdagrad |
Stałe
Strunowy | OP_NAME | Nazwa tej operacji znana silnikowi rdzenia TensorFlow |
Metody publiczne
Wyjście <T> | jako wyjście () Zwraca symboliczny uchwyt tensora. |
statyczny <T rozszerza TType > ApplyAdagrad <T> | |
Wyjście <T> | na zewnątrz () To samo co „var”. |
statyczny ApplyAdagrad.Options | updateSlots (Boolean updateSlots) |
statyczny ApplyAdagrad.Options | useLocking (boolowski useLocking) |
Metody dziedziczone
wartość logiczna | równa się (Obiekt arg0) |
ostatnia klasa<?> | pobierzKlasę () |
wew | hashCode () |
ostateczna pustka | powiadomić () |
ostateczna pustka | powiadom wszystkich () |
Strunowy | doString () |
ostateczna pustka | czekaj (długi arg0, int arg1) |
ostateczna pustka | czekaj (długi arg0) |
ostateczna pustka | Czekać () |
abstrakcyjne środowisko wykonania | środowisko () Zwróć środowisko wykonawcze, w którym utworzono tę operację. |
abstrakcyjna operacja |
streszczenie Wyjście <T> | jako wyjście () Zwraca symboliczny uchwyt tensora. |
streszczenie T | asTensor () Zwraca tensor tego operandu. |
abstrakcyjny kształt | |
Klasa abstrakcyjna<T> | typ () Zwraca typ tensora tego operandu |
Stałe
publiczny statyczny końcowy ciąg znaków OP_NAME
Nazwa tej operacji znana silnikowi rdzenia TensorFlow
Metody publiczne
publiczne wyjście <T> asOutput ()
Zwraca symboliczny uchwyt tensora.
Dane wejściowe operacji TensorFlow są wynikami innej operacji TensorFlow. Ta metoda służy do uzyskania symbolicznego uchwytu reprezentującego obliczenia danych wejściowych.
public static ApplyAdagrad <T> create ( Zakres zakresu, Operand <T> var, Operand <T> accum, Operand <T> lr, Operand <T> grad, Opcje... opcje)
Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację ApplyAdagrad.
Parametry
zakres | aktualny zakres |
---|---|
odm | Powinno pochodzić ze zmiennej (). |
gromadzić | Powinno pochodzić ze zmiennej (). |
lr | Współczynnik skalowania. Musi być skalarem. |
absolwent | Gradient. |
opcje | przenosi opcjonalne wartości atrybutów |
Zwroty
- nowa instancja ApplyAdagrad
public static ApplyAdagrad.Options useLocking (Boolean useLocking)
Parametry
użyjBlokowanie | Jeśli `True`, aktualizacja tensorów var i accum będzie zabezpieczona blokadą; w przeciwnym razie zachowanie jest niezdefiniowane, ale może wykazywać mniejszą rywalizację. |
---|