SparseApplyProximalGradientDescent

publiczna klasa końcowa SparseApplyProximalGradientDescent

Rzadka aktualizacja „*var” jako algorytmu FOBOS ze stałą szybkością uczenia się.

Oznacza to, że dla wierszy, dla których mamy grad, aktualizujemy var w następujący sposób: $$prox_v = var - alpha grad$$$$var = sign(prox_v)/(1+alphal2) max{|prox_v|-alphal1,0}$$

Klasy zagnieżdżone

klasa SparseApplyProximalGradientDescent.Opcje Opcjonalne atrybuty dla SparseApplyProximalGradientDescent

Stałe

Smyczkowy OP_NAME Nazwa tej operacji znana silnikowi rdzenia TensorFlow

Metody publiczne

Wyjście <T>
jako wyjście ()
Zwraca symboliczny uchwyt tensora.
statyczny <T rozszerza TType > SparseApplyProximalGradientDescent <T>
utwórz (Zakres zasięgu , Operand <T> var, Operand <T> alfa, Argument <T> l1, Argument <T> l2, Argument <T> grad, Argument <? rozszerza TNumber > indeksy, Opcje... opcje)
Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację SparseApplyProximalGradientDescent.
Wyjście <T>
na zewnątrz ()
To samo co „var”.
statyczny SparseApplyProximalGradientDescent.Options
useLocking (boolowski useLocking)

Metody dziedziczone

Stałe

publiczny statyczny końcowy ciąg znaków OP_NAME

Nazwa tej operacji znana silnikowi rdzenia TensorFlow

Wartość stała: „SparseApplyProximalGradientDescent”

Metody publiczne

publiczne wyjście <T> asOutput ()

Zwraca symboliczny uchwyt tensora.

Dane wejściowe operacji TensorFlow są wynikami innej operacji TensorFlow. Ta metoda służy do uzyskania symbolicznego uchwytu reprezentującego obliczenia danych wejściowych.

public static SparseApplyProximalGradientDescent <T> create (Zakres zakresu , Operand <T> var, Operand <T> alpha, Operand <T> l1, Operand <T> l2, Operand <T> grad, Operand <? rozszerza TNumber > indeksy, Opcje ... opcje)

Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację SparseApplyProximalGradientDescent.

Parametry
zakres aktualny zakres
odm Powinien pochodzić ze zmiennej ().
alfa Współczynnik skalowania. Musi być skalarem.
l1 Regularyzacja L1. Musi być skalarem.
l2 Regularyzacja L2. Musi być skalarem.
absolwent Gradient.
indeksy Wektor indeksów do pierwszego wymiaru var i accum.
opcje przenosi opcjonalne wartości atrybutów
Powroty
  • nowa instancja SparseApplyProximalGradientDescent

publiczne wyjście <T> out ()

To samo co „var”.

public static SparseApplyProximalGradientDescent.Options useLocking (boolean useLocking)

Parametry
użyjBlokowanie Jeśli True, odejmowanie będzie chronione blokadą; w przeciwnym razie zachowanie jest niezdefiniowane, ale może wykazywać mniejszą rywalizację.