Rzadkie wpisy aktualizacji w '*var' i '*accum' zgodnie z algorytmem FOBOS.
Oznacza to, że dla wierszy, dla których mamy grad, aktualizujemy var i accum w następujący sposób: accum += grad grad prox_v = var prox_v -= lr grad (1 / sqrt(accum)) var = znak(prox_v)/(1+lr l2 ) max{|prox_v|-lr l1,0}
Klasy zagnieżdżone
klasa | ResourceSparseApplyProximalAdagrad.Options | Opcjonalne atrybuty dla ResourceSparseApplyProximalAdagrad |
Stałe
Strunowy | OP_NAME | Nazwa tej operacji znana silnikowi rdzenia TensorFlow |
Metody publiczne
static <T rozszerza TType > ResourceSparseApplyProximalAdagrad | |
statyczny ResourceSparseApplyProximalAdagrad.Options | useLocking (boolowski useLocking) |
Metody dziedziczone
Stałe
publiczny statyczny końcowy ciąg znaków OP_NAME
Nazwa tej operacji znana silnikowi rdzenia TensorFlow
Metody publiczne
public static ResourceSparseApplyProximalAdagrad create ( Zakres zakresu, Operand <?> var, Operand <?> accum, Operand <T> lr, Operand <T> l1, Operand <T> l2, Operand <T> grad, Operand <? rozszerza TNumber > indeksy, opcje... opcje)
Metoda fabryczna służąca do tworzenia klasy opakowującej nową operację ResourceSparseApplyProximalAdagrad.
Parametry
zakres | aktualny zakres |
---|---|
odm | Powinno pochodzić ze zmiennej (). |
gromadzić | Powinno pochodzić ze zmiennej (). |
lr | Szybkość uczenia się. Musi być skalarem. |
l1 | Regularyzacja L1. Musi być skalarem. |
l2 | Regularyzacja L2. Musi być skalarem. |
absolwent | Gradient. |
indeksy | Wektor indeksów do pierwszego wymiaru var i accum. |
opcje | przenosi opcjonalne wartości atrybutów |
Zwroty
- nowa instancja ResourceSparseApplyProximalAdagrad
publiczny statyczny ResourceSparseApplyProximalAdagrad.Options useLocking (boolean useLocking)
Parametry
użyjBlokowanie | Jeśli ma wartość True, aktualizacja tensorów var i accum będzie zabezpieczona blokadą; w przeciwnym razie zachowanie jest niezdefiniowane, ale może wykazywać mniejszą rywalizację. |
---|