публичный финальный класс ResourceApplyProximalAdagrad
Обновите «*var» и «*accum» в соответствии с FOBOS со скоростью обучения Adagrad.
accum += grad grad prox_v = var - lr grad (1 / sqrt(accum)) var = знак(prox_v)/(1+lr l2) max{|prox_v|-lr l1,0}
Вложенные классы
сорт | ResourceApplyProximalAdagrad.Options | Дополнительные атрибуты для ResourceApplyProximalAdagrad |
Константы
Нить | OP_NAME | Название этой операции, известное основному движку TensorFlow. |
Публичные методы
static <T расширяет TType > ResourceApplyProximalAdagrad | |
статический ResourceApplyProximalAdagrad.Options | useLocking (логическое значение useLocking) |
Унаследованные методы
Константы
общедоступная статическая финальная строка OP_NAME
Название этой операции, известное основному движку TensorFlow.
Постоянное значение: «ResourceApplyProximalAdagrad»
Публичные методы
public static ResourceApplyProximalAdagrad create ( Область действия, Операнд <?> var, Операнд <?> accum, Операнд <T> lr, Операнд <T> l1, Операнд <T> l2, Операнд <T> grad, Опции... опции)
Фабричный метод для создания класса, обертывающего новую операцию ResourceApplyProximalAdagrad.
Параметры
объем | текущий объем |
---|---|
вар | Должно быть из переменной(). |
накапливать | Должно быть из переменной(). |
лр | Коэффициент масштабирования. Должно быть скаляр. |
л1 | Регуляризация L1. Должно быть скаляр. |
л2 | Регуляризация L2. Должно быть скаляр. |
выпускник | Градиент. |
параметры | содержит значения необязательных атрибутов |
Возврат
- новый экземпляр ResourceApplyProximalAdagrad
общедоступный статический ResourceApplyProximalAdagrad.Options useLocking (логическое значение useLocking)
Параметры
использоватьLocking | Если True, обновление тензоров var и accum будет защищено блокировкой; в противном случае поведение не определено, но может вызывать меньше конфликтов. |
---|