Разреженные записи обновления в '*var' и '*accum' в соответствии с алгоритмом FOBOS.
То есть для строк, для которых у нас есть grad, мы обновляем var и accum следующим образом: $$accum += grad grad$$$$prox_v = var$$$$prox_v -= lr grad (1 / sqrt(accum))$$$$var = sign(prox_v)/(1+lrl2) max{|prox_v|-lrl1,0}$$
Вложенные классы
сорт | SparseApplyProximalAdagrad.Options | Необязательные атрибуты для SparseApplyProximalAdagrad |
Константы
Нить | OP_NAME | Название этой операции, известное основному движку TensorFlow. |
Публичные методы
Выход <Т> | какВывод () Возвращает символический дескриптор тензора. |
static <T расширяет TType > SparseApplyProximalAdagrad <T> | |
Выход <Т> | вне () То же, что «вар». |
статический SparseApplyProximalAdagrad.Options | useLocking (логическое значение useLocking) |
Унаследованные методы
Константы
общедоступная статическая финальная строка OP_NAME
Название этой операции, известное основному движку TensorFlow.
Публичные методы
публичный вывод <T> asOutput ()
Возвращает символический дескриптор тензора.
Входные данные для операций TensorFlow являются выходными данными другой операции TensorFlow. Этот метод используется для получения символического дескриптора, который представляет собой вычисление входных данных.
public static SparseApplyProximalAdagrad <T> create ( Область действия, Операнд <T> var, Операнд <T> accum, Операнд <T> lr, Операнд <T> l1, Операнд <T> l2, Операнд <T> град, Операнд <? расширяет TNumber > индексы, параметры... параметры)
Фабричный метод для создания класса, обертывающего новую операцию SparseApplyProximalAdagrad.
Параметры
объем | текущий объем |
---|---|
вар | Должно быть из переменной(). |
накапливать | Должно быть из переменной(). |
лр | Скорость обучения. Должно быть скаляр. |
л1 | Регуляризация L1. Должно быть скаляр. |
л2 | Регуляризация L2. Должно быть скаляр. |
выпускник | Градиент. |
индексы | Вектор индексов в первом измерении var и accum. |
параметры | содержит значения необязательных атрибутов |
Возврат
- новый экземпляр SparseApplyProximalAdagrad
public static SparseApplyProximalAdagrad.Options useLocking (логическое значение useLocking)
Параметры
использоватьLocking | Если True, обновление тензоров var и accum будет защищено блокировкой; в противном случае поведение не определено, но может вызывать меньше конфликтов. |
---|
Редкие записи обновления в '*var' и '*accum' в соответствии с алгоритмом FOBOS.
То есть для строк, для которых у нас есть grad, мы обновляем var и accum следующим образом: $$accum += grad grad$$$$prox_v = var$$$$prox_v -= lr grad (1 / sqrt(accum))$$$$var = sign(prox_v)/(1+lrl2) max{|prox_v|-lrl1,0}$$
Вложенные классы
сорт | SparseApplyProximalAdagrad.Options | Необязательные атрибуты для SparseApplyProximalAdagrad |
Константы
Нить | OP_NAME | Название этой операции, известное основному движку TensorFlow. |
Публичные методы
Выход <Т> | какВывод () Возвращает символический дескриптор тензора. |
static <T расширяет TType > SparseApplyProximalAdagrad <T> | |
Выход <Т> | вне () То же, что «вар». |
статический SparseApplyProximalAdagrad.Options | useLocking (логическое значение useLocking) |
Унаследованные методы
Константы
общедоступная статическая финальная строка OP_NAME
Название этой операции, известное основному движку TensorFlow.
Публичные методы
публичный вывод <T> asOutput ()
Возвращает символический дескриптор тензора.
Входные данные для операций TensorFlow являются выходными данными другой операции TensorFlow. Этот метод используется для получения символического дескриптора, который представляет собой вычисление входных данных.
public static SparseApplyProximalAdagrad <T> create ( Область действия, Операнд <T> var, Операнд <T> accum, Операнд <T> lr, Операнд <T> l1, Операнд <T> l2, Операнд <T> град, Операнд <? расширяет TNumber > индексы, параметры... параметры)
Фабричный метод для создания класса, обертывающего новую операцию SparseApplyProximalAdagrad.
Параметры
объем | текущий объем |
---|---|
вар | Должно быть из переменной(). |
накапливать | Должно быть из переменной(). |
лр | Скорость обучения. Должно быть скаляр. |
л1 | Регуляризация L1. Должно быть скаляр. |
л2 | Регуляризация L2. Должно быть скаляр. |
выпускник | Градиент. |
индексы | Вектор индексов в первом измерении var и accum. |
параметры | содержит значения необязательных атрибутов |
Возврат
- новый экземпляр SparseApplyProximalAdagrad
public static SparseApplyProximalAdagrad.Options useLocking (логическое значение useLocking)
Параметры
использоватьLocking | Если True, обновление тензоров var и accum будет защищено блокировкой; в противном случае поведение не определено, но может вызывать меньше конфликтов. |
---|