Обновите *var по схеме adagrad.
аккум += град * град вар -= lr * град * (1 / sqrt(аккум))
Вложенные классы
сорт | ПрименитьAdagrad.Options | Дополнительные атрибуты для ApplyAdagrad |
Константы
Нить | OP_NAME | Название этой операции, известное основному движку TensorFlow. |
Публичные методы
Выход <Т> | какВывод () Возвращает символический дескриптор тензора. |
static <T расширяет TType > ApplyAdagrad <T> | |
Выход <Т> | вне () То же, что «вар». |
статический ApplyAdagrad.Options | updateSlots (логическое значение updateSlots) |
статический ApplyAdagrad.Options | useLocking (логическое значение useLocking) |
Унаследованные методы
логическое значение | равно (Объект arg0) |
последний класс<?> | получитьКласс () |
интервал | хэш-код () |
окончательная пустота | поставить в известность () |
окончательная пустота | уведомитьВсе () |
Нить | нанизывать () |
окончательная пустота | подождать (длинный arg0, int arg1) |
окончательная пустота | подождите (длинный arg0) |
окончательная пустота | ждать () |
абстрактная среда выполнения | окружение () Верните среду выполнения, в которой была создана эта операция. |
абстрактная операция |
Константы
общедоступная статическая финальная строка OP_NAME
Название этой операции, известное основному движку TensorFlow.
Публичные методы
публичный вывод <T> asOutput ()
Возвращает символический дескриптор тензора.
Входные данные для операций TensorFlow являются выходными данными другой операции TensorFlow. Этот метод используется для получения символического дескриптора, который представляет собой вычисление входных данных.
public static ApplyAdagrad <T> create ( Область действия, Операнд <T> var, Операнд <T> accum, Операнд <T> lr, Операнд <T> grad, Параметры... параметры)
Фабричный метод для создания класса, обертывающего новую операцию ApplyAdagrad.
Параметры
объем | текущий объем |
---|---|
вар | Должно быть из переменной(). |
накапливать | Должно быть из переменной(). |
лр | Коэффициент масштабирования. Должно быть скаляр. |
выпускник | Градиент. |
параметры | содержит значения необязательных атрибутов |
Возврат
- новый экземпляр ApplyAdagrad
public static ApplyAdagrad.Options useLocking (логическое значение useLocking)
Параметры
использоватьLocking | Если `True`, обновление тензоров var и accum будет защищено блокировкой; в противном случае поведение не определено, но может вызывать меньше конфликтов. |
---|