публичный финальный класс ResourceApplyAdadelta
Обновите '*var' по схеме adadelta.
accum = rho() * accum + (1 - rho()) * grad.square(); update = (update_accum + epsilon).sqrt() * (accum + epsilon()).rsqrt() * grad; update_accum = rho() * update_accum + (1 - rho()) * update.square(); вар -= обновление;
Вложенные классы
сорт | ResourceApplyAdadelta.Options | Необязательные атрибуты для ResourceApplyAdadelta |
Константы
Нить | OP_NAME | Название этой операции, известное основному движку TensorFlow. |
Публичные методы
static <T расширяет TType > ResourceApplyAdadelta | |
статический ResourceApplyAdadelta.Options | useLocking (логическое значение useLocking) |
Унаследованные методы
Константы
общедоступная статическая финальная строка OP_NAME
Название этой операции, известное основному движку TensorFlow.
Постоянное значение: «ResourceApplyAdadelta».
Публичные методы
public static ResourceApplyAdadelta create ( Область действия, Операнд <?> var, Операнд <?> accum, Операнд <?> accumUpdate, Операнд <T> lr, Операнд <T> rho, Операнд <T> эпсилон, Операнд <T> grad, Варианты... варианты)
Фабричный метод для создания класса, обертывающего новую операцию ResourceApplyAdadelta.
Параметры
объем | текущий объем |
---|---|
вар | Должно быть из переменной(). |
накапливать | Должно быть из переменной(). |
накапливатьОбновить | Должно быть из переменной(). |
лр | Коэффициент масштабирования. Должно быть скаляр. |
ро | Фактор распада. Должно быть скаляр. |
эпсилон | Постоянный фактор. Должно быть скаляр. |
выпускник | Градиент. |
параметры | содержит значения необязательных атрибутов |
Возврат
- новый экземпляр ResourceApplyAdadelta
public static ResourceApplyAdadelta.Options useLocking (логическое значение useLocking)
Параметры
использоватьLocking | Если True, обновление тензоров var, accum и update_accum будет защищено блокировкой; в противном случае поведение не определено, но может вызывать меньше конфликтов. |
---|