публичный финальный класс ResourceSparseApplyAdagrad
Обновите соответствующие записи в «*var» и «*accum» в соответствии со схемой adagrad.
То есть для строк, для которых у нас есть grad, мы обновляем var и accum следующим образом: accum += grad * grad var -= lr * grad * (1 / sqrt(accum))
Вложенные классы
сорт | ResourceSparseApplyAdagrad.Options | Необязательные атрибуты для ResourceSparseApplyAdagrad |
Константы
Нить | OP_NAME | Название этой операции, известное основному движку TensorFlow. |
Публичные методы
static <T расширяет TType > ResourceSparseApplyAdagrad | |
статический ResourceSparseApplyAdagrad.Options | updateSlots (логическое значение updateSlots) |
статический ResourceSparseApplyAdagrad.Options | useLocking (логическое значение useLocking) |
Унаследованные методы
Константы
общедоступная статическая финальная строка OP_NAME
Название этой операции, известное основному движку TensorFlow.
Постоянное значение: «ResourceSparseApplyAdagrad»
Публичные методы
public static ResourceSparseApplyAdagrad create ( Область действия, Операнд <?> var, Операнд <?> accum, Операнд <T> lr, Операнд <T> grad, Операнд <? расширяет индексы TNumber >, Параметры... параметры)
Фабричный метод для создания класса, обертывающего новую операцию ResourceSparseApplyAdagrad.
Параметры
объем | текущий объем |
---|---|
вар | Должно быть из переменной(). |
накапливать | Должно быть из переменной(). |
лр | Скорость обучения. Должно быть скаляр. |
выпускник | Градиент. |
индексы | Вектор индексов в первом измерении var и accum. |
параметры | содержит значения необязательных атрибутов |
Возврат
- новый экземпляр ResourceSparseApplyAdagrad
общедоступный статический ResourceSparseApplyAdagrad.Options updateSlots (логическое значение updateSlots)
общедоступный статический ResourceSparseApplyAdagrad.Options useLocking (логическое значение useLocking)
Параметры
использоватьLocking | Если `True`, обновление тензоров var и accum будет защищено блокировкой; в противном случае поведение не определено, но может вызывать меньше конфликтов. |
---|