SparseApplyAdagrad

classe final pública SparseApplyAdagrad

Atualize as entradas relevantes em '*var' e '*accum' de acordo com o esquema adagrad.

Ou seja, para as linhas para as quais graduamos, atualizamos var e accum da seguinte forma: $$accum += grad * grad$$$$var -= lr * grad * (1 / sqrt(accum))$$

Classes aninhadas

aula SparseApplyAdagrad.Options Atributos opcionais para SparseApplyAdagrad

Constantes

Corda OP_NAME O nome desta operação, conforme conhecido pelo mecanismo principal do TensorFlow

Métodos Públicos

Saída <T>
asOutput ()
Retorna o identificador simbólico do tensor.
estático <T estende TType > SparseApplyAdagrad <T>
criar ( Escopo do escopo , Operando <T> var, Operando <T> accum, Operando <T> lr, Operando <T> epsilon, Operando <T> grad, Operando <? estende TNumber > índices, Opções... opções)
Método de fábrica para criar uma classe que envolve uma nova operação SparseApplyAdagrad.
Saída <T>
fora ()
O mesmo que "var".
SparseApplyAdagrad.Options estático
updateSlots (booleano updateSlots)
SparseApplyAdagrad.Options estático
useLocking (booleano useLocking)

Métodos herdados

Constantes

String final estática pública OP_NAME

O nome desta operação, conforme conhecido pelo mecanismo principal do TensorFlow

Valor constante: "SparseApplyAdagradV2"

Métodos Públicos

Saída pública <T> asOutput ()

Retorna o identificador simbólico do tensor.

As entradas para operações do TensorFlow são saídas de outra operação do TensorFlow. Este método é usado para obter um identificador simbólico que representa o cálculo da entrada.

public static SparseApplyAdagrad <T> create ( Escopo escopo, Operando <T> var, Operando <T> accum, Operando <T> lr, Operando <T> epsilon, Operando <T> grad, Operando <? estende TNumber > índices, Opções ... opções)

Método de fábrica para criar uma classe que envolve uma nova operação SparseApplyAdagrad.

Parâmetros
escopo escopo atual
var Deve ser de uma variável().
acumular Deve ser de uma variável().
lr Taxa de aprendizagem. Deve ser um escalar.
épsilon Fator constante. Deve ser um escalar.
graduado O gradiente.
índices Um vetor de índices na primeira dimensão de var e accum.
opções carrega valores de atributos opcionais
Devoluções
  • uma nova instância de SparseApplyAdagrad

Saída pública <T> out ()

O mesmo que "var".

public static SparseApplyAdagrad.Options updateSlots (booleano updateSlots)

public static SparseApplyAdagrad.Options useLocking (booleano useLocking)

Parâmetros
useLocking Se `True`, a atualização dos tensores var e accum será protegida por um bloqueio; caso contrário, o comportamento será indefinido, mas poderá apresentar menos contenção.