Operações de treinamento
Resumo
Aulas | |
---|---|
tensorflow :: ops :: ApplyAdadelta | Atualize '* var' de acordo com o esquema adadelta. |
tensorflow :: ops :: ApplyAdagrad | Atualize '* var' de acordo com o esquema adagrad. |
tensorflow :: ops :: ApplyAdagradDA | Atualize '* var' de acordo com o esquema adagrad proximal. |
tensorflow :: ops :: ApplyAdam | Atualize '* var' de acordo com o algoritmo de Adam. |
tensorflow :: ops :: ApplyAddSign | Atualize '* var' de acordo com a atualização do AddSign. |
tensorflow :: ops :: ApplyCenteredRMSProp | Atualize '* var' de acordo com o algoritmo RMSProp centralizado. |
tensorflow :: ops :: ApplyFtrl | Atualize '* var' de acordo com o esquema Ftrl-proximal. |
tensorflow :: ops :: ApplyFtrlV2 | Atualize '* var' de acordo com o esquema Ftrl-proximal. |
tensorflow :: ops :: ApplyGradientDescent | Atualize '* var' subtraindo 'alpha' * 'delta' dele. |
tensorflow :: ops :: ApplyMomentum | Atualize '* var' de acordo com o esquema de momentum. |
tensorflow :: ops :: ApplyPowerSign | Atualize '* var' de acordo com a atualização do AddSign. |
tensorflow :: ops :: ApplyProximalAdagrad | Atualize '* var' e '* acum' de acordo com FOBOS com taxa de aprendizagem Adagrad. |
tensorflow :: ops :: ApplyProximalGradientDescent | Atualize '* var' como algoritmo FOBOS com taxa de aprendizagem fixa. |
tensorflow :: ops :: ApplyRMSProp | Atualize '* var' de acordo com o algoritmo RMSProp. |
tensorflow :: ops :: ResourceApplyAdadelta | Atualize '* var' de acordo com o esquema adadelta. |
tensorflow :: ops :: ResourceApplyAdagrad | Atualize '* var' de acordo com o esquema adagrad. |
tensorflow :: ops :: ResourceApplyAdagradDA | Atualize '* var' de acordo com o esquema adagrad proximal. |
tensorflow :: ops :: ResourceApplyAdam | Atualize '* var' de acordo com o algoritmo de Adam. |
tensorflow :: ops :: ResourceApplyAdamWithAmsgrad | Atualize '* var' de acordo com o algoritmo de Adam. |
tensorflow :: ops :: ResourceApplyAddSign | Atualize '* var' de acordo com a atualização do AddSign. |
tensorflow :: ops :: ResourceApplyCenteredRMSProp | Atualize '* var' de acordo com o algoritmo RMSProp centralizado. |
tensorflow :: ops :: ResourceApplyFtrl | Atualize '* var' de acordo com o esquema Ftrl-proximal. |
tensorflow :: ops :: ResourceApplyFtrlV2 | Atualize '* var' de acordo com o esquema Ftrl-proximal. |
tensorflow :: ops :: ResourceApplyGradientDescent | Atualize '* var' subtraindo 'alpha' * 'delta' dele. |
tensorflow :: ops :: ResourceApplyKerasMomentum | Atualize '* var' de acordo com o esquema de momentum. |
tensorflow :: ops :: ResourceApplyMomentum | Atualize '* var' de acordo com o esquema de momentum. |
tensorflow :: ops :: ResourceApplyPowerSign | Atualize '* var' de acordo com a atualização do AddSign. |
tensorflow :: ops :: ResourceApplyProximalAdagrad | Atualize '* var' e '* acum' de acordo com FOBOS com taxa de aprendizagem Adagrad. |
tensorflow :: ops :: ResourceApplyProximalGradientDescent | Atualize '* var' como algoritmo FOBOS com taxa de aprendizagem fixa. |
tensorflow :: ops :: ResourceApplyRMSProp | Atualize '* var' de acordo com o algoritmo RMSProp. |
tensorflow :: ops :: ResourceSparseApplyAdadelta | var: deve ser de uma variável (). |
tensorflow :: ops :: ResourceSparseApplyAdagrad | Atualize as entradas relevantes em '* var' e '* acum' de acordo com o esquema adagrad. |
tensorflow :: ops :: ResourceSparseApplyAdagradDA | Atualize as entradas em '* var' e '* acum' de acordo com o esquema adagrad proximal. |
tensorflow :: ops :: ResourceSparseApplyCenteredRMSProp | Atualize '* var' de acordo com o algoritmo RMSProp centralizado. |
tensorflow :: ops :: ResourceSparseApplyFtrl | Atualize as entradas relevantes em '* var' de acordo com o esquema Ftrl-proximal. |
tensorflow :: ops :: ResourceSparseApplyFtrlV2 | Atualize as entradas relevantes em '* var' de acordo com o esquema Ftrl-proximal. |
tensorflow :: ops :: ResourceSparseApplyKerasMomentum | Atualize as entradas relevantes em '* var' e '* acum' de acordo com o esquema de momentum. |
tensorflow :: ops :: ResourceSparseApplyMomentum | Atualize as entradas relevantes em '* var' e '* acum' de acordo com o esquema de momento. |
tensorflow :: ops :: ResourceSparseApplyProximalAdagrad | Entradas de atualização esparsas em '* var' e '* acum' de acordo com o algoritmo FOBOS. |
tensorflow :: ops :: ResourceSparseApplyProximalGradientDescent | Atualização esparsa '* var' como algoritmo FOBOS com taxa de aprendizagem fixa. |
tensorflow :: ops :: ResourceSparseApplyRMSProp | Atualize '* var' de acordo com o algoritmo RMSProp. |
tensorflow :: ops :: SparseApplyAdadelta | var: deve ser de uma variável (). |
tensorflow :: ops :: SparseApplyAdagrad | Atualize as entradas relevantes em '* var' e '* acum' de acordo com o esquema adagrad. |
tensorflow :: ops :: SparseApplyAdagradDA | Atualize as entradas em '* var' e '* acum' de acordo com o esquema adagrad proximal. |
tensorflow :: ops :: SparseApplyCenteredRMSProp | Atualize '* var' de acordo com o algoritmo RMSProp centralizado. |
tensorflow :: ops :: SparseApplyFtrl | Atualize as entradas relevantes em '* var' de acordo com o esquema Ftrl-proximal. |
tensorflow :: ops :: SparseApplyFtrlV2 | Atualize as entradas relevantes em '* var' de acordo com o esquema Ftrl-proximal. |
tensorflow :: ops :: SparseApplyMomentum | Atualize as entradas relevantes em '* var' e '* acum' de acordo com o esquema de momentum. |
tensorflow :: ops :: SparseApplyProximalAdagrad | Entradas de atualização esparsas em '* var' e '* acum' de acordo com o algoritmo FOBOS. |
tensorflow :: ops :: SparseApplyProximalGradientDescent | Atualização esparsa '* var' como algoritmo FOBOS com taxa de aprendizagem fixa. |
tensorflow :: ops :: SparseApplyRMSProp | Atualize '* var' de acordo com o algoritmo RMSProp. |