Operaciones de entrenamiento
Resumen
Clases | |
---|---|
tensorflow :: ops :: ApplyAdadelta | Actualice '* var' de acuerdo con el esquema adadelta. |
tensorflow :: ops :: ApplyAdagrad | Actualice '* var' de acuerdo con el esquema adagrad. |
tensorflow :: ops :: ApplyAdagradDA | Actualice '* var' de acuerdo con el esquema de adagrad proximal. |
tensorflow :: ops :: ApplyAdam | Actualice '* var' según el algoritmo de Adam. |
tensorflow :: ops :: ApplyAddSign | Actualice '* var' de acuerdo con la actualización de AddSign. |
tensorflow :: ops :: ApplyCenteredRMSProp | Actualice '* var' de acuerdo con el algoritmo RMSProp centrado. |
tensorflow :: ops :: ApplyFtrl | Actualice '* var' de acuerdo con el esquema Ftrl-proximal. |
tensorflow :: ops :: ApplyFtrlV2 | Actualice '* var' de acuerdo con el esquema Ftrl-proximal. |
tensorflow :: ops :: ApplyGradientDescent | Actualice '* var' restando 'alpha' * 'delta' de él. |
tensorflow :: ops :: ApplyMomentum | Actualice '* var' de acuerdo con el esquema de impulso. |
tensorflow :: ops :: ApplyPowerSign | Actualice '* var' de acuerdo con la actualización de AddSign. |
tensorflow :: ops :: ApplyProximalAdagrad | Actualice '* var' y '* acumula' de acuerdo con FOBOS con la tasa de aprendizaje de Adagrad. |
tensorflow :: ops :: ApplyProximalGradientDescent | Actualice '* var' como algoritmo FOBOS con tasa de aprendizaje fija. |
tensorflow :: ops :: ApplyRMSProp | Actualice '* var' de acuerdo con el algoritmo RMSProp. |
tensorflow :: ops :: ResourceApplyAdadelta | Actualice '* var' de acuerdo con el esquema adadelta. |
tensorflow :: ops :: ResourceApplyAdagrad | Actualice '* var' de acuerdo con el esquema adagrad. |
tensorflow :: ops :: ResourceApplyAdagradDA | Actualice '* var' de acuerdo con el esquema de adagrad proximal. |
tensorflow :: ops :: ResourceApplyAdam | Actualice '* var' según el algoritmo de Adam. |
tensorflow :: ops :: ResourceApplyAdamWithAmsgrad | Actualice '* var' según el algoritmo de Adam. |
tensorflow :: ops :: ResourceApplyAddSign | Actualice '* var' de acuerdo con la actualización de AddSign. |
tensorflow :: ops :: ResourceApplyCenteredRMSProp | Actualice '* var' de acuerdo con el algoritmo RMSProp centrado. |
tensorflow :: ops :: ResourceApplyFtrl | Actualice '* var' de acuerdo con el esquema Ftrl-proximal. |
tensorflow :: ops :: ResourceApplyFtrlV2 | Actualice '* var' de acuerdo con el esquema Ftrl-proximal. |
tensorflow :: ops :: ResourceApplyGradientDescent | Actualice '* var' restando 'alpha' * 'delta' de él. |
tensorflow :: ops :: ResourceApplyKerasMomentum | Actualice '* var' de acuerdo con el esquema de impulso. |
tensorflow :: ops :: ResourceApplyMomentum | Actualice '* var' de acuerdo con el esquema de impulso. |
tensorflow :: ops :: ResourceApplyPowerSign | Actualice '* var' de acuerdo con la actualización de AddSign. |
tensorflow :: ops :: ResourceApplyProximalAdagrad | Actualice '* var' y '* acumula' de acuerdo con FOBOS con la tasa de aprendizaje de Adagrad. |
tensorflow :: ops :: ResourceApplyProximalGradientDescent | Actualice '* var' como algoritmo FOBOS con tasa de aprendizaje fija. |
tensorflow :: ops :: ResourceApplyRMSProp | Actualice '* var' de acuerdo con el algoritmo RMSProp. |
tensorflow :: ops :: ResourceSparseApplyAdadelta | var: debe ser de una variable (). |
tensorflow :: ops :: ResourceSparseApplyAdagrad | Actualice las entradas relevantes en '* var' y '* acumula' de acuerdo con el esquema adagrad. |
tensorflow :: ops :: ResourceSparseApplyAdagradDA | Actualice las entradas en '* var' y '* acumula' de acuerdo con el esquema de adagrad proximal. |
tensorflow :: ops :: ResourceSparseApplyCenteredRMSProp | Actualice '* var' de acuerdo con el algoritmo RMSProp centrado. |
tensorflow :: ops :: ResourceSparseApplyFtrl | Actualice las entradas relevantes en '* var' de acuerdo con el esquema Ftrl-proximal. |
tensorflow :: ops :: ResourceSparseApplyFtrlV2 | Actualice las entradas relevantes en '* var' de acuerdo con el esquema Ftrl-proximal. |
tensorflow :: ops :: ResourceSparseApplyKerasMomentum | Actualice las entradas relevantes en '* var' y '* acum' de acuerdo con el esquema de impulso. |
tensorflow :: ops :: ResourceSparseApplyMomentum | Actualice las entradas relevantes en '* var' y '* acum' de acuerdo con el esquema de impulso. |
tensorflow :: ops :: ResourceSparseApplyProximalAdagrad | Entradas de actualización dispersas en '* var' y '* acumula' según el algoritmo FOBOS. |
tensorflow :: ops :: ResourceSparseApplyProximalGradientDescent | Actualización dispersa '* var' como algoritmo FOBOS con tasa de aprendizaje fija. |
tensorflow :: ops :: ResourceSparseApplyRMSProp | Actualice '* var' de acuerdo con el algoritmo RMSProp. |
tensorflow :: ops :: SparseApplyAdadelta | var: debe ser de una variable (). |
tensorflow :: ops :: SparseApplyAdagrad | Actualice las entradas relevantes en '* var' y '* acumula' de acuerdo con el esquema adagrad. |
tensorflow :: ops :: SparseApplyAdagradDA | Actualice las entradas en '* var' y '* acumula' de acuerdo con el esquema de adagrad proximal. |
tensorflow :: ops :: SparseApplyCenteredRMSProp | Actualice '* var' de acuerdo con el algoritmo RMSProp centrado. |
tensorflow :: ops :: SparseApplyFtrl | Actualice las entradas relevantes en '* var' de acuerdo con el esquema Ftrl-proximal. |
tensorflow :: ops :: SparseApplyFtrlV2 | Actualice las entradas relevantes en '* var' de acuerdo con el esquema Ftrl-proximal. |
tensorflow :: ops :: SparseApplyMomentum | Actualice las entradas relevantes en '* var' y '* acum' de acuerdo con el esquema de impulso. |
tensorflow :: ops :: SparseApplyProximalAdagrad | Entradas de actualización dispersas en '* var' y '* acumula' según el algoritmo FOBOS. |
tensorflow :: ops :: SparseApplyProximalGradientDescent | Actualización dispersa '* var' como algoritmo FOBOS con tasa de aprendizaje fija. |
tensorflow :: ops :: SparseApplyRMSProp | Actualice '* var' de acuerdo con el algoritmo RMSProp. |