org.tensorflow.framework.optimizers
Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Aulas
AdaDelta | Otimizador que implementa o algoritmo Adadelta. |
AdaGrad | Otimizador que implementa o algoritmo Adagrad. |
AdaGradDA | Otimizador que implementa o algoritmo Adagrad Dual-Averaging. |
Adão | Otimizador que implementa o algoritmo Adam. |
Adamax | Otimizador que implementa o algoritmo Adamax. |
Ftrl | Otimizador que implementa o algoritmo FTRL. |
Gradiente descendente | Otimizador de descida gradiente estocástico básico. |
Momento | Descida gradiente estocástica mais impulso, nesterov ou tradicional. |
Nadam | Nadam Optimizer que implementa o algoritmo NAdam. |
Otimizador | Classe base para otimizadores de gradiente. |
Optimizer.GradAndVar <T estende TType > | Uma classe que contém um gradiente e uma variável emparelhados. |
Otimizador.Opções | Atributos opcionais para Optimizer |
RMSProp | Otimizador que implementa o algoritmo RMSProp. |
Enums
Otimizadores | Enumerador usado para criar um novo Otimizador com parâmetros padrão. |
Exceto em caso de indicação contrária, o conteúdo desta página é licenciado de acordo com a Licença de atribuição 4.0 do Creative Commons, e as amostras de código são licenciadas de acordo com a Licença Apache 2.0. Para mais detalhes, consulte as políticas do site do Google Developers. Java é uma marca registrada da Oracle e/ou afiliadas.
Última atualização 2024-10-31 UTC.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Não contém as informações de que eu preciso","missingTheInformationINeed","thumb-down"],["Muito complicado / etapas demais","tooComplicatedTooManySteps","thumb-down"],["Desatualizado","outOfDate","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Problema com as amostras / o código","samplesCodeIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2024-10-31 UTC."],[],[]]