org.tensorflow.framework.optimizers
Koleksiyonlar ile düzeninizi koruyun
İçeriği tercihlerinize göre kaydedin ve kategorilere ayırın.
Sınıflar
AdaDelta | Adadelta algoritmasını uygulayan optimizer. |
Ada Grad | Adagrad algoritmasını uygulayan optimizer. |
AdaGradDA | Adagrad İkili Ortalama Algoritmasını uygulayan optimizer. |
Adem | Adam algoritmasını uygulayan optimizer. |
Adamaks | Adamex algoritmasını uygulayan optimizer. |
Ftrl | FTRL algoritmasını uygulayan optimizer. |
Dereceli alçalma | Temel Stokastik gradyan iniş iyileştiricisi. |
İtme | Stokastik gradyan inişi artı momentum, nesterov veya geleneksel. |
Nadam | NAdam algoritmasını uygulayan Nadam Doktoru. |
Optimize Edici | Degrade optimize ediciler için temel sınıf. |
Optimizer.GradAndVar <T TType'ı genişletir > | Eşleştirilmiş bir degradeyi ve değişkeni tutan bir sınıf. |
Optimize Edici.Seçenekler | Optimizer için isteğe bağlı özellikler |
RMSProp | RMSProp algoritmasını uygulayan optimizer. |
Numaralandırmalar
Optimize ediciler | Numaralandırıcı, varsayılan parametrelerle yeni bir Optimize Edici oluşturmak için kullanılır. |
Aksi belirtilmediği sürece bu sayfanın içeriği Creative Commons Atıf 4.0 Lisansı altında ve kod örnekleri Apache 2.0 Lisansı altında lisanslanmıştır. Ayrıntılı bilgi için Google Developers Site Politikaları'na göz atın. Java, Oracle ve/veya satış ortaklarının tescilli ticari markasıdır.
Son güncelleme tarihi: 2024-10-31 UTC.
[[["Anlaması kolay","easyToUnderstand","thumb-up"],["Sorunumu çözdü","solvedMyProblem","thumb-up"],["Diğer","otherUp","thumb-up"]],[["İhtiyacım olan bilgiler yok","missingTheInformationINeed","thumb-down"],["Çok karmaşık / çok fazla adım var","tooComplicatedTooManySteps","thumb-down"],["Güncel değil","outOfDate","thumb-down"],["Çeviri sorunu","translationIssue","thumb-down"],["Örnek veya kod sorunu","samplesCodeIssue","thumb-down"],["Diğer","otherDown","thumb-down"]],["Son güncelleme tarihi: 2024-10-31 UTC."],[],[]]