सार्वजनिक वर्ग नादम
Nadam ऑप्टिमाइज़र जो NAdam एल्गोरिथम को लागू करता है।
जैसे एडम अनिवार्य रूप से गति के साथ आरएमएसप्रॉप है, वैसे ही नादाम नेस्टरोव गति के साथ एडम है।
यह सभी देखें
स्थिरांक
तैरना | बीटा_ONE_DEFAULT | |
तैरना | बीटा_TWO_डिफॉल्ट | |
तैरना | ईपीएसआईएलओएन_डिफॉल्ट | |
डोरी | पहला_पल | |
तैरना | LEARNING_RATE_DEFAULT | |
डोरी | गति | |
डोरी | दूसरा_पल |
विरासत में मिले स्थिरांक
सार्वजनिक निर्माता
सार्वजनिक तरीके
डोरी | गेटऑप्टिमाइज़रनाम () अनुकूलक का नाम प्राप्त करें. |
विरासत में मिली विधियाँ
स्थिरांक
सार्वजनिक स्थैतिक अंतिम फ़्लोट BETA_ONE_DEFAULT
स्थिर मान: 0.9
सार्वजनिक स्थैतिक अंतिम फ़्लोट BETA_TWO_DEFAULT
स्थिर मान: 0.999
सार्वजनिक स्थैतिक अंतिम फ़्लोट EPSILON_DEFAULT
स्थिर मान: 1.0E-8
सार्वजनिक स्थैतिक अंतिम स्ट्रिंग FIRST_MOMENT
स्थिर मान: "एम"
सार्वजनिक स्थैतिक अंतिम फ़्लोट LEARNING_RATE_DEFAULT
स्थिर मान: 0.001
सार्वजनिक स्थैतिक अंतिम स्ट्रिंग गति
निरंतर मूल्य: "गति"
सार्वजनिक स्थैतिक अंतिम स्ट्रिंग SECOND_MOMENT
स्थिर मान: "v"
सार्वजनिक निर्माता
सार्वजनिक नादम ( ग्राफ ग्राफ, फ्लोट लर्निंगरेट)
एक नादम ऑप्टिमाइज़र बनाता है
पैरामीटर
ग्राफ | टेंसरफ़्लो ग्राफ़ |
---|---|
सीखने की दर | सीखने की दर, डिफ़ॉल्ट रूप से 0.001 है |
सार्वजनिक नादम ( ग्राफ ग्राफ, फ्लोट लर्निंगरेट, फ्लोट बीटावन, फ्लोट बीटाटू, फ्लोट एप्सिलॉन)
एक नादम ऑप्टिमाइज़र बनाता है
पैरामीटर
ग्राफ | टेंसरफ़्लो ग्राफ़ |
---|---|
सीखने की दर | सीखने की दर, डिफ़ॉल्ट रूप से 0.001 है |
बीटावन | पहले क्षण के अनुमान के लिए घातांकीय क्षय दर। डिफ़ॉल्ट 0.9 है. |
बीटाटू | चरघातांकीय रूप से भारित अनंत मानदंड के लिए चरघातांकीय क्षय दर। डिफ़ॉल्ट 0.999 है. |
एप्सिलॉन | संख्यात्मक स्थिरता के लिए एक छोटा सा स्थिरांक. डिफ़ॉल्ट 1e-8 है. |
सार्वजनिक नादम ( ग्राफ ग्राफ, स्ट्रिंग नाम, फ्लोट लर्निंगरेट)
एक नादम ऑप्टिमाइज़र बनाता है
पैरामीटर
ग्राफ | टेंसरफ़्लो ग्राफ़ |
---|---|
नाम | इस ऑप्टिमाइज़र का नाम डिफ़ॉल्ट रूप से "नादम" है |
सीखने की दर | सीखने की दर, डिफ़ॉल्ट रूप से 0.001 है |
सार्वजनिक नादाम ( ग्राफ ग्राफ, स्ट्रिंग नाम, फ्लोट लर्निंगरेट, फ्लोट बीटावन, फ्लोट बीटाटू, फ्लोट एप्सिलॉन)
एक नादम ऑप्टिमाइज़र बनाता है
पैरामीटर
ग्राफ | टेंसरफ़्लो ग्राफ़ |
---|---|
नाम | इस ऑप्टिमाइज़र का नाम डिफ़ॉल्ट रूप से "नादम" है |
सीखने की दर | सीखने की दर, डिफ़ॉल्ट रूप से 0.001 है |
बीटावन | पहले क्षण के अनुमान के लिए घातांकीय क्षय दर। डिफ़ॉल्ट 0.9 है. |
बीटाटू | चरघातांकीय रूप से भारित अनंत मानदंड के लिए चरघातांकीय क्षय दर। डिफ़ॉल्ट 0.999 है. |
एप्सिलॉन | संख्यात्मक स्थिरता के लिए एक छोटा सा स्थिरांक. डिफ़ॉल्ट 1e-8 है. |
सार्वजनिक तरीके
सार्वजनिक स्ट्रिंग getOptimizerName ()
अनुकूलक का नाम प्राप्त करें.
रिटर्न
- अनुकूलक नाम.