ऑप्टिमाइज़र जो एडाग्रेड एल्गोरिथम को लागू करता है।
एडाग्रैड पैरामीटर-विशिष्ट सीखने की दरों के साथ एक ऑप्टिमाइज़र है, जो प्रशिक्षण के दौरान एक पैरामीटर कितनी बार अपडेट होता है इसके सापेक्ष अनुकूलित किया जाता है। किसी पैरामीटर को जितने अधिक अपडेट प्राप्त होंगे, अपडेट उतने ही छोटे होंगे।
स्थिरांक
डोरी | संचायक | |
तैरना | प्रारंभिक_ACCUMULATOR_DEFAULT | |
तैरना | LEARNING_RATE_DEFAULT |
विरासत में मिले स्थिरांक
सार्वजनिक निर्माता
सार्वजनिक तरीके
डोरी | गेटऑप्टिमाइज़रनाम () अनुकूलक का नाम प्राप्त करें. |
डोरी | स्ट्रिंग () |
विरासत में मिली विधियाँ
स्थिरांक
सार्वजनिक स्थैतिक अंतिम स्ट्रिंग संचायक
सार्वजनिक स्थैतिक अंतिम फ़्लोट INITIAL_ACCUMULATOR_DEFAULT
सार्वजनिक स्थैतिक अंतिम फ़्लोट LEARNING_RATE_DEFAULT
सार्वजनिक निर्माता
सार्वजनिक AdaGrad ( ग्राफ़ ग्राफ़, फ़्लोट लर्निंगरेट)
एक AdaGrad ऑप्टिमाइज़र बनाता है
पैरामीटर
ग्राफ | टेंसरफ़्लो ग्राफ़ |
---|---|
सीखने की दर | सीखने की दर |
सार्वजनिक AdaGrad ( ग्राफ़ ग्राफ़, फ़्लोट लर्निंगरेट, फ़्लोट इनिशियलएक्युमुलेटरवैल्यू)
एक AdaGrad ऑप्टिमाइज़र बनाता है
पैरामीटर
ग्राफ | टेंसरफ़्लो ग्राफ़ |
---|---|
सीखने की दर | सीखने की दर |
प्रारंभिक संचायक मान | संचायकों के लिए प्रारंभिक मूल्य, गैर-नकारात्मक होना चाहिए। |
फेंकता
अवैध तर्क अपवाद | यदि प्रारंभिक AccumulatorValue नकारात्मक है |
---|
सार्वजनिक AdaGrad ( ग्राफ़ ग्राफ़, स्ट्रिंग नाम, फ़्लोट लर्निंग रेट)
एक AdaGrad ऑप्टिमाइज़र बनाता है
पैरामीटर
ग्राफ | टेंसरफ़्लो ग्राफ़ |
---|---|
नाम | इस ऑप्टिमाइज़र का नाम (डिफ़ॉल्ट रूप से 'एडग्राड') |
सीखने की दर | सीखने की दर |
सार्वजनिक AdaGrad ( ग्राफ़ ग्राफ़, स्ट्रिंग नाम, फ़्लोट लर्निंग रेट, फ़्लोट प्रारंभिक AccumulatorValue)
एक AdaGrad ऑप्टिमाइज़र बनाता है
पैरामीटर
ग्राफ | टेंसरफ़्लो ग्राफ़ |
---|---|
नाम | इस ऑप्टिमाइज़र का नाम (डिफ़ॉल्ट रूप से 'एडग्राड') |
सीखने की दर | सीखने की दर |
प्रारंभिक संचायक मान | संचायकों के लिए प्रारंभिक मूल्य, गैर-नकारात्मक होना चाहिए। |
फेंकता
अवैध तर्क अपवाद | यदि प्रारंभिक AccumulatorValue नकारात्मक है |
---|
सार्वजनिक तरीके
सार्वजनिक स्ट्रिंग getOptimizerName ()
अनुकूलक का नाम प्राप्त करें.
रिटर्न
- अनुकूलक नाम.