पब्लिक क्लास Ftrl
ऑप्टिमाइज़र जो FTRL एल्गोरिथम को लागू करता है।
इस संस्करण में ऑनलाइन L2 (नीचे दिए गए पेपर में दिया गया L2 जुर्माना) और सिकुड़न-प्रकार L2 (जो कि हानि फ़ंक्शन में L2 जुर्माना जोड़ा गया है) दोनों के लिए समर्थन है।
यह सभी देखें
स्थिरांक
डोरी | संचायक | |
तैरना | प्रारंभिक_ACCUMULATOR_VALUE_DEFAULT | |
तैरना | L1STRENGTH_DEFAULT | |
तैरना | L2STRENGTH_DEFAULT | |
तैरना | L2_SHRINKAGE_REGULARIZATION_STRENGTH_DEFAULT | |
तैरना | LEARNING_RATE_DEFAULT | |
तैरना | सीखना_दर_शक्ति_डिफॉल्ट | |
डोरी | LINEAR_ACCUMULATOR |
विरासत में मिले स्थिरांक
सार्वजनिक निर्माता
सार्वजनिक तरीके
डोरी | गेटऑप्टिमाइज़रनाम () अनुकूलक का नाम प्राप्त करें. |
विरासत में मिली विधियाँ
स्थिरांक
सार्वजनिक स्थैतिक अंतिम स्ट्रिंग संचायक
स्थिर मान: "gradient_accumulator"
सार्वजनिक स्थैतिक अंतिम फ़्लोट INITIAL_ACCUMULATOR_VALUE_DEFAULT
स्थिर मान: 0.1
सार्वजनिक स्थैतिक अंतिम फ़्लोट L1STRENGTH_DEFAULT
स्थिर मान: 0.0
सार्वजनिक स्थैतिक अंतिम फ्लोट L2STRENGTH_DEFAULT
स्थिर मान: 0.0
सार्वजनिक स्थैतिक अंतिम फ़्लोट L2_SHRINKAGE_REGULARIZATION_STRENGTH_DEFAULT
स्थिर मान: 0.0
सार्वजनिक स्थैतिक अंतिम फ़्लोट LEARNING_RATE_DEFAULT
स्थिर मान: 0.001
सार्वजनिक स्थैतिक अंतिम फ़्लोट LEARNING_RATE_POWER_DEFAULT
स्थिर मान: -0.5
सार्वजनिक स्थैतिक अंतिम स्ट्रिंग LINEAR_ACCUMULATOR
निरंतर मान: "रैखिक_संचायक"
सार्वजनिक निर्माता
सार्वजनिक Ftrl ( ग्राफ़ ग्राफ़, स्ट्रिंग नाम)
एक Ftrl ऑप्टिमाइज़र बनाता है
पैरामीटर
ग्राफ | टेंसरफ़्लो ग्राफ़ |
---|---|
नाम | इस ऑप्टिमाइज़र का नाम |
सार्वजनिक Ftrl ( ग्राफ़ ग्राफ़, फ़्लोट लर्निंग रेट)
एक Ftrl ऑप्टिमाइज़र बनाता है
पैरामीटर
ग्राफ | टेंसरफ़्लो ग्राफ़ |
---|---|
सीखने की दर | सीखने की दर |
सार्वजनिक Ftrl ( ग्राफ़ ग्राफ़, स्ट्रिंग नाम, फ़्लोट लर्निंग रेट)
एक Ftrl ऑप्टिमाइज़र बनाता है
पैरामीटर
ग्राफ | टेंसरफ़्लो ग्राफ़ |
---|---|
नाम | इस ऑप्टिमाइज़र का नाम |
सीखने की दर | सीखने की दर |
सार्वजनिक एफटीआरएल ( ग्राफ ग्राफ, फ्लोट लर्निंगरेट, फ्लोट लर्निंगरेटपावर, फ्लोट इनिशियलएक्यूमुलेटर वैल्यू, फ्लोट एल1स्ट्रेंथ, फ्लोट एल2स्ट्रेंथ, फ्लोट एल2श्रिंकेजरेगुलराइजेशनस्ट्रेंथ)
एक Ftrl ऑप्टिमाइज़र बनाता है
पैरामीटर
ग्राफ | टेंसरफ़्लो ग्राफ़ |
---|---|
सीखने की दर | सीखने की दर |
सीखने की दरशक्ति | यह नियंत्रित करता है कि प्रशिक्षण के दौरान सीखने की दर कैसे घटती है। निश्चित सीखने की दर के लिए शून्य का उपयोग करें। |
प्रारंभिक संचायक मान | संचायक के लिए प्रारंभिक मूल्य. केवल शून्य या सकारात्मक मानों की अनुमति है। |
एल1ताकत | L1 नियमितीकरण शक्ति, शून्य से अधिक या उसके बराबर होनी चाहिए। |
एल2ताकत | L2 नियमितीकरण शक्ति, शून्य से अधिक या उसके बराबर होनी चाहिए। |
l2संकोचननियमितीकरणशक्ति | यह उपरोक्त L2 से भिन्न है क्योंकि उपरोक्त L2 एक स्थिरीकरण दंड है, जबकि यह L2 सिकुड़न एक परिमाण दंड है। शून्य से बड़ा या उसके बराबर होना चाहिए. |
फेंकता
अवैध तर्क अपवाद | यदि प्रारंभिक AccumulatorValue, l1RegularizationStrength, l2RegularizationStrength, या l2ShnkageRegularizationStrength 0.0 से कम है, या learnRatePower 0.0 से अधिक है। |
---|
सार्वजनिक एफटीआरएल ( ग्राफ ग्राफ, स्ट्रिंग नाम, फ्लोट लर्निंगरेट, फ्लोट लर्निंगरेटपावर, फ्लोट इनिशियलएक्यूमुलेटर वैल्यू, फ्लोट एल1स्ट्रेंथ, फ्लोट एल2स्ट्रेंथ, फ्लोट एल2श्रिंकेजरेगुलराइजेशनस्ट्रेंथ)
एक Ftrl ऑप्टिमाइज़र बनाता है
पैरामीटर
ग्राफ | टेंसरफ़्लो ग्राफ़ |
---|---|
नाम | इस ऑप्टिमाइज़र का नाम |
सीखने की दर | सीखने की दर |
सीखने की दरशक्ति | यह नियंत्रित करता है कि प्रशिक्षण के दौरान सीखने की दर कैसे घटती है। निश्चित सीखने की दर के लिए शून्य का उपयोग करें। |
प्रारंभिक संचायक मान | संचायक के लिए प्रारंभिक मूल्य. केवल शून्य या सकारात्मक मानों की अनुमति है। |
एल1ताकत | L1 नियमितीकरण शक्ति, शून्य से अधिक या उसके बराबर होनी चाहिए। |
एल2ताकत | L2 नियमितीकरण शक्ति, शून्य से अधिक या उसके बराबर होनी चाहिए। |
l2संकोचननियमितीकरणशक्ति | यह उपरोक्त L2 से भिन्न है क्योंकि उपरोक्त L2 एक स्थिरीकरण दंड है, जबकि यह L2 सिकुड़न एक परिमाण दंड है। शून्य से बड़ा या उसके बराबर होना चाहिए. |
फेंकता
अवैध तर्क अपवाद | यदि प्रारंभिक AccumulatorValue, l1RegularizationStrength, l2RegularizationStrength, या l2ShnkageRegularizationStrength 0.0 से कम है, या learnRatePower 0.0 से अधिक है। |
---|
सार्वजनिक तरीके
सार्वजनिक स्ट्रिंग getOptimizerName ()
अनुकूलक का नाम प्राप्त करें.
रिटर्न
- अनुकूलक नाम.