Ftrl-प्रॉक्सिमल योजना के अनुसार '*var' को अपडेट करें।
ग्रेड_विथ_श्रिंकेज = ग्रेड + 2 * एल2_श्रिंकेज * वर एक्युम_न्यू = एक्यूम + ग्रेड * ग्रेड लीनियर += ग्रेड_विद_श्रिंकेज - (accum_new^(-lr_power) - accum^(-lr_power)) / lr * var क्वाड्रैटिक = 1.0 / (accum_new^(lr_power) * lr) + 2 * l2 var = (चिह्न(रैखिक) * l1 - रैखिक) / द्विघात यदि |रैखिक| > एल1 अन्यथा 0.0 संचय = संचय_नया
नेस्टेड क्लासेस
कक्षा | ApplyFtrl.विकल्प | ApplyFtrl के लिए वैकल्पिक विशेषताएँ |
स्थिरांक
डोरी | OP_NAME | इस ऑप का नाम, जैसा कि TensorFlow कोर इंजन द्वारा जाना जाता है |
सार्वजनिक तरीके
आउटपुट <T> | आउटपुट के रूप में () टेंसर का प्रतीकात्मक हैंडल लौटाता है। |
स्थिर <T, TType > ApplyFtrl <T> का विस्तार करता है | |
स्थिर ApplyFtrl.विकल्प | multipleLinearByLr (बूलियन मल्टिलीनियरByLr) |
आउटपुट <T> | बाहर () "var" के समान। |
स्थिर ApplyFtrl.विकल्प | यूज़लॉकिंग (बूलियन यूज़लॉकिंग) |
विरासत में मिली विधियाँ
स्थिरांक
सार्वजनिक स्थैतिक अंतिम स्ट्रिंग OP_NAME
इस ऑप का नाम, जैसा कि TensorFlow कोर इंजन द्वारा जाना जाता है
सार्वजनिक तरीके
सार्वजनिक आउटपुट <T> asOutput ()
टेंसर का प्रतीकात्मक हैंडल लौटाता है।
TensorFlow संचालन के इनपुट किसी अन्य TensorFlow ऑपरेशन के आउटपुट हैं। इस पद्धति का उपयोग एक प्रतीकात्मक हैंडल प्राप्त करने के लिए किया जाता है जो इनपुट की गणना का प्रतिनिधित्व करता है।
सार्वजनिक स्थैतिक ApplyFtrl <T> बनाएं ( स्कोप स्कोप, ऑपरेंड <T> var, ऑपरेंड <T> संचित, ऑपरेंड <T> रैखिक, ऑपरेंड <T> ग्रेड, ऑपरेंड <T> lr, ऑपरेंड <T> l1, ऑपरेंड <T > एल2, ऑपरेंड <टी> एल2श्रिंकेज, ऑपरेंड <टी> एलआरपावर, विकल्प... विकल्प)
एक नए ApplyFtrl ऑपरेशन को लपेटकर एक क्लास बनाने की फ़ैक्टरी विधि।
पैरामीटर
दायरा | वर्तमान दायरा |
---|---|
वर | एक वेरिएबल() से होना चाहिए। |
जमा | एक वेरिएबल() से होना चाहिए। |
रेखीय | एक वेरिएबल() से होना चाहिए। |
ग्रैड | ढाल. |
एलआर | मापन कारक। एक अदिश राशि होनी चाहिए. |
एल1 | एल1 नियमितीकरण. एक अदिश राशि होनी चाहिए. |
एल2 | L2 सिकुड़न नियमितीकरण. एक अदिश राशि होनी चाहिए. |
एलआरपावर | मापन कारक। एक अदिश राशि होनी चाहिए. |
विकल्प | वैकल्पिक गुण मान रखता है |
रिटर्न
- ApplyFtrl का एक नया उदाहरण
सार्वजनिक स्थैतिक ApplyFtrl.Options यूज़लॉकिंग (बूलियन यूज़लॉकिंग)
पैरामीटर
लॉकिंग का उपयोग करें | यदि `सही` है, तो var और Accum Tensors का अद्यतनीकरण एक लॉक द्वारा संरक्षित किया जाएगा; अन्यथा व्यवहार अपरिभाषित है, लेकिन कम विवाद प्रदर्शित कर सकता है। |
---|