समीपस्थ एडाग्रैड योजना के अनुसार '*var' को अपडेट करें।
नेस्टेड क्लासेस
कक्षा | AdagradDa.विकल्प लागू करें | ApplyAdagradDa के लिए वैकल्पिक विशेषताएँ |
स्थिरांक
डोरी | OP_NAME | इस ऑप का नाम, जैसा कि TensorFlow कोर इंजन द्वारा जाना जाता है |
सार्वजनिक तरीके
आउटपुट <T> | आउटपुट के रूप में () टेंसर का प्रतीकात्मक हैंडल लौटाता है। |
स्थिर <T टीटाइप का विस्तार करता है > ApplyAdagradDa <T> | |
आउटपुट <T> | बाहर () "var" के समान। |
स्थिर ApplyAdagradDa.Options | यूज़लॉकिंग (बूलियन यूज़लॉकिंग) |
विरासत में मिली विधियाँ
स्थिरांक
सार्वजनिक स्थैतिक अंतिम स्ट्रिंग OP_NAME
इस ऑप का नाम, जैसा कि TensorFlow कोर इंजन द्वारा जाना जाता है
सार्वजनिक तरीके
सार्वजनिक आउटपुट <T> asOutput ()
टेंसर का प्रतीकात्मक हैंडल लौटाता है।
TensorFlow संचालन के इनपुट किसी अन्य TensorFlow ऑपरेशन के आउटपुट हैं। इस पद्धति का उपयोग एक प्रतीकात्मक हैंडल प्राप्त करने के लिए किया जाता है जो इनपुट की गणना का प्रतिनिधित्व करता है।
सार्वजनिक स्थैतिक ApplyAdagradDa <T> बनाएं ( स्कोप स्कोप, ऑपरेंड <T> var, ऑपरेंड <T> ग्रेडिएंट एक्युमुलेटर, ऑपरेंड <T> ग्रेडिएंटस्क्वेयर एक्युमुलेटर, ऑपरेंड <T> ग्रेड, ऑपरेंड <T> lr, ऑपरेंड <T> l1, ऑपरेंड <T > एल2, ऑपरेंड < टीआईएनटी64 > ग्लोबलस्टेप, विकल्प... विकल्प)
एक नए ApplyAdagradDa ऑपरेशन को लपेटकर एक क्लास बनाने की फ़ैक्टरी विधि।
पैरामीटर
दायरा | वर्तमान दायरा |
---|---|
वर | एक वेरिएबल() से होना चाहिए। |
ग्रेडिएंट एक्युमुलेटर | एक वेरिएबल() से होना चाहिए। |
gradientSquaredAccumulator | एक वेरिएबल() से होना चाहिए। |
ग्रैड | ढाल. |
एलआर | मापन कारक। एक अदिश राशि होनी चाहिए. |
एल1 | एल1 नियमितीकरण. एक अदिश राशि होनी चाहिए. |
एल2 | L2 नियमितीकरण. एक अदिश राशि होनी चाहिए. |
ग्लोबलस्टेप | प्रशिक्षण चरण संख्या. एक अदिश राशि होनी चाहिए. |
विकल्प | वैकल्पिक गुण मान रखता है |
रिटर्न
- ApplyAdagradDa का एक नया उदाहरण
सार्वजनिक स्थैतिक ApplyAdagradDa.Options यूज़लॉकिंग (बूलियन यूज़लॉकिंग)
पैरामीटर
लॉकिंग का उपयोग करें | यदि सत्य है, तो var और Accum Tensors का अद्यतनीकरण एक लॉक द्वारा सुरक्षित किया जाएगा; अन्यथा व्यवहार अपरिभाषित है, लेकिन कम विवाद प्रदर्शित कर सकता है। |
---|