सार्वजनिक अंतिम वर्ग रिसोर्सस्पार्सएप्लाईएडग्रेडडा
समीपस्थ एडाग्रेड योजना के अनुसार '*var' और '*accum' में प्रविष्टियाँ अद्यतन करें।
नेस्टेड क्लासेस
कक्षा | रिसोर्सस्पार्सएप्लाईएडाग्रेडडा.ऑप्शंस | ResourceSparseApplyAdagradDa के लिए वैकल्पिक विशेषताएँ |
स्थिरांक
डोरी | OP_NAME | इस ऑप का नाम, जैसा कि TensorFlow कोर इंजन द्वारा जाना जाता है |
सार्वजनिक तरीके
स्थिर <टी टीटाइप का विस्तार करता है > रिसोर्सस्पार्सएप्लाईएडाग्रेडडा | बनाएं ( स्कोप स्कोप, ऑपरेंड <?> var, ऑपरेंड <?> ग्रेडिएंट एक्युमुलेटर, ऑपरेंड <?> ग्रेडिएंटस्क्वेयर एक्युमुलेटर, ऑपरेंड <T> ग्रेड, ऑपरेंड <? एक्सटेंड्स TNumber > इंडेक्स, ऑपरेंड <T> lr, ऑपरेंड <T> l1, ऑपरेंड <टी> एल2, ऑपरेंड < टीआईएनटी64 > ग्लोबलस्टेप, विकल्प... विकल्प) एक नए रिसोर्सस्पार्सएप्लाईएडाग्रेडडा ऑपरेशन को लपेटकर एक क्लास बनाने की फ़ैक्टरी विधि। |
स्टेटिक रिसोर्सस्पार्सएप्लाईएडग्रेडडा.ऑप्शन | यूज़लॉकिंग (बूलियन यूज़लॉकिंग) |
विरासत में मिली विधियाँ
स्थिरांक
सार्वजनिक स्थैतिक अंतिम स्ट्रिंग OP_NAME
इस ऑप का नाम, जैसा कि TensorFlow कोर इंजन द्वारा जाना जाता है
स्थिर मान: "ResourceSparseApplyAdagradDA"
सार्वजनिक तरीके
सार्वजनिक स्थैतिक संसाधनSparseApplyAdagradDa क्रिएट ( स्कोप स्कोप, ऑपरेंड <?> var, ऑपरेंड <?> ग्रेडिएंट एक्युमुलेटर, ऑपरेंड <?> ग्रेडिएंटस्क्वेयर एक्युमुलेटर, ऑपरेंड <T> ग्रेड, ऑपरेंड <? एक्सटेंड्स TNumber > इंडेक्स, ऑपरेंड <T> lr, ऑपरेंड <T> एल1, ऑपरेंड <टी> एल2, ऑपरेंड < टीआईएनटी64 > ग्लोबलस्टेप, विकल्प... विकल्प)
एक नए रिसोर्सस्पार्सएप्लाईएडाग्रेडडा ऑपरेशन को लपेटकर एक क्लास बनाने की फ़ैक्टरी विधि।
पैरामीटर
दायरा | वर्तमान दायरा |
---|---|
वर | एक वेरिएबल() से होना चाहिए। |
ग्रेडिएंट एक्युमुलेटर | एक वेरिएबल() से होना चाहिए। |
gradientSquaredAccumulator | एक वेरिएबल() से होना चाहिए। |
ग्रैड | ढाल. |
सूचकांक | var और accum के पहले आयाम में सूचकांकों का एक वेक्टर। |
एलआर | सीखने की दर। एक अदिश राशि होनी चाहिए. |
एल1 | एल1 नियमितीकरण. एक अदिश राशि होनी चाहिए. |
एल2 | L2 नियमितीकरण. एक अदिश राशि होनी चाहिए. |
ग्लोबलस्टेप | प्रशिक्षण चरण संख्या. एक अदिश राशि होनी चाहिए. |
विकल्प | वैकल्पिक गुण मान रखता है |
रिटर्न
- resourceSparseApplyAdagradDa का एक नया उदाहरण
सार्वजनिक स्थैतिक संसाधनSparseApplyAdagradDa.Options उपयोगलॉकिंग (बूलियन उपयोगलॉकिंग)
पैरामीटर
लॉकिंग का उपयोग करें | यदि सत्य है, तो var और Accum Tensors का अद्यतनीकरण एक लॉक द्वारा सुरक्षित किया जाएगा; अन्यथा व्यवहार अपरिभाषित है, लेकिन कम विवाद प्रदर्शित कर सकता है। |
---|