गति योजना के अनुसार '*var' और '*accum' में प्रासंगिक प्रविष्टियाँ अद्यतन करें।
यदि आप नेस्टरोव संवेग का उपयोग करना चाहते हैं तो use_nesterov = True सेट करें।
यानी उन पंक्तियों के लिए जिनके लिए हमारे पास ग्रेड है, हम var और accum को निम्नानुसार अपडेट करते हैं:
$$accum = accum * momentum + grad$$$$var -= lr * accum$$
नेस्टेड क्लासेस
कक्षा | SparseApplyMomentum.विकल्प | SparseApplyMomentum के लिए वैकल्पिक विशेषताएँ |
स्थिरांक
डोरी | OP_NAME | इस ऑप का नाम, जैसा कि TensorFlow कोर इंजन द्वारा जाना जाता है |
सार्वजनिक तरीके
आउटपुट <T> | आउटपुट के रूप में () टेंसर का प्रतीकात्मक हैंडल लौटाता है। |
स्थिर <T टीटाइप का विस्तार करता है > SparseApplyMomentum <T> | |
आउटपुट <T> | बाहर () "var" के समान। |
स्थिर SparseApplyMomentum.Options | यूज़लॉकिंग (बूलियन यूज़लॉकिंग) |
स्थिर SparseApplyMomentum.Options | यूज़नेस्टरोव (बूलियन यूज़नेस्टरोव) |
विरासत में मिली विधियाँ
स्थिरांक
सार्वजनिक स्थैतिक अंतिम स्ट्रिंग OP_NAME
इस ऑप का नाम, जैसा कि TensorFlow कोर इंजन द्वारा जाना जाता है
सार्वजनिक तरीके
सार्वजनिक आउटपुट <T> asOutput ()
टेंसर का प्रतीकात्मक हैंडल लौटाता है।
TensorFlow संचालन के इनपुट किसी अन्य TensorFlow ऑपरेशन के आउटपुट हैं। इस पद्धति का उपयोग एक प्रतीकात्मक हैंडल प्राप्त करने के लिए किया जाता है जो इनपुट की गणना का प्रतिनिधित्व करता है।
सार्वजनिक स्थैतिक SparseApplyMomentum <T> बनाएं ( स्कोप स्कोप, ऑपरेंड <T> var, ऑपरेंड <T> जमा, ऑपरेंड <T> एलआर, ऑपरेंड <T> ग्रेड, ऑपरेंड <? विस्तारित TNumber > सूचकांक, ऑपरेंड <T> गति, विकल्प ... विकल्प)
एक नए SparseApplyMomentum ऑपरेशन को लपेटकर एक क्लास बनाने की फ़ैक्टरी विधि।
पैरामीटर
दायरा | वर्तमान दायरा |
---|---|
वर | एक वेरिएबल() से होना चाहिए। |
जमा | एक वेरिएबल() से होना चाहिए। |
एलआर | सीखने की दर. एक अदिश राशि होनी चाहिए. |
ग्रैड | ढाल. |
सूचकांक | var और accum के पहले आयाम में सूचकांकों का एक वेक्टर। |
गति | गति. एक अदिश राशि होनी चाहिए. |
विकल्प | वैकल्पिक गुण मान रखता है |
रिटर्न
- SparseApplyMomentum का एक नया उदाहरण
सार्वजनिक स्थैतिक SparseApplyMomentum.Options यूज़लॉकिंग (बूलियन यूज़लॉकिंग)
पैरामीटर
लॉकिंग का उपयोग करें | यदि `सही` है, तो var और Accum Tensors का अद्यतनीकरण एक लॉक द्वारा संरक्षित किया जाएगा; अन्यथा व्यवहार अपरिभाषित है, लेकिन कम विवाद प्रदर्शित कर सकता है। |
---|
सार्वजनिक स्थैतिक SparseApplyMomentum.Options उपयोगनेस्टरोव (बूलियन उपयोगनेस्टरोव)
पैरामीटर
नेस्टरोव का उपयोग करें | यदि `सही` है, तो ग्रेड की गणना करने के लिए पारित टेंसर var - lr * संवेग * accum होगा, इसलिए अंत में, आपको जो var मिलता है वह वास्तव में var - lr * संवेग * accum है। |
---|