डिबग समर्थन के साथ ADAM एम्बेडिंग पैरामीटर पुनर्प्राप्त करें।
एक ऑप जो एम्बेडिंग से होस्ट मेमोरी तक ऑप्टिमाइज़ेशन पैरामीटर पुनर्प्राप्त करता है। कॉन्फिगरटीपीयूएम्बेडिंगहोस्ट ऑप से पहले होना चाहिए जो सही एम्बेडिंग टेबल कॉन्फ़िगरेशन सेट करता है। उदाहरण के लिए, इस ऑप का उपयोग चेकपॉइंट को सहेजने से पहले अद्यतन पैरामीटर पुनर्प्राप्त करने के लिए किया जाता है।
नेस्टेड क्लासेस
कक्षा | TPUEmbeddingADAMParametersGradAccumDebug.Options पुनः प्राप्त करें | RetrieveTPUEmbeddingADAMParametersGradAccumDebug के लिए वैकल्पिक विशेषताएँ |
स्थिरांक
डोरी | OP_NAME | इस ऑप का नाम, जैसा कि TensorFlow कोर इंजन द्वारा जाना जाता है |
सार्वजनिक तरीके
स्थैतिक पुनर्प्राप्तिTPUEएंबेडिंगADAMParametersGradAccumDebug.Options | कॉन्फिग (स्ट्रिंग कॉन्फिग) |
स्थैतिक पुनर्प्राप्तिTPUEएंबेडिंगADAMParametersGradAccumDebug | |
आउटपुट < TFloat32 > | ग्रेडिएंट एक्युमुलेटर () पैरामीटर gradient_accumulators ADAM अनुकूलन एल्गोरिथ्म द्वारा अद्यतन किया गया। |
आउटपुट < TFloat32 > | क्षण () ADAM अनुकूलन एल्गोरिदम द्वारा पैरामीटर मोमेंटा अपडेट किया गया। |
आउटपुट < TFloat32 > | पैरामीटर () पैरामीटर पैरामीटर ADAM अनुकूलन एल्गोरिदम द्वारा अद्यतन किए गए। |
स्थैतिक पुनर्प्राप्तिTPUEएंबेडिंगADAMParametersGradAccumDebug.Options | टेबलआईडी (लंबी टेबलआईडी) |
स्थैतिक पुनर्प्राप्तिTPUEएंबेडिंगADAMParametersGradAccumDebug.Options | टेबलनाम (स्ट्रिंग टेबलनाम) |
आउटपुट < TFloat32 > | वेग () ADAM अनुकूलन एल्गोरिथ्म द्वारा अद्यतन पैरामीटर वेग। |
विरासत में मिली विधियाँ
स्थिरांक
सार्वजनिक स्थैतिक अंतिम स्ट्रिंग OP_NAME
इस ऑप का नाम, जैसा कि TensorFlow कोर इंजन द्वारा जाना जाता है
सार्वजनिक तरीके
सार्वजनिक स्थैतिक पुनर्प्राप्तिTPUEएंबेडिंगADAMParametersGradAccumDebug.Options कॉन्फ़िग (स्ट्रिंग कॉन्फ़िग)
सार्वजनिक स्थैतिक पुनः प्राप्त करेंTPUEएंबेडिंगADAMParametersGradAccumDebug बनाएं ( स्कोप स्कोप, लंबी संख्याशार्ड, लंबी शार्डआईडी, विकल्प... विकल्प)
एक नया RetrieveTPUEmbeddingADAMParametersGradAccumDebug ऑपरेशन लपेटकर एक क्लास बनाने की फ़ैक्टरी विधि।
पैरामीटर
दायरा | वर्तमान दायरा |
---|---|
विकल्प | वैकल्पिक गुण मान रखता है |
रिटर्न
- RetrieveTPUEmbeddingADAMParametersGradAccumDebug का एक नया उदाहरण
सार्वजनिक आउटपुट < TFloat32 > gradientAccumulators ()
पैरामीटर gradient_accumulators ADAM अनुकूलन एल्गोरिथ्म द्वारा अद्यतन किया गया।
सार्वजनिक आउटपुट < TFloat32 > क्षण ()
ADAM अनुकूलन एल्गोरिदम द्वारा पैरामीटर मोमेंटा अपडेट किया गया।
सार्वजनिक आउटपुट < TFloat32 > पैरामीटर ()
पैरामीटर पैरामीटर ADAM अनुकूलन एल्गोरिदम द्वारा अद्यतन किए गए।