प्रशिक्षण ऑप्स
सारांश
कक्षाओं | |
---|---|
टेंसरफ्लो:: ऑप्स:: अप्लाईएडेल्टा | एडडेल्टा योजना के अनुसार '*var' को अपडेट करें। |
टेंसरफ्लो:: ऑप्स:: अप्लाईएडाग्रेड | एडाग्रेड योजना के अनुसार '*var' को अपडेट करें। |
टेंसरफ़्लो:: ऑप्स:: ApplyAdagradDA | समीपस्थ एडाग्रैड योजना के अनुसार '*var' को अपडेट करें। |
टेंसरफ़्लो:: ऑप्स:: अप्लाईएडम | एडम एल्गोरिथम के अनुसार '*var' को अपडेट करें। |
टेंसरफ़्लो:: ऑप्स:: ApplyAddSign | ऐडसाइन अपडेट के अनुसार '*var' को अपडेट करें। |
टेंसरफ्लो:: ऑप्स:: अप्लाईसेंटर्डआरएमएसपीप्रॉप | केन्द्रित RMSProp एल्गोरिथम के अनुसार '*var' को अपडेट करें। |
टेंसरफ्लो:: ऑप्स:: ApplyFtrl | Ftrl-प्रॉक्सिमल योजना के अनुसार '*var' को अपडेट करें। |
टेंसरफ्लो:: ऑप्स:: ApplyFtrlV2 | Ftrl-प्रॉक्सिमल योजना के अनुसार '*var' को अपडेट करें। |
टेंसरफ्लो:: ऑप्स:: अप्लाईग्रेडिएंटडिसेंट | इसमें से 'अल्फा' * 'डेल्टा' घटाकर '*var' को अपडेट करें। |
टेंसरफ़्लो:: ऑप्स:: अप्लाईमोमेंटम | गति योजना के अनुसार '*var' को अपडेट करें। |
टेंसरफ्लो:: ऑप्स:: अप्लाईपावरसाइन | ऐडसाइन अपडेट के अनुसार '*var' को अपडेट करें। |
टेंसरफ्लो:: ऑप्स:: अप्लाईप्रॉक्सिमलएडाग्रेड | Adagrad सीखने की दर के साथ FOBOS के अनुसार '*var' और '*accum' को अपडेट करें। |
टेंसरफ़्लो:: ऑप्स:: अप्लाईप्रॉक्सिमलग्रेडिएंटडिसेंट | निश्चित सीखने की दर के साथ '*var' को FOBOS एल्गोरिदम के रूप में अपडेट करें। |
टेंसरफ्लो:: ऑप्स:: अप्लाईआरएमएसप्रॉप | RMSProp एल्गोरिथम के अनुसार '*var' को अपडेट करें। |
टेंसरफ्लो:: ऑप्स:: रिसोर्सएप्लाईएडेल्टा | एडडेल्टा योजना के अनुसार '*var' को अपडेट करें। |
टेंसरफ्लो:: ऑप्स:: रिसोर्सएप्लाईएडग्रेड | एडाग्रेड योजना के अनुसार '*var' को अपडेट करें। |
टेंसरफ्लो:: ऑप्स:: रिसोर्सएप्लाईएडग्रेडडीए | समीपस्थ एडाग्रैड योजना के अनुसार '*var' को अपडेट करें। |
टेंसरफ़्लो:: ऑप्स:: रिसोर्सएप्लाईएडम | एडम एल्गोरिथम के अनुसार '*var' को अपडेट करें। |
टेंसरफ्लो:: ऑप्स:: रिसोर्सएप्लाईएडमविथएम्सग्रेड | एडम एल्गोरिथम के अनुसार '*var' को अपडेट करें। |
टेंसरफ्लो:: ऑप्स:: रिसोर्सएप्लाईऐडसाइन | ऐडसाइन अपडेट के अनुसार '*var' को अपडेट करें। |
टेंसरफ्लो:: ऑप्स:: रिसोर्सएप्लाईसेंटर्डआरएमएसपीप्रॉप | केन्द्रित RMSProp एल्गोरिथम के अनुसार '*var' को अपडेट करें। |
टेंसरफ़्लो:: ऑप्स:: रिसोर्सएप्लाईFtrl | Ftrl-प्रॉक्सिमल योजना के अनुसार '*var' को अपडेट करें। |
टेंसरफ़्लो:: ऑप्स:: रिसोर्सएप्लाईFtrlV2 | Ftrl-प्रॉक्सिमल योजना के अनुसार '*var' को अपडेट करें। |
टेंसरफ्लो:: ऑप्स:: रिसोर्सएप्लाईग्रैडिएंटडिसेंट | इसमें से 'अल्फा' * 'डेल्टा' घटाकर '*var' को अपडेट करें। |
टेंसरफ़्लो:: ऑप्स:: रिसोर्सअप्लाईकेरसमोमेंटम | गति योजना के अनुसार '*var' को अपडेट करें। |
टेंसरफ्लो:: ऑप्स:: रिसोर्सएप्लाईमोमेंटम | गति योजना के अनुसार '*var' को अपडेट करें। |
टेंसरफ्लो:: ऑप्स:: रिसोर्सएप्लाईपावरसाइन | ऐडसाइन अपडेट के अनुसार '*var' को अपडेट करें। |
टेंसरफ्लो:: ऑप्स:: रिसोर्सएप्लाईप्रॉक्सिमलएडाग्रेड | Adagrad सीखने की दर के साथ FOBOS के अनुसार '*var' और '*accum' को अपडेट करें। |
टेंसरफ्लो:: ऑप्स:: रिसोर्सएप्लाईप्रॉक्सिमलग्रेडिएंटडिसेंट | निश्चित सीखने की दर के साथ '*var' को FOBOS एल्गोरिदम के रूप में अपडेट करें। |
टेंसरफ्लो:: ऑप्स:: रिसोर्सएप्लाईआरएमएसपीप्रॉप | RMSProp एल्गोरिथम के अनुसार '*var' को अपडेट करें। |
टेंसरफ्लो:: ऑप्स:: रिसोर्सस्पार्सएप्लाईएडडेल्टा | var: एक वेरिएबल() से होना चाहिए। |
टेंसरफ्लो:: ऑप्स:: रिसोर्सस्पार्सएप्लाईएडाग्रेड | एडाग्रेड योजना के अनुसार '*var' और '*accum' में प्रासंगिक प्रविष्टियाँ अद्यतन करें। |
टेंसरफ्लो:: ऑप्स:: रिसोर्सस्पार्सएप्लाईएडग्रेडडीए | समीपस्थ एडाग्रेड योजना के अनुसार '*var' और '*accum' में प्रविष्टियाँ अद्यतन करें। |
टेंसरफ्लो:: ऑप्स:: रिसोर्सस्पार्सएप्लाईसेंटर्डआरएमएसपीप्रॉप | केन्द्रित RMSProp एल्गोरिथम के अनुसार '*var' को अपडेट करें। |
टेंसरफ़्लो:: ऑप्स:: रिसोर्सस्पार्सएप्लाईFtrl | Ftrl-प्रॉक्सिमल योजना के अनुसार '*var' में प्रासंगिक प्रविष्टियाँ अद्यतन करें। |
टेंसरफ़्लो:: ऑप्स:: रिसोर्सस्पार्सएप्लाईFtrlV2 | Ftrl-प्रॉक्सिमल योजना के अनुसार '*var' में प्रासंगिक प्रविष्टियाँ अद्यतन करें। |
टेंसरफ्लो:: ऑप्स:: रिसोर्सस्पार्सएप्लाईकेरसमोमेंटम | गति योजना के अनुसार '*var' और '*accum' में प्रासंगिक प्रविष्टियाँ अद्यतन करें। |
टेंसरफ्लो:: ऑप्स:: रिसोर्सस्पार्सएप्लाईमोमेंटम | गति योजना के अनुसार '*var' और '*accum' में प्रासंगिक प्रविष्टियाँ अद्यतन करें। |
टेंसरफ्लो:: ऑप्स:: रिसोर्सस्पार्सएप्लाईप्रॉक्सिमलएडाग्रेड | FOBOS एल्गोरिथ्म के अनुसार '*var' और '*accum' में विरल अद्यतन प्रविष्टियाँ। |
टेंसरफ्लो:: ऑप्स:: रिसोर्सस्पार्सएप्लाईप्रॉक्सिमलग्रेडिएंटडिसेंट | निश्चित सीखने की दर के साथ एफओबीओएस एल्गोरिदम के रूप में विरल अद्यतन '*var'। |
टेंसरफ्लो:: ऑप्स:: रिसोर्सस्पार्सएप्लाईआरएमएसपीप्रॉप | RMSProp एल्गोरिथम के अनुसार '*var' को अपडेट करें। |
टेंसरफ़्लो:: ऑप्स:: SparseApplyAdadelta | var: एक वेरिएबल() से होना चाहिए। |
टेंसरफ़्लो:: ऑप्स:: SparseApplyAdagrad | एडाग्रेड योजना के अनुसार '*var' और '*accum' में प्रासंगिक प्रविष्टियाँ अद्यतन करें। |
टेंसरफ़्लो:: ऑप्स:: SparseApplyAdagradDA | समीपस्थ एडाग्रेड योजना के अनुसार '*var' और '*accum' में प्रविष्टियाँ अद्यतन करें। |
टेंसरफ़्लो:: ऑप्स:: SparseApplyCenteredRMSProp | केन्द्रित RMSProp एल्गोरिथम के अनुसार '*var' को अपडेट करें। |
टेंसरफ़्लो:: ऑप्स:: SparseApplyFtrl | Ftrl-प्रॉक्सिमल योजना के अनुसार '*var' में प्रासंगिक प्रविष्टियाँ अद्यतन करें। |
टेंसरफ्लो:: ऑप्स:: SparseApplyFtrlV2 | Ftrl-प्रॉक्सिमल योजना के अनुसार '*var' में प्रासंगिक प्रविष्टियाँ अद्यतन करें। |
टेंसरफ्लो:: ऑप्स:: स्पार्सएप्लाईमोमेंटम | गति योजना के अनुसार '*var' और '*accum' में प्रासंगिक प्रविष्टियाँ अद्यतन करें। |
टेंसरफ़्लो:: ऑप्स:: SparseApplyProximalAdagrad | FOBOS एल्गोरिथ्म के अनुसार '*var' और '*accum' में विरल अद्यतन प्रविष्टियाँ। |
टेंसरफ़्लो:: ऑप्स:: SparseApplyProximalGradientDescent | निश्चित सीखने की दर के साथ एफओबीओएस एल्गोरिदम के रूप में विरल अद्यतन '*var'। |
टेंसरफ़्लो:: ऑप्स:: SparseApplyRMSProp | RMSProp एल्गोरिथम के अनुसार '*var' को अपडेट करें। |