कक्षाओं
सक्रियण <T TNumber बढ़ाता है > | सक्रियणों के लिए सार आधार वर्ग नोट: कॉल विधि को लागू करने से पहले |
ELU <T TFloating का विस्तार करता है > | घातीय रैखिक इकाई. |
घातांक <T TFloating का विस्तार करता है > | घातांकीय सक्रियण फ़ंक्शन. |
हार्डसिग्मॉइड <टी टीएफफ्लोटिंग का विस्तार करता है > | कठोर सिग्मॉइड सक्रियण. |
रैखिक <U TNumber का विस्तार करता है > | रैखिक सक्रियण फ़ंक्शन (पास-थ्रू)। |
ReLU <T TNumber बढ़ाता है > | रेक्टिफाइड लीनियर यूनिट (ReLU) सक्रियण। |
SELU <T TFloating का विस्तार करता है > | स्केल्ड एक्सपोनेंशियल लीनियर यूनिट (SELU)। |
सिग्मॉइड <टी टीएफफ्लोटिंग का विस्तार करता है > | सिग्मॉइड सक्रियण. |
सॉफ्टमैक्स <टी टीएफफ्लोटिंग का विस्तार करता है > | सॉफ्टमैक्स एक वास्तविक वेक्टर को श्रेणीबद्ध संभावनाओं के वेक्टर में परिवर्तित करता है। |
सॉफ्टप्लस <टी टीएफफ्लोटिंग का विस्तार करता है > | सॉफ्टप्लस सक्रियण फ़ंक्शन, softplus(x) = log(exp(x) + 1) |
सॉफ़्टसाइन <टी टीफ़्लोटिंग का विस्तार करता है > | सॉफ्टसाइन सक्रियण फ़ंक्शन, softsign(x) = x / (abs(x) + 1) . |
स्विश <T TFloating का विस्तार करता है > | स्विश सक्रियण फ़ंक्शन। |
Tanh <T TFloating का विस्तार करता है > | अतिशयोक्तिपूर्ण स्पर्शरेखा सक्रियण फ़ंक्शन। |