सार्वजनिक निर्माता
सार्वजनिक तरीके
स्थिर <T TNumber बढ़ाता है, U TNumber > ऑपरेंड बढ़ाता है | sparseSoftmaxCrossEntropyWithLogits ( स्कोप स्कोप, ऑपरेंड <T> लेबल, ऑपरेंड <U> लॉगिट्स) logits और labels के बीच विरल सॉफ्टमैक्स क्रॉस एन्ट्रापी की गणना करता है। |
विरासत में मिली विधियाँ
सार्वजनिक निर्माता
सार्वजनिक SparseSoftmaxCrossEntropyWithLogits ()
सार्वजनिक तरीके
सार्वजनिक स्थैतिक ऑपरेंड स्पार्ससॉफ्टमैक्सक्रॉसएंट्रॉपीविथलॉगिट्स ( स्कोप स्कोप, ऑपरेंड <टी> लेबल, ऑपरेंड <यू> लॉगिट्स)
logits
और labels
के बीच विरल सॉफ्टमैक्स क्रॉस एन्ट्रापी की गणना करता है।
असतत वर्गीकरण कार्यों में संभाव्यता त्रुटि को मापता है जिसमें वर्ग परस्पर अनन्य होते हैं (प्रत्येक प्रविष्टि बिल्कुल एक वर्ग में होती है)। उदाहरण के लिए, प्रत्येक CIFAR-10 छवि को एक और केवल एक लेबल के साथ लेबल किया गया है: एक छवि एक कुत्ता या ट्रक हो सकती है, लेकिन दोनों नहीं।
टिप्पणी:
इस ऑपरेशन के लिए, किसी दिए गए लेबल की संभावना को विशिष्ट माना जाता है। अर्थात्, सॉफ्ट क्लास की अनुमति नहीं है, और labels
वेक्टर को logits
की प्रत्येक पंक्ति (प्रत्येक मिनीबैच प्रविष्टि) के लिए वास्तविक क्लास के लिए एक एकल विशिष्ट सूचकांक प्रदान करना होगा। प्रत्येक प्रविष्टि के लिए संभाव्यता वितरण के साथ सॉफ्ट सॉफ्टमैक्स वर्गीकरण के लिए, ERROR(/org.tensorflow.op.NnOps#softmaxCrossEntropyWithLogits)
।
चेतावनी:
यह ऑप अनस्केल्ड लॉग की अपेक्षा करता है, क्योंकि यह दक्षता के लिए आंतरिक रूप से logits
पर softmax
निष्पादित करता है। इस ऑप को softmax
के आउटपुट के साथ कॉल न करें, क्योंकि यह गलत परिणाम देगा।
एक सामान्य उपयोग के मामले में आकार के लॉगिट होते हैं [batchSize, numClasses]
और आकार के लेबल होते हैं [batchSize]
, लेकिन उच्च आयाम समर्थित हैं, जिस स्थिति में dim
-वें आयाम को numClasses
आकार का माना जाता है। logits
पास होना चाहिएTFloat16
, TFloat32
, या TFloat64
, और labels
TInt32
या TInt64
का dtype होना चाहिए।
पैरामीटर
दायरा | वर्तमान दायरा |
---|---|
लेबल | आकार का Tensor [d_0, d_1, ..., d_{r-1}] (जहाँ r labels और परिणाम की रैंक है) और डेटा प्रकार TInt32 या TInt64 है। labels में प्रत्येक प्रविष्टि [0, numClasses) में एक अनुक्रमणिका होनी चाहिए। जब यह ऑप सीपीयू पर चलाया जाता है तो अन्य मान एक अपवाद उठाएंगे, और जीपीयू पर संबंधित हानि और ग्रेडिएंट पंक्तियों के लिए NaN लौटाएंगे। |
logits | आकार के प्रति-लेबल सक्रियण (आमतौर पर एक रैखिक आउटपुट) [d_0, d_1, ..., d_{r-1}, numClasses] और TFloat16 , TFloat32 , या TFloat64 का डेटा प्रकार। इन सक्रियण ऊर्जाओं की व्याख्या असामान्य लॉग संभावनाओं के रूप में की जाती है। |
रिटर्न
-
labels
के समान आकार का और सॉफ्टमैक्स क्रॉस एन्ट्रॉपी हानि के साथlogits
के समान प्रकार का एकTensor
।
फेंकता
अवैध तर्क अपवाद | यदि लॉग स्केलर हैं (रैंक> = 1 की आवश्यकता है) या यदि लेबल की रैंक लॉग की रैंक शून्य से एक के बराबर नहीं है। |
---|