निम्नलिखित कार्य विश्व स्तर पर उपलब्ध हैं।
पूर्वानुमानों और अपेक्षाओं के बीच L1 हानि लौटाता है।
घोषणा
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func l1Loss<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
पैरामीटर
predicted
तंत्रिका नेटवर्क से अनुमानित आउटपुट।
expected
अपेक्षित मान, यानी लक्ष्य, जो सही आउटपुट के अनुरूप हैं।
पूर्वानुमानों और अपेक्षाओं के बीच L2 हानि लौटाता है।
घोषणा
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func l2Loss<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
पैरामीटर
predicted
तंत्रिका नेटवर्क से अनुमानित आउटपुट।
expected
अपेक्षित मान, यानी लक्ष्य, जो सही आउटपुट के अनुरूप हैं।
पूर्वानुमानों और अपेक्षाओं के बीच का नुकसान लौटाता है।
घोषणा
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func hingeLoss<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
पैरामीटर
predicted
तंत्रिका नेटवर्क से अनुमानित आउटपुट।
expected
अपेक्षित मान, यानी लक्ष्य, जो सही आउटपुट के अनुरूप हैं।
पूर्वानुमानों और अपेक्षाओं के बीच वर्गाकार हिंज हानि लौटाता है।
घोषणा
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func squaredHingeLoss<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
पैरामीटर
predicted
तंत्रिका नेटवर्क से अनुमानित आउटपुट।
expected
अपेक्षित मान, यानी लक्ष्य, जो सही आउटपुट के अनुरूप हैं।
पूर्वानुमानों और अपेक्षाओं के बीच श्रेणीगत हिंज हानि लौटाता है।
घोषणा
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func categoricalHingeLoss<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
पैरामीटर
predicted
तंत्रिका नेटवर्क से अनुमानित आउटपुट।
expected
अपेक्षित मान, यानी लक्ष्य, जो सही आउटपुट के अनुरूप हैं।
पूर्वानुमानों और अपेक्षाओं के बीच त्रुटि की अतिपरवलयिक कोज्या का लघुगणक लौटाता है।
घोषणा
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func logCoshLoss<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
पैरामीटर
predicted
तंत्रिका नेटवर्क से अनुमानित आउटपुट।
expected
अपेक्षित मान, यानी लक्ष्य, जो सही आउटपुट के अनुरूप हैं।
पूर्वानुमानों और अपेक्षाओं के बीच पॉइसन हानि लौटाता है।
घोषणा
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func poissonLoss<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
पैरामीटर
predicted
तंत्रिका नेटवर्क से अनुमानित आउटपुट।
expected
अपेक्षित मान, यानी लक्ष्य, जो सही आउटपुट के अनुरूप हैं।
अपेक्षाओं और भविष्यवाणियों के बीच कुल्बैक-लीबलर विचलन (केएल विचलन) लौटाता है। दो वितरणों
p
औरq
देखते हुए, KL विचलनp * log(p / q)
की गणना करता है।घोषणा
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func kullbackLeiblerDivergence<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
पैरामीटर
predicted
तंत्रिका नेटवर्क से अनुमानित आउटपुट।
expected
अपेक्षित मान, यानी लक्ष्य, जो सही आउटपुट के अनुरूप हैं।
लॉगिट और लेबल के बीच सॉफ्टमैक्स क्रॉस एन्ट्रॉपी (श्रेणीबद्ध क्रॉस एन्ट्रॉपी) लौटाता है।
घोषणा
@differentiable(wrt: logits) public func softmaxCrossEntropy<Scalar: TensorFlowFloatingPoint>( logits: Tensor<Scalar>, probabilities: Tensor<Scalar> ) -> Tensor<Scalar>
पैरामीटर
logits
एक तंत्रिका नेटवर्क से एक-हॉट एन्कोडेड आउटपुट।
labels
सही आउटपुट के सूचकांक (शून्य-अनुक्रमित)।
लॉगिट्स और लेबल के बीच सिग्मॉइड क्रॉस एन्ट्रॉपी (बाइनरी क्रॉस एन्ट्रॉपी) लौटाता है।
घोषणा
@differentiable(wrt: logits) @differentiable(wrt: (logits, labels) public func sigmoidCrossEntropy<Scalar: TensorFlowFloatingPoint>( logits: Tensor<Scalar>, labels: Tensor<Scalar> ) -> Tensor<Scalar>
पैरामीटर
logits
एक तंत्रिका नेटवर्क का अनस्केल्ड आउटपुट।
labels
पूर्णांक मान जो सही आउटपुट के अनुरूप हैं।
निर्दिष्ट टेंसर के समान आकार और स्केलर वाला एक टेंसर लौटाता है।
घोषणा
@differentiable public func identity<Scalar>(_ x: Tensor<Scalar>) -> Tensor<Scalar> where Scalar : TensorFlowScalar
दिए गए समापन को एक ऐसे संदर्भ में कॉल करता है जिसमें दिए गए सीखने के चरण को छोड़कर सब कुछ वर्तमान संदर्भ के समान है।
घोषणा
public func withContext<R>(_ context: Context, _ body: () throws -> R) rethrows -> R
पैरामीटर
context
एक संदर्भ जिसे क्लोजर से पहले सेट किया जाएगा और क्लोजर वापस आने के बाद उसे बहाल किया जाएगा।
body
एक अशक्त समापन. यदि क्लोजर में रिटर्न वैल्यू है, तो उस वैल्यू का उपयोग
withContext(_:_:)
फ़ंक्शन के रिटर्न वैल्यू के रूप में भी किया जाता है।वापसी मूल्य
body
क्लोजर का रिटर्न वैल्यू, यदि कोई हो।दिए गए समापन को एक ऐसे संदर्भ में कॉल करता है जिसमें दिए गए सीखने के चरण को छोड़कर सब कुछ वर्तमान संदर्भ के समान है।
घोषणा
public func withLearningPhase<R>( _ learningPhase: LearningPhase, _ body: () throws -> R ) rethrows -> R
पैरामीटर
learningPhase
एक सीखने का चरण जिसे क्लोजर से पहले सेट किया जाएगा और क्लोजर वापस आने के बाद उसे बहाल किया जाएगा।
body
एक अशक्त समापन. यदि क्लोजर में रिटर्न वैल्यू है, तो उस वैल्यू का उपयोग
withLearningPhase(_:_:)
फ़ंक्शन के रिटर्न वैल्यू के रूप में भी किया जाता है।वापसी मूल्य
body
क्लोजर का रिटर्न वैल्यू, यदि कोई हो।दिए गए क्लोजर को एक ऐसे संदर्भ में कॉल करता है जिसमें दिए गए यादृच्छिक बीज को छोड़कर सब कुछ वर्तमान संदर्भ के समान है।
घोषणा
public func withRandomSeedForTensorFlow<R>( _ randomSeed: TensorFlowSeed, _ body: () throws -> R ) rethrows -> R
पैरामीटर
randomSeed
एक यादृच्छिक बीज जिसे बंद होने से पहले सेट किया जाएगा और बंद होने के बाद वापस बुलाया जाएगा और बहाल किया जाएगा।
body
एक अशक्त समापन. यदि क्लोजर में रिटर्न वैल्यू है, तो उस वैल्यू का उपयोग
withRandomSeedForTensorFlow(_:_:)
फ़ंक्शन के रिटर्न वैल्यू के रूप में भी किया जाता है।वापसी मूल्य
body
क्लोजर का रिटर्न वैल्यू, यदि कोई हो।दिए गए क्लोजर को एक ऐसे संदर्भ में कॉल करता है जिसमें दिए गए यादृच्छिक संख्या जनरेटर को छोड़कर वर्तमान संदर्भ के समान सब कुछ है।
घोषणा
public func withRandomNumberGeneratorForTensorFlow<G: RandomNumberGenerator, R>( _ randomNumberGenerator: inout G, _ body: () throws -> R ) rethrows -> R
पैरामीटर
randomNumberGenerator
एक यादृच्छिक संख्या जनरेटर जिसे बंद होने से पहले सेट किया जाएगा और बंद होने के बाद वापस बुलाया जाएगा और बहाल किया जाएगा।
body
एक अशक्त समापन. यदि क्लोजर में रिटर्न वैल्यू है, तो उस वैल्यू का उपयोग
withRandomNumberGeneratorForTensorFlow(_:_:)
फ़ंक्शन के रिटर्न वैल्यू के रूप में भी किया जाता है।वापसी मूल्य
body
क्लोजर का रिटर्न वैल्यू, यदि कोई हो।घोषणा
public func zip<T: TensorGroup, U: TensorGroup>( _ dataset1: Dataset<T>, _ dataset2: Dataset<U> ) -> Dataset<Zip2TensorGroup<T, U>>
LazyTensorBarrier सुनिश्चित करता है कि सभी लाइव टेंसर (डिवाइस पर यदि उपलब्ध कराए गए हैं) शेड्यूल किए गए हैं और चल रहे हैं। यदि प्रतीक्षा को सत्य पर सेट किया गया है, तो यह कॉल गणना पूरी होने तक ब्लॉक हो जाती है।
घोषणा
public func valueWithGradient<T, R>( at x: T, in f: @differentiable (T) -> Tensor<R> ) -> (value: Tensor<R>, gradient: T.TangentVector) where T: Differentiable, R: TensorFlowFloatingPoint
घोषणा
public func valueWithGradient<T, U, R>( at x: T, _ y: U, in f: @differentiable (T, U) -> Tensor<R> ) -> (value: Tensor<R>, gradient: (T.TangentVector, U.TangentVector)) where T: Differentiable, U: Differentiable, R: TensorFlowFloatingPoint
घोषणा
public func valueWithGradient<T, U, V, R>( at x: T, _ y: U, _ z: V, in f: @differentiable (T, U, V) -> Tensor<R> ) -> (value: Tensor<R>, gradient: (T.TangentVector, U.TangentVector, V.TangentVector)) where T: Differentiable, U: Differentiable, V: Differentiable, R: TensorFlowFloatingPoint
घोषणा
public func valueWithGradient<T, R>( of f: @escaping @differentiable (T) -> Tensor<R> ) -> (T) -> (value: Tensor<R>, gradient: T.TangentVector) where T: Differentiable, R: TensorFlowFloatingPoint
घोषणा
public func valueWithGradient<T, U, R>( of f: @escaping @differentiable (T, U) -> Tensor<R> ) -> (T, U) -> (value: Tensor<R>, gradient: (T.TangentVector, U.TangentVector)) where T: Differentiable, U: Differentiable, R: TensorFlowFloatingPoint
घोषणा
public func valueWithGradient<T, U, V, R>( of f: @escaping @differentiable (T, U, V) -> Tensor<R> ) -> (T, U, V) -> ( value: Tensor<R>, gradient: (T.TangentVector, U.TangentVector, V.TangentVector) ) where T: Differentiable, U: Differentiable, V: Differentiable, R: TensorFlowFloatingPoint
घोषणा
public func gradient<T, R>( at x: T, in f: @differentiable (T) -> Tensor<R> ) -> T.TangentVector where T: Differentiable, R: TensorFlowFloatingPoint
घोषणा
public func gradient<T, U, R>( at x: T, _ y: U, in f: @differentiable (T, U) -> Tensor<R> ) -> (T.TangentVector, U.TangentVector) where T: Differentiable, U: Differentiable, R: TensorFlowFloatingPoint
घोषणा
public func gradient<T, U, V, R>( at x: T, _ y: U, _ z: V, in f: @differentiable (T, U, V) -> Tensor<R> ) -> (T.TangentVector, U.TangentVector, V.TangentVector) where T: Differentiable, U: Differentiable, V: Differentiable, R: TensorFlowFloatingPoint
घोषणा
public func gradient<T, R>( of f: @escaping @differentiable (T) -> Tensor<R> ) -> (T) -> T.TangentVector where T: Differentiable, R: TensorFlowFloatingPoint
घोषणा
public func gradient<T, U, R>( of f: @escaping @differentiable (T, U) -> Tensor<R> ) -> (T, U) -> (T.TangentVector, U.TangentVector) where T: Differentiable, U: Differentiable, R: TensorFlowFloatingPoint
घोषणा
public func gradient<T, U, V, R>( of f: @escaping @differentiable (T, U, V) -> Tensor<R> ) -> (T, U, V) -> (T.TangentVector, U.TangentVector, V.TangentVector) where T: Differentiable, U: Differentiable, V: Differentiable, R: TensorFlowFloatingPoint
किसी फ़ंक्शन को उसके पुलबैक में पुन: संगणित करें, जिसे पारंपरिक स्वचालित विभेदन में "चेकपॉइंटिंग" के रूप में जाना जाता है।
घोषणा
public func withRecomputationInPullbacks<T, U>( _ body: @escaping @differentiable (T) -> U ) -> @differentiable (T) -> U where T : Differentiable, U : Differentiable
वेक्टर-जैकोबियन उत्पाद फ़ंक्शन से एक भिन्न फ़ंक्शन बनाएं।
घोषणा
public func differentiableFunction<T : Differentiable, R : Differentiable>( from vjp: @escaping (T) -> (value: R, pullback: (R.TangentVector) -> T.TangentVector) ) -> @differentiable (T) -> R
वेक्टर-जैकोबियन उत्पाद फ़ंक्शन से एक भिन्न फ़ंक्शन बनाएं।
घोषणा
public func differentiableFunction<T, U, R>( from vjp: @escaping (T, U) -> (value: R, pullback: (R.TangentVector) -> (T.TangentVector, U.TangentVector)) ) -> @differentiable (T, U) -> R
एक पहचान फ़ंक्शन की तरह
x
लौटाता है। जब ऐसे संदर्भ में उपयोग किया जाता है जहांx
के संबंध में विभेदित किया जा रहा है, तो यह फ़ंक्शनx
पर कोई व्युत्पन्न उत्पन्न नहीं करेगा।घोषणा
@_semantics("autodiff.nonvarying") public func withoutDerivative<T>(at x: T) -> T
दिए गए क्लोजर
body
x
पर लागू करता है। जब ऐसे संदर्भ में उपयोग किया जाता है जहांx
के संबंध में विभेदित किया जा रहा है, तो यह फ़ंक्शनx
पर कोई व्युत्पन्न उत्पन्न नहीं करेगा।घोषणा
@_semantics("autodiff.nonvarying") public func withoutDerivative<T, R>(at x: T, in body: (T) -> R) -> R
एक क्लोजर निष्पादित करता है, जिससे TensorFlow संचालन एक विशिष्ट प्रकार के डिवाइस पर चलता है।
घोषणा
public func withDevice<R>( _ kind: DeviceKind, _ index: UInt = 0, perform body: () throws -> R ) rethrows -> R
पैरामीटर
kind
TensorFlow ऑपरेशन चलाने के लिए एक प्रकार का उपकरण।
index
ऑप्स चलाने के लिए उपकरण.
body
एक क्लोजर जिसका TensorFlow संचालन निर्दिष्ट प्रकार के डिवाइस पर निष्पादित किया जाना है।
एक क्लोजर निष्पादित करता है, जिससे TensorFlow संचालन एक विशिष्ट नाम वाले डिवाइस पर चलता है।
डिवाइस नामों के कुछ उदाहरण:
- "/डिवाइस:सीपीयू:0": आपकी मशीन का सीपीयू।
- "/GPU:0": आपकी मशीन के पहले GPU के लिए शॉर्ट-हैंड नोटेशन जो TensorFlow को दिखाई देता है
- "/जॉब:लोकलहोस्ट/रेप्लिका:0/टास्क:0/डिवाइस:जीपीयू:1": आपकी मशीन के दूसरे जीपीयू का पूर्णतः योग्य नाम जो टेन्सरफ्लो को दिखाई देता है।
घोषणा
public func withDevice<R>(named name: String, perform body: () throws -> R) rethrows -> R
पैरामीटर
name
डिवाइस का नाम।
body
एक क्लोजर जिसका TensorFlow संचालन निर्दिष्ट प्रकार के डिवाइस पर निष्पादित किया जाना है।
एक क्लोजर निष्पादित करता है, जिससे TensorFlow को किसी भी डिवाइस पर TensorFlow संचालन करने की अनुमति मिलती है। इससे डिफ़ॉल्ट प्लेसमेंट व्यवहार बहाल हो जाना चाहिए.
घोषणा
public func withDefaultDevice<R>(perform body: () throws -> R) rethrows -> R
पैरामीटर
body
एक क्लोजर जिसका TensorFlow संचालन निर्दिष्ट प्रकार के डिवाइस पर निष्पादित किया जाना है।
निर्दिष्ट विधि का उपयोग करके छवियों का आकार बदलें।
शर्त लगाना
छवियों की रैंक3
या4
होनी चाहिए।शर्त लगाना
आकार सकारात्मक होना चाहिए.घोषणा
@differentiable(wrt: images) public func resize( images: Tensor<Float>, size: (newHeight: Int, newWidth: Int), method: ResizeMethod = .bilinear, antialias: Bool = false ) -> Tensor<Float>
क्षेत्र प्रक्षेप का उपयोग करके छवियों का आकार बदलें।
शर्त लगाना
छवियों की रैंक3
या4
होनी चाहिए।शर्त लगाना
आकार सकारात्मक होना चाहिए.घोषणा
public func resizeArea<Scalar: TensorFlowNumeric>( images: Tensor<Scalar>, size: (newHeight: Int, newWidth: Int), alignCorners: Bool = false ) -> Tensor<Float>
निर्दिष्ट इनपुट, फ़िल्टर, स्ट्राइड्स और पैडिंग के साथ 2-डी फैलाव लौटाता है।
शर्त लगाना
input
रैंक4
होनी चाहिए।शर्त लगाना
filter
की रैंक3
होनी चाहिए.घोषणा
@differentiable(wrt: (input, filter) public func dilation2D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filter: Tensor<Scalar>, strides: (Int, Int, Int, Int) = (1, 1, 1, 1), rates: (Int, Int, Int, Int) = (1, 1, 1, 1), padding: Padding = .valid ) -> Tensor<Scalar>
पैरामीटर
input
इनपुट.
filter
फैलाव फ़िल्टर.
strides
इनपुट के प्रत्येक आयाम के लिए स्लाइडिंग फ़िल्टर की प्रगति।
padding
ऑपरेशन के लिए पैडिंग
rates
इनपुट के प्रत्येक आयाम के लिए फैलाव दर.
निर्दिष्ट इनपुट, फ़िल्टर, स्ट्राइड्स और पैडिंग के साथ 2-डी क्षरण लौटाता है।
शर्त लगाना
input
रैंक4
होनी चाहिए।शर्त लगाना
filter
की रैंक 3 होनी चाहिए.घोषणा
@differentiable(wrt: (input, filter) public func erosion2D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filter: Tensor<Scalar>, strides: (Int, Int, Int, Int) = (1, 1, 1, 1), rates: (Int, Int, Int, Int) = (1, 1, 1, 1), padding: Padding = .valid ) -> Tensor<Scalar>
पैरामीटर
input
इनपुट.
filter
कटाव फिल्टर.
strides
इनपुट के प्रत्येक आयाम के लिए स्लाइडिंग फ़िल्टर की प्रगति।
padding
ऑपरेशन के लिए पैडिंग
rates
इनपुट के प्रत्येक आयाम के लिए फैलाव दर.
एक फ़ंक्शन लौटाता है जो इसके सभी मानों को शून्य से प्रारंभ करके एक टेंसर बनाता है।
घोषणा
public func zeros<Scalar>() -> ParameterInitializer<Scalar> where Scalar : TensorFlowFloatingPoint
एक फ़ंक्शन लौटाता है जो इसके सभी मानों को दिए गए मान से प्रारंभ करके एक टेंसर बनाता है।
घोषणा
public func constantInitializer<Scalar: TensorFlowFloatingPoint>( value: Scalar ) -> ParameterInitializer<Scalar>
एक फ़ंक्शन लौटाता है जो दिए गए मान पर प्रारंभ करके एक टेंसर बनाता है। ध्यान दें कि प्रदत्त मूल्य का प्रसारण समर्थित नहीं है।
घोषणा
public func constantInitializer<Scalar: TensorFlowFloatingPoint>( value: Tensor<Scalar> ) -> ParameterInitializer<Scalar>
एक फ़ंक्शन लौटाता है जो निर्दिष्ट आकार के लिए ग्लोरोट (ज़ेवियर) समान आरंभीकरण करके एक टेंसर बनाता है, डिफ़ॉल्ट यादृच्छिक संख्या जनरेटर द्वारा उत्पन्न
-limit
औरlimit
के बीच एक समान वितरण से यादृच्छिक रूप से स्केलर मानों का नमूना लेता है, जहां सीमाsqrt(6 / (fanIn + fanOut))
हैsqrt(6 / (fanIn + fanOut))
, औरfanIn
/fanOut
यदि मौजूद है, तो ग्रहणशील क्षेत्र द्वारा गुणा किए गए इनपुट और आउटपुट सुविधाओं की संख्या का प्रतिनिधित्व करते हैं।घोषणा
public func glorotUniform<Scalar: TensorFlowFloatingPoint>( seed: TensorFlowSeed = Context.local.randomSeed ) -> ParameterInitializer<Scalar>
एक फ़ंक्शन लौटाता है जो निर्दिष्ट आकार के लिए ग्लोरोट (जेवियर) सामान्य आरंभीकरण करके एक टेंसर बनाता है, मानक विचलन
sqrt(2 / (fanIn + fanOut))
के साथ0
पर केंद्रित एक काटे गए सामान्य वितरण से यादृच्छिक रूप से स्केलर मानों का नमूना लेता है, जहांfanIn
/fanOut
यदि मौजूद है तो ग्रहणशील क्षेत्र के आकार से गुणा किए गए इनपुट और आउटपुट सुविधाओं की संख्या का प्रतिनिधित्व करें।घोषणा
public func glorotNormal<Scalar: TensorFlowFloatingPoint>( seed: TensorFlowSeed = Context.local.randomSeed ) -> ParameterInitializer<Scalar>
एक फ़ंक्शन लौटाता है जो निर्दिष्ट आकार के लिए हे (काइमिंग) समान आरंभीकरण करके एक टेंसर बनाता है,
-limit
औरlimit
के बीच एक समान वितरण से यादृच्छिक रूप से स्केलर मानों का नमूना लेता है, जो डिफ़ॉल्ट यादृच्छिक संख्या जनरेटर द्वारा उत्पन्न होता है, जहां सीमाsqrt(6 / fanIn)
हैsqrt(6 / fanIn)
, औरfanIn
मौजूद होने पर ग्रहणशील क्षेत्र द्वारा गुणा किए गए इनपुट सुविधाओं की संख्या का प्रतिनिधित्व करता है।घोषणा
public func heUniform<Scalar: TensorFlowFloatingPoint>( seed: TensorFlowSeed = Context.local.randomSeed ) -> ParameterInitializer<Scalar>
एक फ़ंक्शन लौटाता है जो निर्दिष्ट आकार के लिए हे (काइमिंग) सामान्य आरंभीकरण करके एक टेंसर बनाता है, मानक विचलन
sqrt(2 / fanIn)
के साथ0
पर केंद्रित एक काटे गए सामान्य वितरण से यादृच्छिक रूप से स्केलर मानों का नमूना लेता है, जहांfanIn
इनपुट सुविधाओं की संख्या का प्रतिनिधित्व करता है यदि मौजूद हो तो ग्रहणशील क्षेत्र के आकार से गुणा किया जाता है।घोषणा
public func heNormal<Scalar: TensorFlowFloatingPoint>( seed: TensorFlowSeed = Context.local.randomSeed ) -> ParameterInitializer<Scalar>
एक फ़ंक्शन लौटाता है जो निर्दिष्ट आकार के लिए LeCun समान आरंभीकरण करके एक टेंसर बनाता है,
-limit
औरlimit
के बीच एक समान वितरण से यादृच्छिक रूप से स्केलर मानों का नमूना लेता है, जो डिफ़ॉल्ट यादृच्छिक संख्या जनरेटर द्वारा उत्पन्न होता है, जहां सीमाsqrt(3 / fanIn)
है, औरfanIn
, यदि मौजूद है, तो ग्रहणशील क्षेत्र द्वारा गुणा किए गए इनपुट सुविधाओं की संख्या का प्रतिनिधित्व करता है।घोषणा
public func leCunUniform<Scalar: TensorFlowFloatingPoint>( seed: TensorFlowSeed = Context.local.randomSeed ) -> ParameterInitializer<Scalar>
एक फ़ंक्शन लौटाता है जो निर्दिष्ट आकार के लिए LeCun सामान्य आरंभीकरण करके एक टेंसर बनाता है, मानक विचलन
sqrt(1 / fanIn)
के साथ0
पर केंद्रित एक काटे गए सामान्य वितरण से यादृच्छिक रूप से स्केलर मानों का नमूना लेता है, जहांfanIn
द्वारा गुणा किए गए इनपुट सुविधाओं की संख्या का प्रतिनिधित्व करता है ग्रहणशील क्षेत्र का आकार, यदि मौजूद हो।घोषणा
public func leCunNormal<Scalar: TensorFlowFloatingPoint>( seed: TensorFlowSeed = Context.local.randomSeed ) -> ParameterInitializer<Scalar>
एक फ़ंक्शन लौटाता है जो एक काटे गए सामान्य वितरण से उसके सभी मानों को यादृच्छिक रूप से प्रारंभ करके एक टेंसर बनाता है। उत्पन्न मान औसत
mean
और मानक विचलन मानकstandardDeviation
के साथ एक सामान्य वितरण का पालन करते हैं, सिवाय इसके कि जिन मानों का परिमाण माध्य से दो मानक विचलन से अधिक है, उन्हें हटा दिया जाता है और पुन: नमूना लिया जाता है।घोषणा
public func truncatedNormalInitializer<Scalar: TensorFlowFloatingPoint>( mean: Tensor<Scalar> = Tensor<Scalar>(0), standardDeviation: Tensor<Scalar> = Tensor<Scalar>(1), seed: TensorFlowSeed = Context.local.randomSeed ) -> ParameterInitializer<Scalar>
पैरामीटर
mean
सामान्य वितरण का माध्य.
standardDeviation
सामान्य वितरण का मानक विचलन.
वापसी मूल्य
एक छोटा किया गया सामान्य पैरामीटर इनिशियलाइज़र फ़ंक्शन।
घोषणा
public func == (lhs: TFETensorHandle, rhs: TFETensorHandle) -> Bool
एक पहचान मैट्रिक्स या मैट्रिक्स का एक बैच लौटाता है।
घोषणा
पैरामीटर
rowCount
प्रत्येक बैच मैट्रिक्स में पंक्तियों की संख्या.
columnCount
प्रत्येक बैच मैट्रिक्स में स्तंभों की संख्या.
batchShape
लौटाए गए टेंसर के प्रमुख बैच आयाम।
वैकल्पिक रूप से बैच किए गए मैट्रिक्स के ट्रेस की गणना करता है। ट्रेस प्रत्येक आंतरिक मैट्रिक्स के मुख्य विकर्ण का योग है।
इनपुट
[..., M, N]
आकार वाला एक टेंसर है। आउटपुट आकार वाला एक टेंसर है[...]
।शर्त लगाना
matrix
[..., M, N]
आकार वाला एक टेंसर होना चाहिए।घोषणा
@differentiable(wrt: matrix) public func trace<T>(_ matrix: Tensor<T>) -> Tensor<T> where T : Numeric, T : TensorFlowScalar
पैरामीटर
matrix
आकार का एक टेंसर
[..., M, N]
।एक या अधिक वर्ग आव्यूहों का चोल्स्की अपघटन लौटाता है।
इनपुट आकार का एक टेंसर है
[..., M, M]
जिसके सबसे अंदरूनी 2 आयाम वर्ग मैट्रिक्स बनाते हैं।इनपुट सममित और सकारात्मक निश्चित होना चाहिए। इस ऑपरेशन के लिए इनपुट के केवल निचले-त्रिकोणीय भाग का उपयोग किया जाएगा। ऊपरी त्रिकोणीय भाग नहीं पढ़ा जायेगा।
आउटपुट इनपुट के समान आकार का एक टेंसर है जिसमें सभी इनपुट सबमैट्रिसेस के लिए चॉलेस्की डीकंपोजिशन शामिल है
[..., :, :]
।घोषणा
@differentiable public func cholesky<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
पैरामीटर
input
आकार का एक टेंसर
[..., M, M]
।Ax = b
द्वारा निरूपित रैखिक समीकरणों की प्रणाली में समाधानx
लौटाता है।शर्त लगाना
matrix
[..., M, M]
आकार वाला एक टेंसर होना चाहिए।शर्त लगाना
rhs
आकार वाला एक टेंसर होना चाहिए[..., M, K]
।घोषणा
@differentiable public func triangularSolve<T: TensorFlowFloatingPoint>( matrix: Tensor<T>, rhs: Tensor<T>, lower: Bool = true, adjoint: Bool = false ) -> Tensor<T>
पैरामीटर
matrix
इनपुट त्रिकोणीय गुणांक मैट्रिक्स,
Ax = b
मेंA
प्रतिनिधित्व करता है।rhs
दाईं ओर के मान,
Ax = b
मेंb
प्रतिनिधित्व करते हैं।lower
क्या
matrix
निचला त्रिकोणीय (true
) है या ऊपरी त्रिकोणीय (false
) है। डिफ़ॉल्ट मानtrue
है ।adjoint
यदि
true
, तोmatrix
के बजायmatrix
के जोड़ से हल करें। मूल मूल्यfalse
है ।वापसी मूल्य
Ax = b
द्वारा निरूपित रैखिक समीकरणों की प्रणाली का समाधानx
।x
का आकारb
जैसा ही है।expected
औरpredicted
के बीच L1 हानि की गणना करता है।loss = reduction(abs(expected - predicted))
घोषणा
पैरामीटर
predicted
तंत्रिका नेटवर्क से अनुमानित आउटपुट।
expected
अपेक्षित मान, यानी लक्ष्य, जो सही आउटपुट के अनुरूप हैं।
reduction
गणना किए गए तत्व-वार हानि मूल्यों पर लागू होने वाली कटौती।
expected
औरpredicted
के बीच L2 हानि की गणना करता है।loss = reduction(square(expected - predicted))
घोषणा
पैरामीटर
predicted
तंत्रिका नेटवर्क से अनुमानित आउटपुट।
expected
अपेक्षित मान, यानी लक्ष्य, जो सही आउटपुट के अनुरूप हैं।
reduction
गणना किए गए तत्व-वार हानि मूल्यों पर लागू होने वाली कटौती।
लेबल और पूर्वानुमानों के बीच पूर्ण अंतर के माध्य की गणना करता है।
loss = mean(abs(expected - predicted))
घोषणा
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func meanAbsoluteError<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
पैरामीटर
predicted
तंत्रिका नेटवर्क से अनुमानित आउटपुट।
expected
अपेक्षित मान, यानी लक्ष्य, जो सही आउटपुट के अनुरूप हैं।
लेबल और पूर्वानुमानों के बीच त्रुटियों के वर्गों के माध्य की गणना करता है।
loss = mean(square(expected - predicted))
घोषणा
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func meanSquaredError<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
पैरामीटर
predicted
तंत्रिका नेटवर्क से अनुमानित आउटपुट।
expected
अपेक्षित मान, यानी लक्ष्य, जो सही आउटपुट के अनुरूप हैं।
predicted
औरexpected
loss = square(log(expected) - log(predicted))
टिप्पणी
अपरिभाषित लघुगणकीय व्यवहार से बचने के लिए नकारात्मक टेंसर प्रविष्टियों को
0
पर क्लैंप किया जाएगा, क्योंकि नकारात्मक वास्तविकताओं के लिएlog(_:)
अपरिभाषित है।घोषणा
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func meanSquaredLogarithmicError<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
पैरामीटर
predicted
तंत्रिका नेटवर्क से अनुमानित आउटपुट।
expected
अपेक्षित मान, यानी लक्ष्य, जो सही आउटपुट के अनुरूप हैं।
predicted
औरexpected
के बीच माध्य पूर्ण प्रतिशत त्रुटि की गणना करता है।loss = 100 * mean(abs((expected - predicted) / abs(expected)))
घोषणा
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func meanAbsolutePercentageError<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
पैरामीटर
predicted
तंत्रिका नेटवर्क से अनुमानित आउटपुट।
expected
अपेक्षित मान, यानी लक्ष्य, जो सही आउटपुट के अनुरूप हैं।
predicted
औरexpected
के बीच हिंज हानि की गणना करता है।loss = reduction(max(0, 1 - predicted * expected))
expected
मान -1 या 1 होने की उम्मीद है।घोषणा
पैरामीटर
predicted
तंत्रिका नेटवर्क से अनुमानित आउटपुट।
expected
अपेक्षित मान, यानी लक्ष्य, जो सही आउटपुट के अनुरूप हैं।
reduction
गणना किए गए तत्व-वार हानि मूल्यों पर लागू होने वाली कटौती।
predicted
औरexpected
के बीच वर्गाकार काज हानि की गणना करता है।loss = reduction(square(max(0, 1 - predicted * expected)))
expected
मान -1 या 1 होने की उम्मीद है।घोषणा
पैरामीटर
predicted
तंत्रिका नेटवर्क से अनुमानित आउटपुट।
expected
अपेक्षित मान, यानी लक्ष्य, जो सही आउटपुट के अनुरूप हैं।
reduction
गणना किए गए तत्व-वार हानि मूल्यों पर लागू होने वाली कटौती।
predicted
औरexpected
के बीच श्रेणीगत हिंज हानि की गणना करता है।loss = maximum(negative - positive + 1, 0)
जहांnegative = max((1 - expected) * predicted)
औरpositive = sum(predicted * expected)
घोषणा
पैरामीटर
predicted
तंत्रिका नेटवर्क से अनुमानित आउटपुट।
expected
अपेक्षित मान, यानी लक्ष्य, जो सही आउटपुट के अनुरूप हैं।
reduction
गणना किए गए तत्व-वार हानि मूल्यों पर लागू होने वाली कटौती।
पूर्वानुमान त्रुटि की अतिपरवलयिक कोज्या के लघुगणक की गणना करता है।
logcosh = log((exp(x) + exp(-x))/2)
, जहां xpredicted - expected
घोषणा
पैरामीटर
predicted
तंत्रिका नेटवर्क से अनुमानित आउटपुट।
expected
अपेक्षित मान, यानी लक्ष्य, जो सही आउटपुट के अनुरूप हैं।
reduction
गणना किए गए तत्व-वार हानि मूल्यों पर लागू होने वाली कटौती।
अनुमानित और अपेक्षित के बीच पॉइसन हानि की गणना करता है। पॉइसन हानि
Tensor
predicted - expected * log(predicted)
के तत्वों का माध्य है।घोषणा
पैरामीटर
predicted
तंत्रिका नेटवर्क से अनुमानित आउटपुट।
expected
अपेक्षित मान, यानी लक्ष्य, जो सही आउटपुट के अनुरूप हैं।
reduction
गणना किए गए तत्व-वार हानि मूल्यों पर लागू होने वाली कटौती।
expected
औरpredicted
के बीच कुल्बैक-लीब्लर विचलन हानि की गणना करता है।loss = reduction(expected * log(expected / predicted))
घोषणा
पैरामीटर
predicted
तंत्रिका नेटवर्क से अनुमानित आउटपुट।
expected
अपेक्षित मान, यानी लक्ष्य, जो सही आउटपुट के अनुरूप हैं।
reduction
गणना किए गए तत्व-वार हानि मूल्यों पर लागू होने वाली कटौती।
लॉगिट और लेबल के बीच विरल सॉफ्टमैक्स क्रॉस एन्ट्रॉपी (श्रेणीबद्ध क्रॉस एन्ट्रॉपी) की गणना करता है। जब दो या दो से अधिक लेबल वर्ग हों तो इस क्रॉसेंट्रॉपी हानि फ़ंक्शन का उपयोग करें। हम उम्मीद करते हैं कि लेबल पूर्णांक के रूप में प्रदान किए जाएंगे।
logits
के लिए प्रति फीचर# classes
फ़्लोटिंग पॉइंट मान औरexpected
के लिए प्रति फ़ीचर एक एकल फ़्लोटिंग पॉइंट मान होना चाहिए।घोषणा
पैरामीटर
logits
एक तंत्रिका नेटवर्क से एक-हॉट एन्कोडेड आउटपुट।
labels
सही आउटपुट के सूचकांक (शून्य-अनुक्रमित)।
reduction
गणना किए गए तत्व-वार हानि मूल्यों पर लागू होने वाली कटौती।
लॉगिट और लेबल के बीच विरल सॉफ्टमैक्स क्रॉस एन्ट्रॉपी (श्रेणीबद्ध क्रॉस एन्ट्रॉपी) की गणना करता है। जब दो या दो से अधिक लेबल वर्ग हों तो इस क्रॉसेंट्रॉपी हानि फ़ंक्शन का उपयोग करें। हम उम्मीद करते हैं कि लेबल
one_hot
प्रतिनिधित्व में प्रदान किए जाएंगे। प्रति सुविधा# classes
फ़्लोटिंग पॉइंट मान होना चाहिए।घोषणा
पैरामीटर
logits
तंत्रिका नेटवर्क से अनस्केल्ड लॉग संभावनाएँ।
probabilities
संभाव्यता मान जो सही आउटपुट के अनुरूप हैं। प्रत्येक पंक्ति एक वैध संभाव्यता वितरण होनी चाहिए।
reduction
गणना किए गए तत्व-वार हानि मूल्यों पर लागू होने वाली कटौती।
लॉगिट्स और लेबल के बीच सिग्मॉइड क्रॉस एन्ट्रॉपी (बाइनरी क्रॉस एन्ट्रॉपी) की गणना करता है। इस क्रॉस-एन्ट्रॉपी हानि का उपयोग तब करें जब केवल दो लेबल वर्ग हों (0 और 1 माना जाता है)। प्रत्येक उदाहरण के लिए, प्रति भविष्यवाणी एक एकल फ़्लोटिंग-पॉइंट मान होना चाहिए।
घोषणा
पैरामीटर
logits
एक तंत्रिका नेटवर्क का अनस्केल्ड आउटपुट।
labels
पूर्णांक मान जो सही आउटपुट के अनुरूप हैं।
reduction
गणना किए गए तत्व-वार हानि मूल्यों पर लागू होने वाली कटौती।
predicted
औरexpected
के बीच ह्यूबर हानि की गणना करता है।त्रुटि में प्रत्येक मान
x
के लिएerror = expected - predicted
:-
0.5 * x^2
यदि|x| <= δ
. 0.5 * δ^2 + δ * (|x| - δ)
अन्यथा।स्रोत: विकिपीडिया लेख ।
घोषणा
पैरामीटर
predicted
तंत्रिका नेटवर्क से अनुमानित आउटपुट।
expected
अपेक्षित मान, यानी लक्ष्य, जो सही आउटपुट के अनुरूप हैं।
delta
एक फ़्लोटिंग पॉइंट स्केलर उस बिंदु का प्रतिनिधित्व करता है जहां ह्यूबर लॉस फ़ंक्शन द्विघात से रैखिक में बदलता है।
reduction
गणना किए गए तत्व-वार हानि मूल्यों पर लागू होने वाली कटौती।
-
तत्व-वार निर्दिष्ट टेंसर का पूर्ण मान लौटाता है।
घोषणा
@differentiable public func abs<T>(_ x: Tensor<T>) -> Tensor<T> where T : SignedNumeric, T : TensorFlowScalar
तत्व-वार निर्दिष्ट टेंसर का प्राकृतिक लघुगणक लौटाता है।
घोषणा
@differentiable public func log<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
तत्व-वार निर्दिष्ट टेंसर का आधार-दो लघुगणक लौटाता है।
घोषणा
@differentiable public func log2<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
तत्व-वार निर्दिष्ट टेंसर का आधार-दस लघुगणक लौटाता है।
घोषणा
@differentiable public func log10<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
तत्व-वार
1 + x
का लघुगणक लौटाता है।घोषणा
@differentiable public func log1p<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
संख्यात्मक रूप से स्थिर दृष्टिकोण का उपयोग करके
log(1 - exp(x))
लौटाता है।टिप्पणी
दृष्टिकोण को समीकरण 7 में दिखाया गया है: https://cran.r-project.org/web/packages/Rmpfr/vignettes/log1mexp-note.pdf ।घोषणा
@differentiable public func log1mexp<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
तत्व-वार निर्दिष्ट टेंसर की साइन लौटाता है।
घोषणा
@differentiable public func sin<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
तत्व-वार निर्दिष्ट टेंसर की कोज्या लौटाता है।
घोषणा
@differentiable public func cos<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
तत्व-वार निर्दिष्ट टेंसर का स्पर्शरेखा लौटाता है।
घोषणा
@differentiable public func tan<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
तत्व-वार निर्दिष्ट टेंसर की हाइपरबोलिक साइन लौटाता है।
घोषणा
@differentiable public func sinh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
तत्व-वार निर्दिष्ट टेंसर की हाइपरबोलिक कोसाइन लौटाता है।
घोषणा
@differentiable public func cosh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
तत्व-वार निर्दिष्ट टेंसर की अतिशयोक्तिपूर्ण स्पर्शज्या लौटाता है।
घोषणा
@differentiable public func tanh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
तत्व-वार निर्दिष्ट टेंसर का व्युत्क्रम कोज्या लौटाता है।
घोषणा
@differentiable public func acos<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
तत्व-वार निर्दिष्ट टेंसर की व्युत्क्रम ज्या लौटाता है।
घोषणा
@differentiable public func asin<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
तत्व-वार निर्दिष्ट टेंसर का व्युत्क्रम स्पर्शरेखा लौटाता है।
घोषणा
@differentiable public func atan<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
तत्व-वार निर्दिष्ट टेंसर का व्युत्क्रम हाइपरबोलिक कोसाइन लौटाता है।
घोषणा
@differentiable public func acosh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
तत्व-वार निर्दिष्ट टेंसर की व्युत्क्रम हाइपरबोलिक साइन लौटाता है।
घोषणा
@differentiable public func asinh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
तत्व-वार निर्दिष्ट टेंसर का व्युत्क्रम अतिशयोक्तिपूर्ण स्पर्शरेखा लौटाता है।
घोषणा
@differentiable public func atanh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
तत्व-वार निर्दिष्ट टेंसर का वर्गमूल लौटाता है।
घोषणा
@differentiable public func sqrt<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
तत्व-वार निर्दिष्ट टेंसर का व्युत्क्रम वर्गमूल लौटाता है।
घोषणा
@differentiable public func rsqrt<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
तत्व-वार निर्दिष्ट टेंसर का घातांक लौटाता है।
घोषणा
@differentiable public func exp<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
तत्व-वार निर्दिष्ट टेंसर की शक्ति तक बढ़ाए गए दो को लौटाता है।
घोषणा
@differentiable public func exp2<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
तत्व-वार निर्दिष्ट टेंसर की शक्ति तक बढ़ाए गए दस को लौटाता है।
घोषणा
@differentiable public func exp10<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
तत्व-वार
x - 1
का घातांक लौटाता है।घोषणा
@differentiable public func expm1<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
निर्दिष्ट टेंसर के मान को तत्व-वार निकटतम पूर्णांक तक लौटाता है।
घोषणा
@differentiable public func round<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
तत्व-वार निर्दिष्ट टेंसर की छत लौटाता है।
घोषणा
@differentiable public func ceil<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
निर्दिष्ट टेंसर का फ़्लोर तत्व-वार लौटाता है।
घोषणा
@differentiable public func floor<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
तत्व-वार निर्दिष्ट टेंसर के चिह्न का संकेत लौटाता है। विशेष रूप से,
y = sign(x) = -1
गणना करता है यदिx < 0
; 0 यदिx == 0
; 1 यदिx > 0
.घोषणा
@differentiable public func sign<T>(_ x: Tensor<T>) -> Tensor<T> where T : Numeric, T : TensorFlowScalar
तत्व-वार निर्दिष्ट टेंसर का सिग्मॉइड लौटाता है। विशेष रूप से,
1 / (1 + exp(-x))
की गणना करता है।घोषणा
@differentiable public func sigmoid<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
तत्व-वार निर्दिष्ट टेंसर का लॉग-सिग्मॉइड लौटाता है। विशेष रूप से,
log(1 / (1 + exp(-x)))
। संख्यात्मक स्थिरता के लिए, हम-softplus(-x)
उपयोग करते हैं।घोषणा
@differentiable public func logSigmoid<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
तत्व-वार निर्दिष्ट टेंसर का सॉफ्टप्लस लौटाता है। विशेष रूप से,
log(exp(features) + 1)
गणना करता है।घोषणा
@differentiable public func softplus<T>(_ features: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
तत्व-वार निर्दिष्ट टेंसर का सॉफ्टसाइन लौटाता है। विशेष रूप से,
features/ (abs(features) + 1)
गणना करता है।घोषणा
@differentiable public func softsign<T>(_ features: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
अंतिम अक्ष के साथ निर्दिष्ट टेंसर का सॉफ्टमैक्स लौटाता है। विशेष रूप से,
exp(x) / exp(x).sum(alongAxes: -1)
की गणना करता है।घोषणा
@differentiable public func softmax<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
निर्दिष्ट अक्ष के साथ निर्दिष्ट टेंसर का सॉफ्टमैक्स लौटाता है। विशेष रूप से,
exp(x) / exp(x).sum(alongAxes: axis)
की गणना करता है।घोषणा
@differentiable public func softmax<T>(_ x: Tensor<T>, alongAxis axis: Int) -> Tensor<T> where T : TensorFlowFloatingPoint
तत्व-वार निर्दिष्ट टेंसर का लॉग-सॉफ्टमैक्स लौटाता है।
घोषणा
@differentiable public func logSoftmax<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
एक घातीय रैखिक इकाई लागू करके एक टेंसर लौटाता है। विशेष रूप से, यदि < 0 है तो
exp(x) - 1
गणना करता है, अन्यथाx
गणना करता है। एक्सपोनेंशियल लीनियर यूनिट्स (ईएलयू) द्वारा तेज़ और सटीक डीप नेटवर्क लर्निंग देखेंघोषणा
@differentiable public func elu<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
तत्व-वार निर्दिष्ट टेंसर की गॉसियन एरर लीनियर यूनिट (GELU) सक्रियता लौटाता है।
विशेष रूप से,
gelu
xP(X <= x)
का अनुमान लगाता है, जहांP(X <= x)
मानक गाऊसी संचयी वितरण है, गणना करके: x * [0.5 * (1 + tanh[√(2/π) * (x + 0.044715 * x^3)])]।गाऊसी त्रुटि रैखिक इकाइयाँ देखें।
घोषणा
@differentiable public func gelu<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
निर्दिष्ट टेंसर तत्व-वार पर ReLU सक्रियण फ़ंक्शन को लागू करके एक टेंसर लौटाता है। विशेष रूप से,
max(0, x)
गणना करता है।घोषणा
@differentiable public func relu<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
ReLU6 सक्रियण फ़ंक्शन, अर्थात्
min(max(0, x), 6)
लागू करके एक टेंसर लौटाता है।घोषणा
@differentiable public func relu6<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
निर्दिष्ट टेंसर तत्व-वार पर लीकी ReLU सक्रियण फ़ंक्शन को लागू करके एक टेंसर लौटाता है। विशेष रूप से,
max(x, x * alpha)
की गणना करता है।घोषणा
@differentiable(wrt: x) public func leakyRelu<T: TensorFlowFloatingPoint>( _ x: Tensor<T>, alpha: Double = 0.2 ) -> Tensor<T>
SeLU सक्रियण फ़ंक्शन को लागू करके एक टेंसर लौटाता है, अर्थात्
scale * alpha * (exp(x) - 1)
यदिx < 0
, औरscale * x
अन्यथा।टिप्पणी
इसे वेरिएंस स्केलिंग लेयर इनिशियलाइज़र के साथ उपयोग करने के लिए डिज़ाइन किया गया है। कृपया अधिक जानकारी के लिए स्व-सामान्यीकरण तंत्रिका नेटवर्क देखें।घोषणा
@differentiable public func selu<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
स्विश सक्रियण फ़ंक्शन, अर्थात्
x * sigmoid(x)
लागू करके एक टेंसर लौटाता है।स्रोत: "सक्रियण कार्यों की खोज" (रामचंद्रन एट अल. 2017) https://arxiv.org/abs/1710.05941
घोषणा
@differentiable public func swish<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
हार्ड सिग्मॉइड सक्रियण फ़ंक्शन, अर्थात्
Relu6(x+3)/6
लागू करके एक टेंसर लौटाता है।स्रोत: "MobileNetV3 की खोज" (हावर्ड एट अल. 2019) https://arxiv.org/abs/1905.02244
घोषणा
@differentiable public func hardSigmoid<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
हार्ड स्विश सक्रियण फ़ंक्शन, अर्थात्
x * Relu6(x+3)/6
लागू करके एक टेंसर लौटाता है।स्रोत: "MobileNetV3 की खोज" (हावर्ड एट अल. 2019) https://arxiv.org/abs/1905.02244
घोषणा
@differentiable public func hardSwish<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
मिश सक्रियण फ़ंक्शन, अर्थात्
x * tanh(softplus(x))
लागू करके एक टेंसर लौटाता है।स्रोत: "मिश: एक स्व-नियमित गैर-मोनोटोनिक तंत्रिका सक्रियण फ़ंक्शन" https://arxiv.org/abs/1908.08681
घोषणा
@differentiable public func mish<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
पहले टेंसर की शक्ति को दूसरे टेंसर में लौटाता है।
घोषणा
@differentiable public func pow<T>(_ lhs: Tensor<T>, _ rhs: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
स्केलर को प्रसारित करते हुए, स्केलर की शक्ति को टेंसर पर लौटाता है।
घोषणा
@differentiable(wrt: rhs) public func pow<T>(_ lhs: T, _ rhs: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
स्केलर को प्रसारित करते हुए टेंसर की शक्ति को स्केलर पर लौटाता है।
घोषणा
@differentiable(wrt: lhs) public func pow<T>(_ lhs: Tensor<T>, _ rhs: T) -> Tensor<T> where T : TensorFlowFloatingPoint
स्केलर को प्रसारित करते हुए टेंसर की शक्ति को स्केलर पर लौटाता है।
घोषणा
@differentiable public func pow<T>(_ x: Tensor<T>, _ n: Int) -> Tensor<T> where T : TensorFlowFloatingPoint
तत्व-वार
n
टेंसर का वां मूल लौटाता है।घोषणा
@differentiable public func root<T>(_ x: Tensor<T>, _ n: Int) -> Tensor<T> where T : TensorFlowFloatingPoint
x
औरy
के बीच का वर्ग अंतर लौटाता है।घोषणा
@differentiable public func squaredDifference<T>(_ x: Tensor<T>, _ y: Tensor<T>) -> Tensor<T> where T : Numeric, T : TensorFlowScalar
वापसी मूल्य
(x - y) ^ 2
.तत्व-वार अधिकतम दो टेंसर लौटाता है।
टिप्पणी
max
प्रसारण का समर्थन करता है।घोषणा
@differentiable public func max<T>(_ lhs: Tensor<T>, _ rhs: Tensor<T>) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
स्केलर को प्रसारित करते हुए, स्केलर और टेंसर का तत्व-वार अधिकतम लौटाता है।
घोषणा
@differentiable(wrt: rhs) public func max<T>(_ lhs: T, _ rhs: Tensor<T>) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
स्केलर को प्रसारित करते हुए, स्केलर और टेंसर का तत्व-वार अधिकतम लौटाता है।
घोषणा
@differentiable(wrt: lhs) public func max<T>(_ lhs: Tensor<T>, _ rhs: T) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
तत्व-वार न्यूनतम दो टेंसर लौटाता है।
टिप्पणी
min
प्रसारण का समर्थन करता है।घोषणा
@differentiable public func min<T>(_ lhs: Tensor<T>, _ rhs: Tensor<T>) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
स्केलर को प्रसारित करते हुए, स्केलर और टेंसर का तत्व-वार न्यूनतम लौटाता है।
घोषणा
@differentiable(wrt: rhs) public func min<T>(_ lhs: T, _ rhs: Tensor<T>) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
स्केलर को प्रसारित करते हुए, स्केलर और टेंसर का तत्व-वार न्यूनतम लौटाता है।
घोषणा
@differentiable(wrt: lhs) public func min<T>(_ lhs: Tensor<T>, _ rhs: T) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
x
औरy
के बीच कोज्या समानता लौटाता है।घोषणा
@differentiable public func cosineSimilarity<Scalar: TensorFlowFloatingPoint>( _ x: Tensor<Scalar>, _ y: Tensor<Scalar> ) -> Tensor<Scalar>
x
औरy
के बीच कोज्या दूरी लौटाता है। कोसाइन दूरी को1 - cosineSimilarity(x, y)
के रूप में परिभाषित किया गया है।घोषणा
@differentiable public func cosineDistance<Scalar: TensorFlowFloatingPoint>( _ x: Tensor<Scalar>, _ y: Tensor<Scalar> ) -> Tensor<Scalar>
निर्दिष्ट इनपुट, फ़िल्टर, स्ट्राइड और पैडिंग के साथ 1-डी कनवल्शन लौटाता है।
शर्त लगाना
input
रैंक3
होनी चाहिए।शर्त लगाना
filter
की रैंक 3 होनी चाहिए.घोषणा
@differentiable(wrt: (input, filter) public func conv1D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filter: Tensor<Scalar>, stride: Int = 1, padding: Padding = .valid, dilation: Int = 1 ) -> Tensor<Scalar>
पैरामीटर
input
इनपुट.
filter
कनवल्शन फ़िल्टर.
stride
स्लाइडिंग फ़िल्टर की प्रगति.
padding
ऑपरेशन के लिए पैडिंग.
dilation
फैलाव कारक.
निर्दिष्ट इनपुट, फ़िल्टर, स्ट्राइड्स और पैडिंग के साथ 2-डी कनवल्शन लौटाता है।
शर्त लगाना
input
रैंक4
होनी चाहिए।शर्त लगाना
filter
की रैंक 4 होनी चाहिए.घोषणा
@differentiable(wrt: (input, filter) public func conv2D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filter: Tensor<Scalar>, strides: (Int, Int, Int, Int) = (1, 1, 1, 1), padding: Padding = .valid, dilations: (Int, Int, Int, Int) = (1, 1, 1, 1) ) -> Tensor<Scalar>
पैरामीटर
input
इनपुट.
filter
कनवल्शन फ़िल्टर.
strides
इनपुट के प्रत्येक आयाम के लिए स्लाइडिंग फ़िल्टर की प्रगति।
padding
ऑपरेशन के लिए पैडिंग
dilations
इनपुट के प्रत्येक आयाम के लिए फैलाव कारक।
निर्दिष्ट इनपुट, फ़िल्टर, स्ट्राइड्स और पैडिंग के साथ 2-डी ट्रांसपोज़्ड कनवल्शन लौटाता है।
शर्त लगाना
input
रैंक4
होनी चाहिए।शर्त लगाना
filter
की रैंक 4 होनी चाहिए.घोषणा
@differentiable(wrt: (input, filter) public func transposedConv2D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, shape: [Int64], filter: Tensor<Scalar>, strides: (Int, Int, Int, Int) = (1, 1, 1, 1), padding: Padding = .valid, dilations: (Int, Int, Int, Int) = (1, 1, 1, 1) ) -> Tensor<Scalar>
पैरामीटर
input
इनपुट.
shape
डिकोनवोल्यूशन ऑपरेशन का आउटपुट आकार।
filter
कनवल्शन फ़िल्टर.
strides
इनपुट के प्रत्येक आयाम के लिए स्लाइडिंग फ़िल्टर की प्रगति।
padding
ऑपरेशन के लिए पैडिंग
dilations
इनपुट के प्रत्येक आयाम के लिए फैलाव कारक।
निर्दिष्ट इनपुट, फ़िल्टर, स्ट्राइड्स, पैडिंग और फैलाव के साथ 3-डी कनवल्शन लौटाता है।
शर्त लगाना
input
रैंक5
होनी चाहिए।शर्त लगाना
filter
की रैंक 5 होनी चाहिए.घोषणा
@differentiable(wrt: (input, filter) public func conv3D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filter: Tensor<Scalar>, strides: (Int, Int, Int, Int, Int) = (1, 1, 1, 1, 1), padding: Padding = .valid, dilations: (Int, Int, Int, Int, Int) = (1, 1, 1, 1, 1) ) -> Tensor<Scalar>
पैरामीटर
input
इनपुट.
filter
कनवल्शन फ़िल्टर.
strides
इनपुट के प्रत्येक आयाम के लिए स्लाइडिंग फ़िल्टर की प्रगति।
padding
ऑपरेशन के लिए पैडिंग.
dilations
इनपुट के प्रत्येक आयाम के लिए फैलाव कारक।
निर्दिष्ट इनपुट, फ़िल्टर, स्ट्राइड्स और पैडिंग के साथ 2-डी गहराई से कनवल्शन लौटाता है।
शर्त लगाना
input
रैंक 4 होनी चाहिए.शर्त लगाना
filter
की रैंक 4 होनी चाहिए.घोषणा
@differentiable(wrt: (input, filter) public func depthwiseConv2D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filter: Tensor<Scalar>, strides: (Int, Int, Int, Int), padding: Padding ) -> Tensor<Scalar>
पैरामीटर
input
इनपुट.
filter
डेप्थवाइज़ कनवल्शन फ़िल्टर।
strides
इनपुट के प्रत्येक आयाम के लिए स्लाइडिंग फ़िल्टर की प्रगति।
padding
ऑपरेशन के लिए पैडिंग.
निर्दिष्ट फ़िल्टर आकार, स्ट्राइड्स और पैडिंग के साथ 2-डी अधिकतम पूलिंग लौटाता है।
घोषणा
@differentiable(wrt: input) public func maxPool2D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filterSize: (Int, Int, Int, Int), strides: (Int, Int, Int, Int), padding: Padding ) -> Tensor<Scalar>
पैरामीटर
input
इनपुट.
filterSize
पूलिंग कर्नेल के आयाम.
strides
इनपुट के प्रत्येक आयाम के लिए स्लाइडिंग फ़िल्टर की प्रगति।
padding
ऑपरेशन के लिए पैडिंग.
निर्दिष्ट फ़िल्टर आकार, स्ट्राइड्स और पैडिंग के साथ 3-डी अधिकतम पूलिंग लौटाता है।
घोषणा
@differentiable(wrt: input) public func maxPool3D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filterSize: (Int, Int, Int, Int, Int), strides: (Int, Int, Int, Int, Int), padding: Padding ) -> Tensor<Scalar>
पैरामीटर
input
इनपुट.
filterSize
पूलिंग कर्नेल के आयाम.
strides
इनपुट के प्रत्येक आयाम के लिए स्लाइडिंग फ़िल्टर की प्रगति।
padding
ऑपरेशन के लिए पैडिंग.
निर्दिष्ट फ़िल्टर आकार, स्ट्राइड्स और पैडिंग के साथ 2-डी औसत पूलिंग लौटाता है।
घोषणा
@differentiable(wrt: input) public func avgPool2D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filterSize: (Int, Int, Int, Int), strides: (Int, Int, Int, Int), padding: Padding ) -> Tensor<Scalar>
पैरामीटर
input
इनपुट.
filterSize
पूलिंग कर्नेल के आयाम.
strides
इनपुट के प्रत्येक आयाम के लिए स्लाइडिंग फ़िल्टर की प्रगति।
padding
ऑपरेशन के लिए पैडिंग.
निर्दिष्ट फ़िल्टर आकार, स्ट्राइड्स और पैडिंग के साथ 3-डी औसत पूलिंग लौटाता है।
घोषणा
@differentiable(wrt: input) public func avgPool3D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filterSize: (Int, Int, Int, Int, Int), strides: (Int, Int, Int, Int, Int), padding: Padding ) -> Tensor<Scalar>
पैरामीटर
input
इनपुट.
filterSize
पूलिंग कर्नेल के आयाम.
strides
इनपुट के प्रत्येक आयाम के लिए स्लाइडिंग फ़िल्टर की प्रगति।
padding
ऑपरेशन के लिए पैडिंग.
निर्दिष्ट पूलिंग अनुपात के साथ 2-डी भिन्नात्मक अधिकतम पूलिंग लौटाता है।
नोट:
fractionalMaxPool
में XLA कार्यान्वयन नहीं है, और इस प्रकार प्रदर्शन पर प्रभाव पड़ सकता है।घोषणा
@differentiable(wrt: input) public func fractionalMaxPool2D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, poolingRatio: (Double, Double, Double, Double), pseudoRandom: Bool = false, overlapping: Bool = false, deterministic: Bool = false, seed: Int64 = 0, seed2: Int64 = 0 ) -> Tensor<Scalar>
पैरामीटर
input
एक टेंसर. आकार के साथ 4-डी
[batch, height, width, channels]
।poolingRatio
Doubles
की एक सूची।input
के प्रत्येक आयाम के लिए पूलिंग अनुपात, वर्तमान में केवल पंक्ति और कॉलम आयाम का समर्थन करता है और >= 1.0 होना चाहिए।pseudoRandom
एक वैकल्पिक
Bool
. डिफ़ॉल्ट रूप सेfalse
। जब इसेtrue
पर सेट किया जाता है, तो पूलिंग अनुक्रम छद्म-यादृच्छिक तरीके से उत्पन्न होता है, अन्यथा, यादृच्छिक तरीके से।overlapping
एक वैकल्पिक
Bool
. डिफ़ॉल्ट रूप सेfalse
। जबtrue
पर सेट किया जाता है, तो इसका मतलब है कि पूलिंग करते समय, आसन्न पूलिंग कोशिकाओं की सीमा पर मानों का उपयोग दोनों कोशिकाओं द्वारा किया जाता है।deterministic
एक वैकल्पिक
Bool
. जबtrue
पर सेट किया जाता है, तो गणना ग्राफ़ में एक फ्रैक्शनलमैक्सपूल2डी नोड पर पुनरावृत्ति करते समय एक निश्चित पूलिंग क्षेत्र का उपयोग किया जाएगा।seed
एक वैकल्पिक
Int64
. डिफ़ॉल्ट0
है। यदि गैर-शून्य पर सेट किया जाता है, तो यादृच्छिक संख्या जनरेटर को दिए गए बीज द्वारा सीड किया जाता है।seed2
एक वैकल्पिक
Int64
. डिफ़ॉल्ट0
है। बीज टकराव से बचने के लिए दूसरा बीज।input
की एक प्रति लौटाता है जहां गहराई आयाम से मानों को स्थानिक ब्लॉकों में ऊंचाई और चौड़ाई आयामों में ले जाया जाता है।उदाहरण के लिए, आकार का इनपुट दिया गया है
[1, 2, 2, 1]
, डेटा_फॉर्मेट = "एनएचडब्ल्यूसी" और ब्लॉक_साइज़ = 2:x = [[[[1], [2]], [[3], [4]]]]
यह ऑपरेशन आकार का एक टेंसर आउटपुट करेगा
[1, 1, 1, 4]
:[[[[1, 2, 3, 4]]]]
यहां, इनपुट में 1 का बैच है और प्रत्येक बैच तत्व का आकार
[2, 2, 1]
है, संबंधित आउटपुट में एक तत्व होगा (यानी चौड़ाई और ऊंचाई दोनों 1 हैं) और 4 चैनलों की गहराई होगी (1) * ब्लॉक_आकार * ब्लॉक_आकार)। आउटपुट तत्व का आकार[1, 1, 4]
है।बड़ी गहराई वाले इनपुट टेंसर के लिए, यहां आकार
[1, 2, 2, 3]
, उदाहरण के लिएx = [[[[1, 2, 3], [4, 5, 6]], [[7, 8, 9], [10, 11, 12]]]]
यह ऑपरेशन, 2 के ब्लॉक_आकार के लिए, आकार का निम्नलिखित टेंसर लौटाएगा
[1, 1, 1, 12]
[[[[1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12]]]]
इसी प्रकार, आकार के निम्नलिखित इनपुट के लिए
[1 4 4 1]
, और 2 का ब्लॉक आकार:x = [[[[1], [2], [5], [6]], [[3], [4], [7], [8]], [[9], [10], [13], [14]], [[11], [12], [15], [16]]]]
ऑपरेटर आकार का निम्नलिखित टेंसर लौटाएगा
[1 2 2 4]
:x = [[[[1, 2, 3, 4], [5, 6, 7, 8]], [[9, 10, 11, 12], [13, 14, 15, 16]]]]
शर्त लगाना
input.rank == 4 && b >= 2
।शर्त लगाना
विशेषताओं की संख्याb
के वर्ग से विभाज्य होनी चाहिए।घोषणा
@differentiable(wrt: input) public func depthToSpace<Scalar>(_ input: Tensor<Scalar>, blockSize b: Int) -> Tensor<Scalar> where Scalar : TensorFlowScalar
input
की एक प्रति लौटाता है जहां ऊंचाई और चौड़ाई आयामों से मान गहराई आयाम में ले जाया जाता है।उदाहरण के लिए, आकार का इनपुट दिया गया है
[1, 2, 2, 1]
, डेटा_फॉर्मेट = "एनएचडब्ल्यूसी" और ब्लॉक_साइज़ = 2:x = [[[[1], [2]], [[3], [4]]]]
यह ऑपरेशन आकार का एक टेंसर आउटपुट करेगा
[1, 1, 1, 4]
:[[[[1, 2, 3, 4]]]]
यहां, इनपुट में 1 का बैच है और प्रत्येक बैच तत्व का आकार
[2, 2, 1]
है, संबंधित आउटपुट में एक तत्व होगा (यानी चौड़ाई और ऊंचाई दोनों 1 हैं) और 4 चैनलों की गहराई होगी (1) * ब्लॉक_आकार * ब्लॉक_आकार)। आउटपुट तत्व का आकार[1, 1, 4]
है।बड़ी गहराई वाले इनपुट टेंसर के लिए, यहां आकार
[1, 2, 2, 3]
, उदाहरण के लिएx = [[[[1, 2, 3], [4, 5, 6]], [[7, 8, 9], [10, 11, 12]]]]
यह ऑपरेशन, 2 के ब्लॉक_आकार के लिए, आकार का निम्नलिखित टेंसर लौटाएगा
[1, 1, 1, 12]
[[[[1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12]]]]
इसी प्रकार, आकार के निम्नलिखित इनपुट के लिए
[1 4 4 1]
, और 2 का ब्लॉक आकार:x = [[[[1], [2], [5], [6]], [[3], [4], [7], [8]], [[9], [10], [13], [14]], [[11], [12], [15], [16]]]]
ऑपरेटर आकार का निम्नलिखित टेंसर लौटाएगा
[1 2 2 4]
:x = [[[[1, 2, 3, 4], [5, 6, 7, 8]], [[9, 10, 11, 12], [13, 14, 15, 16]]]]
शर्त लगाना
input.rank == 4 && b >= 2
।शर्त लगाना
इनपुट की ऊंचाईb
द्वारा विभाज्य होनी चाहिए।शर्त लगाना
इनपुट की चौड़ाईb
द्वारा विभाज्य होनी चाहिए।घोषणा
@differentiable(wrt: input) public func spaceToDepth<Scalar>(_ input: Tensor<Scalar>, blockSize b: Int) -> Tensor<Scalar> where Scalar : TensorFlowScalar
लार्स ( https://arxiv.org/pdf/1708.03888.pdf ) के लिए प्रति-वजन अनुकूलक बनाता है।
घोषणा
public func makeLARS( learningRate: Float = 0.01, momentum: Float = 0.9, trustCoefficient: Float = 0.001, nesterov: Bool = false, epsilon: Float = 0.0, weightDecay: Float = 0.0 ) -> ParameterGroupOptimizer
एक SGD आधारित प्रति-वजन ऑप्टिमाइज़र बनाता है।
घोषणा
public func makeSGD( learningRate: Float = 0.01, momentum: Float = 0, weightDecay: Float = 0, nesterov: Bool = false ) -> ParameterGroupOptimizer
वजन क्षय के साथ एडम के लिए प्रति-वजन अनुकूलक बनाता है।
घोषणा
public func makeAdam( learningRate: Float = 0.01, beta1: Float = 0.9, beta2: Float = 0.999, weightDecayRate: Float = 0.01, epsilon: Float = 1e-6 ) -> ParameterGroupOptimizer
Tensorflow के लिए एक नया यादृच्छिक बीज उत्पन्न करता है।
घोषणा
public func randomSeedForTensorFlow(using seed: TensorFlowSeed? = nil) -> TensorFlowSeed
दो मूल्यों को समेटता है।
घोषणा
@differentiable public func concatenate<T: Mergeable>( _ first: T, _ second: T ) -> T
दो मूल्यों को जोड़ता है और उनकी राशि का उत्पादन करता है।
घोषणा
@differentiable public func sum<T: Mergeable>( _ first: T, _ second: T ) -> T
औसत दो मूल्यों।
घोषणा
@differentiable public func average<T: Mergeable>( _ first: T, _ second: T ) -> T
दो मूल्यों को गुणा करता है।
घोषणा
@differentiable public func multiply<T: Mergeable>( _ first: T, _ second: T ) -> T
दो मूल्यों को ढेर करें।
घोषणा
@differentiable public func stack<T: Mergeable>( _ first: T, _ second: T ) -> T
घोषणा
public func PrintX10Metrics()
प्रशिक्षण और परीक्षण आँकड़ों की एक सूची का एक स्ट्रिंग सारांश बनाता है।
घोषणा
public func formatStatistics(_ stats: (train: HostStatistics, test: HostStatistics)) -> String
घोषणा
public func formatStatistics(train trainStats: HostStatistics, test testStats: HostStatistics) -> String
एन थ्रेड्स पर एक फ़ंक्शन मैप करता है।
घोषणा
public func runOnNThreads<R>(_ nThreads: Int, _ body: @escaping (Int) -> R) -> [R]