الوظائف التالية متاحة عالميًا.
إرجاع خسارة L1 بين التنبؤات والتوقعات.
تصريح
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func l1Loss<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
حدود
predicted
المخرجات المتوقعة من الشبكة العصبية.
expected
القيم المتوقعة، أي الأهداف، التي تتوافق مع المخرجات الصحيحة.
إرجاع خسارة L2 بين التنبؤات والتوقعات.
تصريح
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func l2Loss<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
حدود
predicted
المخرجات المتوقعة من الشبكة العصبية.
expected
القيم المتوقعة، أي الأهداف، التي تتوافق مع المخرجات الصحيحة.
إرجاع خسارة المفصلة بين التنبؤات والتوقعات.
تصريح
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func hingeLoss<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
حدود
predicted
المخرجات المتوقعة من الشبكة العصبية.
expected
القيم المتوقعة، أي الأهداف، التي تتوافق مع المخرجات الصحيحة.
إرجاع خسارة المفصلة التربيعية بين التنبؤات والتوقعات.
تصريح
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func squaredHingeLoss<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
حدود
predicted
المخرجات المتوقعة من الشبكة العصبية.
expected
القيم المتوقعة، أي الأهداف، التي تتوافق مع المخرجات الصحيحة.
إرجاع خسارة المفصلة الفئوية بين التنبؤات والتوقعات.
تصريح
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func categoricalHingeLoss<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
حدود
predicted
المخرجات المتوقعة من الشبكة العصبية.
expected
القيم المتوقعة، أي الأهداف، التي تتوافق مع المخرجات الصحيحة.
إرجاع لوغاريتم جيب التمام الزائدي للخطأ بين التنبؤات والتوقعات.
تصريح
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func logCoshLoss<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
حدود
predicted
المخرجات المتوقعة من الشبكة العصبية.
expected
القيم المتوقعة، أي الأهداف، التي تتوافق مع المخرجات الصحيحة.
إرجاع خسارة بواسون بين التنبؤات والتوقعات.
تصريح
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func poissonLoss<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
حدود
predicted
المخرجات المتوقعة من الشبكة العصبية.
expected
القيم المتوقعة، أي الأهداف، التي تتوافق مع المخرجات الصحيحة.
إرجاع تباعد Kullback-Leibler (تباعد KL) بين التوقعات والتنبؤات. بالنظر إلى التوزيعين
p
وq
، يحسب تباعد KLp * log(p / q)
.تصريح
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func kullbackLeiblerDivergence<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
حدود
predicted
المخرجات المتوقعة من الشبكة العصبية.
expected
القيم المتوقعة، أي الأهداف، التي تتوافق مع المخرجات الصحيحة.
تُرجع إنتروبيا softmax المتقاطعة (إنتروبيا متقاطعة فئوية) بين اللوجيستات والتسميات.
تصريح
@differentiable(wrt: logits) public func softmaxCrossEntropy<Scalar: TensorFlowFloatingPoint>( logits: Tensor<Scalar>, probabilities: Tensor<Scalar> ) -> Tensor<Scalar>
حدود
logits
مخرجات مشفرة واحدة ساخنة من شبكة عصبية.
labels
مؤشرات (مفهرسة صفر) للمخرجات الصحيحة.
إرجاع الإنتروبيا السيني المتقاطع (الإنتروبيا المتقاطعة الثنائية) بين اللوجيستات والتسميات.
تصريح
@differentiable(wrt: logits) @differentiable(wrt: (logits, labels) public func sigmoidCrossEntropy<Scalar: TensorFlowFloatingPoint>( logits: Tensor<Scalar>, labels: Tensor<Scalar> ) -> Tensor<Scalar>
حدود
logits
الناتج غير المقيس للشبكة العصبية.
labels
القيم الصحيحة التي تتوافق مع الإخراج الصحيح.
إرجاع موتر بنفس الشكل والكميات المحددة للموتر المحدد.
تصريح
@differentiable public func identity<Scalar>(_ x: Tensor<Scalar>) -> Tensor<Scalar> where Scalar : TensorFlowScalar
يستدعي الإغلاق المعطى ضمن سياق يحتوي على كل شيء مطابق للسياق الحالي باستثناء مرحلة التعلم المحددة.
تصريح
public func withContext<R>(_ context: Context, _ body: () throws -> R) rethrows -> R
حدود
context
السياق الذي سيتم تعيينه قبل استدعاء الإغلاق واستعادته بعد عودة الإغلاق.
body
إغلاق فارغ. إذا كان للإغلاق قيمة إرجاع، فسيتم استخدام هذه القيمة أيضًا كقيمة إرجاع للدالة
withContext(_:_:)
.قيمة الإرجاع
قيمة الإرجاع، إن وجدت، لإغلاق
body
.يستدعي الإغلاق المعطى ضمن سياق يحتوي على كل شيء مطابق للسياق الحالي باستثناء مرحلة التعلم المحددة.
تصريح
public func withLearningPhase<R>( _ learningPhase: LearningPhase, _ body: () throws -> R ) rethrows -> R
حدود
learningPhase
مرحلة التعلم التي سيتم تعيينها قبل استدعاء الإغلاق واستعادته بعد عودة الإغلاق.
body
إغلاق فارغ. إذا كان للإغلاق قيمة إرجاع، فسيتم استخدام هذه القيمة أيضًا كقيمة إرجاع للدالة
withLearningPhase(_:_:)
.قيمة الإرجاع
قيمة الإرجاع، إن وجدت، لإغلاق
body
.يستدعي الإغلاق المحدد ضمن سياق يحتوي على كل شيء مطابق للسياق الحالي باستثناء البذرة العشوائية المحددة.
تصريح
public func withRandomSeedForTensorFlow<R>( _ randomSeed: TensorFlowSeed, _ body: () throws -> R ) rethrows -> R
حدود
randomSeed
بذرة عشوائية سيتم تعيينها قبل استدعاء الإغلاق واستعادتها بعد عودة الإغلاق.
body
إغلاق فارغ. إذا كان للإغلاق قيمة إرجاع، فسيتم استخدام هذه القيمة أيضًا كقيمة إرجاع للدالة
withRandomSeedForTensorFlow(_:_:)
.قيمة الإرجاع
قيمة الإرجاع، إن وجدت، لإغلاق
body
.يستدعي الإغلاق المحدد ضمن سياق يحتوي على كل شيء مطابق للسياق الحالي باستثناء منشئ الأرقام العشوائية المحدد.
تصريح
public func withRandomNumberGeneratorForTensorFlow<G: RandomNumberGenerator, R>( _ randomNumberGenerator: inout G, _ body: () throws -> R ) rethrows -> R
حدود
randomNumberGenerator
مولد أرقام عشوائي سيتم تعيينه قبل استدعاء الإغلاق واستعادته بعد عودة الإغلاق.
body
إغلاق فارغ. إذا كان للإغلاق قيمة إرجاع، فسيتم استخدام هذه القيمة أيضًا كقيمة إرجاع للدالة
withRandomNumberGeneratorForTensorFlow(_:_:)
.قيمة الإرجاع
قيمة الإرجاع، إن وجدت، لإغلاق
body
.تصريح
public func zip<T: TensorGroup, U: TensorGroup>( _ dataset1: Dataset<T>, _ dataset2: Dataset<U> ) -> Dataset<Zip2TensorGroup<T, U>>
تصريح
public func valueWithGradient<T, R>( at x: T, in f: @differentiable (T) -> Tensor<R> ) -> (value: Tensor<R>, gradient: T.TangentVector) where T: Differentiable, R: TensorFlowFloatingPoint
تصريح
public func valueWithGradient<T, U, R>( at x: T, _ y: U, in f: @differentiable (T, U) -> Tensor<R> ) -> (value: Tensor<R>, gradient: (T.TangentVector, U.TangentVector)) where T: Differentiable, U: Differentiable, R: TensorFlowFloatingPoint
تصريح
public func valueWithGradient<T, U, V, R>( at x: T, _ y: U, _ z: V, in f: @differentiable (T, U, V) -> Tensor<R> ) -> (value: Tensor<R>, gradient: (T.TangentVector, U.TangentVector, V.TangentVector)) where T: Differentiable, U: Differentiable, V: Differentiable, R: TensorFlowFloatingPoint
تصريح
public func valueWithGradient<T, R>( of f: @escaping @differentiable (T) -> Tensor<R> ) -> (T) -> (value: Tensor<R>, gradient: T.TangentVector) where T: Differentiable, R: TensorFlowFloatingPoint
تصريح
public func valueWithGradient<T, U, R>( of f: @escaping @differentiable (T, U) -> Tensor<R> ) -> (T, U) -> (value: Tensor<R>, gradient: (T.TangentVector, U.TangentVector)) where T: Differentiable, U: Differentiable, R: TensorFlowFloatingPoint
تصريح
public func valueWithGradient<T, U, V, R>( of f: @escaping @differentiable (T, U, V) -> Tensor<R> ) -> (T, U, V) -> ( value: Tensor<R>, gradient: (T.TangentVector, U.TangentVector, V.TangentVector) ) where T: Differentiable, U: Differentiable, V: Differentiable, R: TensorFlowFloatingPoint
تصريح
public func gradient<T, R>( at x: T, in f: @differentiable (T) -> Tensor<R> ) -> T.TangentVector where T: Differentiable, R: TensorFlowFloatingPoint
تصريح
public func gradient<T, U, R>( at x: T, _ y: U, in f: @differentiable (T, U) -> Tensor<R> ) -> (T.TangentVector, U.TangentVector) where T: Differentiable, U: Differentiable, R: TensorFlowFloatingPoint
تصريح
public func gradient<T, U, V, R>( at x: T, _ y: U, _ z: V, in f: @differentiable (T, U, V) -> Tensor<R> ) -> (T.TangentVector, U.TangentVector, V.TangentVector) where T: Differentiable, U: Differentiable, V: Differentiable, R: TensorFlowFloatingPoint
تصريح
public func gradient<T, R>( of f: @escaping @differentiable (T) -> Tensor<R> ) -> (T) -> T.TangentVector where T: Differentiable, R: TensorFlowFloatingPoint
تصريح
public func gradient<T, U, R>( of f: @escaping @differentiable (T, U) -> Tensor<R> ) -> (T, U) -> (T.TangentVector, U.TangentVector) where T: Differentiable, U: Differentiable, R: TensorFlowFloatingPoint
تصريح
public func gradient<T, U, V, R>( of f: @escaping @differentiable (T, U, V) -> Tensor<R> ) -> (T, U, V) -> (T.TangentVector, U.TangentVector, V.TangentVector) where T: Differentiable, U: Differentiable, V: Differentiable, R: TensorFlowFloatingPoint
جعل وظيفة يتم إعادة حسابها في سحبها، المعروف باسم "نقطة التفتيش" في التمايز التلقائي التقليدي.
تصريح
public func withRecomputationInPullbacks<T, U>( _ body: @escaping @differentiable (T) -> U ) -> @differentiable (T) -> U where T : Differentiable, U : Differentiable
قم بإنشاء دالة قابلة للتمييز من دالة منتجات Vector-Jacobian.
تصريح
public func differentiableFunction<T : Differentiable, R : Differentiable>( from vjp: @escaping (T) -> (value: R, pullback: (R.TangentVector) -> T.TangentVector) ) -> @differentiable (T) -> R
قم بإنشاء دالة قابلة للتمييز من دالة منتجات Vector-Jacobian.
تصريح
public func differentiableFunction<T, U, R>( from vjp: @escaping (T, U) -> (value: R, pullback: (R.TangentVector) -> (T.TangentVector, U.TangentVector)) ) -> @differentiable (T, U) -> R
تُرجع
x
مثل دالة الهوية. عند استخدامها في سياق يتم فيه تمييزx
بالنسبة إلى، فإن هذه الدالة لن تنتج أي مشتق عندx
.تصريح
@_semantics("autodiff.nonvarying") public func withoutDerivative<T>(at x: T) -> T
يطبق
body
الإغلاق المحدد علىx
. عند استخدامها في سياق يتم فيه تمييزx
بالنسبة إلى، فإن هذه الدالة لن تنتج أي مشتق عندx
.تصريح
@_semantics("autodiff.nonvarying") public func withoutDerivative<T, R>(at x: T, in body: (T) -> R) -> R
ينفذ عملية الإغلاق، مما يجعل عمليات TensorFlow تعمل على نوع معين من الأجهزة.
تصريح
public func withDevice<R>( _ kind: DeviceKind, _ index: UInt = 0, perform body: () throws -> R ) rethrows -> R
حدود
kind
نوع من الأجهزة لتشغيل عمليات TensorFlow عليه.
index
الجهاز الذي سيتم تشغيل العمليات عليه.
body
الإغلاق الذي سيتم تنفيذ عمليات TensorFlow فيه على نوع الجهاز المحدد.
ينفذ عملية الإغلاق، مما يجعل عمليات TensorFlow تعمل على جهاز باسم محدد.
بعض الأمثلة على أسماء الأجهزة:
- "/device:CPU:0": وحدة المعالجة المركزية لجهازك.
- "/GPU:0": تدوين مختصر لوحدة معالجة الرسومات الأولى بجهازك والتي تكون مرئية لـ TensorFlow
- "/job:localhost/replica:0/task:0/device:GPU:1": اسم مؤهل بالكامل لوحدة معالجة الرسومات الثانية لجهازك والتي تكون مرئية لـ TensorFlow.
تصريح
public func withDevice<R>(named name: String, perform body: () throws -> R) rethrows -> R
حدود
name
اسم الجهاز.
body
الإغلاق الذي سيتم تنفيذ عمليات TensorFlow فيه على نوع الجهاز المحدد.
ينفذ عملية إغلاق، مما يسمح لـ TensorFlow بوضع عمليات TensorFlow على أي جهاز. يجب أن يؤدي هذا إلى استعادة سلوك الموضع الافتراضي.
تصريح
public func withDefaultDevice<R>(perform body: () throws -> R) rethrows -> R
حدود
body
الإغلاق الذي سيتم تنفيذ عمليات TensorFlow فيه على نوع الجهاز المحدد.
قم بتغيير حجم الصور إلى حجمها باستخدام الطريقة المحددة.
شرط مسبق
يجب أن تحتوي الصور على المرتبة3
أو4
.شرط مسبق
يجب أن يكون الحجم إيجابيا.تصريح
@differentiable(wrt: images) public func resize( images: Tensor<Float>, size: (newHeight: Int, newWidth: Int), method: ResizeMethod = .bilinear, antialias: Bool = false ) -> Tensor<Float>
تغيير حجم الصور إلى الحجم باستخدام الاستيفاء المنطقة.
شرط مسبق
يجب أن تحتوي الصور على المرتبة3
أو4
.شرط مسبق
يجب أن يكون الحجم إيجابيا.تصريح
public func resizeArea<Scalar: TensorFlowNumeric>( images: Tensor<Scalar>, size: (newHeight: Int, newWidth: Int), alignCorners: Bool = false ) -> Tensor<Float>
يُرجع تمددًا ثنائي الأبعاد باستخدام المدخلات والمرشح والخطوات والحشوة المحددة.
شرط مسبق
يجب أن يكونinput
في المرتبة4
.شرط مسبق
يجب أن يكونfilter
المرتبة3
.تصريح
@differentiable(wrt: (input, filter) public func dilation2D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filter: Tensor<Scalar>, strides: (Int, Int, Int, Int) = (1, 1, 1, 1), rates: (Int, Int, Int, Int) = (1, 1, 1, 1), padding: Padding = .valid ) -> Tensor<Scalar>
حدود
input
المدخلات.
filter
مرشح التمدد.
strides
خطوات المرشح المنزلق لكل بُعد من أبعاد الإدخال.
padding
الحشوة للعملية
rates
معدلات التمدد لكل بعد من المدخلات.
إرجاع تآكل ثنائي الأبعاد مع المدخلات والمرشح والخطوات والحشوة المحددة.
شرط مسبق
يجب أن يكونinput
في المرتبة4
.شرط مسبق
يجب أن يكونfilter
في المرتبة 3.تصريح
@differentiable(wrt: (input, filter) public func erosion2D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filter: Tensor<Scalar>, strides: (Int, Int, Int, Int) = (1, 1, 1, 1), rates: (Int, Int, Int, Int) = (1, 1, 1, 1), padding: Padding = .valid ) -> Tensor<Scalar>
حدود
input
المدخلات.
filter
مرشح التآكل.
strides
خطوات المرشح المنزلق لكل بُعد من أبعاد الإدخال.
padding
الحشوة للعملية
rates
معدلات التمدد لكل بعد من المدخلات.
تُرجع دالة تُنشئ موترًا عن طريق تهيئة جميع قيمه إلى أصفار.
تصريح
public func zeros<Scalar>() -> ParameterInitializer<Scalar> where Scalar : TensorFlowFloatingPoint
تُرجع دالة تُنشئ موترًا عن طريق تهيئة جميع قيمه إلى القيمة المقدمة.
تصريح
public func constantInitializer<Scalar: TensorFlowFloatingPoint>( value: Scalar ) -> ParameterInitializer<Scalar>
تُرجع دالة تُنشئ موترًا عن طريق تهيئته للقيمة المقدمة. لاحظ أن بث القيمة المقدمة غير مدعوم.
تصريح
public func constantInitializer<Scalar: TensorFlowFloatingPoint>( value: Tensor<Scalar> ) -> ParameterInitializer<Scalar>
تُرجع دالة تنشئ موترًا عن طريق إجراء تهيئة موحدة لـ Glorot (Xavier) للشكل المحدد، وأخذ عينات عشوائية من القيم العددية من توزيع منتظم بين
-limit
وlimit
، والتي يتم إنشاؤها بواسطة منشئ الأرقام العشوائية الافتراضية، حيث يكون Limit هوsqrt(6 / (fanIn + fanOut))
وfanIn
/fanOut
يمثلان عدد ميزات الإدخال والإخراج مضروبة في حقل الاستقبال، إذا كان موجودًا.تصريح
public func glorotUniform<Scalar: TensorFlowFloatingPoint>( seed: TensorFlowSeed = Context.local.randomSeed ) -> ParameterInitializer<Scalar>
تُرجع دالة تنشئ موترًا عن طريق إجراء التهيئة العادية Glorot (Xavier) للشكل المحدد، وأخذ عينات عشوائية من القيم العددية من توزيع عادي مبتور يتمركز على
0
مع الانحراف المعياريsqrt(2 / (fanIn + fanOut))
، حيثfanIn
/fanOut
يمثل عدد ميزات الإدخال والإخراج مضروبًا في حجم حقل الاستقبال، إن وجد.تصريح
public func glorotNormal<Scalar: TensorFlowFloatingPoint>( seed: TensorFlowSeed = Context.local.randomSeed ) -> ParameterInitializer<Scalar>
تُرجع دالة تُنشئ موترًا عن طريق إجراء تهيئة موحدة لـ He (Kaiming) للشكل المحدد، وأخذ عينات عشوائية من القيم العددية من توزيع موحد بين
-limit
وlimit
، التي تم إنشاؤها بواسطة مولد الأرقام العشوائية الافتراضي، حيث يكون Limit هوsqrt(6 / fanIn)
، ويمثلfanIn
عدد ميزات الإدخال مضروبًا في حقل الاستلام، إذا كان موجودًا.تصريح
public func heUniform<Scalar: TensorFlowFloatingPoint>( seed: TensorFlowSeed = Context.local.randomSeed ) -> ParameterInitializer<Scalar>
تُرجع دالة تنشئ موترًا عن طريق إجراء التهيئة العادية لـ He (Kaiming) للشكل المحدد، وأخذ عينات عشوائية من القيم العددية من توزيع عادي مبتور يتمركز على
0
مع الانحراف المعياريsqrt(2 / fanIn)
، حيث يمثلfanIn
عدد ميزات الإدخال مضروبًا في حجم الحقل الاستقبالي، إن وجد.تصريح
public func heNormal<Scalar: TensorFlowFloatingPoint>( seed: TensorFlowSeed = Context.local.randomSeed ) -> ParameterInitializer<Scalar>
إرجاع دالة تنشئ موترًا عن طريق إجراء تهيئة LeCun الموحدة للشكل المحدد، وأخذ عينات عشوائية من القيم العددية من توزيع موحد بين
-limit
وlimit
، التي تم إنشاؤها بواسطة مولد الأرقام العشوائية الافتراضي، حيث يكون Limit هوsqrt(3 / fanIn)
و يمثلfanIn
عدد ميزات الإدخال مضروبًا في حقل الاستقبال، إذا كان موجودًا.تصريح
public func leCunUniform<Scalar: TensorFlowFloatingPoint>( seed: TensorFlowSeed = Context.local.randomSeed ) -> ParameterInitializer<Scalar>
تُرجع دالة تنشئ موترًا عن طريق إجراء تهيئة LeCun العادية للشكل المحدد، وأخذ عينات عشوائية من القيم العددية من توزيع عادي مبتور يتمركز على
0
مع الانحراف المعياريsqrt(1 / fanIn)
، حيث يمثلfanIn
عدد ميزات الإدخال مضروبًا في حجم الحقل الاستقبالي، إذا كان موجودا.تصريح
public func leCunNormal<Scalar: TensorFlowFloatingPoint>( seed: TensorFlowSeed = Context.local.randomSeed ) -> ParameterInitializer<Scalar>
تُرجع دالة تُنشئ موترًا عن طريق تهيئة جميع قيمه بشكل عشوائي من توزيع عادي مبتور. تتبع القيم التي تم إنشاؤها توزيعًا عاديًا
mean
standardDeviation
معياري للانحراف المعياري، فيما عدا تلك القيم التي يزيد حجمها عن انحرافين معياريين عن المتوسط، يتم إسقاطها وإعادة تشكيلها.تصريح
public func truncatedNormalInitializer<Scalar: TensorFlowFloatingPoint>( mean: Tensor<Scalar> = Tensor<Scalar>(0), standardDeviation: Tensor<Scalar> = Tensor<Scalar>(1), seed: TensorFlowSeed = Context.local.randomSeed ) -> ParameterInitializer<Scalar>
حدود
mean
متوسط التوزيع الطبيعي.
standardDeviation
الانحراف المعياري للتوزيع الطبيعي.
قيمة الإرجاع
دالة تهيئة معلمة عادية مبتورة.
تصريح
public func == (lhs: TFETensorHandle, rhs: TFETensorHandle) -> Bool
إرجاع مصفوفة هوية أو مجموعة من المصفوفات.
تصريح
حدود
rowCount
عدد الصفوف في كل مصفوفة دفعة.
columnCount
عدد الأعمدة في كل مصفوفة دفعية.
batchShape
أبعاد الدفعة الرائدة للموتر المرتجع.
يحسب أثر مصفوفة مجمعة اختياريا. التتبع هو المجموع على طول القطر الرئيسي لكل مصفوفة داخلية.
الإدخال عبارة عن موتر ذو شكل
[..., M, N]
. الناتج هو موتر ذو شكل[...]
.شرط مسبق
يجب أن تكونmatrix
موترًا بالشكل[..., M, N]
.تصريح
@differentiable(wrt: matrix) public func trace<T>(_ matrix: Tensor<T>) -> Tensor<T> where T : Numeric, T : TensorFlowScalar
حدود
matrix
موتر الشكل
[..., M, N]
.إرجاع تحليل تشوليسكي لمصفوفة مربعة واحدة أو أكثر.
الإدخال عبارة عن موتر للشكل
[..., M, M]
والذي يشكل بعداه الداخليان مصفوفات مربعة.يجب أن تكون المدخلات متماثلة وإيجابية محددة. سيتم استخدام الجزء المثلث السفلي فقط من الإدخال لهذه العملية. لن تتم قراءة الجزء العلوي الثلاثي.
الإخراج عبارة عن موتر بنفس شكل الإدخال الذي يحتوي على تحليلات Cholesky لجميع مصفوفات الإدخال الفرعية
[..., :, :]
.تصريح
@differentiable public func cholesky<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
حدود
input
موتر الشكل
[..., M, M]
.إرجاع الحل
x
إلى نظام المعادلات الخطية الذي يمثلهAx = b
.شرط مسبق
يجب أن تكونmatrix
موترًا بالشكل[..., M, M]
.شرط مسبق
يجب أن يكونrhs
موترًا بالشكل[..., M, K]
.تصريح
@differentiable public func triangularSolve<T: TensorFlowFloatingPoint>( matrix: Tensor<T>, rhs: Tensor<T>, lower: Bool = true, adjoint: Bool = false ) -> Tensor<T>
حدود
matrix
مصفوفة المعاملات المثلثية المدخلة، التي تمثل
A
فيAx = b
.rhs
قيم الجانب الأيمن، تمثل
b
فيAx = b
.lower
ما إذا كانت
matrix
مثلثية سفلية (true
) أو مثلثية عليا (false
). القيمة الافتراضيةtrue
.adjoint
إذا كان
true
، حل معmatrix
المجاورة بدلا منmatrix
. القيمة الافتراضيةfalse
.قيمة الإرجاع
الحل
x
لنظام المعادلات الخطية المتمثل فيAx = b
.x
له نفس شكلb
.يحسب خسارة L1 بين
expected
predicted
.loss = reduction(abs(expected - predicted))
تصريح
حدود
predicted
المخرجات المتوقعة من الشبكة العصبية.
expected
القيم المتوقعة، أي الأهداف، التي تتوافق مع المخرجات الصحيحة.
reduction
يتم تطبيق التخفيض على قيم الخسارة المحسوبة للعناصر.
يحسب خسارة L2 بين
expected
predicted
.loss = reduction(square(expected - predicted))
تصريح
حدود
predicted
المخرجات المتوقعة من الشبكة العصبية.
expected
القيم المتوقعة، أي الأهداف، التي تتوافق مع المخرجات الصحيحة.
reduction
يتم تطبيق التخفيض على قيم الخسارة المحسوبة للعنصر.
يحسب متوسط الفرق المطلق بين التسميات والتنبؤات.
loss = mean(abs(expected - predicted))
تصريح
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func meanAbsoluteError<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
حدود
predicted
المخرجات المتوقعة من الشبكة العصبية.
expected
القيم المتوقعة، أي الأهداف، التي تتوافق مع المخرجات الصحيحة.
يحسب متوسط مربعات الأخطاء بين التسميات والتنبؤات.
loss = mean(square(expected - predicted))
تصريح
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func meanSquaredError<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
حدود
predicted
المخرجات المتوقعة من الشبكة العصبية.
expected
القيم المتوقعة، أي الأهداف، التي تتوافق مع المخرجات الصحيحة.
يحسب الخطأ اللوغاريتمي التربيعي بين الخسارة
predicted
expected
loss = square(log(expected) - log(predicted))
ملحوظة
سيتم تثبيت إدخالات الموتر السالبة عند
0
لتجنب السلوك اللوغاريتمي غير المحدد، حيث أنlog(_:)
غير محدد للحقيقيات السالبة.تصريح
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func meanSquaredLogarithmicError<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
حدود
predicted
المخرجات المتوقعة من الشبكة العصبية.
expected
القيم المتوقعة، أي الأهداف، التي تتوافق مع المخرجات الصحيحة.
يحسب متوسط النسبة المئوية للخطأ المطلق بين
predicted
expected
.loss = 100 * mean(abs((expected - predicted) / abs(expected)))
تصريح
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func meanAbsolutePercentageError<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
حدود
predicted
المخرجات المتوقعة من الشبكة العصبية.
expected
القيم المتوقعة، أي الأهداف، التي تتوافق مع المخرجات الصحيحة.
يحسب خسارة المفصلة بين
predicted
expected
.loss = reduction(max(0, 1 - predicted * expected))
من المتوقع أن تكون القيمexpected
-1 أو 1.تصريح
حدود
predicted
المخرجات المتوقعة من الشبكة العصبية.
expected
القيم المتوقعة، أي الأهداف، التي تتوافق مع المخرجات الصحيحة.
reduction
يتم تطبيق التخفيض على قيم الخسارة المحسوبة للعنصر.
يحسب الخسارة المفصلية التربيعية بين
predicted
expected
.loss = reduction(square(max(0, 1 - predicted * expected)))
من المتوقع أن تكون القيمexpected
-1 أو 1.تصريح
حدود
predicted
المخرجات المتوقعة من الشبكة العصبية.
expected
القيم المتوقعة، أي الأهداف، التي تتوافق مع المخرجات الصحيحة.
reduction
يتم تطبيق التخفيض على قيم الخسارة المحسوبة للعنصر.
يحسب خسارة المفصلة الفئوية بين
predicted
expected
.loss = maximum(negative - positive + 1, 0)
حيثnegative = max((1 - expected) * predicted)
positive = sum(predicted * expected)
تصريح
حدود
predicted
المخرجات المتوقعة من الشبكة العصبية.
expected
القيم المتوقعة، أي الأهداف، التي تتوافق مع المخرجات الصحيحة.
reduction
يتم تطبيق التخفيض على قيم الخسارة المحسوبة للعناصر.
يحسب لوغاريتم جيب التمام الزائدي لخطأ التنبؤ.
logcosh = log((exp(x) + exp(-x))/2)
، حيث x هو الخطأpredicted - expected
تصريح
حدود
predicted
المخرجات المتوقعة من الشبكة العصبية.
expected
القيم المتوقعة، أي الأهداف، التي تتوافق مع المخرجات الصحيحة.
reduction
يتم تطبيق التخفيض على قيم الخسارة المحسوبة للعنصر.
يحسب خسارة بواسون بين المتوقعة والمتوقعة خسارة بواسون هي متوسط عناصر
Tensor
predicted - expected * log(predicted)
.تصريح
حدود
predicted
المخرجات المتوقعة من الشبكة العصبية.
expected
القيم المتوقعة، أي الأهداف، التي تتوافق مع المخرجات الصحيحة.
reduction
يتم تطبيق التخفيض على قيم الخسارة المحسوبة للعناصر.
يحسب خسارة التباعد Kullback-Leibler بين
expected
predicted
.loss = reduction(expected * log(expected / predicted))
تصريح
حدود
predicted
المخرجات المتوقعة من الشبكة العصبية.
expected
القيم المتوقعة، أي الأهداف، التي تتوافق مع المخرجات الصحيحة.
reduction
يتم تطبيق التخفيض على قيم الخسارة المحسوبة للعنصر.
يحسب الإنتروبيا المتقاطعة softmax المتناثرة (الإنتروبيا المتقاطعة الفئوية) بين اللوجيستات والتسميات. استخدم وظيفة فقدان الانتروبيا هذه عندما يكون هناك فئتان أو أكثر من فئات التصنيف. نتوقع أن يتم توفير التسميات كأعداد صحيحة. يجب أن يكون هناك
# classes
قيم الفاصلة العائمة لكل ميزةlogits
وقيمة نقطة عائمة واحدة لكل ميزةexpected
.تصريح
حدود
logits
مخرجات مشفرة واحدة ساخنة من شبكة عصبية.
labels
مؤشرات (مفهرسة صفر) للمخرجات الصحيحة.
reduction
يتم تطبيق التخفيض على قيم الخسارة المحسوبة للعناصر.
يحسب الإنتروبيا المتقاطعة softmax المتناثرة (الإنتروبيا المتقاطعة الفئوية) بين اللوجيستات والتسميات. استخدم وظيفة فقدان الانتروبيا هذه عندما يكون هناك فئتان أو أكثر من فئات التصنيف. نتوقع توفير التصنيفات في تمثيل
one_hot
. يجب أن يكون هناك# classes
قيم الفاصلة العائمة لكل ميزة.تصريح
حدود
logits
احتمالات السجل غير المقاسة من الشبكة العصبية.
probabilities
قيم الاحتمالية التي تتوافق مع الإخراج الصحيح. يجب أن يكون كل صف توزيعًا احتماليًا صالحًا.
reduction
يتم تطبيق التخفيض على قيم الخسارة المحسوبة للعناصر.
يحسب الإنتروبيا السيني المتقاطعة (الإنتروبيا المتقاطعة الثنائية) بين اللوجيستات والتسميات. استخدم خسارة الإنتروبيا المتقاطعة هذه عندما يكون هناك فئتان فقط من التصنيفات (يُفترض أنهما 0 و1). لكل مثال، يجب أن تكون هناك قيمة فاصلة عائمة واحدة لكل تنبؤ.
تصريح
حدود
logits
الناتج غير المقيس للشبكة العصبية.
labels
القيم الصحيحة التي تتوافق مع الإخراج الصحيح.
reduction
يتم تطبيق التخفيض على قيم الخسارة المحسوبة للعناصر.
يحسب خسارة هوبر بين
predicted
expected
.لكل قيمة
x
فيerror = expected - predicted
:-
0.5 * x^2
إذا|x| <= δ
. 0.5 * δ^2 + δ * (|x| - δ)
بخلاف ذلك.المصدر: مقالة ويكيبيديا .
تصريح
حدود
predicted
المخرجات المتوقعة من الشبكة العصبية.
expected
القيم المتوقعة، أي الأهداف، التي تتوافق مع المخرجات الصحيحة.
delta
مقياس النقطة العائمة الذي يمثل النقطة التي تتغير فيها دالة خسارة Huber من الدرجة التربيعية إلى الخطية.
reduction
يتم تطبيق التخفيض على قيم الخسارة المحسوبة للعناصر.
-
تُرجع القيمة المطلقة لعنصر الموتر المحدد.
تصريح
@differentiable public func abs<T>(_ x: Tensor<T>) -> Tensor<T> where T : SignedNumeric, T : TensorFlowScalar
تُرجع اللوغاريتم الطبيعي لعنصر الموتر المحدد.
تصريح
@differentiable public func log<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
تُرجع لوغاريتم الأساس الثاني لعنصر الموتر المحدد.
تصريح
@differentiable public func log2<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
تُرجع اللوغاريتم ذي القاعدة العشرة لعنصر الموتر المحدد.
تصريح
@differentiable public func log10<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
إرجاع لوغاريتم
1 + x
من حيث العناصر.تصريح
@differentiable public func log1p<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
إرجاع
log(1 - exp(x))
باستخدام نهج مستقر عدديًا.ملحوظة
يظهر النهج في المعادلة 7 من: https://cran.r-project.org/web/packages/Rmpfr/vignettes/log1mexp-note.pdf .تصريح
@differentiable public func log1mexp<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
إرجاع جيب عنصر الموتر المحدد.
تصريح
@differentiable public func sin<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
إرجاع جيب التمام لعنصر الموتر المحدد.
تصريح
@differentiable public func cos<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
إرجاع ظل عنصر الموتر المحدد.
تصريح
@differentiable public func tan<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
تُرجع جيب الجيب الزائدي لعنصر الموتر المحدد.
تصريح
@differentiable public func sinh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
تُرجع جيب التمام الزائدي لعنصر الموتر المحدد.
تصريح
@differentiable public func cosh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
تُرجع الظل الزائدي لعنصر الموتر المحدد.
تصريح
@differentiable public func tanh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
يُرجع جيب التمام العكسي لعنصر الموتر المحدد.
تصريح
@differentiable public func acos<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
يُرجع الجيب العكسي لعنصر الموتر المحدد.
تصريح
@differentiable public func asin<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
إرجاع الظل العكسي لعنصر الموتر المحدد.
تصريح
@differentiable public func atan<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
تُرجع جيب التمام الزائدي العكسي لعنصر الموتر المحدد.
تصريح
@differentiable public func acosh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
تُرجع جيب القطع الزائد العكسي لعنصر الموتر المحدد.
تصريح
@differentiable public func asinh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
تُرجع المماس الزائدي العكسي لعنصر الموتر المحدد.
تصريح
@differentiable public func atanh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
يُرجع الجذر التربيعي لعنصر الموتر المحدد.
تصريح
@differentiable public func sqrt<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
تُرجع الجذر التربيعي العكسي لعنصر الموتر المحدد.
تصريح
@differentiable public func rsqrt<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
تُرجع الأس لعنصر الموتر المحدد.
تصريح
@differentiable public func exp<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
إرجاع اثنين مرفوعًا إلى قوة عنصر الموتر المحدد.
تصريح
@differentiable public func exp2<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
إرجاع عشرة مرفوعة إلى قوة عنصر الموتر المحدد.
تصريح
@differentiable public func exp10<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
تُرجع الأسي للعنصر
x - 1
.تصريح
@differentiable public func expm1<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
تُرجع قيم الموتر المحدد مُقربًا إلى أقرب عدد صحيح، من حيث العنصر.
تصريح
@differentiable public func round<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
يُرجع سقف عنصر الموتر المحدد.
تصريح
@differentiable public func ceil<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
إرجاع أرضية عنصر الموتر المحدد.
تصريح
@differentiable public func floor<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
يُرجع إشارة إلى علامة عنصر الموتر المحدد. على وجه التحديد، يحسب
y = sign(x) = -1
ifx < 0
; 0 إذاx == 0
; 1 إذاx > 0
.تصريح
@differentiable public func sign<T>(_ x: Tensor<T>) -> Tensor<T> where T : Numeric, T : TensorFlowScalar
إرجاع السيني لعنصر الموتر المحدد. على وجه التحديد، يحسب
1 / (1 + exp(-x))
.تصريح
@differentiable public func sigmoid<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
تُرجع السجل السيني لعنصر الموتر المحدد. على وجه التحديد،
log(1 / (1 + exp(-x)))
. لتحقيق الاستقرار العددي، نستخدم-softplus(-x)
.تصريح
@differentiable public func logSigmoid<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
تُرجع softplus لعنصر الموتر المحدد. على وجه التحديد، يحسب
log(exp(features) + 1)
.تصريح
@differentiable public func softplus<T>(_ features: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
تُرجع العلامة الناعمة لعنصر الموتر المحدد. على وجه التحديد، يحسب
features/ (abs(features) + 1)
.تصريح
@differentiable public func softsign<T>(_ features: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
تُرجع softmax للموتر المحدد على طول المحور الأخير. على وجه التحديد، يحسب
exp(x) / exp(x).sum(alongAxes: -1)
.تصريح
@differentiable public func softmax<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
تُرجع softmax للموتر المحدد على طول المحور المحدد. على وجه التحديد، يحسب
exp(x) / exp(x).sum(alongAxes: axis)
.تصريح
@differentiable public func softmax<T>(_ x: Tensor<T>, alongAxis axis: Int) -> Tensor<T> where T : TensorFlowFloatingPoint
تُرجع log-softmax لعنصر الموتر المحدد.
تصريح
@differentiable public func logSoftmax<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
إرجاع موتر من خلال تطبيق وحدة خطية أسية. على وجه التحديد، يحسب
exp(x) - 1
إذا كان <0،x
بخلاف ذلك. شاهد تعلمًا سريعًا ودقيقًا للشبكة العميقة من خلال الوحدات الخطية الأسية (ELUs)تصريح
@differentiable public func elu<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
تُرجع تنشيطات وحدة الخطأ الخطي الغوسي (GELU) لعنصر الموتر المحدد.
على وجه التحديد، تقريب
gelu
xP(X <= x)
، حيثP(X <= x)
هو التوزيع التراكمي القياسي الغوسي، عن طريق الحساب: x * [0.5 * (1 + tanh[√(2/π) * (x + 0.044715 * س ^ 3)])].انظر الوحدات الخطية للخطأ الغوسي .
تصريح
@differentiable public func gelu<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
يُرجع موترًا عن طريق تطبيق وظيفة تنشيط ReLU على عنصر الموتر المحدد. على وجه التحديد، يحسب
max(0, x)
.تصريح
@differentiable public func relu<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
إرجاع موتر من خلال تطبيق وظيفة التنشيط ReLU6، وهي
min(max(0, x), 6)
.تصريح
@differentiable public func relu6<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
إرجاع موتر عن طريق تطبيق وظيفة تنشيط ReLU المتسربة على عنصر الموتر المحدد. على وجه التحديد، يحسب
max(x, x * alpha)
.تصريح
@differentiable(wrt: x) public func leakyRelu<T: TensorFlowFloatingPoint>( _ x: Tensor<T>, alpha: Double = 0.2 ) -> Tensor<T>
تقوم بإرجاع موتر من خلال تطبيق وظيفة التنشيط SeLU، وهي
scale * alpha * (exp(x) - 1)
إذاx < 0
،scale * x
بخلاف ذلك.ملحوظة
تم تصميم هذا ليتم استخدامه مع مُهيئات طبقة قياس التباين. يرجى الرجوع إلى الشبكات العصبية ذاتية التطبيع لمزيد من المعلومات.تصريح
@differentiable public func selu<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
إرجاع موتر من خلال تطبيق وظيفة التنشيط، وهي
x * sigmoid(x)
.المصدر: "البحث عن وظائف التنشيط" (راماشاندران وآخرون 2017) https://arxiv.org/abs/1710.05941
تصريح
@differentiable public func swish<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
إرجاع موتر من خلال تطبيق وظيفة التنشيط السيني الصلب، وهي
Relu6(x+3)/6
.المصدر: "البحث عن MobileNetV3" (هوارد وآخرون 2019) https://arxiv.org/abs/1905.02244
تصريح
@differentiable public func hardSigmoid<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
إرجاع موتر عن طريق تطبيق وظيفة التنشيط القوية، وهي
x * Relu6(x+3)/6
.المصدر: "البحث عن MobileNetV3" (هوارد وآخرون 2019) https://arxiv.org/abs/1905.02244
تصريح
@differentiable public func hardSwish<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
إرجاع موتر من خلال تطبيق وظيفة التنشيط، وهي
x * tanh(softplus(x))
.المصدر: "Mish: وظيفة تنشيط عصبية ذاتية غير رتيبة" https://arxiv.org/abs/1908.08681
تصريح
@differentiable public func mish<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
إرجاع قوة الموتر الأول إلى الموتر الثاني.
تصريح
@differentiable public func pow<T>(_ lhs: Tensor<T>, _ rhs: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
إرجاع قوة العددية إلى الموتر، وبث العددية.
تصريح
@differentiable(wrt: rhs) public func pow<T>(_ lhs: T, _ rhs: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
إرجاع قوة الموتر إلى العددية، وبث العددية.
تصريح
@differentiable(wrt: lhs) public func pow<T>(_ lhs: Tensor<T>, _ rhs: T) -> Tensor<T> where T : TensorFlowFloatingPoint
إرجاع قوة الموتر إلى العددية، وبث العددية.
تصريح
@differentiable public func pow<T>(_ x: Tensor<T>, _ n: Int) -> Tensor<T> where T : TensorFlowFloatingPoint
تُرجع العنصر الجذر
n
للموتر.تصريح
@differentiable public func root<T>(_ x: Tensor<T>, _ n: Int) -> Tensor<T> where T : TensorFlowFloatingPoint
إرجاع الفرق التربيعي بين
x
وy
.تصريح
@differentiable public func squaredDifference<T>(_ x: Tensor<T>, _ y: Tensor<T>) -> Tensor<T> where T : Numeric, T : TensorFlowScalar
قيمة الإرجاع
(x - y) ^ 2
.يُرجع الحد الأقصى من حيث العناصر وهو موترين.
ملحوظة
max
يدعم البث.تصريح
@differentiable public func max<T>(_ lhs: Tensor<T>, _ rhs: Tensor<T>) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
تُرجع الحد الأقصى من حيث العنصر للعددية والموترة، وبث العددية.
تصريح
@differentiable(wrt: rhs) public func max<T>(_ lhs: T, _ rhs: Tensor<T>) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
تُرجع الحد الأقصى من حيث العنصر للعددية والموترة، وبث العددية.
تصريح
@differentiable(wrt: lhs) public func max<T>(_ lhs: Tensor<T>, _ rhs: T) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
يُرجع الحد الأدنى من العناصر لموترين.
ملحوظة
min
تدعم البث.تصريح
@differentiable public func min<T>(_ lhs: Tensor<T>, _ rhs: Tensor<T>) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
إرجاع الحد الأدنى من العناصر للعددية والموترة، وبث العددية.
تصريح
@differentiable(wrt: rhs) public func min<T>(_ lhs: T, _ rhs: Tensor<T>) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
إرجاع الحد الأدنى من العناصر للعددية والموترة، وبث العددية.
تصريح
@differentiable(wrt: lhs) public func min<T>(_ lhs: Tensor<T>, _ rhs: T) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
إرجاع تشابه جيب التمام بين
x
وy
.تصريح
@differentiable public func cosineSimilarity<Scalar: TensorFlowFloatingPoint>( _ x: Tensor<Scalar>, _ y: Tensor<Scalar> ) -> Tensor<Scalar>
إرجاع مسافة جيب التمام بين
x
وy
. يتم تعريف مسافة جيب التمام على أنها1 - cosineSimilarity(x, y)
.تصريح
@differentiable public func cosineDistance<Scalar: TensorFlowFloatingPoint>( _ x: Tensor<Scalar>, _ y: Tensor<Scalar> ) -> Tensor<Scalar>
تُرجع التفافًا أحادي الأبعاد مع المدخلات والمرشح والخطوة والحشوة المحددة.
شرط مسبق
يجب أن يكونinput
في المرتبة3
.شرط مسبق
يجب أن يكونfilter
في المرتبة 3.تصريح
@differentiable(wrt: (input, filter) public func conv1D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filter: Tensor<Scalar>, stride: Int = 1, padding: Padding = .valid, dilation: Int = 1 ) -> Tensor<Scalar>
حدود
input
المدخلات.
filter
مرشح الالتفاف.
stride
خطوة المرشح المنزلق.
padding
الحشوة للعملية.
dilation
عامل التمدد.
تُرجع التفافًا ثنائي الأبعاد مع المدخلات والمرشحات والخطوات والحشوة المحددة.
شرط مسبق
يجب أن يكونinput
في المرتبة4
.شرط مسبق
يجب أن يكونfilter
في المرتبة 4.تصريح
@differentiable(wrt: (input, filter) public func conv2D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filter: Tensor<Scalar>, strides: (Int, Int, Int, Int) = (1, 1, 1, 1), padding: Padding = .valid, dilations: (Int, Int, Int, Int) = (1, 1, 1, 1) ) -> Tensor<Scalar>
حدود
input
المدخلات.
filter
مرشح الالتفاف.
strides
خطوات المرشح المنزلق لكل بُعد من أبعاد الإدخال.
padding
الحشوة للعملية
dilations
عامل التمدد لكل بعد من المدخلات.
تُرجع التفافًا منقولاً ثنائي الأبعاد مع المدخلات والمرشح والخطوات والحشوة المحددة.
شرط مسبق
يجب أن يكونinput
في المرتبة4
.شرط مسبق
يجب أن يكونfilter
في المرتبة 4.تصريح
@differentiable(wrt: (input, filter) public func transposedConv2D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, shape: [Int64], filter: Tensor<Scalar>, strides: (Int, Int, Int, Int) = (1, 1, 1, 1), padding: Padding = .valid, dilations: (Int, Int, Int, Int) = (1, 1, 1, 1) ) -> Tensor<Scalar>
حدود
input
المدخلات.
shape
شكل الإخراج لعملية التفكيك.
filter
مرشح الالتفاف.
strides
خطوات المرشح المنزلق لكل بُعد من أبعاد الإدخال.
padding
الحشوة للعملية
dilations
عامل التمدد لكل بعد من المدخلات.
يُرجع تلافيفًا ثلاثي الأبعاد مع المدخلات والمرشحات والخطوات والحشوات والتوسعات المحددة.
شرط مسبق
يجب أن يكونinput
في المرتبة5
.شرط مسبق
يجب أن يكونfilter
في المرتبة 5.تصريح
@differentiable(wrt: (input, filter) public func conv3D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filter: Tensor<Scalar>, strides: (Int, Int, Int, Int, Int) = (1, 1, 1, 1, 1), padding: Padding = .valid, dilations: (Int, Int, Int, Int, Int) = (1, 1, 1, 1, 1) ) -> Tensor<Scalar>
حدود
input
المدخلات.
filter
مرشح الالتفاف.
strides
خطوات المرشح المنزلق لكل بُعد من أبعاد الإدخال.
padding
الحشوة للعملية.
dilations
عامل التمدد لكل بعد من المدخلات.
يُرجع التفافًا عميقًا ثنائي الأبعاد مع المدخلات والمرشح والخطوات والحشوة المحددة.
شرط مسبق
يجب أن يكونinput
في المرتبة 4.شرط مسبق
يجب أن يكونfilter
في المرتبة 4.تصريح
@differentiable(wrt: (input, filter) public func depthwiseConv2D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filter: Tensor<Scalar>, strides: (Int, Int, Int, Int), padding: Padding ) -> Tensor<Scalar>
حدود
input
المدخلات.
filter
مرشح الالتواء العميق.
strides
خطوات المرشح المنزلق لكل بُعد من أبعاد الإدخال.
padding
الحشوة للعملية.
يُرجع الحد الأقصى للتجميع ثنائي الأبعاد، مع أحجام المرشحات والخطوات والحشوة المحددة.
تصريح
@differentiable(wrt: input) public func maxPool2D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filterSize: (Int, Int, Int, Int), strides: (Int, Int, Int, Int), padding: Padding ) -> Tensor<Scalar>
حدود
input
المدخلات.
filterSize
أبعاد نواة التجميع.
strides
خطوات المرشح المنزلق لكل بُعد من أبعاد الإدخال.
padding
الحشوة للعملية.
يُرجع الحد الأقصى للتجميع ثلاثي الأبعاد، مع أحجام المرشحات والخطوات والحشوة المحددة.
تصريح
@differentiable(wrt: input) public func maxPool3D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filterSize: (Int, Int, Int, Int, Int), strides: (Int, Int, Int, Int, Int), padding: Padding ) -> Tensor<Scalar>
حدود
input
المدخلات.
filterSize
أبعاد نواة التجميع.
strides
خطوات المرشح المنزلق لكل بُعد من أبعاد الإدخال.
padding
الحشوة للعملية.
إرجاع تجميع متوسط ثنائي الأبعاد، مع أحجام المرشحات والخطوات والحشوة المحددة.
تصريح
@differentiable(wrt: input) public func avgPool2D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filterSize: (Int, Int, Int, Int), strides: (Int, Int, Int, Int), padding: Padding ) -> Tensor<Scalar>
حدود
input
المدخلات.
filterSize
أبعاد نواة التجميع.
strides
خطوات المرشح المنزلق لكل بُعد من أبعاد الإدخال.
padding
الحشوة للعملية .
يُرجع تجميعًا متوسطًا ثلاثي الأبعاد، بأحجام المرشحات والخطوات والحشوة المحددة.
تصريح
@differentiable(wrt: input) public func avgPool3D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filterSize: (Int, Int, Int, Int, Int), strides: (Int, Int, Int, Int, Int), padding: Padding ) -> Tensor<Scalar>
حدود
input
المدخلات.
filterSize
أبعاد نواة التجميع.
strides
خطوات المرشح المنزلق لكل بُعد من أبعاد الإدخال.
padding
الحشوة للعملية.
إرجاع تجميع أقصى كسري ثنائي الأبعاد، بنسب التجميع المحددة.
ملاحظة: لا يحتوي
fractionalMaxPool
على تطبيق XLA، وبالتالي قد يكون له آثار على الأداء.تصريح
@differentiable(wrt: input) public func fractionalMaxPool2D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, poolingRatio: (Double, Double, Double, Double), pseudoRandom: Bool = false, overlapping: Bool = false, deterministic: Bool = false, seed: Int64 = 0, seed2: Int64 = 0 ) -> Tensor<Scalar>
حدود
input
موتر. 4-D بالشكل
[batch, height, width, channels]
.poolingRatio
قائمة
Doubles
. نسبة التجميع لكل بُعد من أبعادinput
، تدعم حاليًا بُعد الصف والعمود فقط ويجب أن تكون >= 1.0.pseudoRandom
Bool
اختياري. الافتراضياتfalse
. عند التعيين علىtrue
، يتم إنشاء تسلسل التجميع بطريقة عشوائية زائفة، وإلا بطريقة عشوائية.overlapping
Bool
اختياري. الافتراضياتfalse
. عند التعيين علىtrue
، فهذا يعني أنه عند التجميع، يتم استخدام القيم الموجودة على حدود خلايا التجميع المجاورة بواسطة كلا الخليتين.deterministic
Bool
اختياري . عند التعيين علىtrue
، سيتم استخدام منطقة تجميع ثابتة عند التكرار عبر عقدة FractionalMaxPool2D في الرسم البياني الحسابي.seed
اختياري
Int64
. الإعدادات الافتراضية إلى0
. إذا تم ضبطه على قيمة غير صفرية، فسيتم تصنيف مولد الأرقام العشوائية بواسطة البذرة المحددة.seed2
اختياري
Int64
. الإعدادات الافتراضية إلى0
. بذرة ثانية لتجنب اصطدام البذور.تقوم بإرجاع نسخة من
input
حيث يتم نقل القيم من بُعد العمق في كتل مكانية إلى أبعاد الارتفاع والعرض.على سبيل المثال، في حالة إدخال الشكل
[1, 2, 2, 1]
، data_format = "NHWC" وblock_size = 2:x = [[[[1], [2]], [[3], [4]]]]
ستنتج هذه العملية موترًا بالشكل
[1, 1, 1, 4]
:[[[[1, 2, 3, 4]]]]
هنا، يحتوي الإدخال على دفعة مكونة من 1 ولكل عنصر دفعة شكل
[2, 2, 1]
، وسيكون للمخرج المقابل عنصر واحد (أي العرض والارتفاع كلاهما 1) وسيكون له عمق 4 قنوات (1) * حجم الكتلة * حجم الكتلة). شكل عنصر الإخراج هو[1, 1, 4]
.بالنسبة لموتر الإدخال بعمق أكبر، هنا بالشكل
[1, 2, 2, 3]
، على سبيل المثالx = [[[[1, 2, 3], [4, 5, 6]], [[7, 8, 9], [10, 11, 12]]]]
هذه العملية، بالنسبة لحجم الكتلة 2، ستعيد موتر الشكل التالي
[1, 1, 1, 12]
[[[[1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12]]]]
وبالمثل، بالنسبة لإدخال الشكل التالي
[1 4 4 1]
وحجم الكتلة 2:x = [[[[1], [2], [5], [6]], [[3], [4], [7], [8]], [[9], [10], [13], [14]], [[11], [12], [15], [16]]]]
سيعيد المشغل موتر الشكل التالي
[1 2 2 4]
:x = [[[[1, 2, 3, 4], [5, 6, 7, 8]], [[9, 10, 11, 12], [13, 14, 15, 16]]]]
شرط مسبق
input.rank == 4 && b >= 2
.شرط مسبق
يجب أن يكون عدد المعالم قابلاً للقسمة على مربعb
.تصريح
@differentiable(wrt: input) public func depthToSpace<Scalar>(_ input: Tensor<Scalar>, blockSize b: Int) -> Tensor<Scalar> where Scalar : TensorFlowScalar
تقوم بإرجاع نسخة من
input
حيث يتم نقل القيم من أبعاد الارتفاع والعرض إلى بُعد العمق.على سبيل المثال، في حالة إدخال الشكل
[1, 2, 2, 1]
، data_format = "NHWC" وblock_size = 2:x = [[[[1], [2]], [[3], [4]]]]
ستنتج هذه العملية موترًا بالشكل
[1, 1, 1, 4]
:[[[[1, 2, 3, 4]]]]
هنا، يحتوي الإدخال على دفعة مكونة من 1 ولكل عنصر دفعة شكل
[2, 2, 1]
، وسيكون للمخرج المقابل عنصر واحد (أي العرض والارتفاع كلاهما 1) وسيكون له عمق 4 قنوات (1) * حجم الكتلة * حجم الكتلة). شكل عنصر الإخراج هو[1, 1, 4]
.بالنسبة لموتر الإدخال بعمق أكبر، هنا بالشكل
[1, 2, 2, 3]
، على سبيل المثالx = [[[[1, 2, 3], [4, 5, 6]], [[7, 8, 9], [10, 11, 12]]]]
هذه العملية ، لـ block_size من 2 ، ستعيد الموتر التالي من الشكل
[1, 1, 1, 12]
[[[[1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12]]]]
وبالمثل ، بالنسبة للمدخلات التالية للشكل
[1 4 4 1]
، وحجم كتلة 2:x = [[[[1], [2], [5], [6]], [[3], [4], [7], [8]], [[9], [10], [13], [14]], [[11], [12], [15], [16]]]]
سيعود المشغل الموتر التالي من الشكل
[1 2 2 4]
:x = [[[[1, 2, 3, 4], [5, 6, 7, 8]], [[9, 10, 11, 12], [13, 14, 15, 16]]]]
شرط مسبق
input.rank == 4 && b >= 2
.شرط مسبق
يجب أن يكون ارتفاع المدخلات قابلة للقسمة علىb
.شرط مسبق
يجب أن يكون عرض المدخلات قابلاً للقسمة بواسطةb
.تصريح
@differentiable(wrt: input) public func spaceToDepth<Scalar>(_ input: Tensor<Scalar>, blockSize b: Int) -> Tensor<Scalar> where Scalar : TensorFlowScalar
يبني مُحسِّنًا لكل Weight لـ LARS ( https://arxiv.org/pdf/1708.03888.pdf ).
تصريح
public func makeLARS( learningRate: Float = 0.01, momentum: Float = 0.9, trustCoefficient: Float = 0.001, nesterov: Bool = false, epsilon: Float = 0.0, weightDecay: Float = 0.0 ) -> ParameterGroupOptimizer
يبني مُحسِّنًا لكل وزن قائم على SGD.
تصريح
public func makeSGD( learningRate: Float = 0.01, momentum: Float = 0, weightDecay: Float = 0, nesterov: Bool = false ) -> ParameterGroupOptimizer
يبني مُحسِّنًا لكل وزن لآدم مع تسوس الوزن.
المرجع: "آدم - طريقة للتحسين العشوائي"
تصريح
public func makeAdam( learningRate: Float = 0.01, beta1: Float = 0.9, beta2: Float = 0.999, weightDecayRate: Float = 0.01, epsilon: Float = 1e-6 ) -> ParameterGroupOptimizer
يولد بذرة عشوائية جديدة لترنزورف.
تصريح
public func randomSeedForTensorFlow(using seed: TensorFlowSeed? = nil) -> TensorFlowSeed
يسلط قيمتين.
تصريح
@differentiable public func concatenate<T: Mergeable>( _ first: T, _ second: T ) -> T
يضيف قيمتين وينتج مجموعهما.
تصريح
@differentiable public func sum<T: Mergeable>( _ first: T, _ second: T ) -> T
متوسط قيمتين.
تصريح
@differentiable public func average<T: Mergeable>( _ first: T, _ second: T ) -> T
يضاعف قيمتين.
تصريح
@differentiable public func multiply<T: Mergeable>( _ first: T, _ second: T ) -> T
كومة قيمتين.
تصريح
@differentiable public func stack<T: Mergeable>( _ first: T, _ second: T ) -> T
تصريح
public func PrintX10Metrics()
ينشئ ملخص سلسلة لقائمة التدريب واختبار إحصائيات.
تصريح
public func formatStatistics(_ stats: (train: HostStatistics, test: HostStatistics)) -> String
تصريح
public func formatStatistics(train trainStats: HostStatistics, test testStats: HostStatistics) -> String
خرائط وظيفة على المواضيع n.
تصريح
public func runOnNThreads<R>(_ nThreads: Int, _ body: @escaping (Int) -> R) -> [R]