توابع زیر به صورت جهانی در دسترس هستند.
ضرر L1 بین پیش بینی ها و انتظارات را برمی گرداند.
اعلامیه
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func l1Loss<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
پارامترها
predicted
خروجی های پیش بینی شده از یک شبکه عصبی
expected
مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.
ضرر L2 بین پیش بینی ها و انتظارات را برمی گرداند.
اعلامیه
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func l2Loss<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
پارامترها
predicted
خروجی های پیش بینی شده از یک شبکه عصبی
expected
مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.
ضرر لولای بین پیش بینی ها و انتظارات را برمی گرداند.
اعلامیه
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func hingeLoss<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
پارامترها
predicted
خروجی های پیش بینی شده از یک شبکه عصبی
expected
مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.
تلفات لولای مجذور بین پیشبینیها و انتظارات را برمیگرداند.
اعلامیه
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func squaredHingeLoss<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
پارامترها
predicted
خروجی های پیش بینی شده از یک شبکه عصبی
expected
مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.
تلفات لولای طبقه بندی شده بین پیش بینی ها و انتظارات را برمی گرداند.
اعلامیه
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func categoricalHingeLoss<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
پارامترها
predicted
خروجی های پیش بینی شده از یک شبکه عصبی
expected
مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.
لگاریتم کسینوس هذلولی خطای بین پیشبینیها و انتظارات را برمیگرداند.
اعلامیه
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func logCoshLoss<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
پارامترها
predicted
خروجی های پیش بینی شده از یک شبکه عصبی
expected
مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.
ضرر پواسون را بین پیشبینیها و انتظارات برمیگرداند.
اعلامیه
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func poissonLoss<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
پارامترها
predicted
خروجی های پیش بینی شده از یک شبکه عصبی
expected
مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.
واگرایی Kullback-Leibler (واگرایی KL) بین انتظارات و پیشبینیها را برمیگرداند. با توجه به دو توزیع
p
وq
، واگرایی KLp * log(p / q)
را محاسبه می کند.اعلامیه
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func kullbackLeiblerDivergence<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
پارامترها
predicted
خروجی های پیش بینی شده از یک شبکه عصبی
expected
مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.
آنتروپی متقاطع softmax (آنتروپی متقاطع طبقهای) بین لاجیتها و برچسبها را برمیگرداند.
اعلامیه
@differentiable(wrt: logits) public func softmaxCrossEntropy<Scalar: TensorFlowFloatingPoint>( logits: Tensor<Scalar>, probabilities: Tensor<Scalar> ) -> Tensor<Scalar>
پارامترها
logits
خروجی های کدگذاری شده یک گرم از یک شبکه عصبی.
labels
شاخص های (صفر شاخص) خروجی های صحیح.
آنتروپی متقاطع سیگموئید (آنتروپی متقاطع باینری) بین لاجیت ها و برچسب ها را برمی گرداند.
اعلامیه
@differentiable(wrt: logits) @differentiable(wrt: (logits, labels) public func sigmoidCrossEntropy<Scalar: TensorFlowFloatingPoint>( logits: Tensor<Scalar>, labels: Tensor<Scalar> ) -> Tensor<Scalar>
پارامترها
logits
خروجی مقیاس نشده یک شبکه عصبی
labels
مقادیر صحیحی که با خروجی صحیح مطابقت دارند.
تانسوری را با همان شکل و اسکالرهای تانسور مشخص شده برمیگرداند.
اعلامیه
@differentiable public func identity<Scalar>(_ x: Tensor<Scalar>) -> Tensor<Scalar> where Scalar : TensorFlowScalar
بسته شدن داده شده را در زمینه ای می نامد که همه چیز با زمینه فعلی یکسان است به جز مرحله یادگیری داده شده.
اعلامیه
public func withContext<R>(_ context: Context, _ body: () throws -> R) rethrows -> R
پارامترها
context
زمینه ای که قبل از فراخوانی بسته شدن تنظیم می شود و پس از بازگشت بسته شدن بازیابی می شود.
body
یک بسته شدن پوچ اگر بسته دارای مقدار بازگشتی باشد، آن مقدار به عنوان مقدار بازگشتی
withContext(_:_:)
نیز استفاده می شود.ارزش بازگشتی
مقدار بازگشتی، در صورت وجود، بسته شدن
body
.بسته شدن داده شده را در زمینه ای می نامد که همه چیز با زمینه فعلی یکسان است به جز مرحله یادگیری داده شده.
اعلامیه
public func withLearningPhase<R>( _ learningPhase: LearningPhase, _ body: () throws -> R ) rethrows -> R
پارامترها
learningPhase
مرحله یادگیری که قبل از فراخوانی بسته شدن تنظیم می شود و پس از بازگشت بسته شدن بازیابی می شود.
body
یک بسته شدن پوچ اگر بسته دارای مقدار بازگشتی باشد، از آن مقدار به عنوان مقدار بازگشتی تابع
withLearningPhase(_:_:)
نیز استفاده می شود.ارزش بازگشتی
مقدار بازگشتی، در صورت وجود، بسته شدن
body
.بسته شدن داده شده را در زمینه ای فراخوانی می کند که همه چیز با زمینه فعلی یکسان است به جز دانه تصادفی داده شده.
اعلامیه
public func withRandomSeedForTensorFlow<R>( _ randomSeed: TensorFlowSeed, _ body: () throws -> R ) rethrows -> R
پارامترها
randomSeed
یک دانه تصادفی که قبل از بسته شدن تنظیم می شود، فراخوانی می شود و پس از بازگشت بسته شدن بازیابی می شود.
body
یک بسته شدن پوچ اگر بسته دارای مقدار بازگشتی باشد، آن مقدار به عنوان مقدار بازگشتی تابع
withRandomSeedForTensorFlow(_:_:)
نیز استفاده می شود.ارزش بازگشتی
مقدار بازگشتی، در صورت وجود، بسته شدن
body
.بسته شدن داده شده را در زمینه ای فراخوانی می کند که همه چیز با زمینه فعلی یکسان است به جز مولد اعداد تصادفی داده شده.
اعلامیه
public func withRandomNumberGeneratorForTensorFlow<G: RandomNumberGenerator, R>( _ randomNumberGenerator: inout G, _ body: () throws -> R ) rethrows -> R
پارامترها
randomNumberGenerator
یک مولد اعداد تصادفی که قبل از بسته شدن تنظیم می شود، فراخوانی می شود و پس از بازگشت بسته شدن بازیابی می شود.
body
یک بسته شدن پوچ اگر بسته دارای مقدار بازگشتی باشد، آن مقدار به عنوان مقدار بازگشتی تابع
withRandomNumberGeneratorForTensorFlow(_:_:)
نیز استفاده می شود.ارزش بازگشتی
مقدار بازگشتی، در صورت وجود، بسته شدن
body
.اعلامیه
public func zip<T: TensorGroup, U: TensorGroup>( _ dataset1: Dataset<T>, _ dataset2: Dataset<U> ) -> Dataset<Zip2TensorGroup<T, U>>
LazyTensorBarrier تضمین می کند که همه تانسورهای زنده (در صورت ارائه در دستگاه) برنامه ریزی شده و در حال اجرا هستند. اگر انتظار روی true تنظیم شود، این تماس تا زمانی که محاسبه کامل شود مسدود می شود.
اعلامیه
public func valueWithGradient<T, R>( at x: T, in f: @differentiable (T) -> Tensor<R> ) -> (value: Tensor<R>, gradient: T.TangentVector) where T: Differentiable, R: TensorFlowFloatingPoint
اعلامیه
public func valueWithGradient<T, U, R>( at x: T, _ y: U, in f: @differentiable (T, U) -> Tensor<R> ) -> (value: Tensor<R>, gradient: (T.TangentVector, U.TangentVector)) where T: Differentiable, U: Differentiable, R: TensorFlowFloatingPoint
اعلامیه
public func valueWithGradient<T, U, V, R>( at x: T, _ y: U, _ z: V, in f: @differentiable (T, U, V) -> Tensor<R> ) -> (value: Tensor<R>, gradient: (T.TangentVector, U.TangentVector, V.TangentVector)) where T: Differentiable, U: Differentiable, V: Differentiable, R: TensorFlowFloatingPoint
اعلامیه
public func valueWithGradient<T, R>( of f: @escaping @differentiable (T) -> Tensor<R> ) -> (T) -> (value: Tensor<R>, gradient: T.TangentVector) where T: Differentiable, R: TensorFlowFloatingPoint
اعلامیه
public func valueWithGradient<T, U, R>( of f: @escaping @differentiable (T, U) -> Tensor<R> ) -> (T, U) -> (value: Tensor<R>, gradient: (T.TangentVector, U.TangentVector)) where T: Differentiable, U: Differentiable, R: TensorFlowFloatingPoint
اعلامیه
public func valueWithGradient<T, U, V, R>( of f: @escaping @differentiable (T, U, V) -> Tensor<R> ) -> (T, U, V) -> ( value: Tensor<R>, gradient: (T.TangentVector, U.TangentVector, V.TangentVector) ) where T: Differentiable, U: Differentiable, V: Differentiable, R: TensorFlowFloatingPoint
اعلامیه
public func gradient<T, R>( at x: T, in f: @differentiable (T) -> Tensor<R> ) -> T.TangentVector where T: Differentiable, R: TensorFlowFloatingPoint
اعلامیه
public func gradient<T, U, R>( at x: T, _ y: U, in f: @differentiable (T, U) -> Tensor<R> ) -> (T.TangentVector, U.TangentVector) where T: Differentiable, U: Differentiable, R: TensorFlowFloatingPoint
اعلامیه
public func gradient<T, U, V, R>( at x: T, _ y: U, _ z: V, in f: @differentiable (T, U, V) -> Tensor<R> ) -> (T.TangentVector, U.TangentVector, V.TangentVector) where T: Differentiable, U: Differentiable, V: Differentiable, R: TensorFlowFloatingPoint
اعلامیه
public func gradient<T, R>( of f: @escaping @differentiable (T) -> Tensor<R> ) -> (T) -> T.TangentVector where T: Differentiable, R: TensorFlowFloatingPoint
اعلامیه
public func gradient<T, U, R>( of f: @escaping @differentiable (T, U) -> Tensor<R> ) -> (T, U) -> (T.TangentVector, U.TangentVector) where T: Differentiable, U: Differentiable, R: TensorFlowFloatingPoint
اعلامیه
public func gradient<T, U, V, R>( of f: @escaping @differentiable (T, U, V) -> Tensor<R> ) -> (T, U, V) -> (T.TangentVector, U.TangentVector, V.TangentVector) where T: Differentiable, U: Differentiable, V: Differentiable, R: TensorFlowFloatingPoint
کاری کنید که یک تابع در pullback خود مجدداً محاسبه شود، که در تمایز خودکار سنتی به عنوان "چک پوینت" شناخته می شود.
اعلامیه
public func withRecomputationInPullbacks<T, U>( _ body: @escaping @differentiable (T) -> U ) -> @differentiable (T) -> U where T : Differentiable, U : Differentiable
یک تابع متمایز از یک تابع محصولات بردار-ژاکوبین ایجاد کنید.
اعلامیه
public func differentiableFunction<T : Differentiable, R : Differentiable>( from vjp: @escaping (T) -> (value: R, pullback: (R.TangentVector) -> T.TangentVector) ) -> @differentiable (T) -> R
یک تابع متمایز از یک تابع محصولات بردار-ژاکوبین ایجاد کنید.
اعلامیه
public func differentiableFunction<T, U, R>( from vjp: @escaping (T, U) -> (value: R, pullback: (R.TangentVector) -> (T.TangentVector, U.TangentVector)) ) -> @differentiable (T, U) -> R
x
مانند یک تابع هویت برمی گرداند. وقتی در زمینه ای استفاده می شود کهx
با توجه به آن متمایز می شود، این تابع هیچ مشتقی درx
تولید نمی کند.اعلامیه
@_semantics("autodiff.nonvarying") public func withoutDerivative<T>(at x: T) -> T
body
بسته شدن داده شده را بهx
اعمال می کند. وقتی در زمینه ای استفاده می شود کهx
با توجه به آن متمایز می شود، این تابع هیچ مشتقی درx
تولید نمی کند.اعلامیه
@_semantics("autodiff.nonvarying") public func withoutDerivative<T, R>(at x: T, in body: (T) -> R) -> R
بسته شدن را اجرا می کند و باعث می شود عملیات TensorFlow بر روی نوع خاصی از دستگاه اجرا شود.
اعلامیه
public func withDevice<R>( _ kind: DeviceKind, _ index: UInt = 0, perform body: () throws -> R ) rethrows -> R
پارامترها
kind
نوعی دستگاه برای اجرای عملیات تنسورفلو.
index
دستگاهی برای اجرای عملیات
body
بسته شدنی که عملیات TensorFlow باید در نوع مشخص شده دستگاه اجرا شود.
بسته شدن را اجرا می کند و باعث می شود عملیات TensorFlow روی دستگاهی با نام خاصی اجرا شود.
چند نمونه از نام دستگاه ها:
- “/device:CPU:0”: CPU دستگاه شما.
- "/GPU:0": نماد کوتاه برای اولین GPU دستگاه شما که برای TensorFlow قابل مشاهده است
- «/job:localhost/replica:0/task:0/device:GPU:1»: نام کاملاً واجد شرایط دومین GPU دستگاه شما که برای TensorFlow قابل مشاهده است.
اعلامیه
public func withDevice<R>(named name: String, perform body: () throws -> R) rethrows -> R
پارامترها
name
نام دستگاه
body
بسته شدنی که عملیات TensorFlow باید در نوع مشخص شده دستگاه اجرا شود.
یک بسته را اجرا می کند و به TensorFlow اجازه می دهد تا عملیات TensorFlow را روی هر دستگاهی قرار دهد. این باید رفتار قرار دادن پیش فرض را بازیابی کند.
اعلامیه
public func withDefaultDevice<R>(perform body: () throws -> R) rethrows -> R
پارامترها
body
بسته شدنی که عملیات TensorFlow باید در نوع مشخص شده دستگاه اجرا شود.
اندازه تصاویر را با استفاده از روش مشخص شده به اندازه تغییر دهید.
پیش شرط
تصاویر باید دارای رتبه3
یا4
باشند.پیش شرط
اندازه باید مثبت باشد.اعلامیه
@differentiable(wrt: images) public func resize( images: Tensor<Float>, size: (newHeight: Int, newWidth: Int), method: ResizeMethod = .bilinear, antialias: Bool = false ) -> Tensor<Float>
با استفاده از درون یابی ناحیه، اندازه تصاویر را به اندازه تغییر دهید.
پیش شرط
تصاویر باید دارای رتبه3
یا4
باشند.پیش شرط
اندازه باید مثبت باشد.اعلامیه
public func resizeArea<Scalar: TensorFlowNumeric>( images: Tensor<Scalar>, size: (newHeight: Int, newWidth: Int), alignCorners: Bool = false ) -> Tensor<Float>
اتساع دوبعدی را با ورودی، فیلتر، گامها و بالشتک مشخص شده برمیگرداند.
پیش شرط
input
باید دارای رتبه4
باشد.پیش شرط
filter
باید دارای رتبه3
باشد.اعلامیه
@differentiable(wrt: (input, filter) public func dilation2D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filter: Tensor<Scalar>, strides: (Int, Int, Int, Int) = (1, 1, 1, 1), rates: (Int, Int, Int, Int) = (1, 1, 1, 1), padding: Padding = .valid ) -> Tensor<Scalar>
پارامترها
input
ورودی.
filter
فیلتر اتساع
strides
گام های فیلتر کشویی برای هر بعد ورودی.
padding
بالشتک برای عملیات
rates
نرخ اتساع برای هر بعد از ورودی.
فرسایش دوبعدی را با ورودی، فیلتر، گامها و بالشتک مشخص شده برمیگرداند.
پیش شرط
input
باید دارای رتبه4
باشد.پیش شرط
filter
باید دارای رتبه 3 باشد.اعلامیه
@differentiable(wrt: (input, filter) public func erosion2D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filter: Tensor<Scalar>, strides: (Int, Int, Int, Int) = (1, 1, 1, 1), rates: (Int, Int, Int, Int) = (1, 1, 1, 1), padding: Padding = .valid ) -> Tensor<Scalar>
پارامترها
input
ورودی.
filter
فیلتر فرسایش
strides
گام های فیلتر کشویی برای هر بعد ورودی.
padding
بالشتک برای عملیات
rates
نرخ اتساع برای هر بعد از ورودی.
تابعی را برمیگرداند که یک تانسور با مقداردهی اولیه تمام مقادیر آن به صفر میسازد.
اعلامیه
public func zeros<Scalar>() -> ParameterInitializer<Scalar> where Scalar : TensorFlowFloatingPoint
تابعی را برمیگرداند که یک تانسور با مقداردهی اولیه تمام مقادیر آن به مقدار ارائه شده ایجاد میکند.
اعلامیه
public func constantInitializer<Scalar: TensorFlowFloatingPoint>( value: Scalar ) -> ParameterInitializer<Scalar>
تابعی را برمیگرداند که با مقداردهی اولیه یک تانسور ایجاد میکند. توجه داشته باشید که پخش مقدار ارائه شده پشتیبانی نمی شود.
اعلامیه
public func constantInitializer<Scalar: TensorFlowFloatingPoint>( value: Tensor<Scalar> ) -> ParameterInitializer<Scalar>
تابعی را برمیگرداند که با انجام مقداردهی اولیه یکنواخت Glorot (Xavier) برای شکل مشخص شده، نمونهبرداری تصادفی مقادیر اسکالر از توزیع یکنواخت بین
-limit
وlimit
، ایجاد شده توسط مولد اعداد تصادفی پیشفرض، که حد آنsqrt(6 / (fanIn + fanOut))
وfanIn
/fanOut
نشان دهنده تعداد ویژگی های ورودی و خروجی ضرب در فیلد گیرنده، در صورت وجود است.اعلامیه
public func glorotUniform<Scalar: TensorFlowFloatingPoint>( seed: TensorFlowSeed = Context.local.randomSeed ) -> ParameterInitializer<Scalar>
تابعی را برمیگرداند که با انجام مقداردهی اولیه Glorot (Xavier) برای شکل مشخص شده، نمونهبرداری تصادفی مقادیر اسکالر از یک توزیع نرمال کوتاه شده با مرکز
0
با انحراف استانداردsqrt(2 / (fanIn + fanOut))
ایجاد میکند، که در آنfanIn
/fanOut
نشان دهنده تعداد ویژگی های ورودی و خروجی ضرب در اندازه میدان پذیرنده در صورت وجود است.اعلامیه
public func glorotNormal<Scalar: TensorFlowFloatingPoint>( seed: TensorFlowSeed = Context.local.randomSeed ) -> ParameterInitializer<Scalar>
تابعی را برمیگرداند که با انجام مقداردهی اولیه یکنواخت He (Kaiming) برای شکل مشخص شده، نمونهبرداری تصادفی مقادیر اسکالر از توزیع یکنواخت بین
-limit
وlimit
، ایجاد شده توسط مولد اعداد تصادفی پیشفرض، که حد آنsqrt(6 / fanIn)
است، یک تانسور ایجاد میکند.sqrt(6 / fanIn)
وfanIn
نشان دهنده تعداد ویژگی های ورودی ضرب در فیلد گیرنده است، در صورت وجود.اعلامیه
public func heUniform<Scalar: TensorFlowFloatingPoint>( seed: TensorFlowSeed = Context.local.randomSeed ) -> ParameterInitializer<Scalar>
تابعی را برمیگرداند که با انجام مقداردهی اولیه He (Kaiming) برای شکل مشخص شده، نمونهبرداری تصادفی مقادیر اسکالر از یک توزیع نرمال کوتاه شده در مرکز
0
با انحراف استانداردsqrt(2 / fanIn)
ایجاد میکند، که در آنfanIn
تعداد ویژگیهای ورودی را نشان میدهد. در صورت وجود، در اندازه میدان پذیرنده ضرب می شود.اعلامیه
public func heNormal<Scalar: TensorFlowFloatingPoint>( seed: TensorFlowSeed = Context.local.randomSeed ) -> ParameterInitializer<Scalar>
تابعی را برمیگرداند که با انجام مقداردهی اولیه یکنواخت LeCun برای شکل مشخص شده، نمونهبرداری تصادفی مقادیر اسکالر از یک توزیع یکنواخت بین
-limit
وlimit
، ایجاد شده توسط مولد اعداد تصادفی پیشفرض، که حد آنsqrt(3 / fanIn)
است، یک تانسور ایجاد میکند.fanIn
تعداد ویژگی های ورودی ضرب در فیلد گیرنده را در صورت وجود نشان می دهد.اعلامیه
public func leCunUniform<Scalar: TensorFlowFloatingPoint>( seed: TensorFlowSeed = Context.local.randomSeed ) -> ParameterInitializer<Scalar>
تابعی را برمیگرداند که یک تانسور را با انجام مقداردهی اولیه LeCun برای شکل مشخص شده، نمونهبرداری تصادفی مقادیر اسکالر از یک توزیع نرمال کوتاه شده در مرکز
0
با انحراف استانداردsqrt(1 / fanIn)
ایجاد میکند، که در آنfanIn
تعداد ویژگیهای ورودی را در ضرب نشان میدهد. اندازه میدان پذیرنده، در صورت وجود.اعلامیه
public func leCunNormal<Scalar: TensorFlowFloatingPoint>( seed: TensorFlowSeed = Context.local.randomSeed ) -> ParameterInitializer<Scalar>
تابعی را برمیگرداند که یک تانسور را با مقداردهی اولیه همه مقادیر آن به طور تصادفی از یک توزیع Normal کوتاه شده ایجاد میکند. مقادیر تولید شده از توزیع نرمال با
mean
وstandardDeviation
استاندارد انحراف استاندارد پیروی می کنند، با این تفاوت که مقادیری که بزرگی آنها بیش از دو انحراف استاندارد از میانگین است حذف شده و مجدداً نمونه برداری می شوند.اعلامیه
public func truncatedNormalInitializer<Scalar: TensorFlowFloatingPoint>( mean: Tensor<Scalar> = Tensor<Scalar>(0), standardDeviation: Tensor<Scalar> = Tensor<Scalar>(1), seed: TensorFlowSeed = Context.local.randomSeed ) -> ParameterInitializer<Scalar>
پارامترها
mean
میانگین توزیع نرمال
standardDeviation
انحراف معیار توزیع نرمال
ارزش بازگشتی
یک تابع اولیه کننده پارامتر معمولی کوتاه شده.
اعلامیه
public func == (lhs: TFETensorHandle, rhs: TFETensorHandle) -> Bool
یک ماتریس هویت یا دسته ای از ماتریس ها را برمی گرداند.
اعلامیه
پارامترها
rowCount
تعداد ردیف ها در هر ماتریس دسته ای.
columnCount
تعداد ستون ها در هر ماتریس دسته ای.
batchShape
ابعاد دسته اصلی تانسور برگشتی.
ردیابی یک ماتریس دستهای اختیاری را محاسبه میکند. ردیابی مجموع در امتداد قطر اصلی هر ماتریس داخلی است.
ورودی یک تانسور با شکل
[..., M, N]
است. خروجی یک تانسور با شکل[...]
است.پیش شرط
matrix
باید یک تانسور با شکل[..., M, N]
باشد.اعلامیه
@differentiable(wrt: matrix) public func trace<T>(_ matrix: Tensor<T>) -> Tensor<T> where T : Numeric, T : TensorFlowScalar
پارامترها
matrix
تانسور شکل
[..., M, N]
.تجزیه Cholesky یک یا چند ماتریس مربع را برمیگرداند.
ورودی یک تانسور شکل
[..., M, M]
است که دو بعد داخلی آن ماتریس های مربعی را تشکیل می دهند.ورودی باید متقارن و مثبت باشد. فقط قسمت مثلث پایین ورودی برای این عملیات استفاده خواهد شد. قسمت مثلث بالا خوانده نمی شود.
خروجی تانسوری است به همان شکل ورودی حاوی تجزیه های Cholesky برای همه زیرماتریس های ورودی
[..., :, :]
.اعلامیه
@differentiable public func cholesky<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
پارامترها
input
یک تانسور شکل
[..., M, M]
.جواب
x
به سیستم معادلات خطی که باAx = b
نشان داده شده است برمی گرداند.پیش شرط
matrix
باید یک تانسور با شکل[..., M, M]
باشد.پیش شرط
rhs
باید یک تانسور با شکل[..., M, K]
باشد.اعلامیه
@differentiable public func triangularSolve<T: TensorFlowFloatingPoint>( matrix: Tensor<T>, rhs: Tensor<T>, lower: Bool = true, adjoint: Bool = false ) -> Tensor<T>
پارامترها
matrix
ماتریس ضریب مثلثی ورودی که
A
درAx = b
نشان می دهد.rhs
مقادیر سمت راست، نشان دهنده
b
درAx = b
.lower
آیا
matrix
مثلث پایینی (true
) یا مثلث بالایی (false
) است. مقدار پیش فرضtrue
است.adjoint
اگر
true
، به جایmatrix
، با الحاقmatrix
حل کنید. مقدار پیش فرضfalse
است.ارزش بازگشتی
جواب
x
به سیستم معادلات خطی نشان داده شده باAx = b
.x
همان شکلb
است.ضرر L1 را بین
expected
وpredicted
محاسبه می کند.loss = reduction(abs(expected - predicted))
اعلامیه
پارامترها
predicted
خروجی های پیش بینی شده از یک شبکه عصبی
expected
مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.
reduction
کاهش برای اعمال بر روی مقادیر از دست دادن عناصر محاسبه شده.
تلفات L2 بین
expected
وpredicted
را محاسبه می کند.loss = reduction(square(expected - predicted))
اعلامیه
پارامترها
predicted
خروجی های پیش بینی شده از یک شبکه عصبی
expected
مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.
reduction
کاهش برای اعمال بر روی مقادیر از دست دادن عناصر محاسبه شده.
میانگین تفاوت مطلق بین برچسب ها و پیش بینی ها را محاسبه می کند.
loss = mean(abs(expected - predicted))
اعلامیه
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func meanAbsoluteError<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
پارامترها
predicted
خروجی های پیش بینی شده از یک شبکه عصبی
expected
مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.
میانگین مربعات خطاهای بین برچسب ها و پیش بینی ها را محاسبه می کند.
loss = mean(square(expected - predicted))
اعلامیه
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func meanSquaredError<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
پارامترها
predicted
خروجی های پیش بینی شده از یک شبکه عصبی
expected
مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.
میانگین مربعات خطای لگاریتمی را بین ضرر
predicted
وexpected
محاسبه میکندloss = square(log(expected) - log(predicted))
توجه داشته باشید
برای جلوگیری از رفتار لگاریتمی تعریفنشده، ورودیهای تانسور منفی روی
0
گیره میشوند، زیراlog(_:)
برای واقعیهای منفی تعریف نشده است.اعلامیه
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func meanSquaredLogarithmicError<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
پارامترها
predicted
خروجی های پیش بینی شده از یک شبکه عصبی
expected
مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.
میانگین درصد مطلق خطا بین
predicted
وexpected
را محاسبه می کند.loss = 100 * mean(abs((expected - predicted) / abs(expected)))
اعلامیه
@differentiable(wrt: predicted) @differentiable(wrt: (predicted, expected) public func meanAbsolutePercentageError<Scalar: TensorFlowFloatingPoint>( predicted: Tensor<Scalar>, expected: Tensor<Scalar> ) -> Tensor<Scalar>
پارامترها
predicted
خروجی های پیش بینی شده از یک شبکه عصبی
expected
مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.
اتلاف لولا را بین
predicted
وexpected
محاسبه می کند.loss = reduction(max(0, 1 - predicted * expected))
انتظار می رود مقادیرexpected
1- یا 1 باشد.اعلامیه
پارامترها
predicted
خروجی های پیش بینی شده از یک شبکه عصبی
expected
مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.
reduction
کاهش برای اعمال بر روی مقادیر از دست دادن عناصر محاسبه شده.
تلفات لولای مجذور بین
predicted
وexpected
را محاسبه می کند.loss = reduction(square(max(0, 1 - predicted * expected)))
انتظار می رود مقادیرexpected
1- یا 1 باشد.اعلامیه
پارامترها
predicted
خروجی های پیش بینی شده از یک شبکه عصبی
expected
مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.
reduction
کاهش برای اعمال بر روی مقادیر از دست دادن عناصر محاسبه شده.
تلفات لولای طبقه بندی شده بین
predicted
وexpected
را محاسبه می کند.loss = maximum(negative - positive + 1, 0)
که در آنnegative = max((1 - expected) * predicted)
وpositive = sum(predicted * expected)
اعلامیه
پارامترها
predicted
خروجی های پیش بینی شده از یک شبکه عصبی
expected
مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.
reduction
کاهش برای اعمال بر روی مقادیر از دست دادن عناصر محاسبه شده.
لگاریتم کسینوس هذلولی خطای پیشبینی را محاسبه میکند.
logcosh = log((exp(x) + exp(-x))/2)
، که در آن x خطایpredicted - expected
استاعلامیه
پارامترها
predicted
خروجی های پیش بینی شده از یک شبکه عصبی
expected
مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.
reduction
کاهش برای اعمال بر روی مقادیر از دست دادن عناصر محاسبه شده.
تلفات پواسون را بین پیشبینیشده و مورد انتظار محاسبه میکند ضرر پواسون میانگین عناصر
Tensor
predicted - expected * log(predicted)
است.اعلامیه
پارامترها
predicted
خروجی های پیش بینی شده از یک شبکه عصبی
expected
مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.
reduction
کاهش برای اعمال بر روی مقادیر از دست دادن عناصر محاسبه شده.
تلفات واگرایی Kullback-Leibler را بین
expected
وpredicted
محاسبه می کند.loss = reduction(expected * log(expected / predicted))
اعلامیه
پارامترها
predicted
خروجی های پیش بینی شده از یک شبکه عصبی
expected
مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.
reduction
کاهش برای اعمال بر روی مقادیر از دست دادن عناصر محاسبه شده.
آنتروپی متقاطع softmax پراکنده (آنتروپی متقاطع طبقه ای) بین لاجیت ها و برچسب ها را محاسبه می کند. هنگامی که دو یا چند کلاس برچسب وجود دارد از این تابع تلفات متقاطع استفاده کنید. ما انتظار داریم که برچسب ها به صورت اعداد صحیح ارائه شوند. باید
# classes
مقدار ممیز شناور برای هر ویژگی برایlogits
و یک مقدار ممیز شناور برای هر ویژگی برایexpected
وجود داشته باشد.اعلامیه
پارامترها
logits
خروجی های کدگذاری شده یک گرم از یک شبکه عصبی.
labels
شاخص های (صفر شاخص) خروجی های صحیح.
reduction
کاهش برای اعمال بر روی مقادیر از دست دادن عناصر محاسبه شده.
آنتروپی متقاطع softmax پراکنده (آنتروپی متقاطع طبقه ای) بین لاجیت ها و برچسب ها را محاسبه می کند. هنگامی که دو یا چند کلاس برچسب وجود دارد از این تابع تلفات متقاطع استفاده کنید. ما انتظار داریم که برچسبها در یک نمایش
one_hot
ارائه شوند. برای هر ویژگی باید# classes
مقدار ممیز شناور وجود داشته باشد.اعلامیه
پارامترها
logits
احتمالات لاگ بدون مقیاس از یک شبکه عصبی
probabilities
مقادیر احتمالی که با خروجی صحیح مطابقت دارند. هر ردیف باید یک توزیع احتمال معتبر باشد.
reduction
کاهش برای اعمال بر روی مقادیر از دست دادن عناصر محاسبه شده.
آنتروپی متقاطع سیگموئید (آنتروپی متقاطع باینری) بین لاجیت ها و برچسب ها را محاسبه می کند. از این تلفات آنتروپی متقابل زمانی استفاده کنید که فقط دو کلاس برچسب وجود دارد (فرض می شود 0 و 1 باشد). برای هر مثال، باید یک مقدار ممیز شناور در هر پیشبینی وجود داشته باشد.
اعلامیه
پارامترها
logits
خروجی مقیاس نشده یک شبکه عصبی
labels
مقادیر صحیحی که با خروجی صحیح مطابقت دارند.
reduction
کاهش برای اعمال بر روی مقادیر از دست دادن عناصر محاسبه شده.
ضرر هوبر را بین
predicted
وexpected
محاسبه میکند.برای هر مقدار
x
درerror = expected - predicted
:-
0.5 * x^2
if|x| <= δ
. 0.5 * δ^2 + δ * (|x| - δ)
در غیر این صورت.منبع: مقاله ویکی پدیا
اعلامیه
پارامترها
predicted
خروجی های پیش بینی شده از یک شبکه عصبی
expected
مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.
delta
یک اسکالر ممیز شناور که نشان دهنده نقطه ای است که تابع ضرر هوبر از درجه دوم به خطی تغییر می کند.
reduction
کاهش برای اعمال بر روی مقادیر از دست دادن عناصر محاسبه شده.
-
مقدار مطلق عنصر تانسور مشخص شده را برمیگرداند.
اعلامیه
@differentiable public func abs<T>(_ x: Tensor<T>) -> Tensor<T> where T : SignedNumeric, T : TensorFlowScalar
لگاریتم طبیعی عنصر تانسور مشخص شده را برمیگرداند.
اعلامیه
@differentiable public func log<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
لگاریتم پایه دو عنصر تانسور مشخص شده را برمیگرداند.
اعلامیه
@differentiable public func log2<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
لگاریتم پایه-ده عنصر تانسور مشخص شده را برمیگرداند.
اعلامیه
@differentiable public func log10<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
لگاریتم
1 + x
را بر حسب عنصر برمیگرداند.اعلامیه
@differentiable public func log1p<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
log(1 - exp(x))
را با استفاده از یک رویکرد عددی پایدار برمیگرداند.توجه داشته باشید
این رویکرد در معادله 7 نشان داده شده است: https://cran.r-project.org/web/packages/Rmpfr/vignettes/log1mexp-note.pdf .اعلامیه
@differentiable public func log1mexp<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
سینوس عنصر تانسور مشخص شده را از نظر عاقلانه برمی گرداند.
اعلامیه
@differentiable public func sin<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
کسینوس عنصر تانسور مشخص شده را از نظر عاقلانه برمیگرداند.
اعلامیه
@differentiable public func cos<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
مماس عنصر تانسور مشخص شده را از نظر تانژانت برمیگرداند.
اعلامیه
@differentiable public func tan<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
سینوس هذلولی عنصر تانسور مشخص شده را برمیگرداند.
اعلامیه
@differentiable public func sinh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
کسینوس هذلولی عنصر تانسور مشخص شده را برمیگرداند.
اعلامیه
@differentiable public func cosh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
مماس هذلولی عنصر تانسور مشخص شده را برمیگرداند.
اعلامیه
@differentiable public func tanh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
کسینوس معکوس عنصر تانسور مشخص شده را از نظر عنصر تانسور برمیگرداند.
اعلامیه
@differentiable public func acos<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
سینوس معکوس عنصر تانسور مشخص شده را از نظر عاقلانه برمی گرداند.
اعلامیه
@differentiable public func asin<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
مماس معکوس عنصر تانسور مشخص شده را از نظر عنصر تانسور برمی گرداند.
اعلامیه
@differentiable public func atan<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
کسینوس هذلولی معکوس عنصر تانسور مشخص شده را برمیگرداند.
اعلامیه
@differentiable public func acosh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
سینوس هذلولی معکوس عنصر تانسور مشخص شده را برمیگرداند.
اعلامیه
@differentiable public func asinh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
مماس هذلولی معکوس عنصر تانسور مشخص شده را بر می گرداند.
اعلامیه
@differentiable public func atanh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
جذر عنصر تانسور مشخص شده را از نظر عاقلانه برمی گرداند.
اعلامیه
@differentiable public func sqrt<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
جذر معکوس عنصر تانسور مشخص شده را از نظر معکوس برمی گرداند.
اعلامیه
@differentiable public func rsqrt<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
نمایی عنصر تانسور مشخص شده را به لحاظ نمایی برمیگرداند.
اعلامیه
@differentiable public func exp<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
دو عدد را به توان عنصر تانسور مشخص شده برمیگرداند.
اعلامیه
@differentiable public func exp2<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
ده افزایش یافته را به توان عنصر تانسور مشخص شده برمی گرداند.
اعلامیه
@differentiable public func exp10<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
نمایی
x - 1
را بر حسب عنصر برمیگرداند.اعلامیه
@differentiable public func expm1<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
مقادیر تانسور مشخص شده را که از نظر عنصر به نزدیکترین عدد صحیح گرد شده است، برمی گرداند.
اعلامیه
@differentiable public func round<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
سقف عنصر تانسور مشخص شده را برمیگرداند.
اعلامیه
@differentiable public func ceil<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
کف عنصر تانسور مشخص شده را برمیگرداند.
اعلامیه
@differentiable public func floor<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
نشانی از علامت عنصر تانسور مشخص شده را برمیگرداند. به طور خاص،
y = sign(x) = -1
را محاسبه می کند اگرx < 0
; 0 اگرx == 0
; 1 اگرx > 0
.اعلامیه
@differentiable public func sign<T>(_ x: Tensor<T>) -> Tensor<T> where T : Numeric, T : TensorFlowScalar
سیگموئید عنصر تانسور مشخص شده را از نظر عنصر برمی گرداند. به طور خاص،
1 / (1 + exp(-x))
را محاسبه می کند.اعلامیه
@differentiable public func sigmoid<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
log-sigmoid عنصر تانسور مشخص شده را برمیگرداند. به طور خاص،
log(1 / (1 + exp(-x)))
. برای ثبات عددی،-softplus(-x)
استفاده می کنیم.اعلامیه
@differentiable public func logSigmoid<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
softplus عنصر تانسور مشخص شده را برمیگرداند. به طور خاص،
log(exp(features) + 1)
را محاسبه می کند.اعلامیه
@differentiable public func softplus<T>(_ features: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
علامت نرم عنصر تانسور مشخص شده را برمیگرداند. به طور خاص،
features/ (abs(features) + 1)
را محاسبه میکند.اعلامیه
@differentiable public func softsign<T>(_ features: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
Softmax تانسور مشخص شده را در امتداد آخرین محور برمیگرداند. به طور خاص،
exp(x) / exp(x).sum(alongAxes: -1)
را محاسبه می کند.اعلامیه
@differentiable public func softmax<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
Softmax تانسور مشخص شده را در امتداد محور مشخص شده برمیگرداند. به طور خاص،
exp(x) / exp(x).sum(alongAxes: axis)
را محاسبه می کند.اعلامیه
@differentiable public func softmax<T>(_ x: Tensor<T>, alongAxis axis: Int) -> Tensor<T> where T : TensorFlowFloatingPoint
log-softmax عنصر تانسور مشخص شده را برمیگرداند.
اعلامیه
@differentiable public func logSoftmax<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
با اعمال یک واحد خطی نمایی، یک تانسور را برمیگرداند. به طور خاص،
exp(x) - 1
اگر <0،x
در غیر این صورت محاسبه می کند. آموزش سریع و دقیق شبکه عمیق توسط واحدهای خطی نمایی (ELU) را ببینیداعلامیه
@differentiable public func elu<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
فعالسازیهای واحد خطی خطای گاوسی (GELU) از عنصر تانسور مشخص شده را برمیگرداند.
به طور خاص،
gelu
xP(X <= x)
را تقریب میکند، جایی کهP(X <= x)
توزیع تجمعی استاندارد گاوسی است، با محاسبه: x * [0.5 * (1 + tanh[√(2/π) * (x + 0.044715 * x^3)])].واحدهای خطی خطای گاوسی را ببینید.
اعلامیه
@differentiable public func gelu<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
با اعمال تابع فعال سازی ReLU به عنصر تانسور مشخص شده، یک تانسور را برمی گرداند. به طور خاص،
max(0, x)
را محاسبه می کند.اعلامیه
@differentiable public func relu<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
یک تانسور را با اعمال تابع فعالسازی ReLU6، یعنی
min(max(0, x), 6)
برمیگرداند.اعلامیه
@differentiable public func relu6<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
با اعمال تابع فعالسازی ReLU به عنصر تانسور مشخص شده، یک تانسور را برمیگرداند. به طور خاص،
max(x, x * alpha)
را محاسبه می کند.اعلامیه
@differentiable(wrt: x) public func leakyRelu<T: TensorFlowFloatingPoint>( _ x: Tensor<T>, alpha: Double = 0.2 ) -> Tensor<T>
یک تانسور را با اعمال تابع فعالسازی SeLU، یعنی
scale * alpha * (exp(x) - 1)
در صورتx < 0
، وscale * x
در غیر این صورت، برمیگرداند.توجه داشته باشید
این به گونه ای طراحی شده است که همراه با اولیه سازهای لایه مقیاس بندی واریانس استفاده شود. لطفاً برای اطلاعات بیشتر به شبکههای عصبی خود عادیسازی مراجعه کنید.اعلامیه
@differentiable public func selu<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
یک تانسور را با اعمال تابع فعالسازی swish، یعنی
x * sigmoid(x)
برمیگرداند.منبع: «جستجوی توابع فعالسازی» (Ramachandran et al. 2017) https://arxiv.org/abs/1710.05941
اعلامیه
@differentiable public func swish<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
یک تانسور را با اعمال تابع فعالسازی سیگموئید سخت، یعنی
Relu6(x+3)/6
برمیگرداند.منبع: «جستجو برای MobileNetV3» (Howard et al. 2019) https://arxiv.org/abs/1905.02244
اعلامیه
@differentiable public func hardSigmoid<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
یک تانسور را با اعمال تابع فعالسازی حرکت سخت، یعنی
x * Relu6(x+3)/6
برمیگرداند.منبع: «جستجو برای MobileNetV3» (Howard et al. 2019) https://arxiv.org/abs/1905.02244
اعلامیه
@differentiable public func hardSwish<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
یک تانسور را با اعمال تابع فعالسازی mish، یعنی
x * tanh(softplus(x))
برمیگرداند.منبع: “Mish: A Self Regulularized Non-Monotonic Neural Activation Function” https://arxiv.org/abs/1908.08681
اعلامیه
@differentiable public func mish<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
توان تانسور اول را به تانسور دوم برمی گرداند.
اعلامیه
@differentiable public func pow<T>(_ lhs: Tensor<T>, _ rhs: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
قدرت اسکالر را به تانسور برمیگرداند و اسکالر را پخش میکند.
اعلامیه
@differentiable(wrt: rhs) public func pow<T>(_ lhs: T, _ rhs: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
قدرت تانسور را به اسکالر برمی گرداند و اسکالر را پخش می کند.
اعلامیه
@differentiable(wrt: lhs) public func pow<T>(_ lhs: Tensor<T>, _ rhs: T) -> Tensor<T> where T : TensorFlowFloatingPoint
قدرت تانسور را به اسکالر برمی گرداند و اسکالر را پخش می کند.
اعلامیه
@differentiable public func pow<T>(_ x: Tensor<T>, _ n: Int) -> Tensor<T> where T : TensorFlowFloatingPoint
ریشه
n
ام تانسور از نظر عنصر را برمی گرداند.اعلامیه
@differentiable public func root<T>(_ x: Tensor<T>, _ n: Int) -> Tensor<T> where T : TensorFlowFloatingPoint
اختلاف مجذور
x
وy
را برمیگرداند.اعلامیه
@differentiable public func squaredDifference<T>(_ x: Tensor<T>, _ y: Tensor<T>) -> Tensor<T> where T : Numeric, T : TensorFlowScalar
ارزش بازگشتی
(x - y) ^ 2
.حداکثر دو تانسور را از نظر عنصر برمیگرداند.
توجه داشته باشید
max
از پخش پشتیبانی می کند.اعلامیه
@differentiable public func max<T>(_ lhs: Tensor<T>, _ rhs: Tensor<T>) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
حداکثر عنصر اسکالر و تانسور را برمیگرداند و اسکالر را پخش میکند.
اعلامیه
@differentiable(wrt: rhs) public func max<T>(_ lhs: T, _ rhs: Tensor<T>) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
حداکثر عنصر اسکالر و تانسور را برمیگرداند و اسکالر را پخش میکند.
اعلامیه
@differentiable(wrt: lhs) public func max<T>(_ lhs: Tensor<T>, _ rhs: T) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
حداقل دو تانسور را از نظر عنصر برمیگرداند.
توجه داشته باشید
min
از پخش پشتیبانی می کند.اعلامیه
@differentiable public func min<T>(_ lhs: Tensor<T>, _ rhs: Tensor<T>) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
حداقل عنصر اسکالر و تانسور را برمیگرداند و اسکالر را پخش میکند.
اعلامیه
@differentiable(wrt: rhs) public func min<T>(_ lhs: T, _ rhs: Tensor<T>) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
حداقل عنصر اسکالر و تانسور را برمیگرداند و اسکالر را پخش میکند.
اعلامیه
@differentiable(wrt: lhs) public func min<T>(_ lhs: Tensor<T>, _ rhs: T) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
شباهت کسینوس بین
x
وy
را برمیگرداند.اعلامیه
@differentiable public func cosineSimilarity<Scalar: TensorFlowFloatingPoint>( _ x: Tensor<Scalar>, _ y: Tensor<Scalar> ) -> Tensor<Scalar>
فاصله کسینوس بین
x
وy
را برمیگرداند. فاصله کسینوس به صورت1 - cosineSimilarity(x, y)
تعریف می شود.اعلامیه
@differentiable public func cosineDistance<Scalar: TensorFlowFloatingPoint>( _ x: Tensor<Scalar>, _ y: Tensor<Scalar> ) -> Tensor<Scalar>
یک پیچیدگی 1 بعدی را با ورودی، فیلتر، گام و بالشتک مشخص شده برمیگرداند.
پیش شرط
input
باید دارای رتبه3
باشد.پیش شرط
filter
باید دارای رتبه 3 باشد.اعلامیه
@differentiable(wrt: (input, filter) public func conv1D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filter: Tensor<Scalar>, stride: Int = 1, padding: Padding = .valid, dilation: Int = 1 ) -> Tensor<Scalar>
پارامترها
input
ورودی.
filter
فیلتر پیچیدگی
stride
گام فیلتر کشویی.
padding
بالشتک برای عملیات.
dilation
عامل اتساع
یک پیچیدگی دوبعدی با ورودی، فیلتر، گامها و بالشتک مشخص شده را برمیگرداند.
پیش شرط
input
باید دارای رتبه4
باشد.پیش شرط
filter
باید دارای رتبه 4 باشد.اعلامیه
@differentiable(wrt: (input, filter) public func conv2D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filter: Tensor<Scalar>, strides: (Int, Int, Int, Int) = (1, 1, 1, 1), padding: Padding = .valid, dilations: (Int, Int, Int, Int) = (1, 1, 1, 1) ) -> Tensor<Scalar>
پارامترها
input
ورودی
filter
فیلتر پیچیدگی
strides
گام های فیلتر کشویی برای هر بعد ورودی.
padding
بالشتک برای عملیات
dilations
ضریب اتساع برای هر بعد ورودی.
یک کانولوشن انتقالی دوبعدی را با ورودی، فیلتر، گامها و بالشتک مشخص شده برمیگرداند.
پیش شرط
input
باید دارای رتبه4
باشد.پیش شرط
filter
باید دارای رتبه 4 باشد.اعلامیه
@differentiable(wrt: (input, filter) public func transposedConv2D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, shape: [Int64], filter: Tensor<Scalar>, strides: (Int, Int, Int, Int) = (1, 1, 1, 1), padding: Padding = .valid, dilations: (Int, Int, Int, Int) = (1, 1, 1, 1) ) -> Tensor<Scalar>
پارامترها
input
ورودی.
shape
شکل خروجی عملیات deconvolution.
filter
فیلتر پیچیدگی
strides
گام های فیلتر کشویی برای هر بعد ورودی.
padding
بالشتک برای عملیات
dilations
ضریب اتساع برای هر بعد ورودی.
یک پیچیدگی سه بعدی با ورودی، فیلتر، گامها، لایهبندی و اتساع مشخص شده را برمیگرداند.
پیش شرط
input
باید دارای رتبه5
باشد.پیش شرط
filter
باید دارای رتبه 5 باشد.اعلامیه
@differentiable(wrt: (input, filter) public func conv3D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filter: Tensor<Scalar>, strides: (Int, Int, Int, Int, Int) = (1, 1, 1, 1, 1), padding: Padding = .valid, dilations: (Int, Int, Int, Int, Int) = (1, 1, 1, 1, 1) ) -> Tensor<Scalar>
پارامترها
input
ورودی.
filter
فیلتر پیچیدگی
strides
گام های فیلتر کشویی برای هر بعد ورودی.
padding
بالشتک برای عملیات.
dilations
ضریب اتساع برای هر بعد ورودی.
یک پیچیدگی عمقی دوبعدی را با ورودی، فیلتر، گامها و بالشتک مشخص شده برمیگرداند.
پیش شرط
input
باید دارای رتبه 4 باشد.پیش شرط
filter
باید دارای رتبه 4 باشد.اعلامیه
@differentiable(wrt: (input, filter) public func depthwiseConv2D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filter: Tensor<Scalar>, strides: (Int, Int, Int, Int), padding: Padding ) -> Tensor<Scalar>
پارامترها
input
ورودی.
filter
فیلتر پیچیدگی عمقی.
strides
گام های فیلتر کشویی برای هر بعد ورودی.
padding
بالشتک برای عملیات.
یک ادغام حداکثر دو بعدی را با اندازههای فیلتر، گامها و لایههای مشخص شده برمیگرداند.
اعلامیه
@differentiable(wrt: input) public func maxPool2D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filterSize: (Int, Int, Int, Int), strides: (Int, Int, Int, Int), padding: Padding ) -> Tensor<Scalar>
پارامترها
input
ورودی.
filterSize
ابعاد هسته ترکیبی.
strides
گام های فیلتر کشویی برای هر بعد ورودی.
padding
بالشتک برای عملیات.
یک ادغام حداکثر سه بعدی را با اندازه فیلتر، گامها و لایهبندی مشخص شده برمیگرداند.
اعلامیه
@differentiable(wrt: input) public func maxPool3D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filterSize: (Int, Int, Int, Int, Int), strides: (Int, Int, Int, Int, Int), padding: Padding ) -> Tensor<Scalar>
پارامترها
input
ورودی.
filterSize
ابعاد هسته ترکیبی.
strides
گام های فیلتر کشویی برای هر بعد ورودی.
padding
بالشتک برای عملیات.
یک ادغام متوسط دوبعدی، با اندازههای فیلتر، گامها و لایهبندی مشخص شده را برمیگرداند.
اعلامیه
@differentiable(wrt: input) public func avgPool2D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filterSize: (Int, Int, Int, Int), strides: (Int, Int, Int, Int), padding: Padding ) -> Tensor<Scalar>
پارامترها
input
ورودی.
filterSize
ابعاد هسته ترکیبی.
strides
گام های فیلتر کشویی برای هر بعد ورودی.
padding
بالشتک برای عملیات.
یک ادغام متوسط سه بعدی را با اندازه فیلتر، گامها و لایهبندی مشخص شده برمیگرداند.
اعلامیه
@differentiable(wrt: input) public func avgPool3D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, filterSize: (Int, Int, Int, Int, Int), strides: (Int, Int, Int, Int, Int), padding: Padding ) -> Tensor<Scalar>
پارامترها
input
ورودی.
filterSize
ابعاد هسته ترکیبی.
strides
گام های فیلتر کشویی برای هر بعد ورودی.
padding
بالشتک برای عملیات.
یک ادغام حداکثر کسری 2 بعدی را با نسبت های ادغام مشخص شده برمی گرداند.
توجه:
fractionalMaxPool
اجرای XLA ندارد و بنابراین ممکن است پیامدهای عملکردی داشته باشد.اعلامیه
@differentiable(wrt: input) public func fractionalMaxPool2D<Scalar: TensorFlowFloatingPoint>( _ input: Tensor<Scalar>, poolingRatio: (Double, Double, Double, Double), pseudoRandom: Bool = false, overlapping: Bool = false, deterministic: Bool = false, seed: Int64 = 0, seed2: Int64 = 0 ) -> Tensor<Scalar>
پارامترها
input
یک تانسور. 4-بعدی با شکل
[batch, height, width, channels]
.poolingRatio
لیست
Doubles
نسبت ادغام برای هر بعدinput
، در حال حاضر فقط از بعد ردیف و ستون پشتیبانی می کند و باید >= 1.0 باشد.pseudoRandom
یک
Bool
اختیاری پیش فرض ها بهfalse
. وقتی رویtrue
تنظیم شود، دنباله ادغام را به صورت شبه تصادفی تولید می کند، در غیر این صورت، به صورت تصادفی.overlapping
یک
Bool
اختیاری پیش فرض ها بهfalse
. وقتی رویtrue
تنظیم شود، به این معنی است که هنگام ادغام، مقادیر در مرز سلول های ادغام مجاور توسط هر دو سلول استفاده می شود.deterministic
یک
Bool
اختیاری هنگامی که رویtrue
تنظیم می شود، هنگام تکرار بر روی یک گره fractionalMaxPool2D در نمودار محاسباتی، از یک منطقه تجمیع ثابت استفاده می شود.seed
یک
Int64
اختیاری. پیشفرض0
است. اگر روی غیر صفر تنظیم شود، مولد اعداد تصادفی توسط دانه داده شده دانه بندی می شود.seed2
یک
Int64
اختیاری. پیشفرض0
است. دانه دوم برای جلوگیری از برخورد دانه.یک کپی از
input
را برمیگرداند که در آن مقادیر از بعد عمق در بلوکهای فضایی به ابعاد ارتفاع و عرض منتقل میشوند.به عنوان مثال، با توجه به ورودی شکل
[1, 2, 2, 1]
، data_format = "NHWC" و block_size = 2:x = [[[[1], [2]], [[3], [4]]]]
این عملیات یک تانسور شکل
[1, 1, 1, 4]
را تولید می کند:[[[[1, 2, 3, 4]]]]
در اینجا، ورودی دارای یک دسته 1 است و هر عنصر دسته ای شکل
[2, 2, 1]
دارد، خروجی مربوطه دارای یک عنصر خواهد بود (یعنی عرض و ارتفاع هر دو 1 هستند) و دارای عمق 4 کانال (1) * block_size * block_size). شکل عنصر خروجی[1, 1, 4]
است.برای یک تانسور ورودی با عمق بیشتر، در اینجا شکل
[1, 2, 2, 3]
، به عنوان مثالx = [[[[1, 2, 3], [4, 5, 6]], [[7, 8, 9], [10, 11, 12]]]]
این عملیات، برای block_size 2، تانسور شکل زیر را برمی گرداند
[1, 1, 1, 12]
[[[[1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12]]]]
به طور مشابه، برای ورودی شکل زیر
[1 4 4 1]
و اندازه بلوک 2:x = [[[[1], [2], [5], [6]], [[3], [4], [7], [8]], [[9], [10], [13], [14]], [[11], [12], [15], [16]]]]
عملگر تانسور شکل زیر را برمی گرداند
[1 2 2 4]
:x = [[[[1, 2, 3, 4], [5, 6, 7, 8]], [[9, 10, 11, 12], [13, 14, 15, 16]]]]
پیش شرط
input.rank == 4 && b >= 2
.پیش شرط
تعداد ویژگی ها باید بر مجذورb
بخش پذیر باشد.اعلامیه
@differentiable(wrt: input) public func depthToSpace<Scalar>(_ input: Tensor<Scalar>, blockSize b: Int) -> Tensor<Scalar> where Scalar : TensorFlowScalar
یک کپی از
input
را برمیگرداند که در آن مقادیر از ابعاد ارتفاع و عرض به بعد عمق منتقل میشوند.به عنوان مثال، با توجه به ورودی شکل
[1, 2, 2, 1]
، data_format = "NHWC" و block_size = 2:x = [[[[1], [2]], [[3], [4]]]]
این عملیات یک تانسور شکل
[1, 1, 1, 4]
را تولید می کند:[[[[1, 2, 3, 4]]]]
در اینجا، ورودی دارای یک دسته 1 است و هر عنصر دسته ای شکل
[2, 2, 1]
دارد، خروجی مربوطه دارای یک عنصر خواهد بود (یعنی عرض و ارتفاع هر دو 1 هستند) و دارای عمق 4 کانال (1) * block_size * block_size). شکل عنصر خروجی[1, 1, 4]
است.برای یک تانسور ورودی با عمق بیشتر، در اینجا شکل
[1, 2, 2, 3]
، به عنوان مثالx = [[[[1, 2, 3], [4, 5, 6]], [[7, 8, 9], [10, 11, 12]]]]
این عملیات، برای block_size 2، تانسور شکل زیر را برمی گرداند
[1, 1, 1, 12]
[[[[1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12]]]]
به طور مشابه، برای ورودی شکل زیر
[1 4 4 1]
و اندازه بلوک 2:x = [[[[1], [2], [5], [6]], [[3], [4], [7], [8]], [[9], [10], [13], [14]], [[11], [12], [15], [16]]]]
عملگر تانسور شکل زیر را برمی گرداند
[1 2 2 4]
:x = [[[[1, 2, 3, 4], [5, 6, 7, 8]], [[9, 10, 11, 12], [13, 14, 15, 16]]]]
پیش شرط
input.rank == 4 && b >= 2
.پیش شرط
ارتفاع ورودی باید برb
بخش پذیر باشد.پیش شرط
عرض ورودی باید توسطb
قابل تقسیم باشد.اعلامیه
@differentiable(wrt: input) public func spaceToDepth<Scalar>(_ input: Tensor<Scalar>, blockSize b: Int) -> Tensor<Scalar> where Scalar : TensorFlowScalar
یک بهینه ساز در هر وزن برای لارس ( https://arxiv.org/pdf/1708.03888.pdf ) ایجاد می کند.
اعلامیه
public func makeLARS( learningRate: Float = 0.01, momentum: Float = 0.9, trustCoefficient: Float = 0.001, nesterov: Bool = false, epsilon: Float = 0.0, weightDecay: Float = 0.0 ) -> ParameterGroupOptimizer
بهینه ساز در هر وزن SGD را ایجاد می کند.
اعلامیه
public func makeSGD( learningRate: Float = 0.01, momentum: Float = 0, weightDecay: Float = 0, nesterov: Bool = false ) -> ParameterGroupOptimizer
با پوسیدگی وزن ، یک بهینه کننده هر وزن را برای آدم ایجاد می کند.
اعلامیه
public func makeAdam( learningRate: Float = 0.01, beta1: Float = 0.9, beta2: Float = 0.999, weightDecayRate: Float = 0.01, epsilon: Float = 1e-6 ) -> ParameterGroupOptimizer
یک دانه تصادفی جدید برای Tensorflow تولید می کند.
اعلامیه
public func randomSeedForTensorFlow(using seed: TensorFlowSeed? = nil) -> TensorFlowSeed
دو مقدار را جمع می کند.
اعلامیه
@differentiable public func concatenate<T: Mergeable>( _ first: T, _ second: T ) -> T
دو مقدار را اضافه می کند و مبلغ آنها را تولید می کند.
اعلامیه
@differentiable public func sum<T: Mergeable>( _ first: T, _ second: T ) -> T
به طور متوسط دو مقدار.
اعلامیه
@differentiable public func average<T: Mergeable>( _ first: T, _ second: T ) -> T
دو مقدار را ضرب می کند.
اعلامیه
@differentiable public func multiply<T: Mergeable>( _ first: T, _ second: T ) -> T
پشته دو مقدار.
اعلامیه
@differentiable public func stack<T: Mergeable>( _ first: T, _ second: T ) -> T
اعلامیه
public func PrintX10Metrics()
خلاصه رشته ای از لیست آمار آموزش و آزمایش را ایجاد می کند.
اعلامیه
public func formatStatistics(_ stats: (train: HostStatistics, test: HostStatistics)) -> String
اعلامیه
public func formatStatistics(train trainStats: HostStatistics, test testStats: HostStatistics) -> String
یک تابع بیش از موضوعات N را نقشه برداری می کند.
اعلامیه
public func runOnNThreads<R>(_ nThreads: Int, _ body: @escaping (Int) -> R) -> [R]