کارکرد

توابع زیر به صورت جهانی در دسترس هستند.

  • ضرر L1 بین پیش بینی ها و انتظارات را برمی گرداند.

    اعلامیه

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func l1Loss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    پارامترها

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.

  • ضرر L2 بین پیش بینی ها و انتظارات را برمی گرداند.

    اعلامیه

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func l2Loss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    پارامترها

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.

  • ضرر لولای بین پیش بینی ها و انتظارات را برمی گرداند.

    اعلامیه

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func hingeLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    پارامترها

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.

  • تلفات لولای مجذور بین پیش‌بینی‌ها و انتظارات را برمی‌گرداند.

    اعلامیه

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func squaredHingeLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    پارامترها

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.

  • تلفات لولای طبقه بندی شده بین پیش بینی ها و انتظارات را برمی گرداند.

    اعلامیه

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func categoricalHingeLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    پارامترها

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.

  • لگاریتم کسینوس هذلولی خطای بین پیش‌بینی‌ها و انتظارات را برمی‌گرداند.

    اعلامیه

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func logCoshLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    پارامترها

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.

  • ضرر پواسون را بین پیش‌بینی‌ها و انتظارات برمی‌گرداند.

    اعلامیه

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func poissonLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    پارامترها

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.

  • واگرایی Kullback-Leibler (واگرایی KL) بین انتظارات و پیش‌بینی‌ها را برمی‌گرداند. با توجه به دو توزیع p و q ، واگرایی KL p * log(p / q) را محاسبه می کند.

    اعلامیه

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func kullbackLeiblerDivergence<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    پارامترها

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.

  • آنتروپی متقاطع softmax (آنتروپی متقاطع طبقه‌ای) بین لاجیت‌ها و برچسب‌ها را برمی‌گرداند.

    اعلامیه

    @differentiable(wrt: logits)
    public func softmaxCrossEntropy<Scalar: TensorFlowFloatingPoint>(
      logits: Tensor<Scalar>,
      probabilities: Tensor<Scalar>
    ) -> Tensor<Scalar>

    پارامترها

    logits

    خروجی های کدگذاری شده یک گرم از یک شبکه عصبی.

    labels

    شاخص های (صفر شاخص) خروجی های صحیح.

  • آنتروپی متقاطع سیگموئید (آنتروپی متقاطع باینری) بین لاجیت ها و برچسب ها را برمی گرداند.

    اعلامیه

    @differentiable(wrt: logits)
    @differentiable(wrt: (logits, labels)
    public func sigmoidCrossEntropy<Scalar: TensorFlowFloatingPoint>(
      logits: Tensor<Scalar>,
      labels: Tensor<Scalar>
    ) -> Tensor<Scalar>

    پارامترها

    logits

    خروجی مقیاس نشده یک شبکه عصبی

    labels

    مقادیر صحیحی که با خروجی صحیح مطابقت دارند.

  • تانسوری را با همان شکل و اسکالرهای تانسور مشخص شده برمی‌گرداند.

    اعلامیه

    @differentiable
    public func identity<Scalar>(_ x: Tensor<Scalar>) -> Tensor<Scalar> where Scalar : TensorFlowScalar
  • بسته شدن داده شده را در زمینه ای می نامد که همه چیز با زمینه فعلی یکسان است به جز مرحله یادگیری داده شده.

    اعلامیه

    public func withContext<R>(_ context: Context, _ body: () throws -> R) rethrows -> R

    پارامترها

    context

    زمینه ای که قبل از فراخوانی بسته شدن تنظیم می شود و پس از بازگشت بسته شدن بازیابی می شود.

    body

    یک بسته شدن پوچ اگر بسته دارای مقدار بازگشتی باشد، آن مقدار به عنوان مقدار بازگشتی withContext(_:_:) نیز استفاده می شود.

    ارزش بازگشتی

    مقدار بازگشتی، در صورت وجود، بسته شدن body .

  • بسته شدن داده شده را در زمینه ای می نامد که همه چیز با زمینه فعلی یکسان است به جز مرحله یادگیری داده شده.

    اعلامیه

    public func withLearningPhase<R>(
      _ learningPhase: LearningPhase,
      _ body: () throws -> R
    ) rethrows -> R

    پارامترها

    learningPhase

    مرحله یادگیری که قبل از فراخوانی بسته شدن تنظیم می شود و پس از بازگشت بسته شدن بازیابی می شود.

    body

    یک بسته شدن پوچ اگر بسته دارای مقدار بازگشتی باشد، از آن مقدار به عنوان مقدار بازگشتی تابع withLearningPhase(_:_:) نیز استفاده می شود.

    ارزش بازگشتی

    مقدار بازگشتی، در صورت وجود، بسته شدن body .

  • بسته شدن داده شده را در زمینه ای فراخوانی می کند که همه چیز با زمینه فعلی یکسان است به جز دانه تصادفی داده شده.

    اعلامیه

    public func withRandomSeedForTensorFlow<R>(
      _ randomSeed: TensorFlowSeed,
      _ body: () throws -> R
    ) rethrows -> R

    پارامترها

    randomSeed

    یک دانه تصادفی که قبل از بسته شدن تنظیم می شود، فراخوانی می شود و پس از بازگشت بسته شدن بازیابی می شود.

    body

    یک بسته شدن پوچ اگر بسته دارای مقدار بازگشتی باشد، آن مقدار به عنوان مقدار بازگشتی تابع withRandomSeedForTensorFlow(_:_:) نیز استفاده می شود.

    ارزش بازگشتی

    مقدار بازگشتی، در صورت وجود، بسته شدن body .

  • بسته شدن داده شده را در زمینه ای فراخوانی می کند که همه چیز با زمینه فعلی یکسان است به جز مولد اعداد تصادفی داده شده.

    اعلامیه

    public func withRandomNumberGeneratorForTensorFlow<G: RandomNumberGenerator, R>(
      _ randomNumberGenerator: inout G,
      _ body: () throws -> R
    ) rethrows -> R

    پارامترها

    randomNumberGenerator

    یک مولد اعداد تصادفی که قبل از بسته شدن تنظیم می شود، فراخوانی می شود و پس از بازگشت بسته شدن بازیابی می شود.

    body

    یک بسته شدن پوچ اگر بسته دارای مقدار بازگشتی باشد، آن مقدار به عنوان مقدار بازگشتی تابع withRandomNumberGeneratorForTensorFlow(_:_:) نیز استفاده می شود.

    ارزش بازگشتی

    مقدار بازگشتی، در صورت وجود، بسته شدن body .

  • اعلامیه

    public func zip<T: TensorGroup, U: TensorGroup>(
      _ dataset1: Dataset<T>, _ dataset2: Dataset<U>
    ) -> Dataset<Zip2TensorGroup<T, U>>
  • LazyTensorBarrier تضمین می کند که همه تانسورهای زنده (در صورت ارائه در دستگاه) برنامه ریزی شده و در حال اجرا هستند. اگر انتظار روی true تنظیم شود، این تماس تا زمانی که محاسبه کامل شود مسدود می شود.

    اعلامیه

    public func LazyTensorBarrier(on device: Device? = nil, devices: [Device] = [], wait: Bool = false)
  • اعلامیه

    public func valueWithGradient<T, R>(
      at x: T,
      in f: @differentiable (T) -> Tensor<R>
    ) -> (value: Tensor<R>, gradient: T.TangentVector)
    where T: Differentiable, R: TensorFlowFloatingPoint
  • اعلامیه

    public func valueWithGradient<T, U, R>(
      at x: T,
      _ y: U,
      in f: @differentiable (T, U) -> Tensor<R>
    ) -> (value: Tensor<R>, gradient: (T.TangentVector, U.TangentVector))
    where T: Differentiable, U: Differentiable, R: TensorFlowFloatingPoint
  • اعلامیه

    public func valueWithGradient<T, U, V, R>(
      at x: T,
      _ y: U,
      _ z: V,
      in f: @differentiable (T, U, V) -> Tensor<R>
    ) -> (value: Tensor<R>, gradient: (T.TangentVector, U.TangentVector, V.TangentVector))
    where T: Differentiable, U: Differentiable, V: Differentiable, R: TensorFlowFloatingPoint
  • اعلامیه

    public func valueWithGradient<T, R>(
      of f: @escaping @differentiable (T) -> Tensor<R>
    ) -> (T) -> (value: Tensor<R>, gradient: T.TangentVector)
    where T: Differentiable, R: TensorFlowFloatingPoint
  • اعلامیه

    public func valueWithGradient<T, U, R>(
      of f: @escaping @differentiable (T, U) -> Tensor<R>
    ) -> (T, U) -> (value: Tensor<R>, gradient: (T.TangentVector, U.TangentVector))
    where T: Differentiable, U: Differentiable, R: TensorFlowFloatingPoint
  • اعلامیه

    public func valueWithGradient<T, U, V, R>(
      of f: @escaping @differentiable (T, U, V) -> Tensor<R>
    ) -> (T, U, V) -> (
      value: Tensor<R>,
      gradient: (T.TangentVector, U.TangentVector, V.TangentVector)
    )
    where T: Differentiable, U: Differentiable, V: Differentiable, R: TensorFlowFloatingPoint
  • اعلامیه

    public func gradient<T, R>(
      at x: T,
      in f: @differentiable (T) -> Tensor<R>
    ) -> T.TangentVector where T: Differentiable, R: TensorFlowFloatingPoint
  • اعلامیه

    public func gradient<T, U, R>(
      at x: T,
      _ y: U,
      in f: @differentiable (T, U) -> Tensor<R>
    ) -> (T.TangentVector, U.TangentVector)
    where T: Differentiable, U: Differentiable, R: TensorFlowFloatingPoint
  • اعلامیه

    public func gradient<T, U, V, R>(
      at x: T,
      _ y: U,
      _ z: V,
      in f: @differentiable (T, U, V) -> Tensor<R>
    ) -> (T.TangentVector, U.TangentVector, V.TangentVector)
    where T: Differentiable, U: Differentiable, V: Differentiable, R: TensorFlowFloatingPoint
  • اعلامیه

    public func gradient<T, R>(
      of f: @escaping @differentiable (T) -> Tensor<R>
    ) -> (T) -> T.TangentVector where T: Differentiable, R: TensorFlowFloatingPoint
  • اعلامیه

    public func gradient<T, U, R>(
      of f: @escaping @differentiable (T, U) -> Tensor<R>
    ) -> (T, U) -> (T.TangentVector, U.TangentVector)
    where T: Differentiable, U: Differentiable, R: TensorFlowFloatingPoint
  • اعلامیه

    public func gradient<T, U, V, R>(
      of f: @escaping @differentiable (T, U, V) -> Tensor<R>
    ) -> (T, U, V) -> (T.TangentVector, U.TangentVector, V.TangentVector)
    where T: Differentiable, U: Differentiable, V: Differentiable, R: TensorFlowFloatingPoint
  • کاری کنید که یک تابع در pullback خود مجدداً محاسبه شود، که در تمایز خودکار سنتی به عنوان "چک پوینت" شناخته می شود.

    اعلامیه

    public func withRecomputationInPullbacks<T, U>(
      _ body: @escaping @differentiable (T) -> U
    ) -> @differentiable (T) -> U where T : Differentiable, U : Differentiable
  • یک تابع متمایز از یک تابع محصولات بردار-ژاکوبین ایجاد کنید.

    اعلامیه

    public func differentiableFunction<T : Differentiable, R : Differentiable>(
      from vjp: @escaping (T)
               -> (value: R, pullback: (R.TangentVector) -> T.TangentVector)
    ) -> @differentiable (T) -> R
  • یک تابع متمایز از یک تابع محصولات بردار-ژاکوبین ایجاد کنید.

    اعلامیه

    public func differentiableFunction<T, U, R>(
      from vjp: @escaping (T, U)
               -> (value: R, pullback: (R.TangentVector)
                 -> (T.TangentVector, U.TangentVector))
    ) -> @differentiable (T, U) -> R
  • x مانند یک تابع هویت برمی گرداند. وقتی در زمینه ای استفاده می شود که x با توجه به آن متمایز می شود، این تابع هیچ مشتقی در x تولید نمی کند.

    اعلامیه

    @_semantics("autodiff.nonvarying")
    public func withoutDerivative<T>(at x: T) -> T
  • body بسته شدن داده شده را به x اعمال می کند. وقتی در زمینه ای استفاده می شود که x با توجه به آن متمایز می شود، این تابع هیچ مشتقی در x تولید نمی کند.

    اعلامیه

    @_semantics("autodiff.nonvarying")
    public func withoutDerivative<T, R>(at x: T, in body: (T) -> R) -> R
  • بسته شدن را اجرا می کند و باعث می شود عملیات TensorFlow بر روی نوع خاصی از دستگاه اجرا شود.

    اعلامیه

    public func withDevice<R>(
      _ kind: DeviceKind,
      _ index: UInt = 0,
      perform body: () throws -> R
    ) rethrows -> R

    پارامترها

    kind

    نوعی دستگاه برای اجرای عملیات تنسورفلو.

    index

    دستگاهی برای اجرای عملیات

    body

    بسته شدنی که عملیات TensorFlow باید در نوع مشخص شده دستگاه اجرا شود.

  • بسته شدن را اجرا می کند و باعث می شود عملیات TensorFlow روی دستگاهی با نام خاصی اجرا شود.

    چند نمونه از نام دستگاه ها:

    • “/device:CPU:0”: CPU دستگاه شما.
    • "/GPU:0": نماد کوتاه برای اولین GPU دستگاه شما که برای TensorFlow قابل مشاهده است
    • «/job:localhost/replica:0/task:0/device:GPU:1»: نام کاملاً واجد شرایط دومین GPU دستگاه شما که برای TensorFlow قابل مشاهده است.

    اعلامیه

    public func withDevice<R>(named name: String, perform body: () throws -> R) rethrows -> R

    پارامترها

    name

    نام دستگاه

    body

    بسته شدنی که عملیات TensorFlow باید در نوع مشخص شده دستگاه اجرا شود.

  • یک بسته را اجرا می کند و به TensorFlow اجازه می دهد تا عملیات TensorFlow را روی هر دستگاهی قرار دهد. این باید رفتار قرار دادن پیش فرض را بازیابی کند.

    اعلامیه

    public func withDefaultDevice<R>(perform body: () throws -> R) rethrows -> R

    پارامترها

    body

    بسته شدنی که عملیات TensorFlow باید در نوع مشخص شده دستگاه اجرا شود.

  • اندازه تصاویر را با استفاده از روش مشخص شده به اندازه تغییر دهید.

    پیش شرط

    تصاویر باید دارای رتبه 3 یا 4 باشند.

    پیش شرط

    اندازه باید مثبت باشد.

    اعلامیه

    @differentiable(wrt: images)
    public func resize(
      images: Tensor<Float>,
      size: (newHeight: Int, newWidth: Int),
      method: ResizeMethod = .bilinear,
      antialias: Bool = false
    ) -> Tensor<Float>

    پارامترها

    images

    Tensor 4 بعدی شکل [batch, height, width, channels] یا Tensor 3 بعدی شکل [height, width, channels] .

    size

    اندازه جدید تصاویر.

    method

    روش تغییر اندازه مقدار پیش فرض .bilinear است.

    antialias

    اگر true باشد، هنگام پایین‌نمونه‌برداری از یک تصویر، از یک فیلتر ضد aliasing استفاده کنید.

  • با استفاده از درون یابی ناحیه، اندازه تصاویر را به اندازه تغییر دهید.

    پیش شرط

    تصاویر باید دارای رتبه 3 یا 4 باشند.

    پیش شرط

    اندازه باید مثبت باشد.

    اعلامیه

    public func resizeArea<Scalar: TensorFlowNumeric>(
      images: Tensor<Scalar>,
      size: (newHeight: Int, newWidth: Int),
      alignCorners: Bool = false
    ) -> Tensor<Float>

    پارامترها

    images

    Tensor 4 بعدی شکل [batch, height, width, channels] یا Tensor 3 بعدی شکل [height, width, channels] .

    size

    اندازه جدید تصاویر.

  • اتساع دوبعدی را با ورودی، فیلتر، گام‌ها و بالشتک مشخص شده برمی‌گرداند.

    پیش شرط

    input باید دارای رتبه 4 باشد.

    پیش شرط

    filter باید دارای رتبه 3 باشد.

    اعلامیه

    @differentiable(wrt: (input, filter)
    public func dilation2D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filter: Tensor<Scalar>,
      strides: (Int, Int, Int, Int) = (1, 1, 1, 1),
      rates: (Int, Int, Int, Int) = (1, 1, 1, 1),
      padding: Padding = .valid
    ) -> Tensor<Scalar>

    پارامترها

    input

    ورودی.

    filter

    فیلتر اتساع

    strides

    گام های فیلتر کشویی برای هر بعد ورودی.

    padding

    بالشتک برای عملیات

    rates

    نرخ اتساع برای هر بعد از ورودی.

  • فرسایش دوبعدی را با ورودی، فیلتر، گام‌ها و بالشتک مشخص شده برمی‌گرداند.

    پیش شرط

    input باید دارای رتبه 4 باشد.

    پیش شرط

    filter باید دارای رتبه 3 باشد.

    اعلامیه

    @differentiable(wrt: (input, filter)
    public func erosion2D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filter: Tensor<Scalar>,
      strides: (Int, Int, Int, Int) = (1, 1, 1, 1),
      rates: (Int, Int, Int, Int) = (1, 1, 1, 1),
      padding: Padding = .valid
    ) -> Tensor<Scalar>

    پارامترها

    input

    ورودی.

    filter

    فیلتر فرسایش

    strides

    گام های فیلتر کشویی برای هر بعد ورودی.

    padding

    بالشتک برای عملیات

    rates

    نرخ اتساع برای هر بعد از ورودی.

  • تابعی را برمی‌گرداند که یک تانسور با مقداردهی اولیه تمام مقادیر آن به صفر می‌سازد.

    اعلامیه

    public func zeros<Scalar>() -> ParameterInitializer<Scalar> where Scalar : TensorFlowFloatingPoint
  • تابعی را برمی‌گرداند که یک تانسور با مقداردهی اولیه تمام مقادیر آن به مقدار ارائه شده ایجاد می‌کند.

    اعلامیه

    public func constantInitializer<Scalar: TensorFlowFloatingPoint>(
      value: Scalar
    ) -> ParameterInitializer<Scalar>
  • تابعی را برمی‌گرداند که با مقداردهی اولیه یک تانسور ایجاد می‌کند. توجه داشته باشید که پخش مقدار ارائه شده پشتیبانی نمی شود.

    اعلامیه

    public func constantInitializer<Scalar: TensorFlowFloatingPoint>(
      value: Tensor<Scalar>
    ) -> ParameterInitializer<Scalar>
  • تابعی را برمی‌گرداند که با انجام مقداردهی اولیه یکنواخت Glorot (Xavier) برای شکل مشخص شده، نمونه‌برداری تصادفی مقادیر اسکالر از توزیع یکنواخت بین -limit و limit ، ایجاد شده توسط مولد اعداد تصادفی پیش‌فرض، که حد آن sqrt(6 / (fanIn + fanOut)) و fanIn / fanOut نشان دهنده تعداد ویژگی های ورودی و خروجی ضرب در فیلد گیرنده، در صورت وجود است.

    اعلامیه

    public func glorotUniform<Scalar: TensorFlowFloatingPoint>(
      seed: TensorFlowSeed = Context.local.randomSeed
    ) -> ParameterInitializer<Scalar>
  • تابعی را برمی‌گرداند که با انجام مقداردهی اولیه Glorot (Xavier) برای شکل مشخص شده، نمونه‌برداری تصادفی مقادیر اسکالر از یک توزیع نرمال کوتاه شده با مرکز 0 با انحراف استاندارد sqrt(2 / (fanIn + fanOut)) ایجاد می‌کند، که در آن fanIn / fanOut نشان دهنده تعداد ویژگی های ورودی و خروجی ضرب در اندازه میدان پذیرنده در صورت وجود است.

    اعلامیه

    public func glorotNormal<Scalar: TensorFlowFloatingPoint>(
      seed: TensorFlowSeed = Context.local.randomSeed
    ) -> ParameterInitializer<Scalar>
  • تابعی را برمی‌گرداند که با انجام مقداردهی اولیه یکنواخت He (Kaiming) برای شکل مشخص شده، نمونه‌برداری تصادفی مقادیر اسکالر از توزیع یکنواخت بین -limit و limit ، ایجاد شده توسط مولد اعداد تصادفی پیش‌فرض، که حد آن sqrt(6 / fanIn) است، یک تانسور ایجاد می‌کند. sqrt(6 / fanIn) و fanIn نشان دهنده تعداد ویژگی های ورودی ضرب در فیلد گیرنده است، در صورت وجود.

    اعلامیه

    public func heUniform<Scalar: TensorFlowFloatingPoint>(
      seed: TensorFlowSeed = Context.local.randomSeed
    ) -> ParameterInitializer<Scalar>
  • تابعی را برمی‌گرداند که با انجام مقداردهی اولیه He (Kaiming) برای شکل مشخص شده، نمونه‌برداری تصادفی مقادیر اسکالر از یک توزیع نرمال کوتاه شده در مرکز 0 با انحراف استاندارد sqrt(2 / fanIn) ایجاد می‌کند، که در آن fanIn تعداد ویژگی‌های ورودی را نشان می‌دهد. در صورت وجود، در اندازه میدان پذیرنده ضرب می شود.

    اعلامیه

    public func heNormal<Scalar: TensorFlowFloatingPoint>(
      seed: TensorFlowSeed = Context.local.randomSeed
    ) -> ParameterInitializer<Scalar>
  • تابعی را برمی‌گرداند که با انجام مقداردهی اولیه یکنواخت LeCun برای شکل مشخص شده، نمونه‌برداری تصادفی مقادیر اسکالر از یک توزیع یکنواخت بین -limit و limit ، ایجاد شده توسط مولد اعداد تصادفی پیش‌فرض، که حد آن sqrt(3 / fanIn) است، یک تانسور ایجاد می‌کند. fanIn تعداد ویژگی های ورودی ضرب در فیلد گیرنده را در صورت وجود نشان می دهد.

    اعلامیه

    public func leCunUniform<Scalar: TensorFlowFloatingPoint>(
      seed: TensorFlowSeed = Context.local.randomSeed
    ) -> ParameterInitializer<Scalar>
  • تابعی را برمی‌گرداند که یک تانسور را با انجام مقداردهی اولیه LeCun برای شکل مشخص شده، نمونه‌برداری تصادفی مقادیر اسکالر از یک توزیع نرمال کوتاه شده در مرکز 0 با انحراف استاندارد sqrt(1 / fanIn) ایجاد می‌کند، که در آن fanIn تعداد ویژگی‌های ورودی را در ضرب نشان می‌دهد. اندازه میدان پذیرنده، در صورت وجود.

    اعلامیه

    public func leCunNormal<Scalar: TensorFlowFloatingPoint>(
      seed: TensorFlowSeed = Context.local.randomSeed
    ) -> ParameterInitializer<Scalar>
  • تابعی را برمی‌گرداند که یک تانسور را با مقداردهی اولیه همه مقادیر آن به طور تصادفی از یک توزیع Normal کوتاه شده ایجاد می‌کند. مقادیر تولید شده از توزیع نرمال با mean و standardDeviation استاندارد انحراف استاندارد پیروی می کنند، با این تفاوت که مقادیری که بزرگی آنها بیش از دو انحراف استاندارد از میانگین است حذف شده و مجدداً نمونه برداری می شوند.

    اعلامیه

    public func truncatedNormalInitializer<Scalar: TensorFlowFloatingPoint>(
      mean: Tensor<Scalar> = Tensor<Scalar>(0),
      standardDeviation: Tensor<Scalar> = Tensor<Scalar>(1),
      seed: TensorFlowSeed = Context.local.randomSeed
    ) -> ParameterInitializer<Scalar>

    پارامترها

    mean

    میانگین توزیع نرمال

    standardDeviation

    انحراف معیار توزیع نرمال

    ارزش بازگشتی

    یک تابع اولیه کننده پارامتر معمولی کوتاه شده.

  • اعلامیه

    public func == (lhs: TFETensorHandle, rhs: TFETensorHandle) -> Bool
  • یک ماتریس هویت یا دسته ای از ماتریس ها را برمی گرداند.

    اعلامیه

    public func eye<Scalar: Numeric>(
      rowCount: Int,
      columnCount: Int? = nil,
      batchShape: [Int] = [],
      on device: Device = .default
    ) -> Tensor<Scalar>

    پارامترها

    rowCount

    تعداد ردیف ها در هر ماتریس دسته ای.

    columnCount

    تعداد ستون ها در هر ماتریس دسته ای.

    batchShape

    ابعاد دسته اصلی تانسور برگشتی.

  • ردیابی یک ماتریس دسته‌ای اختیاری را محاسبه می‌کند. ردیابی مجموع در امتداد قطر اصلی هر ماتریس داخلی است.

    ورودی یک تانسور با شکل [..., M, N] است. خروجی یک تانسور با شکل [...] است.

    پیش شرط

    matrix باید یک تانسور با شکل [..., M, N] باشد.

    اعلامیه

    @differentiable(wrt: matrix)
    public func trace<T>(_ matrix: Tensor<T>) -> Tensor<T> where T : Numeric, T : TensorFlowScalar

    پارامترها

    matrix

    تانسور شکل [..., M, N] .

  • تجزیه Cholesky یک یا چند ماتریس مربع را برمی‌گرداند.

    ورودی یک تانسور شکل [..., M, M] است که دو بعد داخلی آن ماتریس های مربعی را تشکیل می دهند.

    ورودی باید متقارن و مثبت باشد. فقط قسمت مثلث پایین ورودی برای این عملیات استفاده خواهد شد. قسمت مثلث بالا خوانده نمی شود.

    خروجی تانسوری است به همان شکل ورودی حاوی تجزیه های Cholesky برای همه زیرماتریس های ورودی [..., :, :] .

    اعلامیه

    @differentiable
    public func cholesky<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint

    پارامترها

    input

    یک تانسور شکل [..., M, M] .

  • جواب x به سیستم معادلات خطی که با Ax = b نشان داده شده است برمی گرداند.

    پیش شرط

    matrix باید یک تانسور با شکل [..., M, M] باشد.

    پیش شرط

    rhs باید یک تانسور با شکل [..., M, K] باشد.

    اعلامیه

    @differentiable
    public func triangularSolve<T: TensorFlowFloatingPoint>(
      matrix: Tensor<T>,
      rhs: Tensor<T>,
      lower: Bool = true,
      adjoint: Bool = false
    ) -> Tensor<T>

    پارامترها

    matrix

    ماتریس ضریب مثلثی ورودی که A در Ax = b نشان می دهد.

    rhs

    مقادیر سمت راست، نشان دهنده b در Ax = b .

    lower

    آیا matrix مثلث پایینی ( true ) یا مثلث بالایی ( false ) است. مقدار پیش فرض true است.

    adjoint

    اگر true ، به جای matrix ، با الحاق matrix حل کنید. مقدار پیش فرض false است.

    ارزش بازگشتی

    جواب x به سیستم معادلات خطی نشان داده شده با Ax = b . x همان شکل b است.

  • ضرر L1 را بین expected و predicted محاسبه می کند. loss = reduction(abs(expected - predicted))

    اعلامیه

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func l1Loss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _sum
    ) -> Tensor<Scalar>

    پارامترها

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.

    reduction

    کاهش برای اعمال بر روی مقادیر از دست دادن عناصر محاسبه شده.

  • تلفات L2 بین expected و predicted را محاسبه می کند. loss = reduction(square(expected - predicted))

    اعلامیه

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func l2Loss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _sum
    ) -> Tensor<Scalar>

    پارامترها

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.

    reduction

    کاهش برای اعمال بر روی مقادیر از دست دادن عناصر محاسبه شده.

  • میانگین تفاوت مطلق بین برچسب ها و پیش بینی ها را محاسبه می کند. loss = mean(abs(expected - predicted))

    اعلامیه

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func meanAbsoluteError<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    پارامترها

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.

  • میانگین مربعات خطاهای بین برچسب ها و پیش بینی ها را محاسبه می کند. loss = mean(square(expected - predicted))

    اعلامیه

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func meanSquaredError<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    پارامترها

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.

  • میانگین مربعات خطای لگاریتمی را بین ضرر predicted و expected محاسبه می‌کند loss = square(log(expected) - log(predicted))

    توجه داشته باشید

    برای جلوگیری از رفتار لگاریتمی تعریف‌نشده، ورودی‌های تانسور منفی روی 0 گیره می‌شوند، زیرا log(_:) برای واقعی‌های منفی تعریف نشده است.

    اعلامیه

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func meanSquaredLogarithmicError<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    پارامترها

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.

  • میانگین درصد مطلق خطا بین predicted و expected را محاسبه می کند. loss = 100 * mean(abs((expected - predicted) / abs(expected)))

    اعلامیه

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func meanAbsolutePercentageError<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>
    ) -> Tensor<Scalar>

    پارامترها

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.

  • اتلاف لولا را بین predicted و expected محاسبه می کند. loss = reduction(max(0, 1 - predicted * expected)) انتظار می رود مقادیر expected 1- یا 1 باشد.

    اعلامیه

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func hingeLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _mean
    ) -> Tensor<Scalar>

    پارامترها

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.

    reduction

    کاهش برای اعمال بر روی مقادیر از دست دادن عناصر محاسبه شده.

  • تلفات لولای مجذور بین predicted و expected را محاسبه می کند. loss = reduction(square(max(0, 1 - predicted * expected))) انتظار می رود مقادیر expected 1- یا 1 باشد.

    اعلامیه

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func squaredHingeLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _mean
    ) -> Tensor<Scalar>

    پارامترها

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.

    reduction

    کاهش برای اعمال بر روی مقادیر از دست دادن عناصر محاسبه شده.

  • تلفات لولای طبقه بندی شده بین predicted و expected را محاسبه می کند. loss = maximum(negative - positive + 1, 0) که در آن negative = max((1 - expected) * predicted) و positive = sum(predicted * expected)

    اعلامیه

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func categoricalHingeLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _mean
    ) -> Tensor<Scalar>

    پارامترها

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.

    reduction

    کاهش برای اعمال بر روی مقادیر از دست دادن عناصر محاسبه شده.

  • لگاریتم کسینوس هذلولی خطای پیش‌بینی را محاسبه می‌کند. logcosh = log((exp(x) + exp(-x))/2) ، که در آن x خطای predicted - expected است

    اعلامیه

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func logCoshLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _mean
    ) -> Tensor<Scalar>

    پارامترها

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.

    reduction

    کاهش برای اعمال بر روی مقادیر از دست دادن عناصر محاسبه شده.

  • تلفات پواسون را بین پیش‌بینی‌شده و مورد انتظار محاسبه می‌کند ضرر پواسون میانگین عناصر Tensor predicted - expected * log(predicted) است.

    اعلامیه

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func poissonLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _mean
    ) -> Tensor<Scalar>

    پارامترها

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.

    reduction

    کاهش برای اعمال بر روی مقادیر از دست دادن عناصر محاسبه شده.

  • تلفات واگرایی Kullback-Leibler را بین expected و predicted محاسبه می کند. loss = reduction(expected * log(expected / predicted))

    اعلامیه

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func kullbackLeiblerDivergence<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _sum
    ) -> Tensor<Scalar>

    پارامترها

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.

    reduction

    کاهش برای اعمال بر روی مقادیر از دست دادن عناصر محاسبه شده.

  • آنتروپی متقاطع softmax پراکنده (آنتروپی متقاطع طبقه ای) بین لاجیت ها و برچسب ها را محاسبه می کند. هنگامی که دو یا چند کلاس برچسب وجود دارد از این تابع تلفات متقاطع استفاده کنید. ما انتظار داریم که برچسب ها به صورت اعداد صحیح ارائه شوند. باید # classes مقدار ممیز شناور برای هر ویژگی برای logits و یک مقدار ممیز شناور برای هر ویژگی برای expected وجود داشته باشد.

    اعلامیه

    @differentiable(wrt: logits)
    public func softmaxCrossEntropy<Scalar: TensorFlowFloatingPoint>(
      logits: Tensor<Scalar>,
      labels: Tensor<Int32>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _mean
    ) -> Tensor<Scalar>

    پارامترها

    logits

    خروجی های کدگذاری شده یک گرم از یک شبکه عصبی.

    labels

    شاخص های (صفر شاخص) خروجی های صحیح.

    reduction

    کاهش برای اعمال بر روی مقادیر از دست دادن عناصر محاسبه شده.

  • آنتروپی متقاطع softmax پراکنده (آنتروپی متقاطع طبقه ای) بین لاجیت ها و برچسب ها را محاسبه می کند. هنگامی که دو یا چند کلاس برچسب وجود دارد از این تابع تلفات متقاطع استفاده کنید. ما انتظار داریم که برچسب‌ها در یک نمایش one_hot ارائه شوند. برای هر ویژگی باید # classes مقدار ممیز شناور وجود داشته باشد.

    اعلامیه

    @differentiable(wrt: logits)
    public func softmaxCrossEntropy<Scalar: TensorFlowFloatingPoint>(
      logits: Tensor<Scalar>,
      probabilities: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _mean
    ) -> Tensor<Scalar>

    پارامترها

    logits

    احتمالات لاگ بدون مقیاس از یک شبکه عصبی

    probabilities

    مقادیر احتمالی که با خروجی صحیح مطابقت دارند. هر ردیف باید یک توزیع احتمال معتبر باشد.

    reduction

    کاهش برای اعمال بر روی مقادیر از دست دادن عناصر محاسبه شده.

  • آنتروپی متقاطع سیگموئید (آنتروپی متقاطع باینری) بین لاجیت ها و برچسب ها را محاسبه می کند. از این تلفات آنتروپی متقابل زمانی استفاده کنید که فقط دو کلاس برچسب وجود دارد (فرض می شود 0 و 1 باشد). برای هر مثال، باید یک مقدار ممیز شناور در هر پیش‌بینی وجود داشته باشد.

    اعلامیه

    @differentiable(wrt: logits)
    @differentiable(wrt: (logits, labels)
    public func sigmoidCrossEntropy<Scalar: TensorFlowFloatingPoint>(
      logits: Tensor<Scalar>,
      labels: Tensor<Scalar>,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _mean
    ) -> Tensor<Scalar>

    پارامترها

    logits

    خروجی مقیاس نشده یک شبکه عصبی

    labels

    مقادیر صحیحی که با خروجی صحیح مطابقت دارند.

    reduction

    کاهش برای اعمال بر روی مقادیر از دست دادن عناصر محاسبه شده.

  • ضرر هوبر را بین predicted و expected محاسبه می‌کند.

    برای هر مقدار x در error = expected - predicted :

    اعلامیه

    @differentiable(wrt: predicted)
    @differentiable(wrt: (predicted, expected)
    public func huberLoss<Scalar: TensorFlowFloatingPoint>(
      predicted: Tensor<Scalar>,
      expected: Tensor<Scalar>,
      delta: Scalar,
      reduction: @differentiable (Tensor<Scalar>) -> Tensor<Scalar> = _sum
    ) -> Tensor<Scalar>

    پارامترها

    predicted

    خروجی های پیش بینی شده از یک شبکه عصبی

    expected

    مقادیر مورد انتظار، یعنی اهداف، که با خروجی صحیح مطابقت دارند.

    delta

    یک اسکالر ممیز شناور که نشان دهنده نقطه ای است که تابع ضرر هوبر از درجه دوم به خطی تغییر می کند.

    reduction

    کاهش برای اعمال بر روی مقادیر از دست دادن عناصر محاسبه شده.

  • مقدار مطلق عنصر تانسور مشخص شده را برمی‌گرداند.

    اعلامیه

    @differentiable
    public func abs<T>(_ x: Tensor<T>) -> Tensor<T> where T : SignedNumeric, T : TensorFlowScalar
  • لگاریتم طبیعی عنصر تانسور مشخص شده را برمی‌گرداند.

    اعلامیه

    @differentiable
    public func log<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • لگاریتم پایه دو عنصر تانسور مشخص شده را برمی‌گرداند.

    اعلامیه

    @differentiable
    public func log2<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • لگاریتم پایه-ده عنصر تانسور مشخص شده را برمی‌گرداند.

    اعلامیه

    @differentiable
    public func log10<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • لگاریتم 1 + x را بر حسب عنصر برمی‌گرداند.

    اعلامیه

    @differentiable
    public func log1p<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • log(1 - exp(x)) را با استفاده از یک رویکرد عددی پایدار برمی‌گرداند.

    توجه داشته باشید

    این رویکرد در معادله 7 نشان داده شده است: https://cran.r-project.org/web/packages/Rmpfr/vignettes/log1mexp-note.pdf .

    اعلامیه

    @differentiable
    public func log1mexp<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • سینوس عنصر تانسور مشخص شده را از نظر عاقلانه برمی گرداند.

    اعلامیه

    @differentiable
    public func sin<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • کسینوس عنصر تانسور مشخص شده را از نظر عاقلانه برمی‌گرداند.

    اعلامیه

    @differentiable
    public func cos<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • مماس عنصر تانسور مشخص شده را از نظر تانژانت برمی‌گرداند.

    اعلامیه

    @differentiable
    public func tan<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • سینوس هذلولی عنصر تانسور مشخص شده را برمی‌گرداند.

    اعلامیه

    @differentiable
    public func sinh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • کسینوس هذلولی عنصر تانسور مشخص شده را برمی‌گرداند.

    اعلامیه

    @differentiable
    public func cosh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • مماس هذلولی عنصر تانسور مشخص شده را برمی‌گرداند.

    اعلامیه

    @differentiable
    public func tanh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • کسینوس معکوس عنصر تانسور مشخص شده را از نظر عنصر تانسور برمی‌گرداند.

    اعلامیه

    @differentiable
    public func acos<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • سینوس معکوس عنصر تانسور مشخص شده را از نظر عاقلانه برمی گرداند.

    اعلامیه

    @differentiable
    public func asin<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • مماس معکوس عنصر تانسور مشخص شده را از نظر عنصر تانسور برمی گرداند.

    اعلامیه

    @differentiable
    public func atan<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • کسینوس هذلولی معکوس عنصر تانسور مشخص شده را برمی‌گرداند.

    اعلامیه

    @differentiable
    public func acosh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • سینوس هذلولی معکوس عنصر تانسور مشخص شده را برمی‌گرداند.

    اعلامیه

    @differentiable
    public func asinh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • مماس هذلولی معکوس عنصر تانسور مشخص شده را بر می گرداند.

    اعلامیه

    @differentiable
    public func atanh<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • جذر عنصر تانسور مشخص شده را از نظر عاقلانه برمی گرداند.

    اعلامیه

    @differentiable
    public func sqrt<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • جذر معکوس عنصر تانسور مشخص شده را از نظر معکوس برمی گرداند.

    اعلامیه

    @differentiable
    public func rsqrt<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • نمایی عنصر تانسور مشخص شده را به لحاظ نمایی برمی‌گرداند.

    اعلامیه

    @differentiable
    public func exp<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • دو عدد را به توان عنصر تانسور مشخص شده برمی‌گرداند.

    اعلامیه

    @differentiable
    public func exp2<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • ده افزایش یافته را به توان عنصر تانسور مشخص شده برمی گرداند.

    اعلامیه

    @differentiable
    public func exp10<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • نمایی x - 1 را بر حسب عنصر برمی‌گرداند.

    اعلامیه

    @differentiable
    public func expm1<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • مقادیر تانسور مشخص شده را که از نظر عنصر به نزدیکترین عدد صحیح گرد شده است، برمی گرداند.

    اعلامیه

    @differentiable
    public func round<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • سقف عنصر تانسور مشخص شده را برمی‌گرداند.

    اعلامیه

    @differentiable
    public func ceil<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • کف عنصر تانسور مشخص شده را برمی‌گرداند.

    اعلامیه

    @differentiable
    public func floor<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • نشانی از علامت عنصر تانسور مشخص شده را برمی‌گرداند. به طور خاص، y = sign(x) = -1 را محاسبه می کند اگر x < 0 ; 0 اگر x == 0 ; 1 اگر x > 0 .

    اعلامیه

    @differentiable
    public func sign<T>(_ x: Tensor<T>) -> Tensor<T> where T : Numeric, T : TensorFlowScalar
  • سیگموئید عنصر تانسور مشخص شده را از نظر عنصر برمی گرداند. به طور خاص، 1 / (1 + exp(-x)) را محاسبه می کند.

    اعلامیه

    @differentiable
    public func sigmoid<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • log-sigmoid عنصر تانسور مشخص شده را برمی‌گرداند. به طور خاص، log(1 / (1 + exp(-x))) . برای ثبات عددی، -softplus(-x) استفاده می کنیم.

    اعلامیه

    @differentiable
    public func logSigmoid<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • softplus عنصر تانسور مشخص شده را برمی‌گرداند. به طور خاص، log(exp(features) + 1) را محاسبه می کند.

    اعلامیه

    @differentiable
    public func softplus<T>(_ features: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • علامت نرم عنصر تانسور مشخص شده را برمی‌گرداند. به طور خاص، features/ (abs(features) + 1) را محاسبه می‌کند.

    اعلامیه

    @differentiable
    public func softsign<T>(_ features: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Softmax تانسور مشخص شده را در امتداد آخرین محور برمی‌گرداند. به طور خاص، exp(x) / exp(x).sum(alongAxes: -1) را محاسبه می کند.

    اعلامیه

    @differentiable
    public func softmax<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • Softmax تانسور مشخص شده را در امتداد محور مشخص شده برمی‌گرداند. به طور خاص، exp(x) / exp(x).sum(alongAxes: axis) را محاسبه می کند.

    اعلامیه

    @differentiable
    public func softmax<T>(_ x: Tensor<T>, alongAxis axis: Int) -> Tensor<T> where T : TensorFlowFloatingPoint
  • log-softmax عنصر تانسور مشخص شده را برمی‌گرداند.

    اعلامیه

    @differentiable
    public func logSoftmax<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • با اعمال یک واحد خطی نمایی، یک تانسور را برمی‌گرداند. به طور خاص، exp(x) - 1 اگر <0، x در غیر این صورت محاسبه می کند. آموزش سریع و دقیق شبکه عمیق توسط واحدهای خطی نمایی (ELU) را ببینید

    اعلامیه

    @differentiable
    public func elu<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • فعال‌سازی‌های واحد خطی خطای گاوسی (GELU) از عنصر تانسور مشخص شده را برمی‌گرداند.

    به طور خاص، gelu xP(X <= x) را تقریب می‌کند، جایی که P(X <= x) توزیع تجمعی استاندارد گاوسی است، با محاسبه: x * [0.5 * (1 + tanh[√(2/π) * (x + 0.044715 * x^3)])].

    واحدهای خطی خطای گاوسی را ببینید.

    اعلامیه

    @differentiable
    public func gelu<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • با اعمال تابع فعال سازی ReLU به عنصر تانسور مشخص شده، یک تانسور را برمی گرداند. به طور خاص، max(0, x) را محاسبه می کند.

    اعلامیه

    @differentiable
    public func relu<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • یک تانسور را با اعمال تابع فعال‌سازی ReLU6، یعنی min(max(0, x), 6) برمی‌گرداند.

    اعلامیه

    @differentiable
    public func relu6<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • با اعمال تابع فعال‌سازی ReLU به عنصر تانسور مشخص شده، یک تانسور را برمی‌گرداند. به طور خاص، max(x, x * alpha) را محاسبه می کند.

    اعلامیه

    @differentiable(wrt: x)
    public func leakyRelu<T: TensorFlowFloatingPoint>(
      _ x: Tensor<T>,
      alpha: Double = 0.2
    ) -> Tensor<T>
  • یک تانسور را با اعمال تابع فعال‌سازی SeLU، یعنی scale * alpha * (exp(x) - 1) در صورت x < 0 ، و scale * x در غیر این صورت، برمی‌گرداند.

    توجه داشته باشید

    این به گونه ای طراحی شده است که همراه با اولیه سازهای لایه مقیاس بندی واریانس استفاده شود. لطفاً برای اطلاعات بیشتر به شبکه‌های عصبی خود عادی‌سازی مراجعه کنید.

    اعلامیه

    @differentiable
    public func selu<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • یک تانسور را با اعمال تابع فعال‌سازی swish، یعنی x * sigmoid(x) برمی‌گرداند.

    منبع: «جستجوی توابع فعالسازی» (Ramachandran et al. 2017) https://arxiv.org/abs/1710.05941

    اعلامیه

    @differentiable
    public func swish<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • یک تانسور را با اعمال تابع فعال‌سازی سیگموئید سخت، یعنی Relu6(x+3)/6 برمی‌گرداند.

    منبع: «جستجو برای MobileNetV3» (Howard et al. 2019) https://arxiv.org/abs/1905.02244

    اعلامیه

    @differentiable
    public func hardSigmoid<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • یک تانسور را با اعمال تابع فعال‌سازی حرکت سخت، یعنی x * Relu6(x+3)/6 برمی‌گرداند.

    منبع: «جستجو برای MobileNetV3» (Howard et al. 2019) https://arxiv.org/abs/1905.02244

    اعلامیه

    @differentiable
    public func hardSwish<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • یک تانسور را با اعمال تابع فعال‌سازی mish، یعنی x * tanh(softplus(x)) برمی‌گرداند.

    منبع: “Mish: A Self Regulularized Non-Monotonic Neural Activation Function” https://arxiv.org/abs/1908.08681

    اعلامیه

    @differentiable
    public func mish<T>(_ x: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • توان تانسور اول را به تانسور دوم برمی گرداند.

    اعلامیه

    @differentiable
    public func pow<T>(_ lhs: Tensor<T>, _ rhs: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • قدرت اسکالر را به تانسور برمی‌گرداند و اسکالر را پخش می‌کند.

    اعلامیه

    @differentiable(wrt: rhs)
    public func pow<T>(_ lhs: T, _ rhs: Tensor<T>) -> Tensor<T> where T : TensorFlowFloatingPoint
  • قدرت تانسور را به اسکالر برمی گرداند و اسکالر را پخش می کند.

    اعلامیه

    @differentiable(wrt: lhs)
    public func pow<T>(_ lhs: Tensor<T>, _ rhs: T) -> Tensor<T> where T : TensorFlowFloatingPoint
  • قدرت تانسور را به اسکالر برمی گرداند و اسکالر را پخش می کند.

    اعلامیه

    @differentiable
    public func pow<T>(_ x: Tensor<T>, _ n: Int) -> Tensor<T> where T : TensorFlowFloatingPoint
  • ریشه n ام تانسور از نظر عنصر را برمی گرداند.

    اعلامیه

    @differentiable
    public func root<T>(_ x: Tensor<T>, _ n: Int) -> Tensor<T> where T : TensorFlowFloatingPoint
  • اختلاف مجذور x و y را برمی‌گرداند.

    اعلامیه

    @differentiable
    public func squaredDifference<T>(_ x: Tensor<T>, _ y: Tensor<T>) -> Tensor<T> where T : Numeric, T : TensorFlowScalar

    ارزش بازگشتی

    (x - y) ^ 2 .

  • حداکثر دو تانسور را از نظر عنصر برمی‌گرداند.

    توجه داشته باشید

    max از پخش پشتیبانی می کند.

    اعلامیه

    @differentiable
    public func max<T>(_ lhs: Tensor<T>, _ rhs: Tensor<T>) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
  • حداکثر عنصر اسکالر و تانسور را برمی‌گرداند و اسکالر را پخش می‌کند.

    اعلامیه

    @differentiable(wrt: rhs)
    public func max<T>(_ lhs: T, _ rhs: Tensor<T>) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
  • حداکثر عنصر اسکالر و تانسور را برمی‌گرداند و اسکالر را پخش می‌کند.

    اعلامیه

    @differentiable(wrt: lhs)
    public func max<T>(_ lhs: Tensor<T>, _ rhs: T) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
  • حداقل دو تانسور را از نظر عنصر برمی‌گرداند.

    توجه داشته باشید

    min از پخش پشتیبانی می کند.

    اعلامیه

    @differentiable
    public func min<T>(_ lhs: Tensor<T>, _ rhs: Tensor<T>) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
  • حداقل عنصر اسکالر و تانسور را برمی‌گرداند و اسکالر را پخش می‌کند.

    اعلامیه

    @differentiable(wrt: rhs)
    public func min<T>(_ lhs: T, _ rhs: Tensor<T>) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
  • حداقل عنصر اسکالر و تانسور را برمی‌گرداند و اسکالر را پخش می‌کند.

    اعلامیه

    @differentiable(wrt: lhs)
    public func min<T>(_ lhs: Tensor<T>, _ rhs: T) -> Tensor<T> where T : Comparable, T : Numeric, T : TensorFlowScalar
  • شباهت کسینوس بین x و y را برمی‌گرداند.

    اعلامیه

    @differentiable
    public func cosineSimilarity<Scalar: TensorFlowFloatingPoint>(
      _ x: Tensor<Scalar>,
      _ y: Tensor<Scalar>
    ) -> Tensor<Scalar>
  • فاصله کسینوس بین x و y را برمی‌گرداند. فاصله کسینوس به صورت 1 - cosineSimilarity(x, y) تعریف می شود.

    اعلامیه

    @differentiable
    public func cosineDistance<Scalar: TensorFlowFloatingPoint>(
      _ x: Tensor<Scalar>,
      _ y: Tensor<Scalar>
    ) -> Tensor<Scalar>
  • ضرب ماتریس را با یک تانسور دیگر انجام می دهد و نتیجه را ایجاد می کند.

    اعلامیه

    @differentiable
    public func matmul<Scalar: Numeric>(
      _ lhs: Tensor<Scalar>,
      transposed transposeLhs: Bool = false,
      _ rhs: Tensor<Scalar>,
      transposed transposeRhs: Bool = false
    ) -> Tensor<Scalar>
  • یک پیچیدگی 1 بعدی را با ورودی، فیلتر، گام و بالشتک مشخص شده برمی‌گرداند.

    پیش شرط

    input باید دارای رتبه 3 باشد.

    پیش شرط

    filter باید دارای رتبه 3 باشد.

    اعلامیه

    @differentiable(wrt: (input, filter)
    public func conv1D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filter: Tensor<Scalar>,
      stride: Int = 1,
      padding: Padding = .valid,
      dilation: Int = 1
    ) -> Tensor<Scalar>

    پارامترها

    input

    ورودی.

    filter

    فیلتر پیچیدگی

    stride

    گام فیلتر کشویی.

    padding

    بالشتک برای عملیات.

    dilation

    عامل اتساع

  • یک پیچیدگی دوبعدی با ورودی، فیلتر، گام‌ها و بالشتک مشخص شده را برمی‌گرداند.

    پیش شرط

    input باید دارای رتبه 4 باشد.

    پیش شرط

    filter باید دارای رتبه 4 باشد.

    اعلامیه

    @differentiable(wrt: (input, filter)
    public func conv2D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filter: Tensor<Scalar>,
      strides: (Int, Int, Int, Int) = (1, 1, 1, 1),
      padding: Padding = .valid,
      dilations: (Int, Int, Int, Int) = (1, 1, 1, 1)
    ) -> Tensor<Scalar>

    پارامترها

    input

    ورودی

    filter

    فیلتر پیچیدگی

    strides

    گام های فیلتر کشویی برای هر بعد ورودی.

    padding

    بالشتک برای عملیات

    dilations

    ضریب اتساع برای هر بعد ورودی.

  • یک کانولوشن انتقالی دوبعدی را با ورودی، فیلتر، گام‌ها و بالشتک مشخص شده برمی‌گرداند.

    پیش شرط

    input باید دارای رتبه 4 باشد.

    پیش شرط

    filter باید دارای رتبه 4 باشد.

    اعلامیه

    @differentiable(wrt: (input, filter)
    public func transposedConv2D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      shape: [Int64],
      filter: Tensor<Scalar>,
      strides: (Int, Int, Int, Int) = (1, 1, 1, 1),
      padding: Padding = .valid,
      dilations: (Int, Int, Int, Int) = (1, 1, 1, 1)
    ) -> Tensor<Scalar>

    پارامترها

    input

    ورودی.

    shape

    شکل خروجی عملیات deconvolution.

    filter

    فیلتر پیچیدگی

    strides

    گام های فیلتر کشویی برای هر بعد ورودی.

    padding

    بالشتک برای عملیات

    dilations

    ضریب اتساع برای هر بعد ورودی.

  • یک پیچیدگی سه بعدی با ورودی، فیلتر، گام‌ها، لایه‌بندی و اتساع مشخص شده را برمی‌گرداند.

    پیش شرط

    input باید دارای رتبه 5 باشد.

    پیش شرط

    filter باید دارای رتبه 5 باشد.

    اعلامیه

    @differentiable(wrt: (input, filter)
    public func conv3D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filter: Tensor<Scalar>,
      strides: (Int, Int, Int, Int, Int) = (1, 1, 1, 1, 1),
      padding: Padding = .valid,
      dilations: (Int, Int, Int, Int, Int) = (1, 1, 1, 1, 1)
    ) -> Tensor<Scalar>

    پارامترها

    input

    ورودی.

    filter

    فیلتر پیچیدگی

    strides

    گام های فیلتر کشویی برای هر بعد ورودی.

    padding

    بالشتک برای عملیات.

    dilations

    ضریب اتساع برای هر بعد ورودی.

  • یک پیچیدگی عمقی دوبعدی را با ورودی، فیلتر، گام‌ها و بالشتک مشخص شده برمی‌گرداند.

    پیش شرط

    input باید دارای رتبه 4 باشد.

    پیش شرط

    filter باید دارای رتبه 4 باشد.

    اعلامیه

    @differentiable(wrt: (input, filter)
    public func depthwiseConv2D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filter: Tensor<Scalar>,
      strides: (Int, Int, Int, Int),
      padding: Padding
    ) -> Tensor<Scalar>

    پارامترها

    input

    ورودی.

    filter

    فیلتر پیچیدگی عمقی.

    strides

    گام های فیلتر کشویی برای هر بعد ورودی.

    padding

    بالشتک برای عملیات.

  • یک ادغام حداکثر دو بعدی را با اندازه‌های فیلتر، گام‌ها و لایه‌های مشخص شده برمی‌گرداند.

    اعلامیه

    @differentiable(wrt: input)
    public func maxPool2D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filterSize: (Int, Int, Int, Int),
      strides: (Int, Int, Int, Int),
      padding: Padding
    ) -> Tensor<Scalar>

    پارامترها

    input

    ورودی.

    filterSize

    ابعاد هسته ترکیبی.

    strides

    گام های فیلتر کشویی برای هر بعد ورودی.

    padding

    بالشتک برای عملیات.

  • یک ادغام حداکثر سه بعدی را با اندازه فیلتر، گام‌ها و لایه‌بندی مشخص شده برمی‌گرداند.

    اعلامیه

    @differentiable(wrt: input)
    public func maxPool3D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filterSize: (Int, Int, Int, Int, Int),
      strides: (Int, Int, Int, Int, Int),
      padding: Padding
    ) -> Tensor<Scalar>

    پارامترها

    input

    ورودی.

    filterSize

    ابعاد هسته ترکیبی.

    strides

    گام های فیلتر کشویی برای هر بعد ورودی.

    padding

    بالشتک برای عملیات.

  • یک ادغام متوسط ​​دوبعدی، با اندازه‌های فیلتر، گام‌ها و لایه‌بندی مشخص شده را برمی‌گرداند.

    اعلامیه

    @differentiable(wrt: input)
    public func avgPool2D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filterSize: (Int, Int, Int, Int),
      strides: (Int, Int, Int, Int),
      padding: Padding
    ) -> Tensor<Scalar>

    پارامترها

    input

    ورودی.

    filterSize

    ابعاد هسته ترکیبی.

    strides

    گام های فیلتر کشویی برای هر بعد ورودی.

    padding

    بالشتک برای عملیات.

  • یک ادغام متوسط ​​سه بعدی را با اندازه فیلتر، گام‌ها و لایه‌بندی مشخص شده برمی‌گرداند.

    اعلامیه

    @differentiable(wrt: input)
    public func avgPool3D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      filterSize: (Int, Int, Int, Int, Int),
      strides: (Int, Int, Int, Int, Int),
      padding: Padding
    ) -> Tensor<Scalar>

    پارامترها

    input

    ورودی.

    filterSize

    ابعاد هسته ترکیبی.

    strides

    گام های فیلتر کشویی برای هر بعد ورودی.

    padding

    بالشتک برای عملیات.

  • یک ادغام حداکثر کسری 2 بعدی را با نسبت های ادغام مشخص شده برمی گرداند.

    توجه: fractionalMaxPool اجرای XLA ندارد و بنابراین ممکن است پیامدهای عملکردی داشته باشد.

    اعلامیه

    @differentiable(wrt: input)
    public func fractionalMaxPool2D<Scalar: TensorFlowFloatingPoint>(
      _ input: Tensor<Scalar>,
      poolingRatio: (Double, Double, Double, Double),
      pseudoRandom: Bool = false,
      overlapping: Bool = false,
      deterministic: Bool = false,
      seed: Int64 = 0,
      seed2: Int64 = 0
    ) -> Tensor<Scalar>

    پارامترها

    input

    یک تانسور. 4-بعدی با شکل [batch, height, width, channels] .

    poolingRatio

    لیست Doubles نسبت ادغام برای هر بعد input ، در حال حاضر فقط از بعد ردیف و ستون پشتیبانی می کند و باید >= 1.0 باشد.

    pseudoRandom

    یک Bool اختیاری پیش فرض ها به false . وقتی روی true تنظیم شود، دنباله ادغام را به صورت شبه تصادفی تولید می کند، در غیر این صورت، به صورت تصادفی.

    overlapping

    یک Bool اختیاری پیش فرض ها به false . وقتی روی true تنظیم شود، به این معنی است که هنگام ادغام، مقادیر در مرز سلول های ادغام مجاور توسط هر دو سلول استفاده می شود.

    deterministic

    یک Bool اختیاری هنگامی که روی true تنظیم می شود، هنگام تکرار بر روی یک گره fractionalMaxPool2D در نمودار محاسباتی، از یک منطقه تجمیع ثابت استفاده می شود.

    seed

    یک Int64 اختیاری. پیش‌فرض 0 است. اگر روی غیر صفر تنظیم شود، مولد اعداد تصادفی توسط دانه داده شده دانه بندی می شود.

    seed2

    یک Int64 اختیاری. پیش‌فرض 0 است. دانه دوم برای جلوگیری از برخورد دانه.

  • یک کپی از input را برمی‌گرداند که در آن مقادیر از بعد عمق در بلوک‌های فضایی به ابعاد ارتفاع و عرض منتقل می‌شوند.

    به عنوان مثال، با توجه به ورودی شکل [1, 2, 2, 1] ، data_format = "NHWC" و block_size = 2:

    x = [[[[1], [2]],
          [[3], [4]]]]
    

    این عملیات یک تانسور شکل [1, 1, 1, 4] را تولید می کند:

    [[[[1, 2, 3, 4]]]]
    

    در اینجا، ورودی دارای یک دسته 1 است و هر عنصر دسته ای شکل [2, 2, 1] دارد، خروجی مربوطه دارای یک عنصر خواهد بود (یعنی عرض و ارتفاع هر دو 1 هستند) و دارای عمق 4 کانال (1) * block_size * block_size). شکل عنصر خروجی [1, 1, 4] است.

    برای یک تانسور ورودی با عمق بیشتر، در اینجا شکل [1, 2, 2, 3] ، به عنوان مثال

    x = [[[[1, 2, 3], [4, 5, 6]],
          [[7, 8, 9], [10, 11, 12]]]]
    

    این عملیات، برای block_size 2، تانسور شکل زیر را برمی گرداند [1, 1, 1, 12]

    [[[[1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12]]]]
    

    به طور مشابه، برای ورودی شکل زیر [1 4 4 1] و اندازه بلوک 2:

    x = [[[[1],   [2],  [5],  [6]],
          [[3],   [4],  [7],  [8]],
          [[9],  [10], [13],  [14]],
          [[11], [12], [15],  [16]]]]
    

    عملگر تانسور شکل زیر را برمی گرداند [1 2 2 4] :

    x = [[[[1, 2, 3, 4],
           [5, 6, 7, 8]],
          [[9, 10, 11, 12],
           [13, 14, 15, 16]]]]
    

    پیش شرط

    input.rank == 4 && b >= 2 .

    پیش شرط

    تعداد ویژگی ها باید بر مجذور b بخش پذیر باشد.

    اعلامیه

    @differentiable(wrt: input)
    public func depthToSpace<Scalar>(_ input: Tensor<Scalar>, blockSize b: Int) -> Tensor<Scalar> where Scalar : TensorFlowScalar
  • یک کپی از input را برمی‌گرداند که در آن مقادیر از ابعاد ارتفاع و عرض به بعد عمق منتقل می‌شوند.

    به عنوان مثال، با توجه به ورودی شکل [1, 2, 2, 1] ، data_format = "NHWC" و block_size = 2:

    x = [[[[1], [2]],
          [[3], [4]]]]
    

    این عملیات یک تانسور شکل [1, 1, 1, 4] را تولید می کند:

    [[[[1, 2, 3, 4]]]]
    

    در اینجا، ورودی دارای یک دسته 1 است و هر عنصر دسته ای شکل [2, 2, 1] دارد، خروجی مربوطه دارای یک عنصر خواهد بود (یعنی عرض و ارتفاع هر دو 1 هستند) و دارای عمق 4 کانال (1) * block_size * block_size). شکل عنصر خروجی [1, 1, 4] است.

    برای یک تانسور ورودی با عمق بیشتر، در اینجا شکل [1, 2, 2, 3] ، به عنوان مثال

    x = [[[[1, 2, 3], [4, 5, 6]],
          [[7, 8, 9], [10, 11, 12]]]]
    

    این عملیات، برای block_size 2، تانسور شکل زیر را برمی گرداند [1, 1, 1, 12]

    [[[[1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12]]]]
    

    به طور مشابه، برای ورودی شکل زیر [1 4 4 1] و اندازه بلوک 2:

    x = [[[[1],   [2],  [5],  [6]],
          [[3],   [4],  [7],  [8]],
          [[9],  [10], [13],  [14]],
          [[11], [12], [15],  [16]]]]
    

    عملگر تانسور شکل زیر را برمی گرداند [1 2 2 4] :

    x = [[[[1, 2, 3, 4],
           [5, 6, 7, 8]],
          [[9, 10, 11, 12],
           [13, 14, 15, 16]]]]
    

    پیش شرط

    input.rank == 4 && b >= 2 .

    پیش شرط

    ارتفاع ورودی باید بر b بخش پذیر باشد.

    پیش شرط

    عرض ورودی باید توسط b قابل تقسیم باشد.

    اعلامیه

    @differentiable(wrt: input)
    public func spaceToDepth<Scalar>(_ input: Tensor<Scalar>, blockSize b: Int) -> Tensor<Scalar> where Scalar : TensorFlowScalar
  • یک بهینه ساز در هر وزن برای لارس ( https://arxiv.org/pdf/1708.03888.pdf ) ایجاد می کند.

    اعلامیه

    public func makeLARS(
      learningRate: Float = 0.01,
      momentum: Float = 0.9,
      trustCoefficient: Float = 0.001,
      nesterov: Bool = false,
      epsilon: Float = 0.0,
      weightDecay: Float = 0.0
    ) -> ParameterGroupOptimizer
  • بهینه ساز در هر وزن SGD را ایجاد می کند.

    اعلامیه

    public func makeSGD(
      learningRate: Float = 0.01,
      momentum: Float = 0,
      weightDecay: Float = 0,
      nesterov: Bool = false
    ) -> ParameterGroupOptimizer
  • با پوسیدگی وزن ، یک بهینه کننده هر وزن را برای آدم ایجاد می کند.

    مرجع: "آدم - روشی برای بهینه سازی تصادفی"

    اعلامیه

    public func makeAdam(
      learningRate: Float = 0.01,
      beta1: Float = 0.9,
      beta2: Float = 0.999,
      weightDecayRate: Float = 0.01,
      epsilon: Float = 1e-6
    ) -> ParameterGroupOptimizer
  • یک دانه تصادفی جدید برای Tensorflow تولید می کند.

    اعلامیه

    public func randomSeedForTensorFlow(using seed: TensorFlowSeed? = nil) -> TensorFlowSeed
  • دو مقدار را جمع می کند.

    اعلامیه

    @differentiable
    public func concatenate<T: Mergeable>(
      _ first: T,
      _ second: T
    ) -> T
  • دو مقدار را اضافه می کند و مبلغ آنها را تولید می کند.

    اعلامیه

    @differentiable
    public func sum<T: Mergeable>(
      _ first: T,
      _ second: T
    ) -> T
  • به طور متوسط ​​دو مقدار.

    اعلامیه

    @differentiable
    public func average<T: Mergeable>(
      _ first: T,
      _ second: T
    ) -> T
  • دو مقدار را ضرب می کند.

    اعلامیه

    @differentiable
    public func multiply<T: Mergeable>(
      _ first: T,
      _ second: T
    ) -> T
  • پشته دو مقدار.

    اعلامیه

    @differentiable
    public func stack<T: Mergeable>(
      _ first: T,
      _ second: T
    ) -> T
  • اعلامیه

    public func PrintX10Metrics()
  • خلاصه رشته ای از لیست آمار آموزش و آزمایش را ایجاد می کند.

    اعلامیه

    public func formatStatistics(_ stats: (train: HostStatistics, test: HostStatistics)) -> String
  • اعلامیه

    public func formatStatistics(train trainStats: HostStatistics, test testStats: HostStatistics)
      -> String
  • یک تابع بیش از موضوعات N را نقشه برداری می کند.

    اعلامیه

    public func runOnNThreads<R>(_ nThreads: Int, _ body: @escaping (Int) -> R) -> [R]