AlphaDropout

@frozen
public struct AlphaDropout<Scalar> : ParameterlessLayer where Scalar : TensorFlowFloatingPoint

یک لایه ترک آلفا.

Alpha Dropout یک Dropout است که میانگین و واریانس ورودی‌ها را به مقادیر اصلی خود نگه می‌دارد تا از ویژگی خود-نرمال‌سازی حتی پس از این انصراف اطمینان حاصل کند. Alpha Dropout با تنظیم تصادفی فعال‌سازی‌ها روی مقدار اشباع منفی، به‌خوبی با واحدهای خطی نمایی مقیاس‌شده مطابقت دارد.

منبع : شبکه های عصبی خود عادی سازی: https://arxiv.org/abs/1706.02515

  • اعلامیه

    public typealias TangentVector = EmptyTangentVector
  • اعلامیه

    @noDerivative
    public let probability: Double
  • یک لایه AlphaDropout را با probability قابل تنظیم راه اندازی می کند.

    پیش شرط

    احتمال باید مقداری بین 0 و 1 (شامل) باشد.

    اعلامیه

    public init(probability: Double)

    پارامترها

    probability

    احتمال ریزش یک گره

  • در حین تمرین نویز را به input اضافه می کند و در حین استنتاج بدون عملیات است.

    اعلامیه

    @differentiable
    public func forward(_ input: Tensor<Scalar>) -> Tensor<Scalar>