@frozen
public struct BatchNorm<Scalar> : Layer where Scalar : TensorFlowFloatingPoint
یک لایه عادی سازی دسته ای
فعال سازی لایه قبلی را در هر دسته عادی می کند، یعنی تبدیلی را اعمال می کند که میانگین فعال سازی را نزدیک به 0
و انحراف استاندارد فعال سازی را نزدیک به 1
حفظ می کند.
مرجع: عادی سازی دسته ای: تسریع آموزش شبکه عمیق با کاهش تغییر متغیر داخلی .
بعد ویژگی
اعلامیه
@noDerivative public let axis: Int
حرکت برای میانگین دویدن و واریانس در حال اجرا.
اعلامیه
@noDerivative public let momentum: Scalar
مقدار افست که به عنوان بتا نیز شناخته می شود.
اعلامیه
public var offset: Tensor<Scalar>
مقدار مقیاس که به عنوان گاما نیز شناخته می شود.
اعلامیه
public var scale: Tensor<Scalar>
مقدار اپسیلون واریانس
اعلامیه
@noDerivative public let epsilon: Scalar
معنی دویدن
اعلامیه
@noDerivative public var runningMean: Parameter<Scalar>
واریانس دویدن
اعلامیه
@noDerivative public var runningVariance: Parameter<Scalar>
یک لایه عادی سازی دسته ای ایجاد می کند.
اعلامیه
پارامترها
axis
محوری که نباید نرمال شود (معمولاً محور ویژگی).
momentum
حرکت برای میانگین متحرک.
offset
افست باید به تانسور نرمال شده اضافه شود.
scale
مقیاس ضرب تانسور نرمال شده در.
epsilon
یک اسکالر کوچک برای بهبود ثبات عددی به مخرج اضافه شده است.
runningMean
معنی دویدن
runningVariance
واریانس دویدن
یک لایه عادی سازی دسته ای ایجاد می کند.
اعلامیه
public init( featureCount: Int, axis: Int = -1, momentum: Scalar = 0.99, epsilon: Scalar = 0.001 )
پارامترها
featureCount
تعداد ویژگی ها
axis
محوری که باید نرمال شود (معمولاً محور ویژگی ها).
momentum
حرکت برای میانگین متحرک.
epsilon
یک اسکالر کوچک برای بهبود ثبات عددی به مخرج اضافه شده است.