public class AdaMax<Model: Differentiable & KeyPathIterable>: Optimizer
where
Model.TangentVector: VectorProtocol & PointwiseMultiplicative & ElementaryFunctions
& KeyPathIterable,
Model.TangentVector.VectorSpaceScalar == Float
Оптимизатор AdaMax.
Вариант Адама, основанный на норме бесконечности.
Ссылка: Раздел 7 книги «Адам — метод стохастической оптимизации».
Декларация
public typealias Model = Model
Скорость обучения.
Декларация
public var learningRate: Float
Скорость затухания используется для оценки первого момента (среднего значения) градиентов.
Декларация
public var beta1: Float
Скорость затухания используется для оценки экспоненциально взвешенной нормы бесконечности.
Декларация
public var beta2: Float
К знаменателю добавлен небольшой скаляр для улучшения численной стабильности.
Декларация
public var epsilon: Float
Скорость обучения снижается.
Декларация
public var decay: Float
Счет шагов.
Декларация
public var step: Int
Первые мгновения весов.
Декларация
public var firstMoments: Model.TangentVector
Экспоненциально взвешенная бесконечная норма весов.
Декларация
public var infinityNorm: Model.TangentVector
Примечание. Параметры по умолчанию соответствуют параметрам, указанным в документе.
Декларация
public init( for model: __shared Model, learningRate: Float = 0.002, beta1: Float = 0.9, beta2: Float = 0.999, epsilon: Float = 1e-8, decay: Float = 0 )
Декларация
public required init(copying other: AdaMax, to device: Device)