อัปเดต '*var' ตามอัลกอริทึมของ Adam
$$\text{lr}_t := \mathrm{learning_rate} * \sqrt{1 - \beta_2^t} / (1 - \beta_1^t)$$$$m_t := \beta_1 * m_{t-1} + (1 - \beta_1) * g$$$$v_t := \beta_2 * v_{t-1} + (1 - \beta_2) * g * g$$$$\hat{v}_t := max{\hat{v}_{t-1}, v_t}$$$$\text{variable} := \text{variable} - \text{lr}_t * m_t / (\sqrt{\hat{v}_t} + \epsilon)$$
คลาสที่ซ้อนกัน
ระดับ | ResourceApplyAdamWithAmsgrad.Options | แอ็ตทริบิวต์ทางเลือกสำหรับ ResourceApplyAdamWithAmsgrad |
ค่าคงที่
สตริง | OP_NAME | ชื่อของ op นี้ ซึ่งรู้จักกันในชื่อของเอ็นจิ้นหลัก TensorFlow |
วิธีการสาธารณะ
คงที่ <T ขยาย TType > ResourceApplyAdamWithAmsgrad | สร้าง ( ขอบเขต ขอบเขต ตัวถูกดำเนินการ <?> var, ตัวถูกดำเนินการ <?> m, ตัวถูกดำเนินการ <?> v, ตัวถูกดำเนินการ <?> vhat, ตัวถูกดำเนินการ <T> beta1Power, ตัวถูกดำเนินการ <T> beta2Power, ตัวถูกดำเนินการ <T> lr, ตัวถูกดำเนินการ <T > beta1, ตัวดำเนินการ <T> beta2, ตัวดำเนินการ <T> เอปไซลอน, ตัวดำเนินการ <T> ผู้สำเร็จการศึกษา ตัวเลือก... ตัวเลือก) วิธีการจากโรงงานเพื่อสร้างคลาสที่รวมการดำเนินการ ResourceApplyAdamWithAmsgrad ใหม่ |
ResourceApplyAdamWithAmsgrad แบบคงที่ ตัวเลือก | useLocking (การใช้ล็อคแบบบูลีน) |
วิธีการสืบทอด
ค่าคงที่
สตริงสุดท้ายแบบคงที่สาธารณะ OP_NAME
ชื่อของ op นี้ ซึ่งรู้จักกันในชื่อของเอ็นจิ้นหลัก TensorFlow
วิธีการสาธารณะ
ResourceApplyAdamWithAmsgrad สาธารณะคง ที่สร้าง (ขอบเขต ขอบเขต ตัวดำเนินการ <?> var, ตัวดำเนินการ <?> m, ตัวดำเนินการ <?> v, ตัวดำเนินการ <?> vhat, ตัวดำเนินการ <T> beta1Power, ตัวดำเนินการ <T> beta2Power, ตัวดำเนินการ <T> lr, ตัวดำเนินการ <T> beta1, ตัวดำเนินการ <T> beta2, ตัวถูกดำเนินการ <T> เอปไซลอน, ตัวดำเนินการ <T> ผู้สำเร็จการศึกษา ตัวเลือก... ตัวเลือก)
วิธีการจากโรงงานเพื่อสร้างคลาสที่รวมการดำเนินการ ResourceApplyAdamWithAmsgrad ใหม่
พารามิเตอร์
ขอบเขต | ขอบเขตปัจจุบัน |
---|---|
var | ควรมาจากตัวแปร () |
ม | ควรมาจากตัวแปร () |
โวลต์ | ควรมาจากตัวแปร () |
อะไรนะ | ควรมาจากตัวแปร () |
เบต้า1พาวเวอร์ | ต้องเป็นสเกลาร์ |
beta2Power | ต้องเป็นสเกลาร์ |
ล | ปัจจัยการปรับขนาด ต้องเป็นสเกลาร์ |
เบต้า1 | ปัจจัยโมเมนตัม ต้องเป็นสเกลาร์ |
เบต้า2 | ปัจจัยโมเมนตัม ต้องเป็นสเกลาร์ |
เอปไซลอน | ระยะริดจ์ ต้องเป็นสเกลาร์ |
ผู้สำเร็จการศึกษา | การไล่ระดับสี |
ตัวเลือก | มีค่าแอตทริบิวต์ทางเลือก |
การส่งคืน
- อินสแตนซ์ใหม่ของ ResourceApplyAdamWithAmsgrad
สาธารณะ ResourceApplyAdamWithAmsgrad.Options useLocking แบบคงที่ (useLocking แบบบูลีน)
พารามิเตอร์
ใช้ล็อค | หากเป็น "จริง" การอัปเดตเทนเซอร์ var, m และ v จะได้รับการปกป้องด้วยการล็อค มิฉะนั้นพฤติกรรมจะไม่ได้กำหนดไว้ แต่อาจแสดงความขัดแย้งน้อยลง |
---|