ปฏิบัติการฝึกอบรม
สรุป
ชั้นเรียน | |
---|---|
เทนเซอร์โฟลว์ :: ops :: ApplyAdadelta | อัปเดต '*var' ตามรูปแบบ adadelta |
เทนเซอร์โฟลว์ :: ops :: ApplyAdagrad | อัปเดต '*var' ตามรูปแบบ adagrad |
เทนเซอร์โฟลว์:: ops:: ApplyAdagradDA | อัปเดต '*var' ตามรูปแบบ adagrad ที่ใกล้เคียง |
เทนเซอร์โฟลว์ :: ops :: ApplyAdam | อัปเดต '*var' ตามอัลกอริทึมของ Adam |
เทนเซอร์โฟลว์:: ops:: ApplyAddSign | อัปเดต '*var' ตามการอัปเดต AddSign |
เทนเซอร์โฟลว์ :: ops :: ApplyCenteredRMSProp | อัปเดต '*var' ตามอัลกอริทึม RMSProp ที่อยู่กึ่งกลาง |
เทนเซอร์โฟลว์ :: ops :: ApplyFtrl | อัปเดต '*var' ตามรูปแบบ Ftrl-proximal |
เทนเซอร์โฟลว์ :: ops :: ApplyFtrlV2 | อัปเดต '*var' ตามรูปแบบ Ftrl-proximal |
เทนเซอร์โฟลว์ :: ops :: ApplyGradientDescent | อัปเดต '*var' โดยลบ 'alpha' * 'delta' ออกจากมัน |
เทนเซอร์โฟลว์ :: ops :: ใช้โมเมนตัม | อัปเดต '*var' ตามรูปแบบโมเมนตัม |
เทนเซอร์โฟลว์ :: ops :: ApplyPowerSign | อัปเดต '*var' ตามการอัปเดต AddSign |
เทนเซอร์โฟลว์ :: ops :: ApplyProximalAdagrad | อัปเดต '*var' และ '*accum' ตาม FOBOS ด้วยอัตราการเรียนรู้ของ Adagrad |
เทนเซอร์โฟลว์ :: ops :: ApplyProximalGradientDescent | อัปเดต '*var' เป็นอัลกอริทึม FOBOS ด้วยอัตราการเรียนรู้คงที่ |
เทนเซอร์โฟลว์ :: ops :: ApplyRMSProp | อัปเดต '*var' ตามอัลกอริทึม RMSProp |
เทนเซอร์โฟลว์ :: ops :: ResourceApplyAdadelta | อัปเดต '*var' ตามรูปแบบ adadelta |
เทนเซอร์โฟลว์ :: ops :: ResourceApplyAdagrad | อัปเดต '*var' ตามรูปแบบ adagrad |
เทนเซอร์โฟลว์ :: ops :: ResourceApplyAdagradDA | อัปเดต '*var' ตามรูปแบบ adagrad ที่ใกล้เคียง |
เทนเซอร์โฟลว์ :: ops :: ResourceApplyAdam | อัปเดต '*var' ตามอัลกอริทึมของ Adam |
เทนเซอร์โฟลว์ :: ops :: ResourceApplyAdamWithAmsgrad | อัปเดต '*var' ตามอัลกอริทึมของ Adam |
เทนเซอร์โฟลว์ :: ops :: ResourceApplyAddSign | อัปเดต '*var' ตามการอัปเดต AddSign |
เทนเซอร์โฟลว์ :: ops :: ResourceApplyCenteredRMSProp | อัปเดต '*var' ตามอัลกอริทึม RMSProp ที่อยู่กึ่งกลาง |
เทนเซอร์โฟลว์ :: ops :: ResourceApplyFtrl | อัปเดต '*var' ตามรูปแบบ Ftrl-proximal |
เทนเซอร์โฟลว์ :: ops :: ResourceApplyFtrlV2 | อัปเดต '*var' ตามรูปแบบ Ftrl-proximal |
เทนเซอร์โฟลว์ :: ops :: ResourceApplyGradientDescent | อัปเดต '*var' โดยลบ 'alpha' * 'delta' ออกจากมัน |
เทนเซอร์โฟลว์ :: ops :: ResourceApplyKerasMomentum | อัปเดต '*var' ตามรูปแบบโมเมนตัม |
เทนเซอร์โฟลว์ :: ops :: ResourceApplyMomentum | อัปเดต '*var' ตามรูปแบบโมเมนตัม |
เทนเซอร์โฟลว์ :: ops :: ResourceApplyPowerSign | อัปเดต '*var' ตามการอัปเดต AddSign |
เทนเซอร์โฟลว์ :: ops :: ResourceApplyProximalAdagrad | อัปเดต '*var' และ '*accum' ตาม FOBOS ด้วยอัตราการเรียนรู้ของ Adagrad |
เทนเซอร์โฟลว์ :: ops :: ResourceApplyProximalGradientDescent | อัปเดต '*var' เป็นอัลกอริทึม FOBOS ด้วยอัตราการเรียนรู้คงที่ |
เทนเซอร์โฟลว์ :: ops :: ResourceApplyRMSProp | อัปเดต '*var' ตามอัลกอริทึม RMSProp |
เทนเซอร์โฟลว์ :: ops :: ResourceSparseApplyAdadelta | var: ควรมาจากตัวแปร () |
เทนเซอร์โฟลว์ :: ops :: ResourceSparseApplyAdagrad | อัปเดตรายการที่เกี่ยวข้องใน '*var' และ '*accum' ตามรูปแบบ adagrad |
เทนเซอร์โฟลว์ :: ops :: ResourceSparseApplyAdagradDA | อัปเดตรายการใน '*var' และ '*accum' ตามรูปแบบ adagrad ที่ใกล้เคียง |
เทนเซอร์โฟลว์ :: ops :: ResourceSparseApplyCenteredRMSProp | อัปเดต '*var' ตามอัลกอริทึม RMSProp ที่อยู่กึ่งกลาง |
เทนเซอร์โฟลว์ :: ops :: ResourceSparseApplyFtrl | อัปเดตรายการที่เกี่ยวข้องใน '*var' ตามรูปแบบ Ftrl-proximal |
เทนเซอร์โฟลว์:: ops:: ResourceSparseApplyFtrlV2 | อัปเดตรายการที่เกี่ยวข้องใน '*var' ตามรูปแบบ Ftrl-proximal |
เทนเซอร์โฟลว์ :: ops :: ResourceSparseApplyKerasMomentum | อัปเดตรายการที่เกี่ยวข้องใน '*var' และ '*accum' ตามรูปแบบโมเมนตัม |
เทนเซอร์โฟลว์ :: ops :: ResourceSparseApplyMomentum | อัปเดตรายการที่เกี่ยวข้องใน '*var' และ '*accum' ตามรูปแบบโมเมนตัม |
เทนเซอร์โฟลว์ :: ops :: ResourceSparseApplyProximalAdagrad | รายการอัปเดตแบบกระจัดกระจายใน '*var' และ '*accum' ตามอัลกอริทึม FOBOS |
เทนเซอร์โฟลว์ :: ops :: ResourceSparseApplyProximalGradientDescent | การอัปเดตแบบกระจัดกระจาย '*var' เป็นอัลกอริทึม FOBOS พร้อมอัตราการเรียนรู้คงที่ |
เทนเซอร์โฟลว์ :: ops :: ResourceSparseApplyRMSProp | อัปเดต '*var' ตามอัลกอริทึม RMSProp |
เทนเซอร์โฟลว์ :: ops :: SparseApplyAdadelta | var: ควรมาจากตัวแปร () |
เทนเซอร์โฟลว์ :: ops :: SparseApplyAdagrad | อัปเดตรายการที่เกี่ยวข้องใน '*var' และ '*accum' ตามรูปแบบ adagrad |
เทนเซอร์โฟลว์:: ops:: SparseApplyAdagradDA | อัปเดตรายการใน '*var' และ '*accum' ตามรูปแบบ adagrad ที่ใกล้เคียง |
เทนเซอร์โฟลว์ :: ops :: SparseApplyCenteredRMSProp | อัปเดต '*var' ตามอัลกอริทึม RMSProp ที่อยู่กึ่งกลาง |
เทนเซอร์โฟลว์ :: ops :: SparseApplyFtrl | อัปเดตรายการที่เกี่ยวข้องใน '*var' ตามรูปแบบ Ftrl-proximal |
เทนเซอร์โฟลว์:: ops:: SparseApplyFtrlV2 | อัปเดตรายการที่เกี่ยวข้องใน '*var' ตามรูปแบบ Ftrl-proximal |
เทนเซอร์โฟลว์ :: ops :: SparseApplyMomentum | อัปเดตรายการที่เกี่ยวข้องใน '*var' และ '*accum' ตามรูปแบบโมเมนตัม |
เทนเซอร์โฟลว์:: ops:: SparseApplyProximalAdagrad | รายการอัปเดตแบบกระจัดกระจายใน '*var' และ '*accum' ตามอัลกอริทึม FOBOS |
เทนเซอร์โฟลว์ :: ops :: SparseApplyProximalGradientDescent | การอัปเดตแบบกระจัดกระจาย '*var' เป็นอัลกอริทึม FOBOS พร้อมอัตราการเรียนรู้คงที่ |
เทนเซอร์โฟลว์ :: ops :: SparseApplyRMSProp | อัปเดต '*var' ตามอัลกอริทึม RMSProp |